Os modelos de inteligência artificial são cada vez mais eficientes e exigem cada vez menos aos seus utilizadores. Os fatores democratizam a tecnologia, mas a velocidade com que chega a mãos bem intencionadas é semelhante àquela com que é utilizada em esquemas fraudulentos.
Segundo o The Washington Post, são já milhares as vítimas de burlas que recorrem a modelos de IA especializados em imitar vozes humanas. Uma vez que algumas destas ferramentas precisam apenas de trechos muito curtos de conversa para conseguirem copiar uma voz de forma convincente e em diferente tons emocionais, torna-se simples montar um esquema de burla. A isto junta-se o facto de estes ataques estarem a ser conduzidos a um grupo da população que tem pouca aptidão para distinguir a legitimidade das interações por via eletrónica: os idosos.
Em conversa com o Post, um grupo de vítimas relata ter-se sentido aterrorizado e explica que acabou por ceder aos pedidos feitos pelos burlões após identificar vozes familiares ao telefone. Nestes casos, os perpetradores optam por replicar vozes conhecidas em tons dramáticos, como se estivessem em situações de vida ou morte.
Durante estas chamadas, a sua segurança está quase sempre dependente da transferência de grandes quantias. Um casal chegou mesmo a transferir 15 mil dólares para um atacante que se fazia passar pelo seu filho. Com a ajuda da IA, este comunicara que estava em apuros, depois de ter atropelado mortalmente um diplomata norte-americano. O dinheiro que pediu era necessário para pagar os custos legais do processo que estava a ser movido contra ele.
Uma vez que estes esquemas podem ser postos em prática desde qualquer ponto do mundo, impedi-los é, ao dia de hoje, praticamente impossível. É difícil identificar os burlões, localizá-los, reaver as quantias roubadas e até decidir que entidades têm a responsabilidade de agir. Em muitos casos, as agências competentes não estão sequer equipadas para lidar com a complexidade técnica do problema.
A Federal Trade Commission defende que a melhor proteção é a educação e sublinha a importância de se alertar para os riscos associados aos emuladores de voz de IA.
Estes modelos têm sido utilizados para melhorar as tecnologias de conversão de texto em voz, bem como a edição de diálogos gravados ou para recuperar vozes icónicas do cinema, como a de Darth Vader. Mas o poder destas ferramentas pode ser altamente nocivo.
Já no início deste ano, um grupo de utilizadores do fórum 4chan, recorreu a software semelhante para emular vozes de artistas conhecidos, fazendo com que estas versões artificiais proferissem afirmações racistas, violentas ou xenófobas.
Os tribunais ainda não determinaram se as empresas podem ser responsabilizadas pelos danos causados através da utilização fraudulenta destas tecnologias, mas situações como esta vão certamente aumentar a pressão sob as entidades reguladoras para que criem um enquadramento legal para estes produtos.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários