A tecnologia de inteligência artificial generativa é uma ferramenta que tem sido utilizada em diversas áreas, ajudando nos serviços e no dia-a-dia das pessoas a desempenhar tarefas. Mas há o lado negativo da IA, como a criação de deepfakes utilizadas em fraudes e esquemas que enganam os mais desprevenidos. E a Microsoft continua empenhada a combater este novo flagelo tecnológico, pedindo ajuda ao governo para criar legislação mais firme.
Numa mensagem no blog da Microsoft, o presidente Brad Smith realça que os deepfakes gerados por IA são realísticos e fácil para qualquer um criar, sendo cada vez mais utilizados em fraudes, abuso e manipulação, tendo sobretudo como alvo os mais idosos e crianças. “Enquanto o sector tecnológico e grupos sem fins lucrativos têm dado passos para resolver este problema, tornou-se aparente que as nossas leis também precisam de evoluir para combater as fraudes de deepfakes”, salientou no texto. Para Brad Smith, é necessário criar leis que ajudem a parar os mal-intencionados de utilizarem a tecnologia para enganar os sérios ou abusarem das crianças.
Para a Microsoft, o foco que se tem colocado no combate às deepfakes que interferem as eleições necessitam ser também alocados a outros tipos de crime. O assunto tem sido discutido no Congresso e têm sido apresentadas propostas leis para travar o flagelo, ao mesmo tempo que a indústria tem unido forças para construir fundações sólidas em áreas adjacentes que podem ser aplicadas neste tema. Mas é preciso dar os passos concretos para materializar as leis.
Brad Smith propõe a criação de um estatuto compreensivo de fraude por deepfake para travar os cibercriminosos de utilizar a tecnologia para roubar as pessoas. Apesar de afirmar que não tem todas as soluções perfeitas, a Microsoft pretende contribuir para acelerar a ação e partilhou um relatório de 42 páginas para ajudar a compreender o desafio, com ideias e sugestões de políticas a tomar.
As propostas da Microsoft para combater conteúdos abusivos gerados por IA
O tema das deepfakes tem sido uma das preocupações da Microsoft há algum tempo, sobretudo por ser um dos principais players da indústria, com o Copilot a chegar a cada vez mais computadores portáteis. A empresa apresentou seis pilares que devem ser o foco para proteção das pessoas contra a IA.
Em primeiro lugar deve haver uma arquitetura forte e segura que sustenta a tecnologia. O segundo ponto diz respeito à proveniência dos conteúdos e utilização de marcas de água. Segue-se a necessidade de salvaguardar os serviços de conteúdos abusivos e má conduta. O quarto ponto foca-se na necessidade de uma colaboração robusta entre a indústria, governos e sociedade civil.
O ponto seguinte destaca a necessidade de uma legislação modernizada para proteger as pessoas do abuso da tecnologia. E por fim, são necessárias mais chamadas de atenção pública e educação.
A empresa diz que no núcleo destes seis pontos é a sua responsabilidade de ajudar a corrigir o uso abusivo da tecnologia. Do seu lado, já foram dados alguns passos, incluindo a implementação de uma arquitetura segura que inclui análise, classificadores, o bloqueio de prompts abusivas, testes automáticos e rapidez a banir utilizadores que abusam no sistema. Muitos destes sistemas foram testados para proteger as eleições, mas a Microsoft quer expandir a todas as ameaças.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários