A empresa tecnológica disse, num comunicado divulgado hoje, que "nos últimos três meses, o seu trabalho contra atores enganosos e abusivos permitiu interromper operações de influência secreta que procuravam usar modelos de IA em apoio à sua atividade através da Internet".
Estas operações incluíam campanhas ligadas a operadores na Rússia (duas redes), China, Irão e uma empresa comercial em Israel na "tentativa de manipular a opinião pública ou influenciar os resultados políticos", referiu a OpenAI.
Essas campanhas, detalhou, visavam questões como a invasão da Ucrânia pela Rússia, a intervenção militar israelita na Faixa de Gaza, as eleições na Índia, a política na Europa e nos Estados Unidos, entre outras.
As campanhas enganosas, afirma a empresa no comunicado, não conseguiram uma maior projeção ou alcance do público devido aos seus serviços.
O relatório da empresa de pesquisa e implantação de IA sediada em São Francisco mostra as preocupações de segurança sobre o uso indevido desta tecnologia, que pode produzir texto, imagens e áudio de forma rápida e fácil.
"Detetar e interromper abusos multiplataforma, como operações secretas de influência, pode ser um desafio, porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído", admite a OpenAI, garantindo estar "dedicada a encontrar e mitigar esse abuso".
Pergunta do Dia
Em destaque
-
Multimédia
Missão Ariel da ESA quer explorar 1.000 exoplanetas e Portugal ajuda com engenharia e ciência -
App do dia
Wayther: uma nova app de previsões meteorológicas detalhadas para otimizar viagens -
Site do dia
Tetr.io é uma versão competitiva de Tetris e os adversários não dão tréguas -
How to TEK
Farto de reagir no WhatsApp com emojis? Crie os seus próprios stickers
Comentários