O autor da análise, David Rozado, investigador do Centro Politécnico de Otago (Nova Zelândia), elaborou 11 testes para avaliar a orientação política dos 24 grandes modelos linguísticos, quer de código aberto, quer de código fechado, para fornecer respostas de sistemas de IA. Entre estes estão o GPT 3.5 e o GPT-4 da OpenAI, Gemini da Google, Claude da Anthropic, Grok do Twitter, Llama 2 ou Mistral e Qwen da Alibaba.
O estudo foi publicado em fevereiro deste ano mas os resultados são agora referenciados pela revista Plos One, revelando que a maioria dos chats gerou respostas diagnosticadas pela maioria dos instrumentos como de centro-esquerda.
David Rozado já tinha partilhado algumas conclusões na rede social X
Apenas cinco modelos linguísticos fundadores, das séries GPT e Llama, tenderam a fornecer respostas na sua maioria incoerentes, embora politicamente neutras, salientou o autor.
Uma possível explicação para o enviesamento centro-esquerda é que o modelo linguístico utilizado pelo ChatGPT, que apresenta esta tendência, tenha sido utilizado, como pioneiro, para ajustar modelos linguísticos subsequentes.
O investigador explicou que a sua análise não determina se as tendências políticas dos chats se estabelecem desde uma fase inicial ou durante o refinamento do seu desenvolvimento, nem investiga se este enviesamento é deliberadamente introduzido nos modelos.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários