Grandes modelos de linguagem de inteligência artificial, como aqueles que estão por trás do ChatGPT ou do Gemini da Google, têm tendência para tomar más decisões se forem colocados em ambiente de jogos online de casino.
À semelhança do que fariam muitos humanos, principalmente aqueles que têm problemas de adição ao jogo, quanto mais liberdade de ação têm piores são as decisões, mais arriscadas são e muitas vezes continuam até à falência.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
As experiências que conduziram a estas conclusões foram conduzidas por investigadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul e os resultados foram publicados na plataforma arXiv. Foram testados os comportamentos de quatro modelos avançados de IA: GPT-4o-mini e GPT-4.1-mini da OpenAI; Gemini-2.5-Flash do Google e Claude-3.5-Haiku da Anthropic.
A cada um dos modelos foram dados 100 dólares para apostar em slot machines e a liberdade de escolher entre apostar ou parar em cada jogada, sabendo que a cada jogada a probabilidade de obter um retorno negativo da aposta aumentava. Em certo momento foi dada liberdade aos modelos para escolherem os valores das suas apostas e as más decisões aumentaram exponencialmente.
As conclusões mostram que, a partir do momento em que os modelos foram autorizados a alterar apostas e definir metas próprias, os comportamentos irracionais aumentaram e a falência teve lugar comum em muitas das experiências realizadas.
O Gemini-2.5-Flash, por exemplo, perdeu quase metade das vezes em que foi autorizado a escolher seus próprios valores de aposta, revela um artigo da Newsweek que resume as conclusões do estudo.
Tal como um humano numa situação de dependência do jogo, mesmo quando as estatísticas indicam um caminho, os modelos fizeram apostas noutro sentido com base em argumentos que não têm forma sólida de justificar.
As apostas dos modelos mostram ilusão de controlo da situação, apostas consideradas mais prováveis só porque determinado resultado não surgia há muito, ou porque surgia com muita frequência, ou apostas maiores após perdas ou para aproveitar “marés de sorte”.
Para aprofundar conclusões, os autores da pesquisa analisaram as ativações neurais dos modelos e identificaram circuitos distintos de tomada de decisões arriscadas e seguras. Perceberam que a ativação de recursos específicos dentro da estrutura neural da IA pode "confundir" essa divisão e criar a ilusão de que a decisão confiável é, por exemplo, continuar a apostar, quando era mais sensato desistir. Isto revela que nas máquinas, tal como nos humanos, há espaço para padrões compulsivos gerados no seu próprio processo de decisão e não por imitação.
Ethan Mollick, investigador de IA e professor da Wharton, defende que as descobertas revelam uma realidade complicada sobre como interagimos com a IA. “Estes modelos não são pessoas, mas também não se comportam como máquinas simples”, sublinhou numa entrevista à Newsweek. “Eles são psicologicamente persuasivos, têm preconceitos de decisão semelhantes aos dos humanos e comportam-se de forma estranha na tomada de decisão.”
Outras pesquisas sobre utilização de IA para fazer previsões no mercado financeiro alertam para o mesmo. Um estudo da Universidade de Edimburgo, divulgado já este ano, descobriu que os LLMs não conseguiram superar o mercado durante um período de simulação de 20 anos. Tendiam a ser muito conservadores durante os booms e muito agressivos durante as recessões, tal como um humano.
Para o especialista ouvido pela Newsweek este tipo de conclusões não precisa travar o uso da IA em áreas sensíveis como o mercado financeiro ou a saúde, mas mostra a necessidade de limites e supervisão. Ou, dito de outra forma, a necessidade de manter humanos no circuito. “Se a IA continuar a superar os humanos, teremos de fazer perguntas difíceis”, defende o responsável, com um exemplo: “quem assume a responsabilidade quando ela falha?”
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Como seria o clássico de Agatha Christie “Death on the Nile” se tivesse lugar nos anos 1970? -
App do dia
Acecraft é um shooter de aviões que presta homenagem aos desenhos animados retro -
Site do dia
Hover Zoom+ é uma extensão do Chrome que ajuda a aumentar as imagens nos websites -
How to TEK
Modo Copilot para o Edge é a reinvenção do browser da Microsoft para a era da inteligência artificial. Como é que funciona?
Comentários