O Google removeu silenciosamente vários "resumos" sobre saúde gerados por IA após uma investigação do jornal The Guardian ter exposto informações médicas incorretas e potencialmente perigosas fornecidas pela funcionalidade AI Overviews. A decisão marca um recuo significativo numa área onde a rival OpenAI está, pelo contrário, a apostar todas as fichas com o lançamento do ChatGPT Health.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
A investigação do jornal britânico revelou que os AI Overviews do Google apresentavam intervalos de normalidade para testes de função hepática sem considerar fatores cruciais como idade, sexo, etnia ou nacionalidade. Especialistas médicos descreveram a informação como "alarmante" e "perigosa", alertando que pacientes gravemente doentes poderiam interpretar erroneamente os seus resultados como normais e não comparecer a consultas de acompanhamento essenciais.
Vanessa Hebditch, diretora de comunicações do British Liver Trust, declarou ao The Guardian que a remoção é uma "excelente notícia", mas expressou preocupações mais amplas sobre o uso de AI Overviews para questões de saúde. "O nosso maior receio é que isto seja apenas corrigir um resultado de pesquisa específico, e o Google pode simplesmente desligar os AI Overviews para esse termo, mas não está a resolver o problema maior", afirmou.
Ou seja, o problema não foi completamente resolvido. Testes posteriores revelaram que pequenas variações nas pesquisas continuavam a gerar sumários de IA com informações potencialmente perigosas. No fundo a tecnológica apenas desativou os AI Overviews para os termos específicos sinalizados pela mesma, mas não todas as outras variantes possíveis relacionadas só com esse tema. Além dos testes hepáticos, as pesquisas Google também terão aconselhado pacientes com cancro do pâncreas a evitar alimentos ricos em gordura, uma recomendação que especialistas classificaram como inadequada, pois pode aumentar o risco de morte por desnutrição em doentes oncológicos.
Esta não é a primeira vez que os AI Overviews causam problemas, tendo a mesma sido polémica durante o seu lançamento, ao sugerir a utilizadores nos EUA para adicionar cola à pizza ou para comerem pedras. Um porta-voz do Google afirmou à TechCrunch que a empresa "não comenta remoções individuais" dentro da pesquisa, mas que trabalha para fazer "melhorias amplas" quando os AI Overviews perdem contexto, tomando também "ações sob as suas políticas quando apropriado".
De acordo com uma investigação da Stanford-Harvard, os modelos de IA líderes produzem recomendações médicas prejudiciais em até 22% dos casos, principalmente através de omissões perigosas em vez de erros diretos. Com os AI Overviews a aparecerem em até 30% das pesquisas do Google, e detendo a empresa 91% da quota de mercado de pesquisa, o impacto de informação incorreta pode ser devastador para os seus utilizadores.
Num contraste notável, enquanto a Google opta por jogar pelo seguro ao remover funcionalidades de saúde da sua plataforma, a OpenAI escolhe o caminho inverso e aposta tudo na área médica com o recente lançamento do ChatGPT Health. Trata-se de um espaço dedicado e isolado dentro da plataforma, especificamente desenhado para conversas sobre saúde e bem-estar, com capacidade de integrar registos médicos e dados de aplicações de fitness e nutrição.
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Conheça os 20 smartphones mais populares de 2025 e os que se destacam pela duração da bateria -
App do dia
diVine recupera vídeos antigos do Vine e a magia dos loops de 6 segundos -
Site do dia
Easy Tasks transforma links, vídeos e notas online em tarefas organizadas num só local -
How to TEK
Como “apagar” a memória do Copilot com os novos controlos de privacidade?
Comentários