A mais recente edição do relatório “AI Safety Index” revela que até mesmo as empresas que lideram o sector da IA não têm os mecanismos de salvaguarda, de supervisão independente ou de gestão de risco a longo prazo necessários para mitigar os riscos associados aos sistemas “poderosos” que desenvolvem. 

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

Para lá das líderes, as restantes empresas que compõem o sector permanecem “muito distantes” no que respeita a questões como transparência e obrigações de gestão. Os especialistas defendem que o crescente fosso entre capacidade e segurança demonstra que o sector não está preparado para os riscos que está a criar. 

O relatório, desenvolvido pela organização Future of Life Institute (FLI) em colaboração com oito especialistas independentes na área da IA, examinou 35 indicadores em seis domínios, incluindo práticas de avaliação de risco, protocolos de partilha de informação e proteção para denunciantes (ou “whistleblowers”), além de apoio à investigação em segurança da IA.

AI Safety Index Winter 2025 Edition
AI Safety Index Winter 2025 Edition créditos: Future of Life Institute

Às empresas analisadas foi depois atribuída uma pontuação, acompanhada por uma “nota”, numa escala de A (mais alta) a F (mais baixa). A Anthropic, a OpenAI e a Google DeepMind mantêm as suas posições em relação à edição anterior, com a primeira a obter a melhor pontuação em todas as áreas avaliadas: 2,67/C+.

Por outro lado, é possível observar um fosso entre as empresas que ocupam o “pódio” e as que estão nas restantes posições. Apesar disso, os especialistas detalham que a xAI, Z.ai, Meta, DeepSeek e Alibaba Cloud mostram alguns sinais de melhoria que poderão ajudar a reduzir a distância na próxima edição do relatório.

O relatório recomenda às empresas que partilhem mais informação sobre os seis processos internos e avaliações, que recorram a especialistas independentes para ajudar a avaliar a segurança dos seus sistemas e que reforcem as medidas para prevenir fenómenos como “psicose induzida por IA” junto dos seus utilizadores.

Como avança a CNBC, Max Tegmark, presidente da Future of Life Institute, e Sabina Nong, investigadora na organização, realçam as preocupações existentes com o potencial que a tecnologia tem para causar danos catastróficos, sobretudo numa altura em que empresas como a OpenAI defendem o desenvolvimento de sistemas de IA mais inteligentes do que os humanos.

Em declarações à mesma fonte, um porta-voz da tecnológica liderada por Sam Altman afirma que a segurança é uma prioridade para a empresa, seja no desenvolvimento como na disponibilização de sistemas de IA. 

Já em à Reuters, um porta-voz da Google DeepMind indica que a empresa vai “continuar a inovar em segurança e governação” ao mesmo ritmo que as capacidades dos seus modelos avançam. Por outro lado, quando questionada pela agência noticiosa, a xAI respondeu apenas que “os meios de comunicação ‘tradicionais’ mentem”, numa mensagem que aparentava ser automática.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.