A OpenAI emitiu um aviso sobre a rápida aceleração das capacidades cibernéticas dos seus modelos de inteligência artificial (IA), prevendo que os próximos lançamentos sejam classificados com um nível de risco "alto". A informação consta de um relatório partilhado à Axios, onde a empresa detalha como a maior autonomia dos modelos está a expandir o potencial para a realização de ciberataques.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
A principal preocupação reside na capacidade dos novos modelos operarem de forma autónoma durante períodos mais longos, o que abre portas a ataques de "força bruta" mais persistentes. Os dados internos da empresa revelam uma evolução drástica num curto espaço de tempo, recorrendo a um exercício de cibersegurança do tipo "capture-the-flag" realizado em agosto.
Nesse teste, o modelo GPT-5 obteve uma pontuação de apenas 27%, porém, em novembro, a versão mais avançada do seu modelo, o GPT-5.1-Codex-Max, alcançou uma pontuação de 76%, demonstrando um salto significativo nas competências técnicas da IA.
No sistema de classificação de segurança da OpenAI, o "Preparedness Framework", a classificação de risco "alto" é o segundo nível mais grave, situando-se apenas abaixo do nível "crítico", classificação essa que impediria o lançamento público de um modelo.
Apesar dos avisos, Fouad Matin, da OpenAI, explicou em entrevista que a natureza deste tipo de ataques, que dependem de longos períodos de execução, torna-os mais fáceis de detectar em ambientes informáticos devidamente defendidos. A empresa sublinha que a "função de força" por trás deste risco é precisamente a capacidade de o modelo trabalhar sem interrupções, mas garante que em infraestruturas protegidas estas tentativas seriam identificadas com relativa facilidade.
Para mitigar estes riscos, a OpenAI anunciou que está a reforçar a colaboração com a indústria através da criação do "Frontier Risk Council", um grupo consultivo que reunirá especialistas em ciberdefesa. Paralelamente, a empresa está a testar em privado uma nova ferramenta chamada Aardvark, que permite aos programadores utilizarem a IA para detectar falhas de segurança nos seus próprios produtos.
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Novo Toyota bZ4X: A atualização profunda que muda (quase) tudo no modelo elétrico japonês -
Site do dia
Escreva um script, escolha um avatar e o Vids faz o resto para criar um vídeo -
App do dia
Quer criar novos hábitos? Tracktastic traz mais flexibilidade para transformar rotinas em progresso -
How to TEK
Como utilizar a voz para controlar o Windows 11 e ditar texto no computador?
Comentários