
Considerando que as maiores vulnerabilidades no software e plataformas não são descobertas pelas empresas ou estúdios que os desenvolvem, mas sim por investigadores de segurança independentes, a Google lançou um novo programa de caça ao bug direcionado ao campo da inteligência artificial. O programa de recompensas por vulnerabilidade foi agora ampliado para premir investigadores que descubram falhas e cenários de ataques específicos de IA generativa.
“Acreditamos que este programa vai incentivar a investigação em torno da segurança de IA, e revelar potenciais problemas que no final vai tornar a inteligência artificial mais segura para todos”, disse a Google em comunicado. A empresa pretende expandir o seu trabalho de segurança open source para facilitar a disponibilidade da informação sobre IA para ser universalmente descoberta e verificável.
Não se tratando apenas na procura por vulnerabilidades passíveis a ciberataques, como são por norma os programas de pesquisa de bugs, a nova iniciativa quer encontrar problemas que digam respeito a tendências injustas da IA, eventuais manipulações dos modelos ou interpretações inapropriadas dos dados. A Google quer que os seus novos sistemas que vão ser lançados sejam testados para serem mais seguros, antecipando potenciais riscos.
Para os investigadores interessados em participar no programa, a Google partilhou a lista de critérios e o guia de orientação, disponível a todos. E espera que os investigadores de segurança possam submeter mais bugs e acelerar o objetivo de tornar a IA mais segura.
Pergunta do Dia
Em destaque
-
Multimédia
Xiaomi "ataca" Porsche e automóveis de alta cilindrada com o elétrico SU7 Ultra abaixo dos 70 mil euros -
App do dia
Mister Antonio: Salte entre planetas e resolva desafios para agradar a um gato muito exigente -
Site do dia
Tem uma montanha de tarefas pela frente? Esta extensão ajuda a manter tudo organizado a partir do browser -
How to TEK
Aumente a privacidade e “tape os ouvidos” ao seu smartphone
Comentários