Considerando que as maiores vulnerabilidades no software e plataformas não são descobertas pelas empresas ou estúdios que os desenvolvem, mas sim por investigadores de segurança independentes, a Google lançou um novo programa de caça ao bug direcionado ao campo da inteligência artificial. O programa de recompensas por vulnerabilidade foi agora ampliado para premir investigadores que descubram falhas e cenários de ataques específicos de IA generativa.
“Acreditamos que este programa vai incentivar a investigação em torno da segurança de IA, e revelar potenciais problemas que no final vai tornar a inteligência artificial mais segura para todos”, disse a Google em comunicado. A empresa pretende expandir o seu trabalho de segurança open source para facilitar a disponibilidade da informação sobre IA para ser universalmente descoberta e verificável.
Não se tratando apenas na procura por vulnerabilidades passíveis a ciberataques, como são por norma os programas de pesquisa de bugs, a nova iniciativa quer encontrar problemas que digam respeito a tendências injustas da IA, eventuais manipulações dos modelos ou interpretações inapropriadas dos dados. A Google quer que os seus novos sistemas que vão ser lançados sejam testados para serem mais seguros, antecipando potenciais riscos.
Para os investigadores interessados em participar no programa, a Google partilhou a lista de critérios e o guia de orientação, disponível a todos. E espera que os investigadores de segurança possam submeter mais bugs e acelerar o objetivo de tornar a IA mais segura.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários