Quando se fala em sistemas de inteligência artificial avançadas e o perigo que podem representar para a humanidade, a série de filmes Terminator vem sempre à mente. Apesar de se tratar de ficção científica, as empresas que trabalham em grandes modelos como o ChatGPT ou Gemini têm consciência de possíveis problemas que possam sair do controlo e sejam difíceis de mitigar.
Nesse sentido, 16 empresas assumiram compromissos voluntários para garantir um desenvolvimento seguro dos modelos avançados de IA. O pacto internacional foi estabelecido durante o AI Safety Summit, que decorreu na semana passada em Seoul, na Coreia do Sul e junta empresas como a Microsoft, Anthropic, Google, Amazon, Samsung, Meta, IBM e OpenAI.
Além das gigantes tecnológicas, outras empresas oriundas de países como os Estados Unidos, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos também assinaram os protocolos de segurança.
Entre as medidas, as fabricantes de modelos de IA concordaram em publicar os frameworks de segurança e a forma como medem os desafios ligados aos modelos, tais como a prevenção que estes sejam utilizados com más intenções, avança a CNBC. Foram estabelecidas as “linhas vermelhas” que definem o tipo de riscos associados aos sistemas de IA que sejam considerados intoleráveis, como por exemplo, o risco de ciberataques automatizados e armas biológicas.
Para responder a essas circunstâncias extremas, as empresas vão implementar aquilo que é conhecido como “Kill Switch”, medidas que terminam o desenvolvimento dos modelos de IA que não consigam dar a garantia de mitigação de riscos.
O Primeiro Ministro do Reino Unido, Rishi Sunak, presente nessa cimeira, assume a satisfação de ver as empresas líderes mundiais a assinarem estes compromissos de segurança da IA, além da transparência e responsabilidade nos planos.
Um grupo de participantes na cimeira destaca que ainda não está claro qual vai ser a eficácia deste compromisso, por faltar um acompanhamento legal associado ao acordo ou a definição de riscos específicos. Em carta aberta, foram feitas críticas à falta de regras formais. “A experiência mostrou que a melhor forma de enfrentar estes perigos é através de regulação e não autorregulação ou medidas voluntárias”, em resposta aos “compromissos” das empresas.
De recordar que já foi aprovado na União Europeia o IA Act, um regulamento para a Inteligência Artificial que começa a ser aplicado em dois anos. A legislação estabelece as regras para a utilização da tecnologia na Europa e que tem uma lógica baseada no risco, com multas para quem violar as regras.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários