A OpenAI está a apoiar um projeto de lei na Califórnia, EUA, que exigirá às empresas de tecnologia que identifiquem os conteúdos gerados por inteligência artificial. A medida visa aumentar a transparência e evitar a disseminação de informações falsas, face à preocupação geral sobre o impacto de deepfakes e outros conteúdos manipulados por IA.

Apresentado pela deputada Buffy Wicks, o projeto de lei AB 3211 já foi aprovado pela Assembleia estadual, com uma votação unanime. Avançará agora para uma votação no Senado estadual e, se aprovado, será encaminhado para o governador Gavin Newsom para promulgação ou veto, até ao final de setembro.

Microsoft, Google, Meta, Apple e OpenAI na mira de criadores por uso indevido de conteúdos no treino de IA
Microsoft, Google, Meta, Apple e OpenAI na mira de criadores por uso indevido de conteúdos no treino de IA
Ver artigo

A OpenAI acredita que, para conteúdo gerado por IA, transparência e requisitos em torno da origem, como marca d'água, são importantes, de acordo com uma carta enviada à deputada Buffy Wicks, citada pela Reuters.

Em contraste, o SB 1047, um outro projeto de lei igualmente relacionado com a IA, que exige testes de segurança para modelos de IA, enfrenta resistência da indústria de tecnologia, incluindo da própria OpenAI.

No entanto, a criadora do ChatGPT defende que a identificação de conteúdo gerado por inteligência artificial, como memes e deepfakes, é crucial para proteger a integridade da informação, especialmente em anos eleitorais.