
A OpenAI está a apoiar um projeto de lei na Califórnia, EUA, que exigirá às empresas de tecnologia que identifiquem os conteúdos gerados por inteligência artificial. A medida visa aumentar a transparência e evitar a disseminação de informações falsas, face à preocupação geral sobre o impacto de deepfakes e outros conteúdos manipulados por IA.
Apresentado pela deputada Buffy Wicks, o projeto de lei AB 3211 já foi aprovado pela Assembleia estadual, com uma votação unanime. Avançará agora para uma votação no Senado estadual e, se aprovado, será encaminhado para o governador Gavin Newsom para promulgação ou veto, até ao final de setembro.
A OpenAI acredita que, para conteúdo gerado por IA, transparência e requisitos em torno da origem, como marca d'água, são importantes, de acordo com uma carta enviada à deputada Buffy Wicks, citada pela Reuters.
Em contraste, o SB 1047, um outro projeto de lei igualmente relacionado com a IA, que exige testes de segurança para modelos de IA, enfrenta resistência da indústria de tecnologia, incluindo da própria OpenAI.
No entanto, a criadora do ChatGPT defende que a identificação de conteúdo gerado por inteligência artificial, como memes e deepfakes, é crucial para proteger a integridade da informação, especialmente em anos eleitorais.
Em destaque
-
Multimédia
Mais leve, simples e veloz: TLM05e é a nova mota elétrica construída por estudantes do Técnico -
App do dia
Cultive terras, defina estratégias e torne-se no melhor agricultor virtual em Farm Manager 2025 -
Site do dia
Polyglotta: Um tradutor para mentes curiosas que querem aprender várias línguas em simultâneo -
How to TEK
O seu computador está mais lento? Conheça algumas das causas e como resolver
Comentários