Colaboradores da OpenAI escreveram ao regulador do mercado (Securities and Exchange Commission – SEC) pedindo que abra uma investigação sobre o gigante da IA, porque esta estará alegadamente a violar as leis federais, ao proibi-los de denunciar os riscos de segurança relacionados com a tecnologia de inteligência artificial desenvolvida pela empresa.
“Whistleblower” é uma figura prevista no direito nos EUA e é definida como um indivíduo que revela informação privada ou confidencial sobre a organização, normalmente relacionadas com irregularidades ou má conduta. A OpenAI, a dona do CharGPT, a ferramenta de inteligência artificial que democratizou a tecnologia há dois anos, priva alegadamente os seus funcionários desse direito.
A carta, a que a imprensa internacional teve acesso, refere ainda matérias de falta de transparência por parte da OpenAI. No último ano, a empresa tem estado sob escrutínio de críticos e antigos executivos que já pediram mais regulamentação sobre a tecnológica, em particular, e sobre a indústria da IA na generalidade.
A carta, com sete páginas, divulgada inicialmente em exclusivo pelo Washington Post refere que a OpenAI ameaça alegadamente os funcionários que participem em ações de denúncia, que são legalmente protegidas. Para o efeito, a OpenAI impôs acordos aos trabalhadores obrigando-os a informar a empresa caso tivessem intenção de falar com as autoridades como whistleblowers. A carta refere ainda que, se um funcionário optasse por ser um whistleblower, teria de “renunciar aos seus direitos federais a qualquer indemnização por denúncia que lhe fosse devida”, cita o Washington Post.
As agências governamentais norte-americanas recompensam muitas vezes os whistleblowers com uma indemnização financeira e o contrato de trabalho da OpenAI impedia-os de receber esse tipo de recompensa.
A OpenAI está naturalmente preocupada com a proteção da sua tecnologia, mas noutro excerto da carta publicada posteriormente pela Newsweek, é referido que “tendo em conta os riscos associados ao avanço da IA, existe uma necessidade urgente de garantir que os funcionários que trabalham com esta tecnologia compreendam que podem apresentar queixas ou preocupações às autoridades reguladoras, ou policiais federais”.
Em declarações à Newsweek, o senador Chuck Grassley, que já leu a carta, refere que “as políticas e práticas da OpenAI parecem lançar um efeito inibidor sobre o direito dos denunciantes de falar e receber a devida compensação por suas divulgações protegidas”. E acrescenta que “para o governo federal ficar um passo à frente da inteligência artificial, os acordos de não-divulgação da OpenAI devem mudar.”
A denúncia, agora tornada pública, surge alguns meses depois da revelação de que a OpenAI ameaçou antigos funcionários de que se falassem contra a empresa lhes seriam revogadas as participações no capital da empresa. Antes, todos os funcionários de saída eram obrigados a assinar acordos de não-divulgação e de não-dissociação. Caso não assinassem, “perderiam todo o património adquirido durante o tempo em que estiveram na empresa”. Na ocasião, Sam Altman comentou que a empresa nunca aplicou essas cláusulas e que as iriam remover.
A OpenAI está ainda a enfrentar críticas internas por, supostamente, ter acelerados os testes de segurança no novo modelo GPT-4o para cumprir um prazo de lançamento. Os funcionários mostraram-se preocupados com as prioridades dadas pela empresa a questões de segurança pública e eficácia das políticas de autorregulação no setor da tecnologia.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários