Num relatório hoje divulgado, o observatório europeu de lobby afirma ter obtido "documentos que revelam a impressionante forma como as empresas tecnológicas têm tentado influenciar a [nova] lei da IA [...] através da tentativa de redução das obrigações de segurança e do afastamento das preocupações com os direitos humanos".
Depois de, em abril de 2021, a Comissão Europeia ter proposto a primeira legislação na UE para a IA (a primeira também ao nível mundial), defendendo controlos apertados à segurança, esta associação sem fins lucrativos vinca que "as gigantes tecnológicas se têm empenhado numa feroz batalha de lobby para se salvaguardar de qualquer responsabilidade".
De acordo com o Corporate Europe Observatory, os esforços de lobbying - isto é, de participação dos grupos de interesse na formulação de políticas -- tornaram-se mais visíveis após o lançamento do sistema ChatGPT, em novembro passado.
Sublinhando que "os sistemas de IA vêm com grandes riscos", o observatório aponta que plataformas como o ChatGPT (de conversação baseada em inteligência artificial) "muitas vezes não funcionam como pretendido ou podem ser desresponsabilizados".
Numa altura em que a nova lei de IA está em fase de negociação entre os colegisladores do Conselho e do Parlamento, o CEO salienta que existe "mais espaço para o lobby por parte das empresas tecnológicas", por estas se tratarem de discussões à porta fechada.
"Google, Facebook e Microsoft têm utilizado grupos secretos, peritos financiados por técnicos e organismos de normalização para pressionar as instituições europeias, um esforço que tem levado anos e que parece provável que seja bem-sucedido à medida que o projeto de lei atinge a sua fase final", adianta.
No relatório, o observatório dá conta de mais de 1.000 reuniões de lobbying com membros do Parlamento Europeu, das quais 56% são com a indústria e grupos de interesse.
A Comissão Europeia propôs em abril de 2021 a primeira legislação na UE para a inteligência artificial, defendendo controlos apertados aos sistemas considerados como arriscados, como o reconhecimento facial ou as impressões digitais, e a proibição dos de "risco inaceitável", como os de manipulação do comportamento humano.
Depois de várias recomendações adotadas nos últimos três anos para a área da IA e de uma consulta ao mercado, o executivo comunitário propôs "novas regras e ações destinadas a transformar a Europa no centro mundial de confiança", através da combinação do "primeiro quadro jurídico de sempre" e de um novo plano para coordenação entre os Estados-membros.
O objetivo é "garantir a segurança e os direitos fundamentais das pessoas e das empresas, reforçando ao mesmo tempo a adoção, o investimento e a inovação da IA em toda a UE", explicou Bruxelas na altura, defendendo uma "abordagem baseada no risco".
A proposta já passou pelo crivo do Parlamento Europeu, que mostrou preocupações relacionadas com a videovigilância, e o Conselho da UE já partilhou também a sua posição sobre o Artificial Intelligence Act, definindo novas obrigações mas também exceções em áreas onde a indústria considerava que a legislação poderia ser um entrave à inovação.
A IA tem vindo a ser cada vez mais usada em áreas como o entretenimento (personalização dos conteúdos), o comércio 'online' (previsão dos gostos dos consumidores), os eletrodomésticos (programação inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais como Siri, Alexa, entre outros).
É também usada para o reconhecimento facial, técnica que tem por base a recolha de dados característicos de imagem.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários