A Conferência Mercados Digitais Justos do Século XXI foi palco de um debate crítico sobre os desafios delicados que se colocam com o uso de agentes de IA (context-aware software entities) em dois cenários: na fixação de preços (preços algorítmicos) e na comercialização de valores mobiliários (trading bots).
Dado que os agentes de IA tomam e executam decisões automatizadas de preços e de trading em bolsa, levantam-se preocupações sobre dois tipos de riscos, respetivamente: de conluio e de abuso de informação privilegiada.
Os sistemas de preços baseados em IA definem ou recomendam preços dinamicamente com base em dados em tempo real sobre ações dos concorrentes e as condições de mercado. Esses sistemas podem «aprender» de forma independente a coordenar preços com concorrentes sem instruções humanas diretas ou comunicação explícita, reforçando as estratégias uns dos outros, assim criando equilíbrios colusivos autossustentáveis – ciclos de feedback – tornando difícil para qualquer uma das partes interromper o processo ou mesmo compreender totalmente como ele surgiu.
O chamado problema da caixa negra (black box problem) detetar ou provar o conluio emerge como um desafio para os reguladores. À medida que os algoritmos se tornam mais autónomos, torna-se mais incerto quem é responsável caso o sistema ‘se envolva’ em comportamentos anticoncorrenciais. Surgem as lacunas de responsabilidade (responsibility gaps problem).
A posição da Lei da Concorrência na UE sobre o conluio por preços algorítmicos é esclarecida nas Orientações Horizontais da Comissão Europeia sobre acordos de cooperação horizontal (parágrafo 379) da seguinte forma: “[a]s empresas envolvidas em práticas ilegais de preços não podem evitar a responsabilidade com base no facto de os seus preços terem sido determinados por algoritmos.”
Os bots de IA de trading conseguem sintetizar rapidamente grandes quantidades de dados estruturados e não estruturados — incluindo notícias, arquivos e, potencialmente, até mesmo informações não públicas divulgadas por engano — e agir com base neles antes mesmo que os negociadores humanos percebam a oportunidade.
Os agentes de IA podem coordenar-se em rede (às vezes sem orientação humana), amplificando informações — como, por exemplo, bots de redes sociais — que podem não ser estritamente falsas, mas que podem distorcer as perceções e o timing do mercado. As ações do agente podem ser tão complexas ou indiretas que nem o investidor beneficiado as perceba nem tenha conhecimento da violação subjacente, dificultando sua perseguição e a aplicação da lei.
Existem plataformas de compliance de inteligência artificial (AI-powered compliance) podem monitorizar a atividade de negociação em tempo real, sinalizar padrões suspeitos e fornecer orientações para garantir o cumprimento das regras o abuso de informação privilegiada.
O debate académico sobre pricing agents e trading agents centra-se nos problemas de responsabilidade, no preenchimento de lacunas na interpretação da lei que permitam aproveitar as capacidades da IA sem comprometer o correto funcionamento dos mercados. Os investigadores Catherine Bachovchin, David Tamez e John Symons propõem a tipificação das lacunas de responsabilidade em «simples», «regulares», «aparentes» e «antropocêntricas», defendendo que tal sistematização permite que os decisores políticos desenvolvam soluções regulatórias adequadas para evitar a proibição total destes sistemas de IA.
As duas próximas edições de Mercados Justos do Século XXI, pelo whatnext.law, percorrem temas laborais: a utilização de algoritmos preditivos na administração da justiça laboral e o nascente direito laboral digital.
Siga o whatnext.law no LinkedIn para acompanhar as edições Mercados Justos do Século XXI.
Em destaque
-
Multimédia
Conheça os 20 smartphones mais populares de 2025 e os que se destacam pela duração da bateria -
App do dia
diVine recupera vídeos antigos do Vine e a magia dos loops de 6 segundos -
Site do dia
Easy Tasks transforma links, vídeos e notas online em tarefas organizadas num só local -
How to TEK
Como “apagar” a memória do Copilot com os novos controlos de privacidade?
Comentários