A Conferência Mercados Digitais Justos do Século XXI foi palco de um debate crítico sobre os desafios delicados que se colocam com o uso de agentes de IA (context-aware software entities) em dois cenários: na fixação de preços (preços algorítmicos) e na comercialização de valores mobiliários (trading bots).

Dado que os agentes de IA tomam e executam decisões automatizadas de preços e de trading em bolsa, levantam-se preocupações sobre dois tipos de riscos, respetivamente: de conluio e de abuso de informação privilegiada.

Os sistemas de preços baseados em IA definem ou recomendam preços dinamicamente com base em dados em tempo real sobre ações dos concorrentes e as condições de mercado. Esses sistemas podem «aprender» de forma independente a coordenar preços com concorrentes sem instruções humanas diretas ou comunicação explícita, reforçando as estratégias uns dos outros, assim criando equilíbrios colusivos autossustentáveis – ciclos de feedback – tornando difícil para qualquer uma das partes interromper o processo ou mesmo compreender totalmente como ele surgiu.

O chamado problema da caixa negra (black box problem) detetar ou provar o conluio emerge como um desafio para os reguladores. À medida que os algoritmos se tornam mais autónomos, torna-se mais incerto quem é responsável caso o sistema ‘se envolva’ em comportamentos anticoncorrenciais. Surgem as lacunas de responsabilidade (responsibility gaps problem).

A posição da Lei da Concorrência na UE sobre o conluio por preços algorítmicos é esclarecida nas Orientações Horizontais da Comissão Europeia sobre acordos de cooperação horizontal (parágrafo 379) da seguinte forma:  “[a]s empresas envolvidas em práticas ilegais de preços não podem evitar a responsabilidade com base no facto de os seus preços terem sido determinados por algoritmos.”

Os bots de IA de trading conseguem sintetizar rapidamente grandes quantidades de dados estruturados e não estruturados — incluindo notícias, arquivos e, potencialmente, até mesmo informações não públicas divulgadas por engano — e agir com base neles antes mesmo que os negociadores humanos percebam a oportunidade.

Os agentes de IA podem coordenar-se em rede (às vezes sem orientação humana), amplificando informações — como, por exemplo, bots de redes sociais — que podem não ser estritamente falsas, mas que podem distorcer as perceções e o timing do mercado. As ações do agente podem ser tão complexas ou indiretas que nem o investidor beneficiado as perceba nem tenha conhecimento da violação subjacente, dificultando sua perseguição e a aplicação da lei.

Existem plataformas de compliance de inteligência artificial (AI-powered compliance) podem monitorizar a atividade de negociação em tempo real, sinalizar padrões suspeitos e fornecer orientações para garantir o cumprimento das regras o abuso de informação privilegiada.

O debate académico sobre pricing agents e trading agents centra-se nos problemas de responsabilidade, no preenchimento de lacunas na interpretação da lei que permitam aproveitar as capacidades da IA sem comprometer o correto funcionamento dos mercados. Os investigadores Catherine Bachovchin, David Tamez e John Symons propõem a tipificação das lacunas de responsabilidade em «simples», «regulares», «aparentes» e «antropocêntricas», defendendo que tal sistematização permite que os decisores políticos desenvolvam soluções regulatórias adequadas para evitar a proibição total destes sistemas de IA.

As duas próximas edições de Mercados Justos do Século XXI, pelo whatnext.law, percorrem temas laborais: a utilização de algoritmos preditivos na administração da justiça laboral e o nascente direito laboral digital.

Siga o whatnext.law no LinkedIn para acompanhar as edições Mercados Justos do Século XXI.