Por João Leitão Figueiredo (*)

O ChatGPT ganhou uma nova visibilidade ao longo das últimas semanas. Depois de ter sido lançado em novembro de 2022, estima-se ser o serviço digital cuja utilização cresceu mais e num tempo record. A Microsoft não perdeu tempo e investiu, mais de 10 mil milhões, nesta tecnologia que, se espera, que venha a ser integrada no software do próximo Office. Esta ação vem assim dar um novo folgo à corrida pelo domínio da Inteligência Artificial, com a Google que se apressou a anunciar o lançamento do “Board”: uma ferramenta com capacidade e funcionalidades equivalentes ao ChatGPT, e que será incorporado no motor de busca da empresa. Inicia-se uma nova era da luta pela soberania tecnológica, desta vez, pelo domínio da Inteligência Artificial (“IA”).

Esta nova era traz uma nova luz às questões éticas e regulatórias das ferramentas de IA. Depois de ter “passado” no exame da Ordem dos Advogados nos EUA, de ser utilizado na redação de sentenças e na apreciação de casos em tribunais, ou em aplicações de apoio psicológico, é fundamental discutir qual o espaço destas tecnologias. Num tempo em que se torna premente decidir quais os valores que devem ser preservados e qual espaço para a autonomia da agenda individual, quando os sistemas de IA parecem cada vez mais aptos para substituir a nossa ação.

Os chatbots não são uma novidade, o que é que o ChatGPT tem de novo? Desafios jurídicos e novidades.

É provável que a visibilidade exponencial do ChatGPT resulte, sobretudo, da sua disponibilização gratuita à generalidade do público, num formato de chat, e, que é, por isso, facilmente acessível. Trata-se de um modelo de chatbot que aprende com a informação e com as interações de modo a aperfeiçoar as respostas solicitadas, no entanto, não especifica quais as fontes da informação e está preparado para responder de forma que tendencialmente agrade ao utilizador em função, por exemplo, da linguagem ou expressões utilizadas na questão colocada. Não significa isto que esta ferramenta compreenda e interprete a linguagem, apenas identifica padrões, de tal forma que parece estar de facto a comunicar, no sentido humano da expressão. Capaz de produzir ensaios, pareceres jurídicos, responder a questões de diferente natureza. Mais do que nunca, é premente pensar como pretendemos integrar estas tecnologias.

As respostas, por ora, acabam frequentemente por ser limitadas, ou com pouco sentido, sobretudo quando estão em causa temas mais recentes, mais complexos ou se solicitados textos mais longos. Notamos, ainda, que refletem necessariamente vieses de partida dos programadores e da informação constante nas bases de dados. Promover o ChatGPT como sendo absolutamente neutro, exato e rigoroso, ou democrático, será falacioso.

Adicionalmente, o ChatGPT pode ser utilizado com o específico intuito de defraudar terceiros, para produção de texto insultuosos, ou textos propositadamente enganosos, que eventualmente podem reforçar interpretações enviesadas do sistema, e até mesmo, lesivas. Mais se note, mesmo os termos e condições não são claros quanto à imputação de responsabilidade em caso de erro das informações recebidas. Por outro lado, nas últimas semanas surgiram novas questões relacionadas com a integridade académica depois de detetados vários trabalhados de alunos redigidos prática ou totalmente pelo ChatGPT, levando a que universidades anunciassem a implementação de um sistema de verificação com base em blockchain para deteção de plágio. Antecipamos, desde já que nos parece que, nestes casos, está sobretudo em causa uma má utilização por mão humana de uma ferramenta com a capacidade de exponenciar utilizações maliciosas. Já será diferente quando o sistema gere informações erradas ou tendencialmente enviesadas/discriminatórias, nesses casos, a responsabilidade permanece por apurar.

Quando estão em causa problemas decorrentes do mau funcionamento, informações erradas, ou alterações resultantes do processo de aprendizagem constante, que caracteriza os sistemas de IA, e que são, por isso, suscetíveis de extravasar as funcionalidades inicialmente desenhadas pelos programadores, estamos perante outra ordem de problemas. A opacidade própria destes sistemas dificulta, em grande medida, a possibilidade de perceber, de facto, como funcionam.

Não podemos deixar de questionar quais os riscos e potenciais utilizações dos dados pessoais recolhidos ou a potencial efetividade do exercício de direitos, como o direito a ser esquecido. A própria natureza dos sistemas de processamento natural de linguagem periga os princípios fundamentais do regime da privacidade. Se, por um lado, é aparentemente gratuito, tem como contrapartida, a utilização massiva dos dados dos utilizadores para treino e apuramento dos resultados e inferências. Ou seja, a disponibilização generalizada, sob forma de aparente democratização do serviço, é, na verdade, uma forma gratuita de testar e melhorar o sistema. Tendo sido já anunciada uma versão premium, com mais funcionalidades, e que não poderemos deixar de questionar se será também mais protecionista dos direitos dos titulares.

Assim, alguns dos riscos associados ao ChatGPT estão i) na interpretação de dados, com a tendência para perpetuar e amplificar vieses dos programadores e dos dados utilizados para treinar o modelo, a criação e difusão de notícias falsas, ou ii) na utilização indevida dos dados pessoais, ou produção de linhas de código para finalidades maliciosas.

Enquadramento Legal: Que futuro? 

A União Europeia, tem procurado estar na frente do desenvolvimento das tecnologias e no correspondente quadro regulatório, contudo, atualmente ainda não existe um enquadramento legal aplicável especificamente aos sistemas de Inteligência Artificial.

Neste contexto, proposta de Regulamento para Inteligência Artificial propõe um regime flexível em função do grau risco das tecnologias e utilizações concretamente equacionadas, e que propõe requisitos mais exigentes em função do grau de risco e causa. Assim, qualificando o ChatGPT como um chatbot de baixo risco, serão aplicáveis um conjunto de obrigações em termos de transparência. No entanto, não será despiciendo considerar que a sua aplicação em determinados setores, como na prestação de cuidados de saúde, ou, a integração em aplicações e dispositivos de e-health deva ser objeto de um enquadramento legal específico.

Não obstante, não podemos deixar de salientar que na falta de um regime especial e visto que o Regulamento para a IA ainda não está em vigor, que serão, por princípio, aplicáveis os regimes tradicionais de responsabilidade pelo risco, ou da responsabilidade do produtor, com as devidas adaptações quando assim se justifique.

Quando confrontados com as respostas de sistemas autónomos, como as do ChatGPT, é importante destacar a importância da capacidade crítica individual na análise das respostas sugeridas. Para tanto, a promoção de políticas de literacia tecnológica, será fundamental para melhor proteger e preparar os cidadãos para os desafios do futuro. Na prática, muitos dos problemas que têm sido suscitados ignoram que estas tecnologias serão complementares às tarefas humanas não sendo crível, nem desejável que se tornem totalmente autónomos ou substitutivos. Por esta razão, também as capacidades inerentemente humanas devem ser promovidas e preservadas.

É, assim, essencial definir quais os próximos desenvolvimentos, e como queremos adaptar este tipo de tecnologias à nossa vivência em sociedade, quais os limites essenciais, e as áreas da vida que consideramos intransponíveis. De um ponto de vista ético, é ainda crucial definir quais os valores fundamentais, o grau de autonomia individual que queremos preservar e como é estes valores podem ser integrados na arquitetura dos sistemas de Inteligência Artificial. Tornando-se manifesto que as preocupações suscitadas são transversais aos vários ramos e áreas científicas, por isso, futuras abordagens regulatórias devem equacionar tanto a arquitetura tecnológica como as questões jurídicas, através de uma perspetiva multissetorial, que procure o equilíbrio dos vários interesses em presença.

(*) Sócio de TMC da CMS Portugal