O que significa ser humano na era digital? A pergunta serve de mote a um dos keynotes que Alix Rübsaam costuma fazer pelo mundo, como oradora da Singularity University, e que trouxe a Portugal, a propósito da primeira edição do Executive Program.

Especialista em filosofia da tecnologia, investiga o impacto social e cultural das tecnologias exponenciais e, atualmente, tem dois projetos em mãos, um deles focado nos efeitos de algoritmos automatizados de tomada de decisão, inteligência artificial e o chamado “bias” algorítmico - decisões tomadas no processo de design que refletem os valores, opiniões e preconceitos de quem desenvolve a tecnologia, levando a resultados tendenciosos.

SingularityU Portugal estreia programa para pôr líderes a pensar (e depois a transformar)
SingularityU Portugal estreia programa para pôr líderes a pensar (e depois a transformar)
Ver artigo

O segundo projeto está relacionado com a análise da digitalização da informação, dos seus efeitos na tomada de decisões e na ética. O foco aqui é reposicionar os tomadores de decisão face à forma como se informam, investigar e desafiar paradigmas computacionais e imaginar uma abordagem à ética que seja adequada aos dilemas do século XXI.

Depois de explicar aos participantes da primeira edição do Executive Program que a ascensão da inteligência artificial não significa que o fim da humanidade está próximo, Alix Rübsaam falou com o SAPO TEK sobre a visão limitadora da IA como “exterminador implacável” e de como será mais importante dar resposta aos problemas reais como a desigualdade ou mesmo a exclusão, e a discriminação algorítmica.

Clique nas imagens para mais detalhe

Para a especialista, as questões éticas são extremamente importantes para que a inteligência artificial seja implementada de forma mais consciente e responsável, melhorando assim os seus resultados.

SAPO TeK: Disse no seu keynote que todos temos a nossa própria definição do que significa ser humano e que podemos estar todos certos (ou errados) nas nossas ideias, mas como é que a Alix vê a os humanos hoje? No que é nos poderemos vir a tornar?

Alix Rübsaam:  No que diz respeito à forma como nos relacionamos com as tecnologias e, especialmente no mundo da inteligência artificial, estão dois desenvolvimentos fundamentais em curso. Um deles é a tendência de identificarmos as nossas máquinas como se fossem de alguma forma humanas, como se fossem de alguma forma semelhantes a nós. Quando na realidade são uma extensão do que somos.

Em segundo lugar, ontem tivemos uma sessão diferente [no Executive Program] em que mergulhámos no bias algorítmico, e se pensarmos bem, o que significa para os humanos desenvolver essas tecnologias e o quanto da nossa humanidade aparece nelas? Acho que esses são dois aspetos muito importantes que não devemos esquecer.

"É importante lembrar que toda tecnologia que construímos reflete os nossos valores e a nossa maneira de pensar".

Penso que, quando perguntamos o que somos como humanos hoje e o que poderemos ser amanhã, as tecnologias podem ser uma espécie de “janela”: se pensarmos onde estamos a concentrar esforços, atualmente, é muito no uso de tecnologias para nos conectarmos uns com os outros, para acelerar processos. Portanto, podemos ver quais são os nossos valores atuais. Não estou a dizer que são valores universais, certo? Vão mudando ao longo do tempo, mas acredito que a tecnologia pode ser um espelho daquilo que consideramos importante. É por isso que estamos à procura de respostas. E acho que podemos seguir vários caminhos com isso.

SAPO TeK: E uma vez que mencionou a comunicação como um dos valores atuais, vê as relações humanas, sejam elas de amizade ou românticas, a mudar no futuro? Vê uma sociedade de humanos, máquinas e ciborgues a viverem juntos?

Alix Rübsaam: Acredito que é possível que olhemos para muitas das tecnologias que temos e as utilizemos para satisfazer as nossas necessidades. Já o que isso pode dizer sobre as relações humanas, não sei, porque não sou especialista no tema.

"Para mim o termo ciborgue é enganador, porque pressupõe que existe um limite que cruzaremos, onde haverá uma integração da tecnologia nos nossos corpos e seremos algo além de humanos".

Enquanto se compararmos as pessoas de hoje com as pessoas de há 500 anos, já temos uma quantidade de tecnologia incorporada e em nosso redor, em termos de medicina, implantes e muitas outras coisas. Se essa é a definição usada, então porque é ainda não somos ciborgues?

Por vezes temos tendência para separar as tecnologias que temos em categorias - por exemplo "vai ser uma singularidade", “vai ser um ciborgue", ou algo do tipo - e perdemos de vista a realidade em que estamos hoje. Se realmente estivermos interessados em usar termos como ciborgue então deveríamos ser muito críticos e pensar que talvez já estejamos lá hoje. E se já estamos lá hoje, talvez não seja útil passar muito tempo a tentar descobrir quem é ou não é um ciborgue...

SAPO TeK: A Alix também costuma criticar o sensacionalismo dos títulos de notícias e livros que anunciam o fim da humanidade causado por uma “IA malévola”. Só olha para a inteligência artificial como uma coisa boa que só traz vantagens? Não existe maldade na IA?

Alix Rübsaam: Não, acho que existem problemas muito reais com a IA hoje. Temos exclusão desenfreada, desigualdade desenfreada, proliferação de discriminação humana nos sistemas… Isto acontece porque estamos a automatizar tecnologia e a conferir aos sistemas de IA que construímos uma aura de objetividade, como se fossem de alguma forma mais neutros do que nós, o que não é verdade. Eles simplesmente reproduzem o que colocamos neles.

São problemas reais e passo muito do meu tempo a tentar perceber como podemos lidar com eles. Existem muitas maneiras de abordar as questões, mas é um processo mais demorado do que normalmente gostaríamos de ter na construção dos nossos sistemas de IA. São questões do presente e não apenas do futuro.

"As manchetes sensacionalistas de 'estamos todos condenados porque a IA existe' são uma distração para os problemas reais que estão a acontecer".

Já estamos a ver exclusão hoje, já estamos a ver discriminação hoje. Acredito que devemos concentrar-nos nisso.

A maneira como treinamos e direcionamos os nossos sistemas é inerentemente tendenciosa e tem falhas, assim como o pensamento humano. Ver que estamos a criar um sistema com esse tipo de desvio é um grande problema ético.

O aparecimento de um exterminador não é um problema ético. E parece-me que quanto mais tempo passamos a falar sobre exterminadores, menos tempo passamos a falar sobre as questões que realmente importam.

SAPO TEK: Mas como é que poderemos resolver esses desafios na área da ética?

Alix Rübsaam: Há várias maneiras de abordagem. Uma das formas é aumentar a consciencialização. Muitas vezes, temos líderes que instruem as suas equipas ou organizações que otimizam os sistemas para determinadas coisas, mas que não olham para quem de facto está desenvolver esses sistemas. Por vezes até deficiências na composição do grupo ou de perspetiva das pessoas “sentadas à mesa” fazem diferença, porque influenciam os resultados do que se está a construir.

É importante pensar e estabelecer estruturas dentro das organizações para questionar e confrontar algumas das coisas que surgem das composições de grupo, de quem toma decisões, de como as instruções que foram dadas são interpretadas pelas equipas, de qual o objetivo real que estamos a otimizar.

A forma como fazemos perguntas é muito orientadora. Portanto, pensar sobre como definimos as metas para o nosso sistema, como a solução que estamos a usar realmente se aplica ao problema que estamos a tentar resolver e, finalmente, pensar sobre onde e como aplicamos a solução que construímos. Estamos a introduzir a IA num novo ambiente onde há novas variáveis que podem alterar o funcionamento dela?

"Se não tivermos uma resposta para todas essas áreas de perguntas, quando chegarmos à fase de implementação corremos o risco de termos um sistema muito tendencioso e problemático".

Portanto, é necessário aumentar a consciencialização sobre como os sistemas autónomos funcionam, o que estão a fazer e o que não estão a fazer. Implementá-los de forma pensada e responsável levará a melhores resultados.