Por Hana Rizvić (*) 

Um pré-requisito para cada organização que começa a integrar IA (Inteligência Artificial) no tecido do seu negócio é determinar e estabelecer um quadro sólido que alinhe a inovação em IA com a responsabilidade social. Tal como um projeto de construção exige planeamento meticuloso e adesão a regulamentos, desenvolver e implementar IA de forma responsável requer uma abordagem semelhante.

Embora as ferramentas e os materiais sejam diferentes, ambos devem obter permissões que abordem considerações de segurança e ética. No caso da IA, esta é a primeira vez na história que as potenciais consequências da tecnologia requererão uma discussão filosófica e sociológica tão aprofundada.

Vejamos alguns pontos importantes a considerar:

Elaborar um Plano

O desenvolvimento responsável, seja de uma estrutura física ou de um projeto de IA, deve começar com um propósito bem definido. Para um projeto de construção, isso traduz-se em planos detalhados que delineiam a estrutura do edifício, o tamanho e, mais importante, o seu efeito no ambiente envolvente.

De forma semelhante, o desenvolvimento de IA também requer um propósito claro, identificando o problema específico que se pretende resolver e o seu impacto potencial na sociedade. Este projeto servirá como o princípio orientador para todo o processo de desenvolvimento, levantando questões sobre resultados imprevistos ou não intencionais desde o início.

Estabelecer fundamentos e linhas orientadoras desde o primeiro dia, apoiará a implementação de uma IA responsável e eficaz, trazendo benefícios por muitos anos. Por outro lado, avançar precipitadamente na implementação de IA sem a devida reflexão poderá ser altamente prejudicial e dispendioso para corrigir.

Atender às Diretrizes Governamentais

Atualmente, governos de todo o mundo fazem esforços para estabelecer diretrizes comuns para o desenvolvimento responsável de IA. No Reino Unido, o AI Regulation Whitepaper estabelece um roteiro claro para a regulação ágil da IA e diretrizes para o uso da tecnologia. Este apoia os reguladores com as competências e o financiamento necessários para abordar os riscos e oportunidades da IA, visando promover uma inovação segura e responsável.

A UE também está a estabelecer a sua posição. Os estados-membros estão perante o próximo Ato de IA que procura promover um desenvolvimento de confiança. Este categoriza as aplicações baseadas no seu risco, indicando que aquelas de alto risco em áreas como o recrutamento enfrentarão um escrutínio mais rigoroso. A não conformidade levará a multas substanciais e à possível proibição de modelos de IA que possam causar dano.

Fortalecer a Governance Interna

Atender a este crescente conjunto de obrigações exigirá um compromisso sério das organizações a nível do CEO e conselho de administração. Não há dúvida de que será necessário um esforço considerável e planeamento coordenado, exigindo contribuições de todos os ângulos, através de múltiplas equipas, stakeholders, utilizadores e especialistas.

De forma preocupante, uma pesquisa recente da Conversica descobriu que apenas 6% dos inquiridos estabeleceram diretrizes éticas claras para o uso da IA, apesar de 73% notarem que as diretrizes de IA são indispensáveis. Juntamente com a tentação de avançar rapidamente com implementações motivadas pelo medo de ficar para trás, os líderes empresariais vão precisar de exercer um nível de contenção para garantir que a devida diligência é realizada.

Desde o início, a IA responsável deve começar com a formulação de políticas internas, garantindo uniformidade em toda a organização. A governance ao longo do processo de planeamento e execução precisará do apoio de várias partes, tanto internas quanto externas, para garantir que a tecnologia de IA é implementada de forma correta e justa.

Construir Confiança com os Stakeholders

Criar equipas de gestão de conformidade de IA com um responsável para cada departamento é importante para manter a supervisão de todos os projetos. Eles desempenharão um papel crucial, garantindo que os colaboradores têm a oportunidade de contribuir para a construção do quadro inicial de IA, bem como promovendo a compreensão de como a tecnologia pode afetar os empregos e práticas de trabalho.

Os processos de conformidade devem incluir avaliações de risco completas dos projetos propostos, de forma a destacar questões como potenciais vieses e violações de privacidade antes que os planos sejam finalizados. Reconhecer estes desafios pode ajudar a esclarecer o propósito de um projeto e se este deve avançar ou se os planos precisam de ser refeitos.

Semelhante a obter uma licença de planeamento para garantir que um projeto de construção está alinhado com regulamentos e necessidades da comunidade, a IA responsável requer uma abordagem meticulosa à legislação, bem como a consulta com colaboradores, clientes, outros stakeholders e a sociedade em geral. Desenvolver de forma considerada e transparente promoverá boas relações e confiança a longo prazo.

Determinar se a IA é Justa e Adequada para o Propósito

Eliminar o viés e estabelecer a justiça serão aspetos fundamentais de muitos modelos de IA. Julgar se a IA está apta para tomar decisões sem supervisão humana é crítico.

Consideremos, por exemplo, um candidato a um emprego que tem um passado difícil (como um registo criminal) mas que desde então mudou a sua vida para melhor e possui as qualificações mais relevantes de todos os candidatos. Como a IA avalia os riscos envolvidos e se deve aprovar ou rejeitar este potencial candidato? A definição de tarefas como estas e as variáveis envolvidas precisarão de ser cuidadosamente determinadas para decidir se as decisões podem ser totalmente geridas pela IA, ou depender parcialmente ou inteiramente do julgamento humano.

Muitas organizações terão dificuldades em encontrar internamente os recursos para validar que as suas soluções estão a agir de forma responsável e são apropriadas para o caso de uso. Recorrer a fornecedores externos e ferramentas ajudará na imparcialidade, medirá a justiça das aplicações de IA e, criticamente, destacará quando a tecnologia não é adequada para o caso de uso ou provavelmente causará dano.

Minimizar Riscos e Planear Contramedidas

Mesmo os melhores planos não garantirão resultados positivos cem por cento das vezes.

Ter alertas incorporados para intervenção dentro dos processos deve ajudar a minimizar riscos. Tal mitigará potenciais problemas antes que existam consequências sérias. No entanto, as organizações devem sempre ser transparentes sobre as limitações dos sistemas de IA e os seus riscos, explicando quais as salvaguardas que estão em lugar.

Mesmo quando erros ocorrem, a transparência é fundamental. Planos pré-preparados devem estar prontos para ser ativados para informar os stakeholders, responder ao feedback e gerir preocupações. Devem existir etapas claras de contramedidas para lidar com incidentes, cobrindo investigação, contenção e mitigação. Etapas subsequentes podem incluir a eliminação de dados ou compensação aos clientes; todos os aspetos devem ser pensados antecipadamente.

Estabelecer um Modelo para o Futuro

Não existe uma resposta certa para como ser cumpridor e responsável. Mas sem regulação e responsabilização, incidentes como a recente história de deep fake em Hong Kong podem tornar-se uma ocorrência regular.

As empresas adotarão abordagens diferentes dependendo do seu tamanho e indústria. Novos papéis de trabalho surgirão para garantir o uso uniforme de IA em toda a empresa e mais ferramentas serão desenvolvidas para avaliar se o uso de IA está em conformidade.

No entanto, as organizações nunca devem ver a IA responsável como um esforço único. Criar uma cultura de aprendizagem e melhoria, abraçando o feedback dos stakeholders, ajudará a refinar continuamente as práticas de IA. Além disso, seguir os padrões da indústria e o envolvimento com grupos de pares ajudará as empresas a acompanharem os novos desenvolvimentos em IA.

Como em todos os projetos de construção bem-sucedidos, fazer o trabalho de base agora para construir IA de forma responsável demonstra uma abordagem consciente que beneficiará os stakeholders e a comunidade de igual forma - e fornecerá o template para desenvolvimentos bem-sucedidos no futuro.

(*) Head of IA da Intellias