
Por Paulo Calçada (*)
O que verdadeiramente me preocupa no mundo digital que estamos a construir não é apenas o ritmo da inovação — é a nossa falta de preparação para lidar com as suas consequências.
Um relatório recente da KPMG, publicado em colaboração com a Universidade de Melbourne, chama a atenção para esta questão de forma contundente. Com base num inquérito a mais de 48.000 pessoas em 47 países, o estudo revela um grande desfasamento entre a confiança e o uso de ferramentas de IA: embora dois terços dos inquiridos (66%) afirmem utilizar regularmente ferramentas de IA, mais de metade (54%) demonstra relutância em confiar nestes sistemas, e 48% admitem não compreender verdadeiramente como a IA funciona ou quando está a ser utilizada (transparência). Adicionalmente, mais de 60% nunca recebeu qualquer formação formal ou educação em IA (conhecimento).
A situação é particularmente preocupante nas economias avançadas, onde a confiança nas tecnologias de IA é significativamente mais baixa do que nas economias emergentes — apenas 39% das pessoas em economias avançadas afirmam confiar em sistemas de IA, face a 57% nas economias emergentes. Este défice de confiança é alimentado por receios crescentes: riscos de cibersegurança (85%), desinformação (82%), perda de conexão humana (83%), violações de privacidade (82%), manipulação (81%) e substituição de postos de trabalho (80%). De forma impressionante, dois em cada cinco inquiridos afirmam ter testemunhado pessoalmente estes impactos negativos.
As conclusões relativas ao local de trabalho são igualmente alarmantes. Embora 58% dos colaboradores utilizem IA regularmente no trabalho, quase metade admite fazê-lo de formas que podem contrariar as políticas da sua empresa. Cerca de metade já introduziu informações sensíveis da empresa em ferramentas públicas de IA e 56% relatam ter cometido erros no trabalho por causa da IA. Apenas metade verifica regularmente a precisão dos resultados gerados. Apesar desta adopção generalizada, apenas 40% das organizações têm políticas para orientar o uso de IA generativa.
Entre os estudantes, a situação é ainda mais crítica — 83% utilizam IA com regularidade nos estudos, havendo um uso inapropriado generalizado e uma forte dependência. O mais preocupante é que 77% afirmam sentir que não conseguiriam concluir os seus trabalhos sem o apoio da IA, o que sugere uma dependência que pode comprometer o desenvolvimento de competências críticas – este tema merece uma reflexão especial, pois estudos complementares têm demostrado possiveis impactos extremamente negativos no desenvolvimento dos alunos (procurarei voltar a este tema).
O relatório mostra também uma forte exigência por parte do público para uma acção regulatória: 70% acreditam que a regulação da IA é necessária, mas apenas 43% consideram que a legislação actual é adequada. Mais de 85% defendem a criação de leis específicas para combater a desinformação gerada por IA, e percentagens semelhantes exigem que empresas de redes sociais e de media reforcem os mecanismos de verificação de factos.
Mas a regulação, por si só, não chega. Precisamos de investir na capacitação da sociedade (conhecimento) — dotar as pessoas das ferramentas, competências e consciência necessárias para navegar num mundo cada vez mais moldado pela IA generativa. O relatório identifica a literacia em IA como um factor-chave para o uso responsável, mas apenas duas em cada cinco pessoas receberam algum tipo de formação ou educação na área — número que desce para apenas uma em cada três nas economias mais avançadas.
Um passo crucial é a implementação de mecanismos digitais de "prova de identidade" (transparência). Se dispuséssemos de sistemas abertos e confiáveis para autenticar conteúdos e autoria, poderíamos travar a propagação da desinformação e mitigar os efeitos mais prejudiciais da IA. Não podemos depender apenas de plataformas privadas ou de serviços comerciais de verificação. O que precisamos são soluções descentralizadas, transparentes e acessíveis a todos — não apenas aos mais alfabetizados digitalmente.
Acredito que este é um dos investimentos públicos mais urgentes do nosso tempo. E, na semana passada, tive a prova disso.
Um Apagão, uma Mensagem Falsa e um Momento de Pânico
Quando o apagão energético sem precedentes atingiu Portugal e Espanha, eu encontrava-me em Viena, numa reunião organizada pela Bloomberg Associates, que reuniu CIOs e especialistas em transição digital de várias cidades europeias.
O apagão ocorreu precisamente quando estávamos a debater as nossas prioridades estratégicas. Preparava-me para intervir sobre uma das minhas maiores preocupações: a adopção desorganizada e sem controlo da IA. Estou cada vez mais alarmado com a facilidade com que estamos a ser conduzidos — mais uma vez — pela ambição (e por vezes ganância) de alguns "evangelistas" que promovem a IA a qualquer custo.
Entretanto, continuamos a ignorar algo tão básico quanto essencial: a necessidade de construir um ambiente digital de confiança. Existem prioridades urgentes que não exigem grandes avanços tecnológicos. Não me refiro aqui às soluções de “deep tech” necessárias para corrigir as falhas estruturais da IA — como a sua tendência persistente para alucinar e fabricar informação (um problema que só se agravou desde que o ChatGPT se tornou público há quase dois anos). Falo de medidas simples e exequíveis que podemos adoptar já — apostar na transparência e no conhecimento.
Se essas ferramentas estivessem já implementadas, poderiam funcionar como uma primeira linha de defesa contra a desinformação gerada por IA. O relatório da KPMG/Melbourne confirma esta necessidade — 70% dos inquiridos referem ter dificuldade em confiar nas informações que encontram online porque não sabem se o conteúdo é real ou gerado por IA, e 64% estão preocupados com a possibilidade de manipulação de eleições através de conteúdos criados por IA. Apenas 47% dizem sentir-se confiantes na sua capacidade de identificar desinformação gerada por IA.
Nesse dia em Viena, a teoria tornou-se real. Pouco antes da minha intervenção, recebi uma mensagem: um ciberataque à rede energética europeia teria sido a causa do apagão. A mensagem era detalhada, dramática — e assustadoramente credível. Mesmo numa sala cheia de especialistas digitais, senti a necessidade de parar, sair da sala, confirmar a informação e questionar o que era, de facto, verdade.
Só depois de respirar fundo e procurar nos canais certos é que encontrei o comunicado oficial do Centro Nacional de Cibersegurança. A mensagem que tinha recebido era falsa — muito provavelmente criada com recurso a uma ferramenta de IA generativa. E, embora a verdade pudesse ter sido publicada mais ou menos ao mesmo tempo, a mensagem falsa chegou até mim primeiro. Essa é a verdadeira lição: a desinformação continua a propagar-se mais rapidamente do que a verdade.
A sensação de incerteza permaneceu. Foi um lembrete claro de quão rápido a desinformação alimentada por IA se pode espalhar — e de quão vulneráveis todos estamos, mesmo os mais preparados para a detectar.
Esse momento confirmou algo em que sempre acreditei: a nossa infraestrutura digital tem de fazer mais do que garantir eficiência. Tem de merecer e sustentar confiança. Porque quando a confiança colapsa, não falham apenas os sistemas — falha a nossa compreensão comum do que é real.
Precisamos de uma governação pública mais robusta. De uma educação digital mais inteligente. E de um investimento sério em infraestruturas abertas e seguras que protejam não apenas os dados — mas a verdade. As conclusões do relatório são claras: as salvaguardas institucionais e a confiança nas organizações para desenvolver e utilizar a IA de forma responsável são os maiores impulsionadores da confiança pública.
A resposta a este momento de viragem exige mais do que alertas — exige escolhas claras. Precisamos de afirmar o conhecimento como primeira linha de defesa e a transparência como condição essencial para qualquer ecossistema digital digno de confiança. Só com cidadãos informados e sistemas abertos conseguiremos reconstruir pontes de confiança num mundo cada vez mais mediado por algoritmos. Porque não se trata apenas de preparar-nos para o futuro da IA — trata-se de garantir que esse futuro permanece compreensível, justo e verdadeiramente humano.
(*) CEO / Board Member na Porto Digital
Pergunta do Dia
Em destaque
-
Multimédia
Sem hélices e silencioso: BlackBird é um eVTOL que pretende mudar as regras do jogo da aviação -
App do dia
Tem uma agenda cheia de tarefas? Sectograph ajuda a gerir o tempo com um "relógio" interativo -
Site do dia
Encontre a banda sonora ideal para a sua próxima viagem em Hype My Flight -
How to TEK
Faça “mirror” do iPhone ou iPad diretamente no ecrã do computador
Comentários