Durante esta semana o SAPO TEK tem publicado artigos num dossier dedicado aos efeitos nocivos da inteligência artificial. Um deles é exatamente dedicado ao impacto de deepfakes baseados em imagens sexuais que são partilhados (cada vez mais em Portugal) e como proceder no caso de uma imagem manipulada surgir online.

A OpenAI pretende continuar a trabalhar para manter as suas ferramentas de IA longe dos mal-intencionados e relevou que a tecnologia Dall-E 3 vai colocar marcas de água digitais às imagens geradas por inteligência artificial. A ferramenta ficará disponível também nas imagens geradas no ChatGPT em browser e na API do Dall-E 3, assim como respetivas aplicações para smartphones, numa atualização prevista para o dia 12 de fevereiro.

Veja na galeria o sistema de marcas de água do DALL-E 3

Este modelo de metadados enquadra-se no sistema aberto C2PA (Coalition for Content Provenance and Authenticity). Sempre que uma imagem é submetida à ferramenta de verificação de credenciais do conteúdo, será possível traçar a origem da imagem. Nesse sentido, como é explicado na página de ajuda do Dall-E 3, a informação indica se a imagem é gerada através da sua API ou no chatGPT, a não ser que esses metadados tenham sido removidos.

Apesar da utilização de C2PA, a OpenAI diz que o sistema não é infalível para resolver os problemas da origem da imagem, uma vez que esses metadados podem ser removidos facilmente, seja de forma intencional ou acidental. E dá como exemplo que a maioria das redes sociais removem os metadados das imagens submetidas. E ações como fazer uma captura de ecrã também pode remover a informação.

“Acreditamos que adotar estes métodos ajudam a estabelecer a proveniência e encorajam os utilizadores a reconhecer sinais, são chave para aumentar a confiança da informação digital”, disse a empresa. É também explicado que os metadados aumentam um pouco o peso da imagem, mas sem afetar a qualidade da mesma.

A Meta prepara-se para uma abordagem semelhante e todas as imagens que sejam geradas por IA serão também identificadas quando partilhadas no Facebook, Instagram e Threads para ajudar a identificá-las. A Meta vai utilizar o mesmo sistema de normalização C2PA e IPTC que a OpenAI. Nesse sentido, este standard é igualmente utilizado pela Microsoft, Google, Adobe, Midjourney e Shutterstock, identificando as imagens geradas por IA.