Por Ivo Bernardo (*)
O aparecimento do GPT-5 volta a expor a discussão central sobre modelos de linguagem aplicados à inteligência artificial: transparência e abertura. O que vimos ser anunciado nas últimas semanas não é “open source” no sentido clássico. É a divulgação de apenas uma das partes: dos pesos de um modelo, isto é da forma como o modelo toma decisões depois do seu treino. Mas, os cientistas não têm acesso nem ao código de treino nem aos dados usados para o alimentar.
Isso permite ver como o modelo decide hoje, mas não revela com que dados foi treinado (processo onde podem ser excluídas fontes de dados de forma seletiva), nem que técnicas foram usadas. É um passo na direção certa, sim. Mas ainda distante da abertura que interessa à comunidade e às empresas que querem construir sobre esta tecnologia.
Para esclarecer: o lançamento de pesos abertos não é o GPT-5, esse ainda é um modelo totalmente fechado. É um produto à parte, chamado de GPT-OSS. Confundir as duas coisas só acrescenta ruído. Vale notar, porém, que a OpenAI não dava um passo destes desde o GPT-2 (lançado há 6 anos). Agora reaproxima-se desse espírito, o que é positivo e merece incentivo para ir mais longe.
Na prática, ter acesso aos pesos abre portas a adaptações específicas. Mas o custo continua a ser um fator a considerar. O fine-tuning (mudança dos pesos actuais do modelo para adaptar a uma nova realidade) é caro e não existe ainda um caso económico robusto para a maioria dos cenários empresariais. Por isso, muita gente tenta outra via: correr versões privadas em ambientes controlados. Ganha-se privacidade e controlo sobre os dados. É viável, mas não para todas as carteiras..
No que toca a open-source e sabermos todos os passos dados no treino dos modelos de AI, há ainda um ponto essencial que continua na sombra e afeta a confiança: o pós-treino. É a fase em que o modelo é ajustado com aprendizagem por reforço e feedback humano. É aqui que se decide o que o modelo prioriza, evita ou ignora.
O caso recente dos modelos da DeepSeek mostra o peso desse momento. Ali, certos temas sensíveis não eram abordados não por falta de dados, mas por decisões tomadas no alinhamento (por exemplo, o modelo da DeepSeek recusa-se a falar do massacre de Tiananmen).
Nos modelos da OpenAI, continua a não haver clareza sobre como são filtrados os dados no pré-treino nem quais os critérios do pós-treino. Essa opacidade dificulta a nomeação dos modelos da OpenAI de real open-source.
Em termos práticos, é simples: aplaudir a disponibilização de pesos como avanço tangível, mas exigir a próxima camada de transparência. Documentação sobre dados, critérios de filtragem, processos de alinhamento e principalmente acesso ao código que treina os modelos desde a fonte até à sua diponibilização. Isso permite às empresas contruírem sobre o que foi inicialmente criado pela OpenAI e aos utilizadores confiar no que o modelo diz e no que decide não dizer de base
E não nos esqueçamos que a própria OpenAI foi construída sobre os ombros de outros gigantes. Os seus modelos GPT (Generative pre-trained transformers) são baseados na arquitectura Transformer, lançada nos laboratórios da Google em 2017 e disponibilizada de forma totalmente aberta.
(*) Co-Founder & Partner da DareData
Em destaque
-
Multimédia
Carros elétricos compactos e modulares: Que modelos já pode conduzir e que ofertas estão a caminho? -
App do dia
Como gerir o tempo que os mais novos passam a jogar? Sony tem uma app para ajudar os pais -
Site do dia
Wplace abre o mapa do mundo a novos desafios para viajar em pinturas colaborativas -
How to TEK
Como remover widgets da barra de tarefas do Windows 11
Comentários