
A OpenAI anunciou o lançamento de dois modelos de inteligência artificial (IA) de raciocínio com pesos abertos — o gpt-oss-120b e o gpt-oss-20b — que, segundo a empresa, oferecem desempenho de ponta em testes comparativos com outras soluções abertas. Ambos estão disponíveis para download gratuito na plataforma Hugging Face, sob licença Apache 2.0, permitindo uso e monetização sem necessidade de autorização da companhia.
O gpt-oss-120b é o mais robusto e pode rodar em uma única GPU Nvidia de alto desempenho, enquanto o gpt-oss-20b é mais leve, projetado para operar até mesmo em notebooks com 16 GB de memória RAM.
Essa é a primeira vez em mais de cinco anos que a OpenAI disponibiliza um modelo aberto, a última foi com o GPT-2. A decisão acontece em meio à pressão de desenvolvedores e do governo Trump para ampliar o acesso a tecnologias alinhadas a valores democráticos, e à crescente competição de laboratórios chineses como DeepSeek, Alibaba Qwen e Moonshot AI, que têm ganhado espaço com soluções abertas de alta capacidade.
O CEO da OpenAI, Sam Altman, declarou que a medida retoma o espírito original da OpenAI, fundada em 2015 com a missão de garantir que a inteligência artificial beneficie toda a humanidade. Ao mesmo tempo, a empresa mantém seu modelo de negócios com soluções proprietárias de maior desempenho, oferecidas via API.
Leia também: Empresas mostram resultados reais da IA no IT Forum Praia do Forte 2025
Desempenho e limitações
Nos testes da plataforma Codeforces (com ferramentas), o gpt-oss-120b e o gpt-oss-20b superaram modelos líderes de código aberto como o DeepSeek R1, mas ficaram abaixo das versões proprietárias o3 e o4-mini da OpenAI. Em outra avaliação, o Humanity’s Last Exam (HLE), também tiveram desempenho superior aos concorrentes abertos, embora ainda aquém dos modelos fechados mais avançados da empresa.
Um ponto crítico é a taxa de alucinação: os novos modelos erraram respostas sobre informações de pessoas em 49% (gpt-oss-120b) e 53% (gpt-oss-20b) dos casos, contra 16% do modelo o1 e 36% do o4-mini. A OpenAI atribui isso ao menor conhecimento de mundo de modelos compactos em relação aos “frontier models”.
Treinamento e arquitetura
De acordo com o TechCrunch, os modelos usam arquitetura mixture-of-experts (MoE), ativando apenas uma fração dos parâmetros por token — no caso do gpt-oss-120b, 5,1 bilhões de 117 bilhões totais, o que melhora a eficiência. Foram treinados com reforço de alto poder computacional (high-compute RL), o mesmo processo aplicado à série o, para aperfeiçoar a tomada de decisão em cadeias de raciocínio mais longas.
Voltados para aplicações em agentes de IA, os modelos podem acionar ferramentas externas como buscas na web ou execução de código Python. No entanto, são apenas de texto, sem suporte a imagens ou áudio.
Licença aberta, mas sem dados de treinamento
Apesar de liberados com uma das licenças mais permissivas do mercado, a Apache 2.0, a OpenAI não abrirá os conjuntos de dados usados no treinamento, citando questões legais, a empresa enfrenta processos que questionam o uso de obras protegidas por direitos autorais para treinar IA.
Antes do lançamento, a empresa e avaliadores externos testaram os riscos de uso indevido dos modelos em ciberataques ou para desenvolvimento de armas biológicas e químicas. Concluíram que, embora possam aumentar marginalmente certas capacidades, não atingem o patamar de “alta periculosidade” definido pela OpenAI.
Com a estreia dos gpt-oss, a empresa busca reforçar sua presença no ecossistema de IA aberta, enquanto o mercado aguarda lançamentos concorrentes como o DeepSeek R2 e o novo modelo do Meta Superintelligence Lab.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

