🚀 Oferta especial: 60% OFF no CrazyStack - Últimas vagas!Garantir vaga →
Inteligência Artificial

GPT-OSS120B e OSS20B: Modelos Open Source da OpenAI

Depois de anos afastada do open source, a OpenAI lança modelos potentes sob licença Apache 2.0 para uso público e fine-tuning. Descubra tudo sobre o GPT-OSS120B e OSS20B.

CrazyStack
15 min de leitura
AIOpen SourceLLMsGPT OSS

Por que isso é importante

A OpenAI, conhecida por seus modelos proprietários, surpreende ao lançar dois modelos open source: GPT-OSS120B e OSS20B. Com desempenho próximo aos seus flagships, essas soluções abrem novas possibilidades para empresas, desenvolvedores e a comunidade no geral.

Uma virada histórica no open source

Após mais de 5 anos desde o lançamento do GPT-2, a OpenAI ressurge no cenário open source com o lançamento dos modelos GPT-OSS120B e GPT-OSS20B. Este movimento marca uma mudança estratégica significativa, abrindo porta para adoção e integração em massa desses modelos de linguagem.

O que são GPT-OSS120B e OSS20B?

Os dois modelos possuem respectivamente 117B e 21B de parâmetros, representam uma nova geração de inferência baseada em arquitetura de experts com travessias otimizadas. Tanto o OSS120B como o OSS20B entregam janelas de contexto de 128K tokens e desempenho impressionante em benchmarks públicos.

Potência acessível: onde rodam cada um

Enquanto o GPT-OSS120B exige ambientes robustos com GPUs de 80GB de VRAM, o modelo OSS20B é leve o suficiente para rodar em dispositivos móveis com apenas 16GB de memória. Isso expande o uso destas tecnologias mesmo longe da nuvem.

Licença Apache 2.0 libera personalização

Ambos os modelos são distribuídos sob a licença Apache 2.0, possibilitando uso comercial, fine-tuning local e customização total. As possibilidades de construção sob esses modelos agora são infinitas para produtos e serviços.

⚠️Atenção

Apesar de open source, a OpenAI alerta que as cadeias de pensamento dos modelos não são supervisionadas, podendo gerar respostas inadequadas se expostas diretamente ao usuário final.

Benchmark: desempenho surpreendente contra gigantes

Em testes como Codeforces, HealthBench e provas de ciências, os modelos superam o GPT-3.5 e chegam perto do GPT-4 mini — destacando-se especialmente com uso de ferramentas e raciocínio multistep.

Comparativo de performance por modelo

GPT-OSS120B

117B parâmetros, alta performance

Prós
  • Chega perto do 04 Mini
  • Alta capacidade de raciocínio
  • Ampla compatibilidade por API
Contras
  • Exige máquinas com 80GB de GPU
  • Mais pesado para fine-tuning

GPT-OSS20B

21B parâmetros, alta eficiência

Prós
  • Pode rodar com 16GB
  • Melhor que o 03 Mini com ferramentas
  • Ideal para deployment leve
Contras
  • Queda em tarefas de saúde complexas
  • Limitações em input longo vs flagships

ℹ️Atenção

Mesmo com resultados promissores, benchmarks servem apenas como direção. Testes no mundo real ainda são indispensáveis para validar cada caso de uso.

Raciocínio controlável: um diferencial único

Os modelos permitem ajustar a profundidade da linha de pensamento. Isso significa que o usuário pode decidir quando precisa de respostas rápidas e quando é necessário mais análise lógica — ideal para tarefas como código, matemática ou ciência.

Integrando aos seus projetos via API

Usando a mesma API de resposta dos modelos comerciais da OpenAI, os modelos OSS se integram facilmente a ambientes de agentes, automações e interfaces existentes — sem necessidade de troca de plataformas.

Atenção

A linha de raciocínio dos modelos deve ser visualizada com cautela e não deve ser exibida diretamente ao usuário final sem filtros, pois pode conter sequências mal interpretáveis.

Disponibilidade e plataformas

Os modelos podem ser baixados gratuitamente via Hugging Face, além de estarem prontos para uso por meio de APIs em Azure, Together AI, Ollama, LM Studio e OpenRouter.

Hackathon da comunidade: participe

A comunidade AI Labs está realizando um hackathon com os modelos OSS até 11 de agosto, premiando os melhores projetos com até $500. Uma ótima oportunidade para testar os limites desses modelos em produção.

1
Passo 1: Baixe o modelo desejado no Hugging Face.
2
Passo 2: Faça o loading do modelo localmente ou via provider.
3
Passo 3: Configure a API de resposta com seu agente ou aplicação.
4
Passo 4: Ajuste a linha de pensamento conforme o nível de raciocínio desejado.

Ferramentas recomendadas para usar com GPT-OSS

Hugging Face

Plataforma para baixar e hospedar modelos open source

Saiba mais →

OpenRouter

Roteador de requisições entre modelos de linguagem via API

Saiba mais →

LM Studio

Interface de execução e teste de LLMs localmente

Saiba mais →

Azure AI Studio

Plataforma da Microsoft para deploy de modelos open source com segurança corporativa

Checklist para usar os modelos OSS

Escolheu entre OSS120B ou OSS20B conforme os recursos disponíveis
Baixou o modelo via Hugging Face ou plataforma de deployment
Integração realizada com sua aplicação via API de resposta
Testou o raciocínio e ajustou a profundidade conforme o cenário
Adicionou mecanismos de monitoramento e controle ético das respostas
Participou do Hackathon ou construiu sobre o modelo para casos reais

Domine React e Node com o CrazyStack

Aprenda técnicas avançadas de React com nosso curso completo