Início Tecnologia OpenAI reduz GPT-5.4 para velocidade e custos mais baixos

OpenAI reduz GPT-5.4 para velocidade e custos mais baixos

17
0

A OpenAI está reduzindo seus modelos mais recentes para atingir um objetivo diferente, respostas mais rápidas e custos muito mais baixos. Os novos GPT-5.4 mini e nano foram desenvolvidos para desenvolvedores que se preocupam mais com a capacidade de resposta do que com o máximo de poder de raciocínio.

Ambos os modelos estão disponíveis a partir de hoje. O GPT-5.4 mini funciona duas vezes mais rápido que seu antecessor, mantendo-se próximo do GPT-5.4 completo nos principais benchmarks. O GPT-5.4 nano vai além, concentrando-se em tarefas mais simples, como classificação e extração de dados, onde a eficiência é mais importante.

Essa abordagem se adapta a aplicativos onde a velocidade molda a experiência. Assistentes de codificação, agentes de segundo plano e ferramentas de visão em tempo real dependem de feedback rápido e, nesses casos, um modelo um pouco menor geralmente oferece um resultado geral melhor.

Quanto desempenho você realmente perde

A diferença de desempenho entre os modelos é menor do que você poderia esperar. GPT-5.4 mini pontua 54,4 por cento no SWE-Bench Pro, em comparação com 57,7 por cento do modelo completo. No OSWorld-Verified, o mini atinge 72,1 por cento, enquanto a versão maior atinge 75 por cento, mantendo a diferença pequena entre as tarefas.

Os custos caem de forma muito mais dramática. O GPT-5.4 mini custa US$ 0,75 por milhão de tokens de entrada e US$ 4,50 por milhão de tokens de saída, enquanto o nano custa US$ 0,20 e US$ 1,25. Ambos os modelos suportam entradas de texto e imagem, uso de ferramentas, chamada de função e uma janela de contexto de 400.000 tokens, portanto, o preço mais baixo não elimina os recursos principais.

No Codex, o minimodelo usa apenas 30% da cota GPT-5.4. Isso permite que os desenvolvedores mudem o trabalho de codificação de rotina para um nível mais barato, enquanto salvam o modelo completo para um raciocínio mais difícil.

Quando modelos menores fazem o trabalho pesado

A OpenAI também está promovendo um fluxo de trabalho multimodelo. Em vez de depender de um sistema, os desenvolvedores podem dividir o trabalho em camadas, combinando um modelo maior para planejamento com modelos menores para execução.

Essa configuração reflete quantos aplicativos reais já se comportam. Um modelo pode revisar uma base de código ou decidir sobre alterações, enquanto outro processa dados de suporte ou etapas repetitivas. O modelo menor lida com o trabalho previsível, enquanto o maior se concentra no julgamento e na coordenação.

O feedback inicial sugere que esta combinação é eficaz. O CTO da Hebbia, Aabhas Sharma, relatou que o GPT-5.4 mini combinou ou superou os modelos concorrentes em várias tarefas a um custo menor e, em alguns casos, até forneceu resultados ponta a ponta mais fortes do que o GPT-5.4 completo.

O que usar e quando

GPT-5.4 mini agora está disponível na API, Codex e ChatGPT. Os usuários do Free and Go podem acessá-lo por meio da opção Thinking, enquanto outros usuários podem vê-lo como uma alternativa quando atingirem os limites do GPT-5.4 Thinking.

O modelo nano está atualmente limitado à API, destinado a equipes que executam cargas de trabalho de alto volume onde o controle de custos é fundamental. Ambos os modelos estão no ar hoje com documentação completa disponível.

Para os desenvolvedores que criam recursos de IA em tempo real, a mudança é clara. Modelos menores agora são capazes o suficiente para lidar com uma parcela maior do trabalho diário, o que torna a escolha do equilíbrio certo entre velocidade, custo e capacidade uma decisão cada vez mais prática.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui