Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- O GPT-5.4 mini funciona duas vezes mais rápido que o GPT-5 mini.
- Novos modelos visam agentes, codificação e fluxos de trabalho multimodais.
- Os desenvolvedores podem combinar grandes modelos de planejamento com subagentes mais baratos.
Nas últimas semanas, vimos a geração dos principais modelos de linguagem grande da OpenAI iterar de GPT-5.3 para GPT-5.4. Pense no modelo como o mecanismo que alimenta a computação de IA. Cada salto geracional geralmente resulta em maior desempenho e precisão.
Além disso: o novo GPT-5.4 da OpenAI derrota os humanos no trabalho de nível profissional em testes – em 83%
Os lançamentos reais podem ser um pouco difíceis de acompanhar sem um scorecard. Em 5 de março, a OpenAI lançou o GPT-5.4 Thinking, um modelo de pensamento aprofundado e de alto desempenho. Dois dias antes, lançou GPT-5.3 (não 5.4) Instantâneoum modelo que “torna as conversas cotidianas mais consistentemente úteis e fluidas”, mas não necessariamente mais precisas.
Esta semana, a OpenAI está lançando os modelos GPT-5.4 mini e GPT-5.4 nano. Esses modelos são projetados para cargas de trabalho de IA rápidas, eficientes e de alto volume. Estas são basicamente as ofertas de modelos de linguagem de orçamento.
Modelos menores para fluxos de trabalho de IA
Para muitos fluxos de trabalho de IA, o modelo mais eficaz é aquele que equilibra um forte desempenho com respostas rápidas e uso confiável de ferramentas.
De acordo com a OpenAI, “Esses modelos são construídos para os tipos de cargas de trabalho em que a latência molda diretamente a experiência do produto: assistentes de codificação que precisam ser responsivos, subagentes que concluem rapidamente tarefas de suporte, sistemas de uso de computador que capturam e interpretam capturas de tela e aplicativos multimodais que podem raciocinar sobre imagens em tempo real”.
Além disso: o ‘momento ChatGPT’ da Nvidia para carros autônomos e outros anúncios importantes de IA no GTC 2026
A empresa disse: “Nestes ambientes, o melhor modelo muitas vezes não é o maior – é aquele que pode responder rapidamente, usar ferramentas de forma confiável e ainda ter um bom desempenho em tarefas profissionais complexas”.
Comparado ao GPT-5 mini, o GPT-5.4 mini melhora a codificação, o raciocínio, a compreensão multimodal e o uso de ferramentas. O modelo funciona duas vezes mais rápido que o GPT-5 mini.
GPT-5.4 nano é o modelo menor e mais rápido, voltado para classificação, extração, classificação e tarefas mais simples de suporte de codificação.
Melhorias de desempenho
Ao olhar para os modelos menores e mais baratos, o desempenho é o fator distintivo. Os compradores querem saber quanto retorno estão obtendo pelo investimento. Para ilustrar esse desempenho, a OpenAI mostra benefícios substanciais em relação aos modelos lançados apenas alguns meses antes:
- O GPT-5.4 mini pontua 54,38% no SWE-bench Pro em comparação com 45,69% no GPT-5 mini.
- No Terminal-Bench 2.0, o GPT-5.4 mini atinge 60,00%, contra 38,20% do GPT-5 mini.
- No GPQA Diamond, o mini GPT-5.4 pontua 88,01%, aproximando-se dos 93,00% do GPT-5.4.
- Os resultados verificados pelo OSWorld mostram GPT-5.4 mini em 72,13%, significativamente superior aos 42% do GPT-5 mini.
O GPT-5.4 mini se aproxima das taxas de aprovação do nível GPT-5.4, ao mesmo tempo que oferece uma execução mais rápida. Em outras palavras, o minimodelo GPT-5.4 menor e mais leve tem um desempenho quase tão bom quanto o modelo GPT-5.4 completo em testes de benchmark (as “taxas de aprovação”) que medem se o modelo resolve os problemas corretamente.
Além disso: Por que os backups criptografados podem falhar em uma era de ransomware impulsionada por IA
GPT-5.4 nano divide a diferença. Por exemplo, ele pontua 52,39% no SWE-bench Pro e 46,30% no Terminal Bench 2.0, não tão alto quanto o GPT-5.4 mini, mas ainda consideravelmente melhor que o GPT-5 mini.
Testes de clientes destacam benefícios
Especialista em tecnologia Hebbia cria ferramentas que ajudam os profissionais a vasculhar enormes coleções de documentos usando linguagem natural. Suas ofertas atraem usuários em setores como finanças, direito e pesquisa, onde a capacidade de analisar e obter insights de muitos documentos ao mesmo tempo é particularmente útil.
De acordo com Aabhas Sharma, CTO da Hebbia: “O GPT-5.4 mini oferece forte desempenho de ponta a ponta para um modelo desta classe. Em nossas avaliações, ele igualou ou superou os modelos concorrentes em diversas tarefas de saída e recuperação de citações a um custo muito mais baixo. Ele também alcançou taxas de aprovação de ponta a ponta mais altas e uma atribuição de fonte mais forte do que o modelo GPT-5.4 maior.”
O espaço de trabalho digital Notion é o queridinho dos especialistas em produtividade baseados na Internet. Estou escrevendo este artigo em meu espaço de trabalho do Notion. A tecnologia fornece um local para dados estruturados e não estruturados. Você também pode usar o Notion para criar miniaplicativos sem código para gerenciamento de informações. Eu uso o Notion para monitorar minha produção de artigos, projetos internos, planos de vídeo, projetos de desenvolvimento e muito mais.
Além disso: à medida que os agentes de IA se espalham, a nova ferramenta do 1Password enfrenta uma ameaça crescente à segurança
Abhisek Modi, líder de engenharia de IA da Notion, disse: “O GPT-5.4 mini lida com tarefas focadas e bem definidas com uma precisão impressionante. Especificamente para edição de páginas, ele igualou e muitas vezes excedeu o GPT-5.2 no tratamento de formatação complexa em uma fração do cálculo.”
Modi continuou: “Até recentemente, apenas os modelos mais caros podiam navegar com segurança nas chamadas de ferramentas de agente. Hoje, modelos menores como GPT-5.4 mini e nano podem lidar com isso facilmente, o que permitirá que nossos usuários criem agentes personalizados no Notion e escolham exatamente a quantidade de inteligência de que precisam.”
Não fiquei muito impressionado com a IA do Notion. Esperançosamente, ao incorporar esses novos modelos, o desempenho do Notion AI melhorará consideravelmente.
Subagentes e tarefas multimodais
Quando você começa a observar como os agentes se enquadram no ecossistema geral, fica evidente que a IA pode ser estruturada para espelhar as operações humanas do mundo real. Por exemplo, você pode combinar um modelo de IA mais poderoso (como GPT-5.4 Thinking) com modelos mais rápidos e baratos, como GPT-5.4 mini, da mesma forma que você teria um engenheiro sênior gerenciando uma equipe de engenheiros juniores.
Além disso: a Nvidia quer possuir seu data center de IA de ponta a ponta
Os sistemas agênticos podem combinar modelos de diferentes tamanhos, com modelos maiores planejando tarefas e modelos menores executando subtarefas. Nesse contexto, o GPT-5.4 mini pode lidar com o trabalho de subagentes, como pesquisa em bases de código, revisão de arquivos e processamento de documentos.
OpenAI disse: “O GPT-5.4 mini também é forte em tarefas multimodais, especialmente aquelas relacionadas ao uso do computador. O modelo pode interpretar rapidamente capturas de tela de interfaces de usuário densas para concluir tarefas de uso do computador com velocidade.”
Disponibilidade e preços
GPT-5.4 mini está disponível nas versões API, Codex e ChatGPT. Para usuários do nível Free and Go, o GPT-5.4 mini pode ser acessado por meio da opção “Thinking” no menu plus. OpenAI disse: “Para todos os outros usuários, o GPT-5.4 mini está disponível como um substituto de limite de taxa para o pensamento GPT-5.4.”
Além disso: usei o GPT-5.2-Codex para encontrar um bug misterioso e um pesadelo de hospedagem – foi muito rápido
A empresa disse que para programadores, o GPT-5.4 mini está disponível no aplicativo Codex, CLI, extensão IDE e web. OpenAI disse que o minimodelo “usa apenas 30% da cota GPT-5.4, permitindo que os desenvolvedores lidem rapidamente com tarefas de codificação mais simples no Codex por cerca de um terço do custo”. Além disso, o Codex também pode delegar para mini-subagentes GPT-5.4 para que o trabalho menos intensivo de raciocínio seja executado no modelo menos dispendioso.
Você pode ver como os custos se comparam ao observá-los lado a lado:
- O mini preço do GPT-5.4 é de US$ 0,75 por milhão de tokens de entrada e US$ 4,50 por milhão de tokens de saída com uma janela de contexto de 400 mil.
- GPT-5.4 nano é apenas API e custa US$ 0,20 por milhão de tokens de entrada e US$ 1,25 por milhão de tokens de saída.
Em comparação, GPT-5.4 tem preço a US$ 2,50 por milhão de tokens de entrada e US$ 15,00 por milhão de tokens de saída. Isso é um muito mais caro. Faz sentido que, se você está tentando manter os custos baixos e não precisa de poder de processamento extra, seja melhor usar os modelos mini e nano.
E você?
Você já experimentou modelos de IA menores, como GPT-5.4 mini ou nano, em seus próprios fluxos de trabalho? Você prefere usar os maiores modelos disponíveis ou acha que modelos mais rápidos e mais baratos costumam ser “bons o suficiente” para tarefas em tempo real, como codificação, análise de documentos ou fluxos de trabalho de agentes?
Se você criar ferramentas baseadas em IA, como decidir quando usar um modelo de raciocínio completo em vez de um modelo de subagente leve? Deixe-nos saber o que você está vendo na prática e comente abaixo.
Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de se inscrever meu boletim informativo semanal de atualizaçãoe siga-me no Twitter/X em @DavidGewirtzno Facebook em Facebook.com/DavidGewirtzno Instagram em Instagram.com/DavidGewirtzno Bluesky em @DavidGewirtz.come no YouTube em YouTube.com/DavidGewirtzTV.












