O laboratório chinês de IA DeepSeek lançou duas versões prévias de seu mais novo modelo de linguagem grande, DeepSeek V4uma atualização muito aguardada para o modelo V3.2 do ano passado e o modelo de raciocínio R1 que o acompanha que conquistou o mundo da IA.
A empresa afirma que tanto o DeepSeek V4 Flash quanto o V4 Pro são modelos mistos de especialistas com janelas de contexto de 1 milhão de tokens cada – o suficiente para permitir que grandes bases de código ou documentos sejam usados em prompts. A abordagem mista de especialistas envolve a ativação de apenas um certo número de parâmetros por tarefa para reduzir os custos de inferência.
O modelo Pro tem um total de 1,6 trilhão de parâmetros (49 bilhões ativos), o que o torna o maior modelo de peso aberto disponível, superando o Kimi K 2.6 da Moonshot AI (1,1 trilhão), o M1 da MiniMax (456 bilhões) e mais que o dobro do DeepSeek V3.2 (671 bilhões). O menor, o V4 Flash, possui 284 bilhões de parâmetros (13 bilhões ativos).
DeepSeek diz que ambos os modelos são mais eficientes e de desempenho do que DeepSeek V3.2 devido a melhorias arquitetônicas, e quase “fecharam a lacuna” com os modelos líderes atuais, tanto abertos quanto fechados, em benchmarks de raciocínio.
A empresa afirma que seu novo modelo V4-Pro-Max supera seus pares de código aberto em benchmarks de raciocínio e supera o GPT-5.2 e Gemini 3.0 Pro da OpenAI em algumas tarefas. Ao codificar benchmarks de competição, DeepSeek disse que o desempenho de ambos os modelos V4 é “comparável ao GPT-5.4”.
No entanto, os modelos parecem ficar um pouco atrás dos modelos de fronteira em testes de conhecimento, especificamente o GPT-5.4 da OpenAI e o mais recente Gemini 3.1 Pro do Google. Este atraso sugere uma “trajetória de desenvolvimento que acompanha os modelos de fronteira de última geração em aproximadamente 3 a 6 meses”, escreveu o laboratório.
Tanto o V4 Flash quanto o V4 Pro suportam apenas texto, ao contrário de muitos de seus pares de código fechado, que oferecem suporte para compreensão e geração de áudio, vídeo e imagens.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Notavelmente, o DeepSeek V4 é muito mais acessível do que qualquer modelo de fronteira disponível atualmente. O modelo V4 Flash menor custa US$ 0,14 por milhão de tokens de entrada e US$ 0,28 por milhão de tokens de saída, superando o GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini e Claude Haiku 4.5. O modelo maior V4 Pro, por sua vez, custa US$ 0,145 por milhão de tokens de entrada e US$ 3,48 por milhão de tokens de saída, também superando o Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 e GPT-5.4.
O lançamento ocorre um dia depois dos EUA acusado China de roubar IP de laboratórios de IA americanos em escala industrial usando milhares de contas proxy. O próprio DeepSeek foi acusado pela Anthropic e OpenAI de “destilar”, essencialmente copiar, seus modelos de IA.
Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.













