Início Tecnologia Os mais novos modelos da DeepSeek enfrentam o Vale do Silício por...

Os mais novos modelos da DeepSeek enfrentam o Vale do Silício por uma fração do custo

14
0

A DeepSeek lançou hoje versões prévias de seus tão aguardados modelos de IA V4, mais uma vez estreitando a lacuna com os principais modelos de IA das maiores empresas de tecnologia do mundo.

A startup chinesa lançado duas versões de código aberto, um modelo V4 Pro de alto desempenho e um modelo V4 Flash menor e mais barato. A empresa apresenta ambos como competitivos com sistemas de fronteira, destacando forte desempenho em codificação, raciocínio aprimorado e recursos de agência mais avançados.

Uma das atualizações mais atraentes é o salto para uma janela de contexto de 1 milhão de tokens, que permite que os modelos processem bases de código inteiras ou documentos extremamente longos em um único prompt.

Mas o que realmente diferencia esses modelos é o foco na eficiência.

Os modelos V4 contam com uma arquitetura de mistura de especialistas (MoE), um design que ativa apenas um subconjunto dos parâmetros do modelo a qualquer momento. Embora o sistema possa ter trilhões de parâmetros no total, apenas uma fração é usada por tarefa, o que mantém baixos os custos de inferência.

Os novos modelos chegam pouco mais de um ano depois que o DeepSeek ganhou as manchetes com seu modelo de raciocínio R1. Esse sistema rivalizava com modelos avançados de empresas como OpenAI e Google, mas teria sido construído por uma fração do custo e usava menos chips de IA para treinamento. A notícia até desencadeou uma Venda de trilhões de dólares em Wall Streetcom a Nvidia perdendo quase US$ 600 milhões em um único dia.

Em um artigo técnicoa empresa afirma que seus modelos mais recentes são competitivos, embora reconheça uma pequena lacuna de desempenho.

“Através da expansão dos tokens de raciocínio, DeepSeek-V4-Pro-Max demonstra desempenho superior em relação ao GPT-5.2 e Gemini-3.0-Pro em benchmarks de raciocínio padrão”, disse a empresa. “No entanto, seu desempenho fica ligeiramente aquém do GPT-5.4 e Gemini-3.1-Pro, sugerindo uma trajetória de desenvolvimento que segue os modelos de fronteira de última geração em aproximadamente 3 a 6 meses.”

Ainda assim, para muitos usuários, a economia de custos pode compensar qualquer pequena queda no desempenho.

O criador do Datasette, Simon Willison, comparou os preços dos tokens nos principais modelos em seu blog e descobriu que o DeepSeek é o mais barato de sua classe.

DeepSeek é carregando US$ 0,14 por milhão de tokens de entrada e US$ 0,28 por milhão de tokens de saída para seu modelo V4 Flash. Para efeito de comparação, o GPT-5.4 Nano custa US$ 0,20 por milhão de tokens de entrada e US$ 1,25 por milhão de tokens de saída, enquanto Claude Haiku 4.5 custa US$ 1 e US$ 5 por milhão de tokens de entrada e saída, respectivamente.

A diferença torna-se ainda mais acentuada quando se trata dos modelos profissionais. DeepSeek está cobrando US$ 1,74 por milhão de tokens de entrada e US$ 3,48 por milhão de tokens de saída por seu modelo V4 Pro. Em comparação, o Gemini 3.1 Pro custa US$ 2 por milhão de tokens de entrada e US$ 12 por milhão de tokens de saída, enquanto o GPT-5.5 custa US$ 5 e US$ 30 por milhão de tokens de entrada e saída, respectivamente.

E, claro, de acordo com os lançamentos anteriores do DeepSeek, o V4 é licenciado pelo MIT e de peso aberto, portanto, se você tiver os recursos para executá-lo, é “gratuito” da mesma forma que um filme no Netflix é “gratuito”. Ninguém está cobrando no momento em que você aperta o play, mas o medidor ainda está funcionando em algum lugar. Neste caso, é a sua conta de luz.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui