Novo modelo da China aposta em arquitetura mixture-of-experts, janela de 1 milhão de tokens e multimodalidade nativa — mas o verdadeiro movimento está no hardware.
O laboratório chinês DeepSeek deve lançar na próxima semana o DeepSeek V4, segundo o Financial Times. O modelo chega com números que chamam atenção: 1 trilhão de parâmetros, arquitetura mixture-of-experts (MoE) e janela de contexto de até 1 milhão de tokens.
Mas, mais do que a escala, o que diferencia o V4 é a estratégia por trás dele.
Um trilhão de parâmetros, mas com 32 bilhões ativos por token
O V4 utiliza arquitetura MoE, ativando cerca de 32 bilhões de parâmetros por token. Isso significa que, apesar do tamanho total gigantesco, o custo computacional por requisição pode ser significativamente menor que o de modelos densos equivalentes.
A promessa é de maior eficiência por token em relação ao V3 — mesmo com capacidade ampliada.
Outro destaque técnico é a memória condicional chamada Engram, que permitiria sustentar a janela de 1 milhão de tokens com maior estabilidade contextual, ampliando aplicações em código, análise documental extensa e agentes autônomos.
Multimodalidade nativa
Diferentemente de modelos que adicionam camadas multimodais posteriormente, o DeepSeek V4 nasce multimodal. Ele integra geração e compreensão de texto, imagem, vídeo e áudio desde a base da arquitetura.
Esse movimento acompanha a tendência global de consolidar IA generativa como interface universal — capaz de processar e produzir múltiplos formatos sem depender de modelos separados.
O ponto central: hardware chinês, não Nvidia
O aspecto mais estratégico do V4 não está apenas na arquitetura, mas na infraestrutura.
O modelo foi otimizado desde o início para rodar em chips Huawei Ascend e processadores da Cambricon, excluindo deliberadamente GPUs da Nvidia e da AMD dos testes pré-lançamento.
Em um cenário marcado por restrições de exportação impostas pelos Estados Unidos, a China acelerou o desenvolvimento de sua própria pilha tecnológica — do silício ao modelo.
A jornalista Deirdre Bosa, da CNBC, resumiu o momento ao afirmar que “o próximo choque de IA da China é hardware”.
Benchmarks e custo de inferência
Resultados preliminares vazados indicam desempenho de cerca de 90% no HumanEval e acima de 80% no SWE-bench — métricas relevantes para avaliação de capacidade em programação.
Segundo relatos, o custo de inferência seria uma fração dos modelos ocidentais equivalentes, reforçando o argumento de que a China não apenas busca autonomia tecnológica, mas também competitividade econômica em larga escala.
A bifurcação da cadeia global de IA
As restrições de exportação dos EUA tinham como objetivo limitar o avanço chinês em inteligência artificial. O efeito colateral pode ter sido o oposto: acelerar a construção de um ecossistema independente.
Com chips próprios, modelos próprios e infraestrutura própria, o mercado global começa a assistir a uma possível bifurcação da cadeia de suprimentos de IA — uma divisão estrutural entre dois blocos tecnológicos.
O lançamento do DeepSeek V4 não é apenas mais um update de modelo.
É um sinal claro de que a disputa por liderança em IA deixou de ser apenas algorítmica — e passou a ser industrial.

