DeepSeek apresenta novo método para desenvolver IA e amplia expectativa por modelo

Artigo de coautoria do fundador Liang Wenfeng descreve o que seria uma abordagem mais eficiente para o desenvolvimento de IA, ilustrando o esforço chinês para competir com empresas como a OpenAI, apesar da falta de acesso aos chips da Nvidia

Por

Bloomberg — A DeepSeek publicou um documento em que descreve o que seria uma abordagem mais eficiente para o desenvolvimento de IA, o que ilustra o esforço do setor chinês de inteligência artificial para competir com empresas como a OpenAI, apesar da falta de acesso gratuito aos chips da Nvidia.

O documento, de coautoria do fundador Liang Wenfeng, apresenta uma estrutura chamada Manifold-Constrained Hyper-Connections. Ele foi projetado para melhorar a escalabilidade e, ao mesmo tempo, reduzir as demandas computacionais e de energia do treinamento de sistemas avançados de IA, de acordo com os autores.

Essas publicações da DeepSeek já prenunciaram o lançamento de modelos importantes no passado.

Leia mais: Antes de venda para Meta, Manus buscou ‘apagar’ vínculos de sua origem chinesa

A startup com sede em Hangzhou surpreendeu omundo com o modelo de raciocínio R1 há um ano, desenvolvido por uma fração do custo de seus rivais do Vale do Silício.

Desde então, a DeepSeek lançou várias plataformas menores, mas a expectativa aumenta para seu próximo sistema principal, amplamente apelidado de R2, esperado por volta do Festival da Primavera, em fevereiro.

As startups chinesas continuam a operar sob restrições significativas, dado que os EUA impedem o acesso aos semicondutores mais avançados, essenciais para desenvolver e executar a IA. Essas restrições forçaram os pesquisadores a buscar métodos e arquiteturas não convencionais.

O que diz a Bloomberg Intelligence

“O próximo modelo R2 da DeepSeek - que poderá ser lançado nos próximos meses - tem potencial para derrubar o setor global de IA novamente, apesar dos ganhos recentes do Google.

O modelo Gemini 3 do Google ultrapassou a OpenAI em novembro e conquistou a terceira posição no ranking da LiveBench de desempenho global de modelos de linguagem grande (LLM).

Os modelos de baixo custo da China, que são desenvolvidos por uma fração do custo dos concorrentes, conquistaram dois lugares entre os 15 primeiros."

- Robert Lea e Jasmine Lyu, analistas.

A DeepSeek, conhecida por suas inovações pouco ortodoxas, publicou seu último artigo nesta semana por meio do repositório aberto arXiv e da plataforma de código aberto Hugging Face. O artigo lista 19 autores, com o nome de Liang aparecendo em último lugar.

Leia mais: DeepSeek lança atualização do seu modelo de IA com capacidade aumentada

O fundador, que sempre conduziu a agenda de pesquisa da DeepSeek, incentivou sua equipe a repensar a forma como os sistemas de IA em larga escala são concebidos e construídos.

A pesquisa mais recente aborda desafios como a instabilidade do treinamento e a escalabilidade limitada, observando que o novo método incorpora “otimização rigorosa da infraestrutura para garantir a eficiência”.

Os testes foram realizados em modelos que variam de 3 bilhões a 27 bilhões de parâmetros, com base na pesquisa de 2024 da ByteDance sobre arquiteturas de hiperconexão.

A técnica é promissora “para a evolução de modelos fundamentais”, disseram os autores.

Veja mais em bloomberg.com

©2026 Bloomberg L.P.