Bloomberg Opinion — Graças à prática da Nvidia (NVDA) de divulgar seus resultados financeiros fora do ciclo típico das empresas de tecnologia, a questão de saber se a empresa de quase US$ 5 trilhões registrará uma forte demanda em 2026 já havia sido respondida com segurança bem antes de seu último anúncio na quarta-feira (25).
Os investidores já sabiam que as empresas de hyperscalers de IA previam coletivamente cerca de US$ 650 bilhões em despesas de capital este ano, um aumento de cerca de 60% em relação a 2025 — e a Nvidia receberá grande parte disso.
Antecipada por seus clientes, a Nvidia precisava, portanto, de suas próprias boas notícias para superar o que os investidores já sabiam: as margens. A margem bruta ajustada no período de novembro a janeiro foi de 75,2%, a mais alta desde o segundo semestre de 2024.
A empresa prevê que esse número seja praticamente o mesmo no trimestre atual. O que não está claro é por quanto tempo a Nvidia poderá manter essa lucratividade extraordinária à medida que o cenário da IA amadurece.
Leia mais: LatAm não pode competir em IA só com mão de obra, diz presidente regional da Mercer
Uma questão persistente na teleconferência com analistas, acompanhada de perto pela empresa, foi sobre o fornecimento. A empresa não poderá evitar o aumento do custo da memória, mesmo estando na frente ou perto da frente da fila para o componente crucial em comparação com a maioria das outras empresas do mundo da eletrônica.
A CFO da empresa, Colette Kress, disse que a empresa “garantiu estrategicamente estoque e capacidade para atender à demanda além dos próximos trimestres”, mas que esperava que a “escassez” no fornecimento persistisse. Os principais fabricantes dos componentes alertaram que a escassez se prolongará até 2027 e talvez por mais tempo. A demanda pelo hardware por trás da IA ainda cresce mais rapidamente do que a infraestrutura necessária para produzi-lo.
Outra questão é a resiliência da Nvidia contra os concorrentes que buscam uma fatia do negócio de chips de IA. Para reaplicar a (possível) frase de Jeff Bezos, a margem da Nvidia é a oportunidade de seus concorrentes — e eles estão começando a aproveitá-la.
No último trimestre do ano passado, o preço das ações da Alphabet (GOOG) subiu quando ficou claro que seus próprios chips de IA — chamados de Unidades de Processamento Tensor, ou TPUs — estavam lidando com uma parte significativa das cargas de trabalho para seus clientes do Google Cloud, bem como para seus próprios serviços de IA, como o Gemini. A Amazon (AMZN) obteve uma vitória para seus próprios chips de IA ao conquistar a Anthropic como cliente.
A disponibilidade e o preço de chips alternativos tornaram a diversificação válida, apesar das restrições. De acordo com a Bloomberg Intelligence, o preço médio de venda por unidade de um TPU do Google é de US$ 8 mil a US$ 10 mil, em comparação com US$ 23 mil ou mais para o chip H100 da Nvidia ou US$ 27 mil e acima para seu sistema Blackwell mais recente.
Movimentos mais recentes têm feito com que os investidores da Nvidia prestem ainda mais atenção. Esta semana, a Meta Platforms (META) e a Advanced Micro Devices anunciaram um acordo de “dezenas de bilhões” para que a fabricante de chips forneça processadores para centros de dados, um golpe mais direto no negócio principal de GPUs da Nvidia. Em outubro passado, a OpenAI negociou algo semelhante. Em ambos os acordos, a AMD incluiu algumas ações como garantia.
A resposta do CEO da Nvidia, Jensen Huang, a tudo isso é falar sobre a vantagem competitiva de sua empresa, e ele fez isso novamente na quarta-feira.
Leia mais: Menos bits, mais átomos: ameaça da IA muda foco para ativos físicos, diz CIO do UBS WM
Em comparação com os chips personalizados do Google e da Amazon, ele enfatizou que as GPUs da Nvidia podem realizar uma gama mais ampla de tarefas relacionadas à IA, em vez de serem usadas apenas para, digamos, treinamento ou “inferência” — a execução da IA depois que os modelos subjacentes são construídos. As melhorias no consumo de energia dão à Nvidia uma vantagem quando a disponibilidade de energia é limitada.
A chave para manter a lucratividade impressionante da Nvidia, disse ele, era manter sua posição como líder em inovação em IA. “A alavanca mais importante de nossas margens brutas é, na verdade, proporcionar saltos geracionais aos nossos clientes”, disse ele.
Isso pode ser verdade, mas apenas sugere o outro lado dessa equação de cem bilhões de dólares. Com pouco mais da metade da receita de US$ 62,3 bilhões da empresa proveniente dos hyperscalers de IA, a Nvidia depende desses investimentos para produzir um retorno significativo para esses clientes e manter o apetite para continuar pagando um prêmio pelo produto da Nvidia.
“Estou confiante no crescimento do fluxo de caixa deles, e a razão para isso é muito simples”, argumentou Huang. “Agora vimos a inflexão da IA agêntica e a utilidade dos agentes em todo o mundo e em empresas em todos os lugares. Você está vendo uma demanda incrível por computação por causa disso.”
“Neste novo mundo da IA”, acrescentou ele, “computação é receita”. É verdade, mas o retorno da receita ainda não chegou nem perto de justificar os gastos, e essa margem elevada será prejudicada se não se concretizar.
Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Dave Lee é colunista da Bloomberg Opinion e cobre a área de tecnologia. Foi correspondente em São Francisco no Financial Times e na BBC News.
Veja mais em Bloomberg.com
Leia também
Além da Amazônia: Natura mira novos bioativos da Antártida com aporte em startup
Lula se reuniu com Cosan, Shell e BTG para tratar de crise da Raízen, dizem fontes
Do café premium para o azeite: Orfeu busca expandir nova frente de negócio em MG
© 2026 Bloomberg L.P.



