Mercado reage à notícia de que Meta vai investir em chips de IA do Google, e Nvidia cai

A Meta estaria em negociações para usar unidades de processamento de tensores produzidos pelo Google em data centers a partir de 2027, informou o site ‘The Information’, que cita uma fonte familiarizada com as negociações

Um acordo ajudaria a estabelecer as TPUs como uma alternativa aos chips da Nvidia, o padrão de qualidade para grandes empresas de tecnologia e startups
Por Nick Turner
25 de Novembro, 2025 | 07:28 AM

Bloomberg — As ações da Nvidia recuaram após a publicação de notícias de que a Meta está em negociações para gastar bilhões em chips de IA do Google. A negociação sugere que o líder de buscas na internet avança em seus esforços para rivalizar com o acelerador de IA mais vendido do setor.

A Meta está em negociações para usar os chips do Google - conhecidos como unidades de processamento de tensores, ou TPUs - em data centers em 2027, informou o The Information, que cita uma pessoa não identificada familiarizada com as negociações. A Meta também poderá alugar chips da divisão de nuvem do Google no ano que vem, disse o site de notícias.

PUBLICIDADE

Um acordo ajudaria a estabelecer as TPUs como uma alternativa aos chips da Nvidia, o padrão de qualidade para grandes empresas de tecnologia e startups, da Meta à OpenAI, que precisam de poder de computação para desenvolver e executar plataformas de inteligência artificial.

Leia também: Revolut atrai Nvidia, confirma valuation de US$ 75 bilhões e ‘empata’ com Nubank

As ações da Nvidia caíram até 2,7% nas negociações após o expediente. A Alphabet, proprietária do Google, ganhou 2,7%, somando-se a um recente aumento devido ao otimismo com a versão mais recente de seu modelo Gemini AI.

PUBLICIDADE
Ações da Alphabet sobem enquanto as da Nvidia caem

Anteriormente, o Google fechou um acordo para fornecer até 1 milhão de seus chips para a Anthropic, o que chamou a atenção para o potencial de desafios de longo prazo para a posição dominante da Nvidia no mercado.

Depois que o acordo com a Anthropic foi anunciado, o analista da Seaport, Jay Goldberg, considerou-o uma “validação realmente poderosa” para as TPUs. “Muitas pessoas já estavam pensando nisso, e muito mais pessoas provavelmente estão pensando nisso agora”, disse ele.

Os representantes da Meta não quiseram comentar, enquanto o Google não respondeu imediatamente às solicitações.

PUBLICIDADE

Leia também: Nvidia prevê vendas acima do consenso no quarto trimestre e ação dispara 6%

O que diz a Bloomberg Intelligence: “O provável uso das TPUs do Google pela Meta, que já são usadas pela Anthropic, mostra que os fornecedores terceirizados de modelos de linguagem de grande porte provavelmente aproveitarão o Google como um fornecedor secundário de chips aceleradores para inferências no curto prazo. O capex da Meta de pelo menos US$ 100 bilhões para 2026 sugere que ela gastará pelo menos US$ 40 a US$ 50 bilhões em capacidade de chips de inferência no próximo ano, segundo nossos cálculos. O crescimento do consumo e da carteira de pedidos para o Google Cloud pode se acelerar em relação a outros hiperescaladores e pares de neocloud devido à demanda de clientes corporativos que desejam consumir TPUs e LLMs Gemini no Google Cloud”, escreveram Mandeep Singh e Robert Biggar.

As ações asiáticas relacionadas à Alphabet subiram no início das negociações de terça-feira na Ásia. Na Coreia do Sul, a IsuPetasys, que fornece placas multicamadas para a Alphabet, subiu 18%, atingindo um novo recorde intradiário. Em Taiwan, as ações da MediaTek subiram quase 5%.

PUBLICIDADE

Um acordo com a Meta - uma das empresas que mais gasta globalmente em data centers e desenvolvimento de IA - seria uma vitória para o Google. Mas muito depende do fato de os chips tensores poderem demonstrar a eficiência energética e a capacidade de computação necessárias para se tornarem uma opção viável a longo prazo.

O chip tensor - desenvolvido pela primeira vez há mais de 10 anos, especialmente para tarefas de inteligência artificial - está ganhando força fora de sua empresa de origem como uma forma de treinar e executar modelos complexos de IA.

Seu fascínio como alternativa cresceu em um momento em que empresas de todo o mundo se preocupam com a dependência excessiva da Nvidia, em um mercado em que até mesmo a Advanced Micro Devices é uma distante segunda colocada.

As unidades de processamento gráfico, ou GPUs, a parte do mercado de chips dominada pela Nvidia, foram criadas para acelerar a renderização de gráficos - principalmente em videogames e outros aplicativos de efeitos visuais - mas acabaram se tornando adequadas para o treinamento de modelos de IA porque podem lidar com grandes quantidades de dados e cálculos.

As TPUs, por outro lado, são um tipo de produto especializado conhecido como circuitos integrados específicos de aplicativos, ou microchips que foram projetados para uma finalidade específica.

Os chips tensores também foram adaptados como um acelerador para tarefas de IA e aprendizado de máquina nos próprios aplicativos do Google.

Como o Google e sua unidade DeepMind desenvolvem modelos de IA de ponta, como o Gemini, a empresa conseguiu levar as lições dessas equipes para os projetistas de chips. Ao mesmo tempo, a capacidade de personalizar os chips beneficiou as equipes de IA.

Veja mais em bloomberg.com