Amazon aposta em novo chip para ganhar terreno de Nvidia e Google em IA

Com o acelerador Trainium3, gigante de tecnologia espera atrair empresas interessadas em preços mais competitivos

Por

Bloomberg — A unidade de computação em nuvem da Amazon (AMZN) correu para colocar no mercado a nova versão de seu chip de inteligência artificial, em um esforço renovado para vender hardware capaz de competir com os produtos da Nvidia e do Google.

O acelerador, chamado Trainium3, foi instalado recentemente em alguns data centers e estará disponível para clientes a partir desta terça-feira (2), disse Dave Brown, vice-presidente da Amazon Web Services, em entrevista à Bloomberg News.

“À medida que entrarmos no início do próximo ano, começaremos a ampliar a oferta muito, muito rápido”, afirmou.

Leia também: Voltalia negocia data centers no Ceará com dona do TikTok e Brookfield, dizem fontes

O investimento em chips é parte central da estratégia da Amazon para se destacar em IA. A AWS é a maior fornecedora de capacidade de computação e armazenamento sob demanda. Mas tem enfrentado dificuldade para replicar essa liderança entre os principais desenvolvedores de ferramentas de IA, já que algumas empresas preferem recorrer à Microsoft (MSFT), que mantém uma relação estreita com a OpenAI, criadora do ChatGPT, ou ao Google, da Alphabet (GOOG).

As ações da Amazon fecharam em alta de 0,23% depois de subir 1,6% nesta terça em Nova York. Os papéis da Nvidia (NVDA) subiram 0,86%, enquanto a rival de chips de IA Advanced Micro Devices (AMD) caiu 2,06%.

A Amazon espera atrair empresas interessadas em preços mais competitivos. Segundo a companhia, os chips Trainium conseguem executar os cálculos intensivos por trás dos modelos de IA de forma mais barata e eficiente do que as unidades de processamento gráfico da Nvidia, que lideram o mercado.

“Temos ficado muito satisfeitos com a relação entre desempenho e custo do Trainium”, disse Brown.

Leia também: Evolução do Gemini impressiona, mas ChatGPT dispõe de vantagens fundamentais

A Amazon lançou o Trainium3 cerca de um ano depois de apresentar a versão anterior do acelerador — um ritmo acelerado para os padrões da indústria de chips. “O principal que esperamos é que não haja nenhum tipo de fumaça ou fogo”, brincou um engenheiro da AWS quando o chip foi ativado pela primeira vez, em agosto.

O ciclo rápido também acompanha o ritmo da Nvidia, que prometeu lançar um chip por ano.

Há, porém, um porém: os chips da Amazon não contam com o amplo conjunto de bibliotecas de software que ajuda os clientes a colocar rapidamente as GPUs da Nvidia em operação.

A Bedrock Robotics, empresa que usa modelos de IA para permitir o funcionamento autônomo de equipamentos de construção, opera sua infraestrutura em servidores da AWS. Mas, quando desenvolve modelos para orientar uma escavadeira, recorre aos chips da Nvidia, segundo o diretor de tecnologia Kevin Peterson.

“Precisamos que seja eficiente e fácil de usar”, disse ele. “Isso é a Nvidia.”

Grande parte dos chips Trainium em operação hoje está à disposição da Anthropic, instalados em data centers em Indiana, Mississippi e Pensilvânia. A AWS informou no início deste ano que conectou mais de 500 mil deles para ajudar a startup a treinar seus modelos mais recentes, e planeja dedicar 1 milhão de chips à Anthropic até o fim do ano.

A Amazon aposta que o avanço da Anthropic, somado aos seus próprios serviços de IA, pode atrair outras empresas. A companhia anunciou poucos outros grandes clientes para o chip, o que dificulta a avaliação de sua eficácia por analistas.

A Anthropic também utiliza as Unidades de Processamento Tensor (TPUs) do Google e firmou um acordo este ano com a empresa-mãe Alphabet, que garante acesso a dezenas de bilhões de dólares em capacidade computacional.

Em entrevista à Bloomberg Television, o CEO da AWS, Matt Garman, disse que a relação com a Anthropic é “incrivelmente forte”. Ele afirmou que a startup tem uma demanda enorme por poder computacional, o que a leva a usar diversos fornecedores.

A Amazon fez o anúncio do chip durante o re:Invent, sua conferência anual de usuários, que nos últimos anos se transformou em uma vitrine para serviços de IA, onde a empresa busca atrair desenvolvedores de ferramentas avançadas e potenciais clientes.

Nesta terça-feira, a Amazon também anunciou atualizações para sua principal linha de modelos de IA, chamada Nova. Os novos produtos Nova 2 incluem uma variante chamada Omni, capaz de receber entradas em texto, imagem, voz ou vídeo e responder com texto ou imagens.

Assim como ocorre com seus chips, a Amazon tem tentado vender a ideia de que seus modelos oferecem bom desempenho pelo preço. Modelos anteriores da família Nova geralmente não figuraram entre os líderes em benchmarks que avaliam a performance de modelos de IA em perguntas padronizadas.

“O benchmark real é o mundo real”, disse Rohit Prasad, responsável por grande parte do desenvolvimento de modelos da Amazon e líder da equipe de Inteligência Artificial Geral da empresa. Ele afirmou esperar que os novos modelos sejam competitivos.

A empresa também planeja permitir que os clientes utilizem mais dados ao personalizar os modelos da Amazon. O Nova Forge, um novo produto, foi criado para permitir que usuários avançados acessem versões dos modelos Nova antes da conclusão do treinamento e os adaptem com seus próprios dados.

O Reddit está usando o Nova Forge para desenvolver um modelo capaz de avaliar se uma publicação no fórum viola as políticas de segurança da plataforma. Chris Slowe, diretor de tecnologia da empresa, afirma que alguns clientes de IA tendem a usar o modelo mais avançado para todos os problemas, em vez de buscar um especializado.

“O fato de podermos transformá-lo em um especialista na nossa área específica é de onde vem o valor”, disse ele.

Veja mais em Bloomberg.com

Leia também

Como o Google causou um abalo no domínio da Nvidia no mercado de chips para IA

Google desperta na corrida da IA e busca protagonismo em software e chips