Bloomberg Opinion — Quando a Anthropic anunciou que seu novo modelo, o Mythos, teria um lançamento limitado devido aos enormes riscos de segurança, a notícia repercutiu entre empresas e governos como o potencial ponto de inflexão que muitos haviam previsto e temido.
Mas alguns céticos se perguntaram se não haveria algo mais por trás disso. A Anthropic estaria limitando o uso desse modelo simplesmente porque não conseguia lidar com a demanda adicional?
A Anthropic afirmou que a restrição foi motivada exclusivamente por questões de segurança. Mas as acusações se intensificaram à medida que análises externas sugeriram que o avanço do Mythos em termos de capacidade talvez não fosse tão assustador quanto anunciado, e as questões de confiabilidade da Anthropic se tornaram um tema de discussão em todo o setor.
O ex-czar de IA da Casa Branca, David Sacks, disse que não se tratava de “um dispositivo apocalíptico”.
Joe Levy, CEO do grupo de cibersegurança Sophos, disse em uma entrevista que o Mythos “não representou uma transformação radical” para a cibersegurança. “É apenas uma continuação da escalada que estamos vendo o setor realizar neste momento.”
⟶ Assine as newsletters da Bloomberg Línea e receba as notícias do dia em primeira mão no e-mail.
Em comparação com seus rivais, a Anthropic tem tido mais parcimônia na aquisição de poder de computação para construir e executar seus modelos. A “inferência” — execução de modelos de IA — está ganhando importância à medida que o número de usuários continua a crescer.
A aparente falta de capacidade da Anthropic causa “uma frustração crescente” entre os clientes do Claude, sugeriu Brent Thill, analista da Jefferies.
Ele afirmou que as análises de desempenho realizadas pela Jefferies observaram que o chamado tempo de atividade da ferramenta de codificação da Anthropic, o Claude Code, era de 99,18%, ante 99,98% do Codex, concorrente da OpenAI, atribuindo a causa a “restrições de tokens, limitações de computação e dívida técnica”.
Essa diferença percentual pode parecer insignificante, mas para fluxos de trabalho exigentes, não é.
“A Anthropic tem alguns modelos fantásticos”, disse Wade Foster, CEO da empresa de automação Zapier, que explicou que sua empresa troca de modelos com frequência por diversos motivos, sendo um deles a confiabilidade.
“Todo o setor enfrenta restrições de computação, e a Anthropic adquiriu muito menos capacidade de computação em comparação com a OpenAI. Então, sim, acho que a Anthropic está sentindo isso.”
Leia mais: IA reduz barreiras e amplia alcance de startups brasileiras, diz executivo da Anthropic
Em resposta às reclamações dos usuários de que o Claude Code estava perdendo qualidade, a Anthropic reconheceu a crise de computação.
“A demanda pelo Claude cresceu a um ritmo sem precedentes, e nossa infraestrutura foi sobrecarregada para atendê-la, especialmente nos horários de pico”, afirmou a empresa em comunicado.
“Estamos fazendo tudo o que podemos para resolver isso e somos profundamente gratos pela paciência de nossos usuários.”
Esse gargalo abre uma oportunidade para a OpenAI, que está atrás no uso de IA empresarial, diminuir essa diferença.
“Venham por causa dos limites de uso, fiquem pelo melhor modelo”, comentou o CEO Sam Altman no X — sugerindo que os clientes que mudarem de plataforma para evitar os limites de uso do Claude também descobrirão que o modelo mais recente da OpenAI, o GPT-5.5, não fica atrás do da Anthropic.
Curiosamente, alguns desenvolvedores dizem ter percebido isso.
“Minha opinião atual é que a Anthropic está limitada pela capacidade de computação e que essa limitação agora é visível no produto”, disse Harshith Vaddiparthy, chefe de crescimento da startup de faturamento de IA JustPaid, em uma mensagem que me enviou.
“A experiência parece menos confiável, menos transparente e menos amigável para desenvolvedores do que costumava ser.”
A Anthropic, é claro, está buscando resolver o problema. Alguns acordos recentes ajudarão. Na quarta-feira, em uma conferência para desenvolvedores do Claude Code, a Anthropic disse que estava aumentando os limites de taxa para o Claude Code e anunciou uma parceria com a SpaceX, de Elon Musk, que trará mais capacidade.
Leia mais: Google Cloud amplia presença em LatAm para descobrir ‘o próximo grande fundador’
Isso segue o anúncio no mês passado de que a Anthropic expandiria seu acordo com a Amazon para incluir 5 gigawatts adicionais de poder de computação.
Um acordo com o Google, da Alphabet, e a fabricante de chips Broadcom fornecerá 3,5 gigawatts de poder de computação a partir de 2027.
O site The Information informou na terça-feira (5) que os gastos da Anthropic com o Google chegariam a US$ 200 bilhões nos próximos cinco anos.
Para não ficar atrás, a OpenAI está gastando US$ 50 bilhões na aquisição de poder de computação somente neste ano, afirmou seu presidente, Greg Brockman, na terça-feira durante uma audiência judicial.
Enquanto isso, as quatro maiores empresas de hyperscalers — Alphabet, Microsoft, Amazon e Meta Platforms — estão investindo, juntas, mais de US$ 700 bilhões em despesas de capital, sendo que a maior parte desse montante será destinada à expansão da IA.
Para a Anthropic, a capacidade adicional não pode chegar logo o suficiente se ela quiser manter sua liderança no setor empresarial.
O panorama geral é que, cada vez mais, a supremacia dos modelos pode agora ser uma consideração secundária para as empresas que decidem quais modelos adotar.
Confiabilidade e custo estão se tornando o diferencial crítico. Essa batalha é vencida por quem tem o controle do maior número de chips. A Anthropic tem um longo caminho a percorrer para alcançá-los.
Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Dave Lee é colunista da Bloomberg Opinion e cobre a área de tecnologia. Foi correspondente em São Francisco no Financial Times e na BBC News.
Veja mais em Bloomberg.com
Leia também
Demanda forte da China deve sustentar minério, diz CFO da Vale
© 2026 Bloomberg L.P.



