Anthropic diz que hacker usou agentes de IA para ataque extenso sem precedentes

Esquema de roubo de dados e extorsão afetou pelo menos 17 organizações governamentais, de saúde, serviços de emergência e religiosas no último mês, informou a empresa conhecida pelo Claude; pedidos de resgate chegaram a US$ 500 mil

Um único usuário teve condições de operar como uma equipe inteira com a ajuda de agentes de IA, de acordo com o relatório da Anthropic
Por Emily Forgash
27 de Agosto, 2025 | 03:55 PM

Bloomberg — Um hacker utilizou a tecnologia da Anthropic como parte de um vasto esquema de crimes cibernéticos que afetou pelo menos 17 organizações, informou a empresa, em um caso “sem precedentes” de criminosos que fizeram uso de uma ferramenta comercial de inteligência artificial de forma generalizada.

O hacker usou a ferramenta de codificação com agentes de IA da Anthropic em uma operação de roubo de dados e extorsão que afetou vítimas no último mês em instituições governamentais, de saúde, serviços de emergência e religiosas, de acordo com o relatório de inteligência de ameaças de agosto da empresa, publicado nesta semana.

PUBLICIDADE

Os ataques com o uso da ferramenta Claude Code resultaram no comprometimento de dados de saúde, informações financeiras e outros registros confidenciais com pedidos de resgate que variaram de US$ 75.000 a US$ 500 mil em criptomoedas.

Leia mais: Ataque hacker à entidade que liga bancos ao BC expõe fragilidade no combate a fraudes

Essa campanha demonstrou uma “evolução preocupante no crime cibernético assistido por IA”, no qual um único usuário teve condições de operar como uma equipe inteira, de acordo com o relatório.

PUBLICIDADE

A empresa disse que o hacker usou a IA como assessor e operador ativo para executar ataques que, de outra forma, teriam sido mais difíceis e demorados.

A Anthropic, uma startup de IA fundada em 2021, é uma das empresas privadas mais valiosas do mundo e concorre com a OpenAI e a xAI de Elon Musk, bem como com o Google, da Alphabet, e a Microsoft. Ela se posicionou como uma empresa de IA confiável e preocupada com a segurança.

A Anthropic também relatou o uso malicioso do Claude na Coreia do Norte e na China.

PUBLICIDADE

Os agentes norte-coreanos têm usado o Claude para manter empregos fraudulentos remotos e bem remunerados em empresas de tecnologia destinadas a financiar o programa de armas do regime.

Esses agentes parecem ser completamente dependentes da IA para realizar tarefas técnicas básicas, como escrever códigos, de acordo com a Anthropic.

Um agente de ameaças chinês usou o Claude para comprometer os principais provedores de telecomunicações vietnamitas, sistemas de gerenciamento agrícola e bancos de dados governamentais em uma campanha de nove meses, de acordo com o relatório.

PUBLICIDADE

Embora a investigação da Anthropic se concentre especificamente no Claude, a empresa escreveu que os casos de estudo mostram como os criminosos cibernéticos têm explorado recursos avançados de IA em todos os estágios de suas operações de fraude.

Leia mais: Anthropic anuncia modelo de IA mais potente antes do lançamento do rival GPT-5

A Anthropic descobriu que os ataques gerados por IA são capazes de se adaptar às medidas defensivas em tempo real e, ao mesmo tempo, tomar decisões estratégicas e táticas sobre como explorar e monetizar os alvos de forma mais eficaz.

Outras empresas de IA também relataram o uso malicioso de sua tecnologia.

A OpenAI disse no ano passado que um grupo com vínculos com a China se fez passar por um de seus usuários para lançar ataques de phishing contra os funcionários da startup de IA. A OpenAI também disse que fechou redes de propaganda na Rússia, na China, em Irã e em Israel que usavam sua tecnologia.

Veja mais em bloomberg.com

©2025 Bloomberg L.P.