Bloomberg Opinion — O Mythos, um novo modelo de inteligência artificial que a Anthropic apresentou como perigoso demais para ser lançado, parecia, à primeira vista, um problema para os bancos.
Dias após a empresa anunciar a nova tecnologia, o secretário do Tesouro dos Estados Unidos, Scott Bessent, convocou os líderes de Wall Street para garantir que tomassem precauções para proteger seus sistemas, gerando uma publicidade inestimável para a Anthropic e levantando questões sobre quem tem acesso exclusivo à ameaçadora criação.
O Tesouro agora pressiona para obter acesso ao Mythos. Uma organização que já o possui é o AI Security Institute do Reino Unido, que se tornou o principal árbitro neutro do mundo sobre o que conta como IA segura e protegida.
O Tesouro constatou que parte do alarde em torno do Mythos é justificado. Ele é de fato mais capaz de ser usado para ciberataques complexos do que outras ferramentas de IA, como o ChatGPT da OpenAI ou o Gemini do Google. Mas é mais perigoso para sistemas “pouco protegidos” ou simplificados.
Os grandes bancos possuem algumas das infraestruturas de TI mais seguras do mundo e, embora o Mythos e outras IAs poderosas representem uma ameaça nas mãos erradas, é o leque muito mais amplo de pequenas e médias empresas que parece mais vulnerável a hackers e agentes mal-intencionados que utilizam essas ferramentas.
⟶ Assine as newsletters da Bloomberg Línea e receba as notícias do dia em primeira mão no e-mail.
Especialistas em cibersegurança há muito reclamam que as empresas tratam a segurança como algo secundário, e o resultado são serviços online e softwares repletos de bugs, oferecendo aos hackers uma possível maneira de se infiltrar em um sistema de computador.
As empresas de tecnologia adotam uma abordagem para lidar com isso, chamada de “divulgação responsável”. Assim que uma falha é encontrada em seu software, elas a anunciam publicamente, acompanhada de uma correção sugerida, dando aos clientes tempo para aplicar o patch e seguir com suas vidas.
A versão da Microsoft (MSFT) para isso é o “Patch Tuesday”, que, apesar do nome, se refere a uma divulgação mensal das falhas que a empresa encontrou no Office 365, no Windows e em outros produtos.
Leia mais: Anthropic, dona do Claude, começa a montar estrutura no Brasil, dizem fontes
As equipes de TI de bancos como o Barclays e o Wells Fargo pegam esses patches sugeridos, testam-nos para garantir que não prejudiquem nenhum de seus sistemas existentes, obtêm a aprovação da gerência e, então, os implementam. Isso leva semanas ou meses.
Até o advento da IA generativa, o processo funcionava muito bem, pois normalmente levaria um tempo ainda maior para que agentes mal-intencionados encontrassem uma maneira de atacar um sistema com base na falha que havia sido divulgada. Eles teriam que estudar o bug e também experimentar diferentes métodos para explorá-lo.
As ferramentas de inteligência artificial mudaram tudo isso. Ainda há dois anos, os hackers podiam pegar os detalhes de uma divulgação e colá-los no ChatGPT, depois instruir o bot a vasculhar um banco de dados público de código-fonte, como o GitHub, em busca de outros padrões que pudessem ser explorados.
Digamos, por exemplo, que a Microsoft anunciasse que seus pesquisadores haviam encontrado uma falha na forma como o Office 365 lida com um arquivo. Um chatbot poderia não apenas sugerir como explorar essa vulnerabilidade, mas também identificar rapidamente outros softwares, como o Microsoft Outlook ou o Teams, que apresentam falhas semelhantes.
Tudo isso ficou ainda mais fácil para os hackers nos últimos meses, à medida que as empresas de IA dotaram seus modelos de capacidades “agentes”, conferindo-lhes efetivamente o poder de agir de forma independente.
O Claude Cowork, da Anthropic, lançado em janeiro, agora pode realizar tarefas como enviar e-mails e marcar compromissos na agenda.
Para quem quer invadir softwares, essas ferramentas não apenas encontrarão pontos fracos, mas tentarão diferentes maneiras de atacá-los automaticamente até que um método funcione.
O Mythos pode até mesmo “encadear” um bug de software em ataques de várias etapas, algo que antes só hackers humanos altamente qualificados eram capazes de fazer. É o equivalente a um ladrão que planeja uma série de etapas para um arrombamento: encontrar a primeira janela aberta, usá-la para destrancar uma porta por dentro e, então, desativar o alarme. Cada etapa isolada não é suficiente, mas juntas elas garantem acesso total.
Até agora, o impacto da IA generativa na cibersegurança tem sido amorfo. Não havia uma única ferramenta capaz de lançar novos ataques devastadores, mas grandes modelos de linguagem ainda eram aproveitados para potencializar velhos truques do ofício.
Leia mais: Anthropic, dona do Claude, começa a montar estrutura no Brasil, dizem fontes
Hackers têm usado chatbots para aprimorar e-mails de ataques de phishing, tornando-os mais convincentes, ou geradores de avatares em tempo real para criar videochamadas deepfake que levam as pessoas a acreditar que um homem em uma sala de estar é uma jovem mulher.
Mas a IA agêntica está prestes a impulsionar o próprio ato de hack, que há muito tempo é uma atividade oportunista para os sem escrúpulos. Os chamados “black hats” tendem a não atacar bancos, pois estes são extremamente seguros. Em vez disso, eles vasculham a web em busca de vulnerabilidades, seja um hospital no qual possam se infiltrar para fazer exigências de ransomware ou uma pequena loja familiar.
Os recentes avanços na IA são um problema para essas organizações porque, no momento em que uma falha é divulgada por um fornecedor de software, elas agora têm muito pouco tempo para atualizar e corrigir seus sistemas.
De acordo com o site zerodayclock.com, o tempo médio entre a divulgação de uma falha de software e a criação de um ataque funcional caiu de 771 dias em 2018 para menos de quatro horas atualmente.
A divulgação do Mythos pela Anthropic certamente beneficia seus próprios esforços de divulgação antes de uma oferta pública inicial, contribuindo para o ar de mistério em torno do potencial de sua tecnologia. Mas também está forçando uma reflexão muito necessária sobre como o intervalo de tempo entre a publicação de falhas de TI e sua exploração praticamente desapareceu.
Isso levanta questões sobre se a “divulgação responsável” é realmente uma ideia inteligente, e se o processo de corrigir falhas ao longo de semanas e meses agora é inútil.
Nem mesmo Wall Street consegue responder a essas perguntas ainda, mas os bancos, pelo menos, têm pessoal e recursos financeiros para implementar as difíceis mudanças estruturais necessárias para, eventualmente, aplicar correções quase em tempo real. O problema maior será para as empresas menores, que precisam agir com a mesma rapidez e que precisarão de ajuda técnica e regulatória que o mercado ainda não pode oferecer.
Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”
Veja mais em Bloomberg.com
Leia também
Lula mira fim da escala 6x1 em ofensiva por voto de trabalhador