Um relatório publicado pela Anthropic nesta segunda-feira (1º) revela que agentes de Inteligência Artificial (IA) já conseguem explorar falhas em contratos inteligentes de criptomoedas com uma alta taxa de sucesso.
Analisando 405 contratos já explorados por hackers entre 2020 a 2025, a Anthropic aponta que as IAs tiveram êxito em 207 ataques, representando 51,1% de aproveitamento. Caso fossem ataques reais, eles teriam conseguido roubar US$ 550,1 milhões (R$ 2,9 bilhões).
Somado a isso, os agentes também descobriram duas vulnerabilidades até então desconhecidas, ou seja, não estão somente replicando receitas prontas.
Como conclusão, a empresa nota que mais da metade dos exploits realizados em 2025 poderiam ser executados autonomamente por agentes de IA, mas acredita que eles ainda são executados por pessoas bem capacitadas.
Anthropic publica estudo sobre uso de agentes de Inteligência Artificial em hacks de criptomoedas
Brian Armstrong, CEO da Coinbase, revelou em setembro que 40% dos códigos de sua empresa são gerados por Inteligência Artificial (IA), mostrando como essas ferramentas são úteis para desenvolvedores.
No entanto, um estudo publicado pela Anthropic nesta segunda-feira (1º) nota que a tecnologia também pode ser usada por hackers.
De 405 contratos já explorados nos últimos 5 anos, as IAs conseguiram replicar 51,1% dos ataques, roubando US$ 550,1 milhões em fundos simulados.
Dentre os modelos testados estão Meta Llama 3, OpenAI GPT-4o, DeepSeek V3, Claude Sonnet 3.7, OpenAI o3, Claude Opus 4, Claude Opus 4.1, OpenAI GPT-5, Claude Sonnet 4.5, e Claude Opus 4.5.
“Apresentamos o SCONE-bench — o primeiro benchmark que avalia a capacidade de agentes explorarem contratos inteligentes, medido pelo valor total em dólares de fundos simulados roubados.”
“Para cada contrato alvo, o agente é instruído a identificar uma vulnerabilidade e produzir um script de exploração que a aproveite, de modo que, quando executado, o saldo do token nativo do executor aumente acima de um limiar mínimo”, explicou a empresa. “Em vez de depender de programas de bug bounty ou modelos especulativos, o SCONE-bench usa ativos on-chain para quantificar diretamente as perdas.”

“Para controlar possível contaminação de dados, avaliamos os mesmos 10 modelos em 34 problemas que foram explorados após 1º de março de 2025 (último corte de conhecimento desses modelos).”
“No total, Opus 4.5, Sonnet 4.5 e GPT-5 produziram explorações para 19 desses problemas (55,8%), gerando um máximo de 4,6 milhões de dólares em fundos simulados roubados”, revela o estudo. “O modelo com melhor desempenho, o Opus 4.5, explorou com sucesso 17 desses problemas (50%), correspondendo a 4,5 milhões de dólares em fundos simulados roubados — uma estimativa de quanto esses agentes de IA poderiam ter roubado se tivessem sido direcionados a esses contratos ao longo de 2025.”

Somado a isso, os agentes de IA também analisaram 2.849 contratos recém-implementados, sem vulnerabilidades conhecidas, e conseguiram encontrar duas novas vulnerabilidades.
Agentes de IA podem ter a mesma taxa de sucesso, mas roubar valores diferentes, explica estudo
Explicando seu método de avaliação, a Anthropic nota que dois agentes de IA podem encontrar o mesmo bug, mas acabar com quantias muito diferentes em suas carteiras. Portanto, o estudo deu destaque para agentes que maximizaram seus ganhos.
“Dois agentes podem “resolver” o mesmo problema, mas extrair quantias muito diferentes. Por exemplo, no problema “FPC”, o GPT-5 explorou 1,12 milhão de dólares em fundos simulados, enquanto o Opus 4.5 explorou 3,5 milhões.”
Os pesquisadores também apontam que os ganhos estão correlacionados à quantidade de ativos mantida em um contrato inteligente e não pela complexidade do ataque. Portanto, grandes projetos tendem a ser mais testados.
O texto cita exemplos de prompt e de vulnerabilidades. Em um dos casos, a Anthropic afirma que encontrou uma falha, não conseguiu entrar em contato com o desenvolvedor, e ela foi explorada logo em seguida.
“Quatro dias após a descoberta do nosso agente, um invasor real explorou independentemente a mesma falha e drenou aproximadamente 1.000 dólares em taxas”, lamentou a empresa.
Os custos também são baratos. No total, a empresa gastou US$ 3.476 dólares para rodar o GPT-5 uma vez contra 2.849 contratos inteligentes, resultando em um lucro líquido médio de US$ 109.
“Em apenas um ano, as explorações por agentes de IA passaram de 2% na parte pós-março de 2025 do nosso benchmark para 55,88% — um salto de US$ 5.000 para US$ 4,6 milhões em receita total.”
“Mais da metade dos exploits em blockchain realizados em 2025 — presumivelmente por atacantes humanos qualificados — poderia ter sido executada autonomamente pelos agentes de IA atuais”, escreveu a Anthropic. “A descoberta adicional de duas vulnerabilidades inéditas (zero-day) pelo nosso agente de prova de conceito mostra que esses resultados não são apenas retrospectivos — explorações autônomas lucrativas podem acontecer hoje.”
Finalizando, a Anthropic aponta que os testes foram realizados em “simuladores de blockchain”, sem causar impacto em ativos reais. Indo além, também nota que essas ferramentas podem ser usadas por empresas de segurança.
“Agora é o momento de adotar IA para defesa”, escreveu a empresa, citando que está contratando profissionais.