Compartilhe este artigo

Pesquisa da Anthropic Mostra que Agentes de IA Estão se Aproximando da Capacidade Real de Ataques a DeFi

Modelos testados pela MATS e pelo programa Anthropic Fellows geraram scripts de exploração prontos para uso e identificaram novas vulnerabilidades, sugerindo que a exploração automatizada está se tornando viável técnica e economicamente.

2 de dez. de 2025, 9:11 a.m. Traduzido por IA
Artificial Intelligence (Markus Winkler/Unsplash)
AI agents are now capable of identifying flaws in smart contracts. (Markus Winkler/Unsplash modified by CoinDesk)

O que saber:

  • Agentes de IA agora são capazes de identificar e explorar vulnerabilidades em contratos inteligentes, representando uma ameaça potencial conforme demonstrado por pesquisas recentes.
  • Modelos como GPT-5 e Sonnet 4.5 simularam com sucesso explorações, revelando a viabilidade de ataques autônomos em finanças descentralizadas (DeFi).
  • Pesquisadores alertam que, à medida que os modelos de IA se tornam mais baratos e avançados, o risco de exploração automatizada se estende além do DeFi para vulnerabilidades mais amplas em softwares e infraestruturas.

Agentes de IA estão se tornando suficientemente eficazes na identificação de vetores de ataque em contratos inteligentes, a ponto de já poderem ser utilizados como armas por atores mal-intencionados, de acordo com uma nova pesquisa publicado pelo programa Anthropic Fellows.

Um estudo do Programa de Bolsistas de Alinhamento e Teoria de ML (MATS) e do programa de Bolsistas Anthropic testou modelos de ponta contra o SCONE-bench, um conjunto de dados com 405 contratos explorados. GPT-5, Claude Opus 4.5 e Sonnet 4.5 produziram coletivamente US$ 4,6 milhões em explorações simuladas em contratos hackeados após suas datas de conhecimento, oferecendo um limite inferior sobre o que esta geração de IA poderia ter roubado no ambiente real.

A História Continua abaixo
Não perca outra história.Inscreva-se na Newsletter The Protocol hoje. Ver Todas as Newsletters
(Anthropic Labs & MATS)
(Anthropic Labs & MATS)

A equipe constatou que os modelos frontier não apenas identificaram vulnerabilidades. Eles foram capazes de sintetizar scripts completos de exploração, sequenciar transações e esgotar liquidez simulada de maneiras que refletem de forma próxima os ataques reais nas blockchains Ethereum e BNB Chain.

O artigo também testou se os modelos atuais poderiam identificar vulnerabilidades que ainda não haviam sido exploradas.

GPT-5 e Sonnet 4.5 analisaram 2.849 contratos recentemente implantados na BNB Chain que não apresentaram sinais de comprometimento anterior. Ambos os modelos identificaram dois falhas zero-day no valor de $3.694 em lucro simulado. Um deles decorreu de um modificador de visualização ausente em uma função pública que permitia ao agente inflar seu saldo de tokens.

Outra permitia que um chamador redirecionasse retiradas de taxas fornecendo um endereço de beneficiário arbitrário. Em ambos os casos, os agentes geraram scripts executáveis que transformaram a falha em lucro.

Embora os valores em dólares fossem pequenos, a descoberta é relevante porque demonstra que a exploração autônoma rentável é tecnicamente viável.

O custo para operar o agente em todo o conjunto de contratos foi de apenas US$ 3.476, e o custo médio por execução foi de US$ 1,22. À medida que os modelos se tornam mais baratos e mais capazes, a economia se inclina cada vez mais a favor da automação.

Pesquisadores argumentam que essa tendência reduzirá a janela entre a implantação do contrato e o ataque, especialmente em ambientes DeFi onde o capital é publicamente visível e bugs exploráveis podem ser monetizados instantaneamente.

Embora os achados se concentrem em DeFi, os autores alertam que as capacidades subjacentes não são específicas de domínio.

Os mesmos passos de raciocínio que permitem a um agente inflar um saldo de token ou redirecionar taxas podem ser aplicados a softwares convencionais, bases de código fechadas e infraestruturas que suportam o mercado de criptomoedas.

À medida que os custos dos modelos diminuem e o uso de ferramentas melhora, a varredura automatizada provavelmente se expandirá além dos contratos inteligentes públicos para qualquer serviço ao longo do caminho até ativos valiosos.

Os autores apresentam o trabalho como um alerta em vez de uma previsão. Modelos de IA agora podem realizar tarefas que, historicamente, exigiam atacantes humanos altamente qualificados, e a pesquisa sugere que a exploração autônoma em DeFi não é mais hipotética.

A questão agora para os desenvolvedores de criptomoedas é com que rapidez a defesa pode alcançar.