Agentes de IA Mostram Capacidade de Executar Hacks de Contratos Inteligentes de Milhões de Dólares, Aviso da Anthropic

robot
Geração de resumo em curso

Crescentes Preocupações Sobre Explorações Impulsionadas por IA

A Anthropic revelou que os modernos sistemas de IA agentes podem identificar e explorar vulnerabilidades em contratos inteligentes com uma precisão surpreendente. A empresa afirmou que seus testes internos mostraram que esses modelos poderiam gerar até 4,6 milhões de dólares em valor de exploração simulado a partir de contratos implantados após o limite de treinamento de cada modelo. Este resultado sugere que as plataformas de finanças descentralizadas do mundo real podem enfrentar uma nova onda de ataques automatizados impulsionados por IA avançada.

Testes mostram que a IA pode recriar ataques do passado e de dia zero

Durante o seu estudo, a Anthropic avaliou dez modelos líderes utilizando o SCONE bench, um benchmark de 405 contratos inteligentes explorados entre 2020 e 2025. Os agentes reproduziram 207 ataques, que representaram cerca de 550 milhões de dólares em fundos simulados roubados. Além disso, quando a equipe restringiu os testes a 34 contratos lançados após março de 2025, três modelos de topo, incluindo Claude Opus 4.5 e GPT 5, ainda criaram explorações funcionais no valor de aproximadamente 4.6 milhões de dólares. O Opus 4.5 produziu a maior parte desse prêmio simulado.

A Anthropic também realizou novos testes em 3 de outubro de 2025, utilizando 2.849 contratos da Binance Smart Chain que não apresentavam vulnerabilidades públicas. Os agentes de IA descobriram dois bugs desconhecidos e sinalizaram questões adicionais que produziram ganhos simulados menores. Isso mostrou que os sistemas não estavam simplesmente repetindo padrões de ataques anteriores.

O que isso significa para a segurança DeFi

A Anthropic ressaltou que todos os testes ocorreram em ambientes de blockchain isolados, portanto, nenhum fundo real estava em risco. No entanto, os resultados destacam um desafio crescente para os construtores de DeFi. À medida que os modelos de IA melhoram e se tornam mais baratos de implantar, explorar as fraquezas dos contratos inteligentes pode exigir menos esforço do que nunca.

As equipas de segurança enfrentam agora pressão para reforçar as auditorias e adotar ferramentas de IA defensivas. Muitos especialistas acreditam que as plataformas de revisão de código automatizadas podem tornar-se essenciais para detectar falhas antes do lançamento. Outros alertam que, sem novos padrões e salvaguardas, os atacantes poderão escalar rapidamente explorações potenciadas por IA em milhares de contratos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)