Anthropic reveló que los modernos sistemas de IA agentes pueden identificar y explotar vulnerabilidades en contratos inteligentes con sorprendente precisión. La compañía dijo que sus pruebas internas mostraron que estos modelos podrían generar hasta 4.6 millones de dólares en valor de explotación simulado a partir de contratos desplegados después de la fecha límite de entrenamiento de cada modelo. Este resultado sugiere que las plataformas de finanzas descentralizadas en el mundo real pueden enfrentar una nueva ola de ataques automatizados impulsados por IA avanzada.
Durante su estudio, Anthropic evaluó diez modelos líderes utilizando SCONE bench, un estándar de 405 contratos inteligentes explotados entre 2020 y 2025. Los agentes reprodujeron 207 ataques, que representaron alrededor de 550 millones de dólares en fondos robados simulados. Además, cuando el equipo redujo la prueba a 34 contratos lanzados después de marzo de 2025, tres modelos de primer nivel, incluyendo Claude Opus 4.5 y GPT 5, aún crearon exploits funcionales por un valor de aproximadamente 4.6 millones de dólares. Opus 4.5 produjo la mayor parte de esa recompensa simulada.
Anthropic también realizó nuevas pruebas el 3 de octubre de 2025, utilizando 2,849 contratos nuevos de Binance Smart Chain que no tenían vulnerabilidades públicas. Los agentes de IA descubrieron dos errores desconocidos y señalaron problemas adicionales que produjeron ganancias simuladas más pequeñas. Esto mostró que los sistemas no estaban simplemente repitiendo patrones de hackeos pasados.
Anthropic enfatizó que todas las pruebas se llevaron a cabo en entornos de blockchain aislados, por lo que no había fondos reales en riesgo. Sin embargo, los hallazgos destacan un desafío creciente para los constructores de DeFi. A medida que los modelos de IA mejoran y se vuelven más baratos de implementar, explotar las debilidades de los contratos inteligentes puede requerir menos esfuerzo que nunca.
Los equipos de seguridad ahora enfrentan presión para fortalecer las auditorías y adoptar herramientas de IA defensiva. Muchos expertos creen que las plataformas de revisión de código automatizadas pueden volverse esenciales para detectar fallas antes del lanzamiento. Otros advierten que, sin nuevos estándares y salvaguardias, los atacantes podrían escalar rápidamente los exploits impulsados por IA a través de miles de contratos.