Los agentes de IA muestran la capacidad de ejecutar hackeos de contratos inteligentes de un millón de dólares, advierte Anthropic.

CryptometerIo

Crecientes preocupaciones sobre los exploits impulsados por IA

Anthropic reveló que los modernos sistemas de IA agentes pueden identificar y explotar vulnerabilidades en contratos inteligentes con sorprendente precisión. La compañía dijo que sus pruebas internas mostraron que estos modelos podrían generar hasta 4.6 millones de dólares en valor de explotación simulado a partir de contratos desplegados después de la fecha límite de entrenamiento de cada modelo. Este resultado sugiere que las plataformas de finanzas descentralizadas en el mundo real pueden enfrentar una nueva ola de ataques automatizados impulsados por IA avanzada.

Las pruebas muestran que la IA puede recrear ataques pasados y de día cero

Durante su estudio, Anthropic evaluó diez modelos líderes utilizando SCONE bench, un estándar de 405 contratos inteligentes explotados entre 2020 y 2025. Los agentes reprodujeron 207 ataques, que representaron alrededor de 550 millones de dólares en fondos robados simulados. Además, cuando el equipo redujo la prueba a 34 contratos lanzados después de marzo de 2025, tres modelos de primer nivel, incluyendo Claude Opus 4.5 y GPT 5, aún crearon exploits funcionales por un valor de aproximadamente 4.6 millones de dólares. Opus 4.5 produjo la mayor parte de esa recompensa simulada.

Anthropic también realizó nuevas pruebas el 3 de octubre de 2025, utilizando 2,849 contratos nuevos de Binance Smart Chain que no tenían vulnerabilidades públicas. Los agentes de IA descubrieron dos errores desconocidos y señalaron problemas adicionales que produjeron ganancias simuladas más pequeñas. Esto mostró que los sistemas no estaban simplemente repitiendo patrones de hackeos pasados.

Lo que esto significa para la seguridad DeFi

Anthropic enfatizó que todas las pruebas se llevaron a cabo en entornos de blockchain aislados, por lo que no había fondos reales en riesgo. Sin embargo, los hallazgos destacan un desafío creciente para los constructores de DeFi. A medida que los modelos de IA mejoran y se vuelven más baratos de implementar, explotar las debilidades de los contratos inteligentes puede requerir menos esfuerzo que nunca.

Los equipos de seguridad ahora enfrentan presión para fortalecer las auditorías y adoptar herramientas de IA defensiva. Muchos expertos creen que las plataformas de revisión de código automatizadas pueden volverse esenciales para detectar fallas antes del lanzamiento. Otros advierten que, sin nuevos estándares y salvaguardias, los atacantes podrían escalar rápidamente los exploits impulsados por IA a través de miles de contratos.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios