Anthropic, junto con el programa Machine Learning Alignment & Theory Scholars (MATS), reveló que modelos avanzados de IA identificaron y ejecutaron exploits en contratos inteligentes.
La investigación se realizó en un entorno controlado, pero los resultados encendieron alarmas: al analizar contratos explotados después de marzo de 2025, los modelos Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 fueron capaces de replicar en pruebas ataques históricos y generar exploits funcionales que en su momento habían provocado pérdidas por u$s4,6 millones.
El trabajo se enfocó en contratos previamente hackeados entre 2020 y 2025. Los investigadores probaron diez sistemas de IA líderes y comprobaron que más de la mitad pudo explotar vulnerabilidades conocidas.
El equipo de seguridad de Anthropic, el red team, actuó como un atacante malicioso para evaluar el potencial de abuso. Según el informe, los modelos actuales no solo identifican fallas, sino que también producen scripts listos para ejecutar ataques.
Esto sugiere que la explotación automatizada de contratos inteligentes es cada vez más técnicamente viable y económicamente accesible.
Los investigadores advirtieron que este tipo de capacidades podrían derivar en ataques de "día cero", es decir, vulnerabilidades desconocidas que se explotan antes de que los desarrolladores puedan corregirlas.
La IA revela fallas críticas en contratos DeFi
El hallazgo plantea un desafío para el sector de las finanzas descentralizadas (DeFi). Los contratos inteligentes son la base de aplicaciones que mueven miles de millones de dólares en activos digitales. Si agentes de IA pueden explotarlos de manera autónoma, el riesgo de ataques masivos aumenta.
Anthropic destacó que su objetivo no es alarmar, sino anticipar escenarios de riesgo y promover defensas más sólidas.
Aunque la investigación se realizó en condiciones controladas y con fines de seguridad, queda claro que la frontera entre la innovación y el riesgo se vuelve más difusa.
Paralelamente, la compañía lanzó su modelo Claude Opus 4.5, más preciso que GPT-5 en pruebas de ingeniería de software, según la empresa. El avance muestra el potencial de la IA para resolver tareas complejas, pero también deja en evidencia que ese poder podría usarse de forma negativa si no se establecen límites claros.