Un hack que costó $1,22 y dejó $4,6 millones: la IA aprende a robar criptomonedas casi gratis

Un hack que costó $1,22 y dejó $4,6 millones: la IA aprende a robar criptomonedas casi gratis

Un estudio reciente revela que la IA ya puede detectar vulnerabilidades zero‑day en la cadena de bloques y desarrollar exploits rentables.

image

Los agentes de IA han aprendido a encontrar y explotar vulnerabilidades en contratos inteligentes a un nivel que ya tiene consecuencias financieras directas: en el nuevo trabajo de MATS y Anthropic Fellows los modelos desarrollaron por sí mismos exploits por un valor total de $4,6 millones. Los investigadores construyeron su propio benchmark SCONE-bench a partir de 405 contratos inteligentes que fueron realmente hackeados y verificaron hasta qué punto los LLM modernos son capaces de reproducir —o incluso superar— los ataques de hackers en un entorno controlado. Los resultados muestran un aumento vertiginoso de capacidades: en un año la eficacia de los modelos al explotar vulnerabilidades recientes creció del 2% a casi el 56%, y los ingresos potenciales por ataques para modelos individuales se duplicaban cada mes y medio.

SCONE-bench se convirtió en el primer intento a gran escala de evaluar las capacidades cibernéticas de la IA no por la precisión abstracta o por el número de bugs encontrados, sino por el equivalente al daño financiero real. Para cada contrato, el agente debía encontrar la vulnerabilidad y escribir un exploit funcional que, al ejecutarse en un entorno aislado, aumentara el balance del atacante al menos en 0,1 ETH o BNB.

En total, 10 modelos probados pudieron preparar ataques exitosos para 207 contratos, lo que dio como resultado $550 millones de fondos virtualmente robados. Pero es especialmente importante el comportamiento de los modelos sobre datos aparecidos después de la fecha de su entrenamiento: Claude Opus 4.5, Sonnet 4.5 y GPT-5 pudieron hackear 19 de esos 34 contratos, y el volumen total de fondos “robados” alcanzó $4,6 millones —una especie de cota inferior de cuánto podrían haber perdido los usuarios en 2025 si tales agentes hubieran operado en la realidad.

Para excluir el riesgo de que los modelos simplemente adivinaran patrones de ataque conocidos, los investigadores realizaron un segundo experimento: probaron Claude Sonnet 4.5 y GPT-5 en 2 849 nuevos contratos sobre los que no había información de hackeos. Ambos agentes encontraron dos vulnerabilidades desconocidas hasta entonces y generaron exploits funcionales por un valor de $3 694.

En un caso, un error en el contrato permitía a cualquier usuario aumentar sin restricciones la cantidad de sus propios tokens, y en otro caso permitía retirar comisiones de trading destinadas a otro receptor. Una de esas vulnerabilidades fue explotada más tarde de forma independiente por un atacante real. Las capacidades de la IA en esta prueba demostraron que la búsqueda automática de bugs rentables no es una mera futurología, sino una tecnología disponible hoy.

Los ingenieros también calcularon el coste de ataques de este tipo. Ejecutar GPT-5 sobre toda la muestra costó $3 476, y el precio medio de un intento fue de $1,22. Al mismo tiempo, la eficacia de los modelos crece más rápido de lo que disminuye el coste de su uso: en los últimos seis meses el volumen medio de tokens necesario para desarrollar un exploit exitoso ha caído más del 70%. A medida que se abaratan los costes de cómputo, este tipo de ataques autónomos se vuelven prácticamente rentables.

Los autores subrayan que las mismas herramientas pueden emplearse con fines defensivos. Los exploits en contratos inteligentes son solo un campo de prueba conveniente: el código es abierto y el daño se puede medir fácilmente en dinero. Pero las habilidades de los modelos —análisis de límites, razonamiento sobre flujos de datos, trabajo con largas cadenas de acciones— son universales y se escalan a cualquier sistema de software. Con este ritmo de desarrollo, la ventana entre la publicación de un código vulnerable y su explotación solo se reducirá, por lo que tanto desarrolladores como empresas deben empezar ya a adaptar sus procesos de seguridad a la era de la auditoría y los exploits por IA.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!