Los cibercriminales estaban preparando el ataque, sin siquiera sospechar que sus planes ya habían sido expuestos por inteligencia artificial.
Google anunció el exitoso descubrimiento de una vulnerabilidad grave en el ampliamente utilizado motor de bases de datos SQLite antes de que pudiera ser explotada en ataques reales. El problema fue identificado por el sistema inteligente Big Sleep, un agente autónomo desarrollado conjuntamente por DeepMind y Project Zero. El hallazgo se produjo en el marco de una iniciativa para utilizar modelos de lenguaje en la búsqueda de vulnerabilidades.
El error recibió el identificador CVE-2025-6965 y obtuvo una puntuación CVSS de 7.2. La vulnerabilidad consiste en un daño de memoria asociado con un desbordamiento de enteros. Afecta a todas las versiones de SQLite anteriores a la 3.50.2. Los desarrolladores de SQLite explicaron que un atacante con la capacidad de insertar consultas SQL arbitrarias puede provocar una lectura fuera de los límites del arreglo, lo que abre la puerta a una posible explotación.
Según Google, este problema solo era conocido por posibles atacantes. Gracias a la combinación del análisis de amenazas y las capacidades de Big Sleep, la empresa logró predecir su posible uso y bloquear el ataque antes de que ocurriera. Según Kent Walker, presidente de asuntos globales de Google y Alphabet, este es el primer caso registrado en el que una IA previene la explotación de una vulnerabilidad en condiciones reales.
Información adicional provino del equipo GTIG, que detectó signos indirectos de la preparación de un ataque, aunque no pudo identificar de inmediato la vulnerabilidad en sí. Estos datos fueron compartidos con otros especialistas de Google, quienes, con la ayuda de Big Sleep, lograron localizar el problema antes de que se iniciaran acciones maliciosas.
Es notable que esta no sea la primera intervención de Big Sleep: en octubre de 2024, el mismo agente detectó en SQLite otro error crítico: un desbordamiento del búfer de pila que podría haber causado fallos o la ejecución de código arbitrario.
En este contexto, Google también publicó un documento técnico dedicado al desarrollo de agentes de IA seguros. En él se enfatiza la necesidad de contar con marcos claros y transparencia para los sistemas de IA, con el fin de minimizar el riesgo de filtraciones de información confidencial y comportamientos impredecibles. La empresa critica tanto los enfoques clásicos de seguridad, que resultan demasiado rígidos para IA flexibles, como los sistemas puramente lógicos de protección, que no pueden defenderse de ataques como la inyección de comandos (prompt injection).
Como solución, se propone un modelo de protección híbrido y multinivel, que combina métodos tradicionales con mecanismos adaptativos basados en inferencias de IA. Esta estrategia permite establecer límites confiables alrededor del entorno operativo del agente y prevenir acciones no deseadas, incluso en caso de distorsión de su lógica o manipulaciones externas.
Google subraya que una protección confiable no requiere oponer reglas algorítmicas a la IA, sino combinarlas, para evitar escenarios potencialmente catastróficos, incluyendo el uso de IA en ciberataques.