Ciberdelincuentes hallan método para burlar la protección de redes neuronales mediante archivos de configuración

La inteligencia artificial deja de ser rápidamente un juguete en manos de actores maliciosos. En los dos primeros meses de 2026 quedó claro que estos sistemas ya ayudan a crear herramientas maliciosas completas, evadir protecciones e incluso participar en ataques en tiempo real.
El caso más representativo está relacionado con la plataforma VoidLink. Un complejo conjunto malicioso para Linux fue inicialmente atribuido al trabajo de todo un equipo debido a su arquitectura cuidada y la calidad del código. Su composición incluía un sistema de gestión, medios para presencia oculta, herramientas para trabajar con la nube y contenedores, así como más de 30 módulos para acciones posteriores al acceso no autorizado. Más tarde se supo que el proyecto lo creó un único desarrollador con ayuda de un entorno de desarrollo de inteligencia artificial de pago de ByteDance.
El autor no actuó mediante simples peticiones, sino mediante especificaciones detalladas. Describió tareas, requisitos y etapas en archivos de texto estructurados, tras lo cual el asistente escribió y verificó el código paso a paso. La persona dirigió el proceso y corrigió el resultado. Al final, un trabajo que a tres equipos les habría llevado alrededor de 30 semanas tomó menos de una semana y produjo más de 88 000 líneas de código operativo.
Este caso muestra un cambio importante. La inteligencia artificial ya produce herramientas maliciosas listas para usar, y su participación es difícil de detectar en el código final. En el caso de VoidLink, la relación con esas tecnologías se reveló solo por un error del autor. Ahora hay que asumir desde el principio la intervención de la inteligencia artificial en el desarrollo de programas maliciosos.
Al mismo tiempo, los atacantes intentan ejecutar modelos localmente para evitar restricciones y bloqueos. En los foros se discuten versiones «sin censura» que se usan para crear ransomware, keyloggers y otras herramientas. Pero en la práctica esos modelos quedan notablemente por detrás de las soluciones comerciales. Los usuarios se quejan de baja calidad, errores y funcionamiento inestable. Para obtener resultados aceptables se requieren tarjetas gráficas caras y grandes inversiones, a veces de decenas de miles de dólares. Incluso los vendedores de herramientas ofensivas reconocen que los modelos locales por ahora estorban más de lo que ayudan.
También cambia el enfoque para eludir las restricciones de seguridad. Los ataques textuales prefabricados funcionan peor: las plataformas bloquean antes a los infractores y las técnicas universales quedan obsoletas rápidamente. En lugar de eso, los atacantes empezaron a intervenir en la arquitectura de los sistemas. Por ejemplo, en Claude Code se emplea un archivo especial de configuración del proyecto para sustituir el comportamiento del asistente y desactivar las protecciones. Este enfoque ataca no tanto las respuestas del modelo como la lógica de su funcionamiento.
Otra tendencia está relacionada con la transformación de la inteligencia artificial en un elemento activo del ataque. El proyecto RAPTOR, publicado en GitHub, muestra cómo un conjunto de instrucciones textuales convierte a un asistente de programación en una herramienta autónoma para el análisis, la búsqueda de vulnerabilidades y la creación de exploits. El propio proyecto no es malicioso, pero su arquitectura ya se discute en foros clandestinos.
La comparación de modelos confirma el mismo resultado. Los sistemas comerciales como Anthropic Claude, OpenAI GPT-4 y Google Gemini manejan mejor la generación de código funcional. Las soluciones locales a menudo producen resultados no aptos. Por eso los atacantes siguen apoyándose en servicios comerciales, pese a sus limitaciones.
Un problema aparte afecta a las propias empresas. La implantación masiva de servicios generativos crea un nuevo canal de filtraciones de datos. En enero y febrero de 2026, una de cada 31 consultas a esos sistemas conllevaba riesgo de revelar información sensible. Se ponen en riesgo datos confidenciales, código fuente y otros materiales internos. Esta actividad afectó al 90% de las organizaciones que usan este tipo de herramientas.
La escala agrava la situación. De media, las empresas usan alrededor de 10 servicios diferentes, y un empleado envía 69 consultas al mes. Cuantas más solicitudes de este tipo, mayor es el riesgo de filtración. En consecuencia, la inteligencia artificial simultáneamente potencia las capacidades de los atacantes y amplía la superficie de ataque dentro de las propias organizaciones.