La IA ya crea ransomware: MalTerminal, el primer virus capaz de pensar por sí mismo

La IA ya crea ransomware: MalTerminal, el primer virus capaz de pensar por sí mismo

Hackers entrenan a una IA para generar código malicioso en tiempo real.

image

Los especialistas de SentinelLABS descubrieron lo que llaman la muestra más temprana conocida hasta la fecha de malware con capacidades integradas de modelos LLM — la muestra recibió el nombre en clave MalTerminal. En el informe, presentado en la conferencia LABScon 2025, los investigadores describen un conjunto de artefactos: un binario para Windows, varios scripts en Python y herramientas auxiliares que demuestran cómo el modelo GPT-4 se utilizó para la generación dinámica de código de un cifrador o de un shell inverso.

En la muestra se encontró un endpoint de la API del obsoleto OpenAI Chat Completions, retirado de servicio a principios de noviembre de 2023, lo que indica que MalTerminal pudo haberse creado antes de esa fecha y por tanto aspira a ser una de las primeras muestras con LLM integrados. A diferencia del malware tradicional, parte de la lógica de MalTerminal se forma en tiempo de ejecución mediante consultas a GPT-4: se ofrece al operador elegir el modo cifrador o shell inverso, y el modelo genera el código correspondiente. Al mismo tiempo, en el paquete se hallaron scripts que replican el comportamiento del binario y un escáner de protección que, con ayuda del modelo, evalúa archivos Python sospechosos y genera un informe — una ilustración clara del doble uso de los LLM en escenarios ofensivos y defensivos.

Los autores del estudio fueron más allá y demostraron una metodología de caza de malware con LLM basada en artefactos inevitables de la integración — claves API integradas y prompts codificados. A partir de plantillas de claves y prefijos, por ejemplo sk-ant-api03 de un proveedor o fragmentos reconocibles de OpenAI, se elaboraron reglas para la caza masiva retrospectiva (retrobúsqueda). Un análisis de VirusTotal durante un año identificó miles de archivos con claves, entre los cuales aparecen tanto fugas inocentes de desarrolladores como muestras con indicios de abuso. Paralelamente se implementó la caza por prompts: la extracción de indicaciones de texto desde binarios y scripts seguida de una evaluación automatizada de su intención maliciosa mediante una clasificación LLM ligera mostró alta eficacia en la detección de herramientas previamente invisibles.

El estudio subraya un giro importante: el uso de un modelo externo confiere al atacante flexibilidad y adaptabilidad, pero también crea puntos débiles — sin una clave válida o sin prompts guardados, la funcionalidad cae drásticamente. Esto convierte la búsqueda de "prompts como código" y de claves integradas en una vía prometedora para la defensa, especialmente en la fase temprana de la evolución de estas amenazas. Hasta la fecha no se han encontrado evidencias directas de un despliegue masivo de MalTerminal — posiblemente estamos ante una prueba de concepto o un kit de pruebas — pero la propia táctica cambia la forma de pensar sobre firmas, tráfico de red y métodos de atribución de ataques.

SentinelLABS hace un llamado a aumentar la atención en el análisis de aplicaciones y en el tratamiento retrospectivo de repositorios: además de bytecode y firmas basadas en cadenas, ahora tiene sentido buscar indicaciones de texto, estructuras de mensajes y artefactos de acceso a modelos en la nube — allí donde se oculta la mecánica futura de nuevos malware.

Los autores señalan que no se han hallado indicios directos de un despliegue masivo de MalTerminal en la naturaleza — quizá se trate de una prueba de concepto o de una herramienta para un equipo rojo — pero los propios métodos están cambiando la táctica de los atacantes. La integración de un generador de comandos y de la lógica en tiempo de ejecución reduce la fiabilidad de los detectores clásicos basados en firmas y complica la atribución de ataques.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable