Metatron — herramienta de línea de comandos para Linux que combina utilidades de reconocimiento, un modelo de lenguaje local y una base de datos MariaDB. El usuario indica una dirección IP o un dominio, el script ejecuta nmap, whois, whatweb, curl, dig y nikto, recopila la salida de los comandos, transmite los datos al modelo local mediante Ollama y guarda el resultado en la base. Según el autor, esta combinación ayuda a analizar más rápido la superficie de ataque, identificar servicios sospechosos, describir posibles vulnerabilidades y preparar un informe.
La idea principal del proyecto no es un «autopentest mágico», sino la automatización local del análisis inicial. La herramienta no sustituye a un especialista, no demuestra por sí sola la existencia de una vulnerabilidad y no elimina la responsabilidad legal por escanear sistemas ajenos. Pero para un laboratorio, un entorno de práctica, una red doméstica o una revisión interna con permiso, el formato resulta práctico: los datos no salen a una LLM en la nube, el historial de escaneos se almacena localmente y los informes se pueden exportar a PDF o HTML.
Cómo funciona el pentesting local con IA basado en Ollama y MariaDB
La arquitectura del proyecto es bastante directa. En el repositorio hay un archivo CLI principal, un módulo de base de datos, un módulo para ejecutar las herramientas, una interfaz con Ollama y un bloque para búsquedas con DuckDuckGo. El usuario elige el objetivo y el conjunto de comprobaciones, tras lo cual la utilidad ejecuta secuencialmente comandos externos. Nmap realiza reconocimiento de red y determina servicios, whois ayuda a obtener datos de registro, whatweb recopila señales del stack web, curl muestra los encabezados HTTP, dig verifica DNS y nikto busca problemas típicos de servidores web.
Conviene entender por separado el papel de nikto. Los desarrolladores describen a Nikto como un escáner de servidores web de código abierto para profesionales de seguridad, pentesters y administradores de sistemas. El escáner comprueba miles de archivos potencialmente peligrosos o relevantes, versiones antiguas de servidores y errores de configuración comunes. Es una herramienta útil, pero ruidosa: algunos hallazgos requieren verificación manual, y ejecutarla contra direcciones ajenas sin permiso puede parecer un escaneo agresivo.
El modelo local se ejecuta mediante Ollama. En el README se menciona la imagen base huihui_ai/qwen3.5-abliterated:9b y un modelo personalizado metatron-qwen, creado mediante Modelfile. Aquí hay un matiz técnico. En Ollama, Modelfile suele establecer la imagen base y los parámetros de ejecución, y no significa necesariamente un reentrenamiento completo de pesos. Por eso la expresión «fine-tuned» en la descripción del proyecto conviene interpretarla con cautela: sin un adaptador o pesos separados puede tratarse de ajuste del comportamiento del modelo, prompt del sistema y parámetros de generación.
Tras el análisis, el script guarda los resultados en MariaDB. El esquema consta de cinco tablas relacionadas: historial de escaneos, vulnerabilidades encontradas, correcciones, intentos de explotación y resumen. Esa estructura resulta útil para trabajos formativos y revisiones repetidas, porque los resultados no se pierden en la terminal. Se puede volver a una sesión concreta, editar una entrada, eliminar un hallazgo erróneo o exportar el informe.
Metatron y PentestGPT: en qué se diferencian los asistentes de IA para pentesting
La comparación con PentestGPT ayuda a entender en qué destaca el proyecto. PentestGPT surgió de una idea investigadora sobre el uso de grandes modelos de lenguaje para guiar escenarios de pentesting. En publicaciones y repositorios relacionados con PentestGPT el énfasis suele ponerse en el acompañamiento interactivo del ataque: la tarea se divide en pasos, se mantiene contexto y se ofrecen pistas para CTF o pruebas manuales. Ese enfoque se asemeja más a un «compañero estratega» que ayuda a planear la siguiente jugada.
Metatron está diseñado de forma más práctica y madura. No pretende ser un sistema universal para todas las clases de tareas como web, criptografía, reversa, forense o escalada de privilegios. El proyecto adopta un escenario más terrenal: ejecutar un conjunto de herramientas de reconocimiento, pasar la salida al modelo local, guardar el resultado en la base y preparar un informe. La singularidad no está en la profundidad de razonamiento autónomo, sino en la integración local «scanners + LLM + MariaDB + exportación» sin API en la nube.
| Criterio | Metatron | PentestGPT |
|---|---|---|
| Escenario principal | Reconocimiento local del objetivo, análisis de la salida de herramientas, historial e informes | Acompañamiento interactivo del pentest, planificación de pasos, ayuda en CTF y tareas manuales |
| Modelo de trabajo | Utilidad CLI que ejecuta nmap, whois, whatweb, curl, dig y nikto | La LLM ayuda a gestionar la tarea, construir la cadena de acciones y analizar resultados intermedios |
| Localidad | Ejecución declarada mediante Ollama sin nube ni claves de API | Depende de la implementación y configuración; a menudo implica LLM externas o una configuración más compleja |
| Almacenamiento de datos | MariaDB con historial de escaneos, vulnerabilidades, correcciones y resumen | Enfocado más en el flujo de la tarea y la lógica del agente que en una base de informes |
| Fortaleza | Privacidad, automatización simple del reconocimiento, historial claro de resultados | Flexibilidad de razonamiento, ayuda para elegir los siguientes pasos, mayor cobertura de escenarios |
| Limitación | Conjunto limitado de herramientas y dependencia de la calidad de interpretación del modelo local | Riesgo de configuración compleja, dependencia del modelo y posibles errores en el razonamiento |
Si se busca un asistente local para reconocimiento inicial y generación de informes, Metatron suele ser más adecuado. Si se prioriza el acompañamiento interactivo de tareas complejas, resolución de CTF o ayuda para decidir el siguiente paso en pruebas manuales, PentestGPT coincide más con esa intención. En ambos casos la IA no debe tener libertad para ejecutar comandos peligrosos sin control: el especialista debe mantener los límites de la comprobación, leer la salida bruta de las herramientas y confirmar cada hallazgo serio.
Ventajas, limitaciones y riesgos del pentesting con IA local
| Aspecto | Qué aporta | Dónde hay riesgo | Cómo reducir el riesgo |
|---|---|---|---|
| Localidad | Los registros de escaneo no salen a APIs externas; el análisis puede mantenerse en la propia máquina. | El modelo local exige recursos y una configuración de entorno adecuada. | Comprobar de antemano memoria, disco, versión de Ollama y del modelo. |
| Menos rutina | La herramienta reúne la salida de nmap, nikto y otras utilidades en un resumen comprensible. | El resumen automático puede ocultar detalles importantes de la salida cruda. | Revisar los resultados originales de los escáneres, no solo el texto generado por el modelo. |
| Historial conveniente | MariaDB almacena escaneos, hallazgos, correcciones y análisis final. | Una entrada errónea en la base puede aparecer en un informe como un hecho confirmado. | Editar y volver a verificar los hallazgos antes de exportar. |
| Análisis de IA | El modelo ayuda a correlacionar servicios, versiones, posibles vulnerabilidades y recomendaciones. | El modelo puede inventar CVE, evaluar mal la gravedad o proponer explotaciones innecesarias. | Verificar CVE, versiones e impacto en fuentes oficiales. |
| Agentic loop | La IA puede solicitar comprobaciones adicionales durante el análisis. | Ejecutar comandos sin control contra direcciones externas es peligroso legal y técnicamente. | Usar lista blanca de comandos, registro de acciones y confirmación manual. |
| Requisitos de hardware | La ejecución local reduce la dependencia de la nube y de suscripciones. | En máquinas modestas, un modelo grande puede ralentizar el sistema o provocar intercambio en disco. | Usar un modelo más pequeño, SSD rápido y memoria RAM suficiente. |
Un asistente de IA local es útil para interpretar resultados de reconocimiento, pero la decisión final debe tomarla una persona. Cualquier vulnerabilidad encontrada requiere verificación manual, cotejarse con fuentes oficiales y considerar el contexto del sistema concreto.
Preguntas frecuentes sobre Metatron
¿Metatron funciona completamente sin conexión?
El análisis local mediante Ollama puede operar sin nube ni claves de API. Pero la función de búsqueda web declarada mediante DuckDuckGo y la consulta de CVE requieren acceso a internet. Es más correcto decir: el núcleo del análisis y la base funcionan localmente, y la búsqueda en red depende del modo elegido.
¿Se puede confiar en las salidas de metatron-qwen?
No sin verificación. El modelo ayuda a enlazar hechos y preparar un borrador de análisis, pero puede equivocarse respecto a CVE, la versión de un servicio, la gravedad del riesgo o la forma de mitigarlo.
¿En qué se diferencia Metatron de PentestGPT?
Metatron se parece más a un conjunto CLI local para reconocimiento, base de resultados e informes. PentestGPT está más orientado a ser un asistente interactivo que guía la tarea, ayuda a planear pasos y analiza el progreso del pentest.
¿Sirve la herramienta para principiantes?
Es adecuada para formarse en un laboratorio propio, siempre que el usuario consulte la salida cruda de nmap, nikto y otras utilidades. Para comprobaciones reales sin experiencia, es preferible contar con un especialista, ya que errores en el alcance y en la interpretación pueden acarrear problemas legales y técnicos.
¿Se puede ejecutar Metatron contra sitios ajenos?
No sin el permiso expreso del propietario del sistema. El escaneo y, mucho más, los intentos de explotación de infraestructuras ajenas pueden violar la ley y las normas de las plataformas.
Metatron resulta interesante como asistente local para pentest autorizado, entornos de práctica y auditorías internas de inventario de riesgos. El script ahorra tiempo en la recopilación y el análisis inicial de datos, pero no convierte a la LLM en experta ni sustituye la verificación manual. Use la herramienta solo en sus sistemas o donde exista permiso escrito, defina de antemano los límites de la comprobación y cumpla la legislación de la Federación de Rusia. Un comportamiento responsable en pentesting es más importante que cualquier CLI «inteligente».