Un programador crea un ejército de 500 interlocutores falsos.
Un nuevo informe sobre los riesgos del uso de la inteligencia artificial en operaciones informativas muestra que las capacidades de los modelos generativos ya permiten crear fábricas de propaganda completamente automatizadas. Si antes los expertos discutían escenarios hipotéticos, ahora se trata de tecnologías que funcionan en la práctica y que pueden utilizar no solo los Estados, sino también pequeños equipos o incluso personas individuales.
La principal amenaza no está en los grandes servicios comerciales como ChatGPT o Claude. Esas plataformas son fáciles de rastrear, limitar por frecuencia de consultas o incluso bloquear. La clave para operaciones encubiertas a gran escala reside en el uso de modelos de lenguaje locales con pesos abiertos, que se pueden descargar y ejecutar en ordenadores propios o en clústeres cerrados. Esto reduce costes, elimina el control externo y hace la actividad prácticamente imperceptible.
La investigación demuestra que esos sistemas son capaces de generar contenido en nombre de cientos de personajes distintos con características definidas: desde ideologías políticas hasta perfiles sociales y demográficos. Un módulo automatizado puede mantener de forma estable el papel elegido y reforzar la intensidad de sus posturas en diálogos prolongados. Agentes de este tipo pueden participar en debates en foros y redes sociales de modo que la mayoría de los usuarios no los distinguiría de interlocutores reales.
La arquitectura de un sistema totalmente autónomo incluye un generador de textos, un módulo de evaluación de calidad, un controlador para la selección y publicación de mensajes, una memoria breve para mantener el contexto, un planificador de publicaciones y un optimizador que mide la eficacia del contenido y corrige las acciones posteriores. Todo el proceso puede funcionar sin intervención humana: el operador establece objetivos y reglas, y el sistema actúa por sí solo. Estas instalaciones ya se pueden ejecutar en hardware estándar sin alquilar servicios en la nube, lo que las hace particularmente peligrosas en manos de actores malintencionados.
Para detectar campañas de este tipo no basta con analizar publicaciones o cuentas aisladas; hay que considerar cadenas completas de interacción. Las señales de artificialidad se manifiestan en el ritmo y la secuencia de las respuestas, en frases repetidas, en publicaciones sincronizadas desde distintas cuentas. Otra forma de atribución es rastrear la infraestructura: direcciones IP, esquemas de proxies, rastros de automatización del navegador. Los propios modelos se pueden sustituir en cualquier momento, pero la arquitectura de control y las huellas en la red permanecen.
Los autores del estudio subrayan que la regulación debería centrarse no en prohibir los modelos en sí, sino en la transparencia y en herramientas de auditoría. Sistemas cerrados difícilmente serán el arma principal de los atacantes, mientras que los modelos abiertos ya están al alcance de todos. Contra las nuevas amenazas solo se puede luchar mediante el desarrollo de análisis, el intercambio de métricas y la creación de medios para rastrear la coordinación de redes automatizadas.
Los expertos esperan que las estructuras estatales ya estén experimentando con estas tecnologías. Operaciones a gran escala que utilicen personajes artificiales podrían aparecer en el espacio público ya en 2026, lo que exigirá decisiones urgentes por parte de las instituciones de defensa y los actores políticos.