Especialistas de Google detectan un aumento de intentos por robar el «cerebro» de modelos de IA.

Los hackers están integrando cada vez más la inteligencia artificial en sus ataques, y lo hacen no por experimentación, sino por velocidad y escala. Un nuevo estudio del equipo de análisis de amenazas de Google muestra que en la segunda mitad de 2025 los actores maliciosos comenzaron a usar estos sistemas en casi todas las fases de una intrusión. Desde el reconocimiento y la selección de víctimas hasta la redacción de malware y de correos de phishing.
El grupo de análisis de amenazas de Google detectó un aumento en los intentos de lo que se denomina "extracción de modelos". Se trata de esquemas en los que atacantes, a través del acceso legítimo a las interfaces de servicio, descargan paso a paso la lógica de funcionamiento de modelos de lenguaje a gran escala y luego crean sus propias copias. En esencia, es un robo de propiedad intelectual. La empresa informó que esos intentos fueron bloqueados de manera regular durante el año. Con mayor frecuencia detrás de ellos estaban entidades comerciales y grupos de investigación, no equipos de hackers estatales.
Mientras tanto, grupos vinculados a estados de Corea del Norte, Irán y China ya están usando modelos de lenguaje como herramienta de trabajo. Con su ayuda recopilan información sobre objetivos, estudian vulnerabilidades, preparan mensajes de phishing creíbles y mantienen correspondencia con las víctimas. Se observa un aumento del llamado "phishing basado en la construcción de confianza", donde la comunicación se lleva a cabo en varias etapas y parece lo más natural posible. Antes esos ataques a menudo mostraban errores de idioma y formulaciones extrañas; ahora ese indicio está desapareciendo gradualmente.
Google enfatiza que por ahora no ven capacidades disruptivas que cambien radicalmente el panorama de amenazas. La inteligencia artificial acelera y simplifica técnicas ya conocidas, pero no ha creado tipos de ataques fundamentalmente nuevos. Sin embargo, la eficacia de las operaciones ha aumentado y la barrera de entrada se ha reducido.
El informe presta atención por separado a malware con elementos de inteligencia artificial. Se ha detectado una familia de cargadores llamada HONESTCUE. Estas muestras recurren a la interfaz de un modelo de lenguaje, obtienen código de programa generado y lo usan para cargar la siguiente etapa de la infección. Parte del código se genera "en vivo" y se ejecuta directamente en memoria, sin escribir en el disco. Esto dificulta la detección por las herramientas de defensa.
También se identificó el kit de phishing COINBAIT, disfrazado como el servicio de una gran plataforma de intercambio de criptomonedas. Su parte web está construida sobre plataformas en la nube modernas y, por indicios en el código, fue creada con sistemas de generación automática de aplicaciones. Los atacantes alojaban elementos de las páginas en servicios en la nube de confianza para eludir los filtros de red.
Otro esquema notable se refiere al abuso de enlaces públicos a diálogos con chatbots. Los atacantes crean una instrucción convincente de "cómo corregir un error" para Windows o macOS, incrustan un comando malicioso y distribuyen el enlace al diálogo a través de publicidad. El usuario ve la página en un servicio de confianza y copia el comando al terminal, tras lo cual se produce la infección.
En los foros clandestinos crece la demanda de sistemas "especiales" de inteligencia artificial para cibercrimen. Uno de los ejemplos fue el servicio Xanthorox, que se anunciaba como un modelo autónomo para ataques. Las verificaciones mostraron que en realidad usaba modelos comerciales comunes y herramientas abiertas, no un desarrollo propio. Paralelamente crece el mercado negro de claves de acceso a las interfaces de IA, que se roban a través de proyectos abiertos vulnerables.
Google dijo que bloquea cuentas y proyectos relacionados con esa actividad y que refuerza los mecanismos de defensa de los propios modelos. La empresa también desarrolla sus propios sistemas basados en inteligencia artificial para la búsqueda de vulnerabilidades en programas y su corrección automática. Según la compañía, la carrera entre defensa y abuso de la IA apenas comienza, y en los próximos años la intensidad de estos intentos aumentará.