Unos diseñaron sistemas de vigilancia masiva; otros, troyanos para robar contraseñas. ChatGPT los ayudaba a todos — hasta que lo bloquearon.

Unos diseñaron sistemas de vigilancia masiva; otros, troyanos para robar contraseñas. ChatGPT los ayudaba a todos — hasta que lo bloquearon.

OpenAI por fin reacciona y empieza a combatir el contenido dañino en los chats.

image

OpenAI bloqueó varias cuentas de ChatGPT vinculadas, según la empresa, a organismos estatales chinos. Estos usuarios intentaban utilizar la inteligencia artificial no para desarrollo o investigación, sino para diseñar sistemas de vigilancia digital de usuarios de redes sociales.

En el informe publicado sobre ciberamenazas, OpenAI indicó que esas cuentas recurrían a ChatGPT para solicitar ayuda en la elaboración de planes y documentación técnica para herramientas de análisis de grandes volúmenes de datos. No se trataba de la ejecución directa de operaciones de seguimiento, sino de la preparación de proyectos para sistemas futuros.

En estos casos observamos cómo los atacantes pedían a ChatGPT que les ayudara a recopilar planes o documentación técnica para herramientas de IA de vigilancia, pero no a usar el modelo para la vigilancia en sí
, — explicó Ben Nimmo, director de inteligencia e investigaciones de OpenAI.

Uno de los usuarios bloqueados, que supuestamente operaba desde China mediante una VPN, pidió a ChatGPT crear materiales de presentación y un plan de implementación de una plataforma analítica para monitorizar publicaciones en redes sociales. En sus solicitudes llamaba al futuro producto sonda —un sistema que debía escanear automáticamente publicaciones en X, Facebook, Instagram, Reddit, TikTok y YouTube. Según el usuario, la entidad contratante era una organización estatal. OpenAI, sin embargo, no dispone de información sobre si este proyecto se llegó a poner en marcha ni si podrían haberlo utilizado organismos chinos.

En otros incidentes la empresa bloqueó una cuenta que intentaba obtener datos sobre la financiación de una de las páginas de X que criticaban al gobierno chino, y a un usuario interesado en los organizadores de peticiones en Mongolia. Según OpenAI, en ambos casos ChatGPT proporcionó únicamente información de acceso público, sin datos personales ni información confidencial.

Casos como estos son solo fragmentos del panorama general, pero ofrecen una visión importante de cómo los regímenes autoritarios podrían en el futuro intentar usar la IA en su beneficio
, — señaló Nimmo.

Desde febrero de 2024, cuando OpenAI comenzó a publicar informes periódicos sobre abusos, la empresa ya ha bloqueado más de 40 redes que violaban su política. Por ahora, los expertos indican que la mayoría de los atacantes no emplean la IA para ataques completamente nuevos, sino para perfeccionar técnicas habituales: desde la automatización de correos de phishing hasta la creación de noticias falsas o la escritura de programas maliciosos.

No obstante, en los últimos meses los analistas de OpenAI han observado un aumento de casos en los que los atacantes combinan varios modelos simultáneamente. El responsable de la unidad de amenazas, Michael Flossman, contó que una de las redes chinas utilizaba ChatGPT para redactar textos de correos de phishing, y otro modelo —DeepSeek— para el envío masivo de esos mensajes.

Escenarios similares se han detectado también en Rusia. Varias cuentas bloqueadas usaban ChatGPT para redactar guiones y descripciones de vídeos dentro de una operación de influencia llamada Stop News. Los propios vídeos, según OpenAI, se creaban con otras modelos generativos y se publicaban en YouTube y TikTok. La empresa no pudo determinar qué herramientas concretas se emplearon para generar el contenido, pero confirmó que se trató de una campaña de información coordinada.

Además, OpenAI bloqueó un grupo de cuentas que intentaron usar ChatGPT para crear y mejorar código malicioso. Entre las solicitudes figuraron la generación de componentes de acceso remoto (RAT), programas para robar contraseñas y cookies, la elusión de mecanismos de protección SmartScreen y UAC, así como herramientas para interceptar datos de navegadores y billeteras de criptomonedas.

En un comunicado oficial la empresa señaló:

Conforme a nuestras medidas internas de seguridad, nuestros modelos rechazan solicitudes que claramente tienen un carácter malicioso y no tienen un uso legítimo. Seguimos monitorizando estos casos y bloqueando cuentas que intentan usar ChatGPT para ciberataques o sistemas de vigilancia.

Según OpenAI, estas cuentas están relacionadas con comunidades de ciberdelincuencia cuyos miembros debatían sus acciones en canales de Telegram vinculados a grupos concretos. Aunque la empresa no revela nombres específicos, sus especialistas afirmaron tener un grado de confianza medio o alto sobre su origen.

En OpenAI subrayan que la publicación de informes como este ayuda a identificar con antelación posibles maneras de abuso de la IA generativa, ya sea para vigilancia estatal, desinformación o creación de software malicioso. La empresa considera que estas investigaciones permiten desarrollar medidas de protección antes de que comience una verdadera epidemia digital.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse