Poemas de ChatGPT llevaron al FBI hasta un administrador de la darkne
La agencia federal de seguridad interior de EE. UU. exigió por primera vez a OpenAI revelar la identidad de un usuario de ChatGPT cuyas solicitudes figuraban en una investigación sobre pornografía infantil. La orden, emitida a los investigadores de Homeland Security Investigations (HSI) y publicada tras su desclasificación en el estado de Maine, fue el primer caso conocido en el que las autoridades solicitaron oficialmente al desarrollador de IA generativa que entregara datos sobre prompts concretos.
La investigación comenzó con intentos de identificar al administrador de un gran sitio en la parte oscura de la red Tor que distribuía materiales CSAM. Agentes encubiertos lograron ponerse en contacto con el presunto administrador, que mencionó accidentalmente que usaba ChatGPT. En la conversación describió qué solicitudes introducía, incluidas temas inocuos como «Qué ocurriría si Sherlock Holmes se encontrara con Q de "Star Trek"». En otro intercambio relató cómo la modelo le generó un poema al estilo de Donald Trump sobre la canción "Y.M.C.A." del repertorio de Village People e incluso pegó un fragmento en el chat.
Esos detalles permitieron a la investigación solicitar a OpenAI información de la cuenta: nombres y direcciones, datos de pago, historial de conversaciones y metadatos relacionados con los prompts introducidos. Más tarde la agencia confirmó que la compañía entregó a los agentes un archivo de Excel, aunque no se revela el contenido del documento. No está claro si los datos de OpenAI ayudaron directamente a identificar al sospechoso, pero la orden sentó un precedente: el uso de prompts de ChatGPT como base para buscar usuarios.
Sin embargo, los investigadores pudieron identificar al implicado no por los datos de OpenAI, sino por los detalles que él mismo compartió. El hombre hablaba de haberse sometido a reconocimientos médicos, mencionó un periodo de siete años viviendo en Alemania y el servicio de su padre en Afganistán. Esa información permitió a los agentes dar con Drew Hönner, de 36 años, vinculado a la base aérea de Ramstein y que había presentado documentación para trabajar en el Departamento de Defensa de EE. UU. Se le acusa de conspiración con el fin de distribuir materiales de abuso sexual infantil (CSAM), pero hasta ahora no ha reconocido su culpabilidad.
Según la investigación, Hönner participó desde 2019 en la gestión de al menos 15 foros en la red Tor dedicados al intercambio de materiales prohibidos. La audiencia conjunta de las plataformas superaba los 300.000 usuarios. La estructura de los sitios recordaba a un sistema jerárquico con administradores, moderadores y «recompensas» para los participantes más activos. En uno de los foros existía una sección separada, supuestamente creada para publicar contenido generado por inteligencia artificial.
Según un informe de OpenAI, solo en el segundo semestre de 2024 registró 31.500 casos de detección de contenido relacionado con la explotación infantil y remitió las notificaciones correspondientes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). En ese mismo período, OpenAI recibió 71 solicitudes oficiales de organismos gubernamentales, como resultado de las cuales proporcionó datos de 132 cuentas.