OpenAI publica informe sobre cómo estafadores y propagandistas emplean modelos de lenguaje

Los estafadores, propagandistas y fuerzas de seguridad cada vez usan más los modelos de lenguaje no para entretenimiento, sino para extraer dinero e influir en la opinión pública. En el nuevo informe OpenAI analizó detalladamente decenas de estos casos y mostró cómo los delincuentes integran la inteligencia artificial en esquemas ya conocidos.
Una de las historias más ilustrativas se llamó Operation Date Bait. Una red de cuentas, presuntamente vinculada con centros de estafa en Camboya, publicitó en redes sociales una agencia de citas ficticia de élite «Klub Romantis». La publicidad se dirigía a hombres jóvenes en Indonesia interesados en el golf, los yates y la vida de lujo. Tras hacer clic, la víctima daba con un chatbot en el papel de «secretaria», y luego la comunicación se trasladaba a Telegram, donde se incorporaban operadores reales. Les convencían de pagar «misiones», «tarjetas VIP» y el apoyo a la mujer escogida, y al final exigían un pago importante bajo la apariencia de «compensación» o «depósito de verificación». Según el informe, los delincuentes mantenían registros internos y hasta calculaban para cada víctima la suma máxima que podían extraer.
De manera similar operó el esquema Operation False Witness. Los participantes se hacían pasar por abogados y funcionarios de agencias estadounidenses, incluida la unidad del FBI que recibe denuncias de delitos en internet. Ofrecían devolver el dinero perdido en otras estafas y exigían pagar por adelantado una «tarifa de servicio» del 15% o un depósito. Usaban modelos para redactar mensajes «con estilo jurídico», traducir la correspondencia y crear documentos falsos, incluidos carnés de colegios de abogados falsificados.
Un bloque aparte del informe está dedicado a operaciones de influencia. En el caso Silver Lining Playbook, cuentas que probablemente operaban desde China preparaban cartas dirigidas a funcionarios y analistas estadounidenses en nombre de una firma de consultoría ficticia. Los autores pedían ayuda para redactar cartas breves y convincentes con elementos de presión psicológica e invitaciones a «consultas». Paralelamente se interesaban por la ubicación de edificios federales en EE. UU. y por programas para sustituir rostros en videos. La empresa no encontró indicios de que los destinatarios hubieran respondido a esas cartas.
En la operación Trolling Stone, una red de cuentas publicaba material sobre el arresto en Argentina de Konstantin Rudnev y dejaba comentarios masivos en las noticias, creando la apariencia de un amplio apoyo. Parte de las publicaciones se colocaron en páginas de Facebook presentadas como medios argentinos, cuyos administradores se encontraban en Pakistán, Armenia y Uruguay. La actividad parecía coordinada, pero el alcance en la mayoría de los casos siguió siendo bajo.
Vincularon a la operación Fish Food cuentas que trabajaban en interés de la red «Rybar». Generaban publicaciones en ruso, inglés y español para Telegram y X, y además preparaban en lote comentarios que luego publicaban distintas cuentas. En un caso crearon siete mensajes con una sola solicitud, pero sus visualizaciones variaron radicalmente: desde 57 hasta más de 150 000. La diferencia se explicó no por la calidad del texto, sino por el número de seguidores de la cuenta concreta.
La sección de mayor envergadura trata las llamadas «Cyber Special Operations», que, según OpenAI, están vinculadas a un representante de las fuerzas policiales chinas. Un usuario intentó obtener ayuda para planificar una campaña contra el primer ministro de Japón, pero el modelo se negó. Más tarde la misma persona pidió editar informes sobre operaciones realizadas. En los documentos se mencionaban cientos de empleados, miles de cuentas falsas y decenas de tácticas —desde publicaciones masivas y acoso hasta falsificación de documentos e intentos de desprestigiar a disidentes en el extranjero. Parte de las acciones descritas se pudo correlacionar con actividad real en la red, pero muchas campañas no lograron un efecto público notable.
La conclusión principal del informe es pragmática. Los modelos de lenguaje rara vez se convierten en un arma autónoma. Estafadores y organizadores de operaciones informativas usan estas herramientas como amplificador de esquemas ya existentes. El resultado depende más de la infraestructura de distribución, los recursos y la audiencia a la que se dirigen los mensajes que del hecho de aplicar inteligencia artificial.