No vas a creer con quién se acostó hoy Cristiano Ronaldo (spoiler: con todos a la vez — pero todo fue generado por IA).

No vas a creer con quién se acostó hoy Cristiano Ronaldo (spoiler: con todos a la vez — pero todo fue generado por IA).

Todas tus celebridades favoritas ya aparecen en pornografía generada por IA — y ellas todavía no lo saben.

image

En el contexto del rápido desarrollo de redes neuronales generativas, en Instagram Reels se ha difundido un nuevo formato de videos deepfake en los que celebridades aparecen en la cama con modelos virtuales. Este tipo de videos están ganando popularidad y sirven como reclamo para promocionar contenido pornográfico creado con redes neuronales.

Los creadores de estas cuentas publican videos cortos construidos según un esquema simple. Primero se muestra la imagen de un influencer de IA junto a la celebridad —supuestamente el «comienzo de la historia»— y luego una imagen o video en el que ambos aparecen en la cama tras un encuentro íntimo.

Ejemplo de generación por IA de la interfaz de un teléfono inteligente

Los rostros en estas tomas son generados por inteligencia artificial, aunque eso no se indica en las propias publicaciones. Estos videos pueden encontrarse representando a figuras como el jugador de baloncesto LeBron James, el creador iShowSpeed, el actor Dwayne Johnson, los peleadores de MMA Jon Jones y Conor McGregor, el futbolista Cristiano Ronaldo e incluso el presidente de Venezuela, Nicolás Maduro.

Las falsificaciones se crean sin el consentimiento de las celebridades, violando las normas de la propia plataforma. No obstante, esos videos siguen acumulando millones de reproducciones. Uno de los videos con la representación de Jon Jones reunió 7,7 millones de visualizaciones, otro —con iShowSpeed— 14,5 millones.

Los usuarios que ven ese contenido acceden a la página de la cuenta, donde en la descripción hay un enlace a Fanvue —una plataforma para publicar contenido explícito que compite con OnlyFans. Allí se indica que el contenido fue creado o modificado por IA, y los propios autores venden acceso a fotos y videos íntimos.

El mecanismo de interacción con la audiencia está afinado: el uso de rostros reconocibles y pistas de audio virales permite promover rápidamente el contenido. Instagram, a pesar de sus propias normas, demuestra una vez más su incapacidad para frenar de forma rápida estos esquemas. Algunos de los videos señalados por periodistas fueron eliminados después, pero en general la plataforma no afronta la magnitud del problema.

Los creadores de cuentas de IA a veces van aún más lejos: en otros formatos publican escenas falsas con mujeres ficticias y con equipos deportivos enteros, líderes tribales, empleados de cadenas comerciales o incluso sus propias madres. Esas provocaciones no solo atraen atención, sino que generan ingresos mediante la monetización en plataformas externas.

Entre las técnicas populares está el uso de videos ajenos sustituyendo el rostro de una actriz real por uno generado, lo que perjudica directamente a los autores originales de contenido explícito. Sin embargo, las celebridades, a diferencia de ellos, disponen de más recursos para la defensa legal. Así, LeBron James el año pasado envió una notificación exigiendo cesar la difusión de videos con su imagen.

Mientras los gigantes tecnológicos no logran controlar la moderación, las autoridades de Estados Unidos intentan abordar el problema a través de la legislación. Así, los senadores aprobaron por unanimidad el proyecto de ley bipartidista DEFIANCE, que permitirá a las víctimas de deepfakes presentar demandas civiles contra los creadores de contenido íntimo falso.

La iniciativa, surgida como respuesta a los escándalos en torno a las neurofotos de Taylor Swift y a las herramientas para «desnudar» en la red social X, ahora espera la decisión de la Cámara de Representantes. Si el documento se aprueba, será un precedente importante para la protección de los derechos de los ciudadanos en el contexto del desarrollo descontrolado de las tecnologías generativas, complementando las normas penales ya existentes sobre la difusión de falsificaciones digitales.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!