¿Quién está detrás de la industria del necrofilia digital que mueve millones?
El mercado de aplicaciones basadas en inteligencia artificial atraviesa otra fase extraña: ahora los usuarios pueden "abrazar" a personajes ficticios, besar a familiares fallecidos y convertir fotos aleatorias en fantasmagorías torpemente animadas. Estas aplicaciones, que inundan TikTok y las tiendas móviles, se mueven en la delgada línea entre lo incómodo y lo perturbador. Por un lado, hay plantillas aparentemente inocentes con gatitos y abuelas; por otro, escenas abiertamente fetichistas, donde la IA ajusta cuerpos, aumenta senos y transforma imágenes comunes en mini-escenas sexualizadas.
Los algoritmos de estas apps hacen de todo: cambiar peinados, adelgazar al usuario, hacerlo bailar en pijama con orejitas. Sin embargo, bajo esa apariencia inocente se esconden funciones cuestionables. En una de las aplicaciones más populares, bastan un par de fotos para generar un video en el que el usuario abraza o besa apasionadamente a una celebridad —por ejemplo, a Robert Pattinson en el papel de Edward Cullen. Otra plantilla permite aumentar el busto de la protagonista de una talla B a una DD con solo dos clics. Todo ello animado con una estética que parece salida de una infantil noción del romance: los besos parecen más bien una colisión mecánica de rostros y los abrazos recuerdan a una muñeca Barbie pegada a una figura de LEGO.
Algunas de estas aplicaciones pertenecen a empresas poco conocidas de Turquía y China. Detrás de sus bonitos vídeos promocionales y promesas románticas, se oculta un modelo de monetización basado en microtransacciones: desde $2.99 por semana hasta $69.99 por año por un número limitado de "créditos" para generar videos.
Aunque estos servicios no distribuyen contenido abiertamente pornográfico, a menudo cruzan líneas peligrosas —especialmente cuando se usa la imagen de otra persona sin su consentimiento. Varias funciones se camuflan como entretenimiento o "fan art", pero pueden utilizarse para generar videos que violan la privacidad y la ética. Los intentos de crear escenas similares en generadores más estrictos como Sora de OpenAI o Veo de Google suelen ser bloqueados: esos sistemas cuentan con filtros de contenido y requieren que el usuario confirme su derecho de uso sobre las imágenes.
En contraste, algunas apps no hacen ningún tipo de verificación. El usuario simplemente sube un par de fotos y recibe su "beso soñado". Sin embargo, esto frecuentemente resulta en fallos: cuando las personas en la imagen son de razas distintas, los algoritmos tienden a "homogeneizar" los rostros, ajustando los rasgos de uno para que se asemejen al otro. Estos artefactos evidencian los prejuicios arraigados en los sistemas de IA.
Las plataformas que albergan estas apps aún no muestran gran interés por regular la situación. Meta elimina ciertos videos y bloquea campañas que infringen normas solo cuando se reciben denuncias. Google Play prohíbe contenido sexualizado, pero campañas publicitarias al límite siguen colándose en sus algoritmos de recomendación. Mientras tanto, investigadores alertan sobre el crecimiento de sitios ilegales que crean deepfakes sin el consentimiento de los involucrados. Apple afirma que este tipo de contenido "perturbador" no debería estar en el App Store, aunque no existen restricciones claras para la publicidad.
Uno de los casos más llamativos fue protagonizado por un periodista que probaba estas apps y generó un video en el que sus padres fallecidos lo besaban y abrazaban. Las escenas eran toscas y deformadas —la sonrisa de su madre era demasiado perfecta y el cabello del padre parecía una peluca. Sin embargo, para otros miembros de la familia el video provocó lágrimas y gratitud. La inteligencia artificial, por absurda que sea, les ofreció una sensación ilusoria de conexión con los difuntos. Casos como este plantean dilemas sobre los límites éticos del uso de estas tecnologías, ya que, según expertos, el fraude con deepfakes se vuelve cada vez más sofisticado.
Esta experiencia ambigua es el núcleo de toda la historia. La IA no puede devolver la vida ni ofrecer un abrazo real. Pero puede simular algo que, en cierto estado emocional, parezca consuelo. Para algunos, eso justifica revisar los límites éticos y hablar de abuso digital. Para otros, es un intento torpe pero genuino de sobrellevar el duelo. El FBI ya advierte que los deepfakes se usan en casos de sextorsión, generando materiales comprometidos de las víctimas.
El mundo de estas apps no es un simple desliz técnico, sino un espejo donde se reflejan los deseos más extraños, dolorosos y personales. Las preguntas sobre dónde trazar la línea entre fantasías sexuales y contenido moralmente inaceptable se vuelven cada vez más urgentes en la era del deepfake. La única duda que queda es: ¿quién está mirando en ese espejo y qué espera encontrar allí?