Avatares semidesnudos, reportajes falsos y propaganda antiinmigrante: el spam de IA se ha apoderado de TikTok.

Avatares semidesnudos, reportajes falsos y propaganda antiinmigrante: el spam de IA se ha apoderado de TikTok.

Algunos bots llegan a publicar hasta 70 vídeos al día, y la moderación los pasa por alto durante meses.

image

La organización sin fines de lucro AI Forensics, con sede en París, presentó un informe sobre el aumento de contenido generado por IA en TikTok. El análisis mostró que en un mes cientos de cuentas centradas en tecnologías generativas consiguieron reunir miles de millones de reproducciones, promoviendo entre otros xenófobos videos e imágenes sexualizadas.

El equipo de AI Forensics identificó 354 cuentas cuyos autores publicaron alrededor de 43 000 videos creados con herramientas generativas. En conjunto, esos videos obtuvieron aproximadamente 4,5 mil millones de reproducciones en el período entre mediados de agosto y mediados de septiembre. Una parte considerable de esos perfiles, según la organización, basa su estrategia en inundar el algoritmo de la plataforma con cargas masivas de contenido con la esperanza de lograr difusión viral. Se detectó una cuenta que publicaba hasta 70 videos al día, y muchos perfiles aparecieron a principios de año, lo que indica un despliegue intencionado de una red de páginas automatizadas.

Entre las cuentas más activas, la mitad se especializaba en videos centrados en el cuerpo femenino. En AI Forensics señalan que los personajes virtuales femeninos se presentan de forma estereotípicamente atractiva, con ropa provocativa y con énfasis en la zona del escote; además, en algunos videos aparecen niñas que parecen menores de edad. También se registraron reportajes noticiosos falsos con narrativas antimigrantes, presentados como si fueran producciones de cadenas conocidas como Sky News y ABC.

Un problema aparte está relacionado con el etiquetado: según el informe, aproximadamente la mitad de los videos publicados no llevaban ninguna indicación sobre el uso de IA, y la etiqueta estándar de TikTok para contenido generado por IA aparecía en menos del 2% de esos materiales. La organización considera que esto aumenta el riesgo de engañar a los usuarios, especialmente porque parte de esas cuentas pasaron meses sin ser moderadas, aunque violaron repetidamente las normas del servicio. Tras la publicación de los datos de AI Forensics, decenas de esas cuentas fueron eliminadas, lo que indica una intervención posterior de los moderadores. Algunos videos concretos señalados por el diario «The Guardian» también fueron eliminados posteriormente por la plataforma.

AI Forensics también describe otro tipo de contenido de IA popular, que los propios autores del informe llaman «basura digital»: se trata de videos sin argumento y absurdos, como animales participando en competiciones olímpicas de saltos de trampolín o bebés que hablan. Ese contenido a menudo se percibe como tierno y divertido, pero a la vez satura la sección de recomendaciones y contribuye al aumento de la proporción de videos sintéticos en el flujo general.

En TikTok afirman que las críticas del informe no reflejan toda la situación y que dicha actividad no es exclusiva de esa plataforma. Los portavoces de la compañía subrayan que el servicio elimina el contenido dañino generado por IA, bloquea cientos de millones de cuentas bot en la fase de creación, implementa sistemas de etiquetado automático y añade herramientas que permiten a los usuarios reducir la proporción de videos generados por IA en su feed. Según los datos de la propia plataforma, ya hay al menos 1,3 mil millones de materiales que usan tecnologías generativas, mientras que diariamente se cargan más de 100 millones de piezas de contenido.

AI Forensics, que anteriormente describió el aumento de la proporción de videos sintéticos en otras redes sociales como Instagram y YouTube, valora positivamente la aparición de opciones para limitar el contenido generado por IA, pero las considera insuficientes. La organización apunta a fallos sistemáticos en el reconocimiento y el etiquetado de esos videos y expresa dudas sobre la eficacia de las herramientas actuales. Como posibles medidas, propone crear una sección separada en la aplicación solo para videos de IA o imponer un etiquetado claro y contundente del contenido sintético en toda la plataforma, para distinguirlo mejor de los materiales creados por personas.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable