Explícale urgentemente a tus padres qué es Sora 2 antes de que envíen dinero a estafadores que usen tu "rostro".

Explícale urgentemente a tus padres qué es Sora 2 antes de que envíen dinero a estafadores que usen tu "rostro".

Bienvenido a un mundo donde no puedes fiarte de lo que ves

image

El lanzamiento de la nueva versión del generador de video Sora 2 de OpenAI apenas se había producido cuando en la red aparecieron decenas de sitios que permiten en segundos eliminar la marca de agua de cualquier clip. El logotipo integrado con una nube caricaturesca, destinado a distinguir el contenido creado por IA, resultó tan simple que quitarlo no requiere ninguna habilidad especial. Una búsqueda como «sora watermark» en cualquier plataforma devuelve enlaces a servicios donde basta subir el video para obtener una copia «limpia» sin rastros de origen.

Los especialistas de 404 Media probaron varios de esos sitios y comprobaron que incluso las soluciones gratuitas borran la marca del video al instante. En la Universidad de California, Berkeley, señalaron que esa situación era predecible: ninguna marca visible puede proteger el contenido por mucho tiempo. Se presentaron soluciones similares tras cada lanzamiento de generadores de imágenes y video, desde Stable Diffusion hasta las primeras versiones de Sora.

Poco después del lanzamiento, el 30 de septiembre, la red se llenó de videos absurdos que infringían derechos de autor, en los que personajes como Bob Esponja o Pikachu participan en escenas ridículas. OpenAI restringió rápidamente la creación de ese tipo de contenido; sin embargo, la calidad de los videos realistas fue tan alta que distinguirlos de grabaciones reales se volvió casi imposible. La compañía afirmó que todos los resultados de Sora están provistos no solo de una marca visual, sino también de firmas del estándar C2PA incrustadas en los metadatos, además de un sistema de búsqueda inversa de imágenes y audio capaz de reconocer el origen del clip con alta precisión.

Según los especialistas, estas medidas no resuelven el problema: para los malos actores basta con cambiar el brillo o el tono del video para destruir los metadatos C2PA y borrar por completo las huellas del origen. Estas herramientas ya se están difundiendo activamente y, como resultado, incluso los usuarios atentos no pueden entender dónde está el límite entre la ficción y la realidad.

Los especialistas citaron el ejemplo de un video viral que se difundió por TikTok: una mujer en el vagón del metro propone matrimonio a un desconocido y él acepta. El video acumuló millones de me gusta, pero no contenía la marca de agua de Sora 2. Incluso el público joven, acostumbrado a las falsificaciones digitales, lo tomó por auténtico. Esos videos montados, según un especialista, generan ingresos para sus autores a partir de los fondos de las plataformas hasta que los moderadores detectan la suplantación.

El problema va mucho más allá de las bromas inofensivas. Eliminar las marcas de agua y los metadatos abre la puerta al fraude y a la desinformación. Ya han aparecido videos falsos en los que un niño pide a sus padres que paguen una fianza, un votante informa sobre un sitio de votación «cerrado» y, supuestamente, Sam Altman anuncia la bancarrota de OpenAI. Todo ese material parece convincente y no muestra señales de haber sido generado. Ese tipo de videos puede provocar pánico, pérdidas financieras y manipulaciones políticas, desde caídas en el valor de las acciones hasta disturbios masivos.

Sora 2 es solo parte de una tendencia general. Nuevos generadores de video como Veo 3 también se acercan a la frontera entre la imagen real y la artificial. Y aunque OpenAI implementa marcas de agua y «límites de contenido», siempre habrá un desarrollador que lance un análogo sin restricciones. Según los especialistas, las marcas de agua deberían mantenerse al menos como protección mínima, pero sin coordinación entre los desarrolladores de IA y las redes sociales eso no funcionará.

Los expertos del sector consideran que las plataformas deben implementar la verificación de contenido generado por IA no solo en la etapa de creación, sino también al subirlo, formando grandes equipos de moderadores capaces de detectar videos fraudulentos y provocadores. Sin embargo, la práctica muestra que las grandes empresas no saben escalar eficazmente esa moderación. Los especialistas añaden que OpenAI tendrá que reforzar urgentemente los filtros y los mecanismos de bloqueo; de lo contrario, los usuarios, al encontrar caminos para eludirlos, convertirán a Sora 2 en una herramienta de manipulaciones masivas.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse