En solo 24 horas, Sora se volvió un éxito en la App Store y causa de alarma global. ¿Qué pasa con la polémica app de OpenAI?

En solo 24 horas, Sora se volvió un éxito en la App Store y causa de alarma global. ¿Qué pasa con la polémica app de OpenAI?

Hasta los propios ingenieros de la empresa admitieron que, en ocasiones, las capacidades del nuevo modelo les resultaban inquietantes.

image

Recientemente OpenAI presentó una versión actualizada de su modelo para generación de video, Sora 2, capaz de crear clips cortos con personajes y escenas fotorrealistas casi indistinguibles de los reales. El nuevo lanzamiento amplió las capacidades de la IA para trabajar con el movimiento, la expresión facial y la iluminación, lo que de inmediato provocó debates sobre los límites aceptables del contenido sintético y los riesgos de la difusión de deepfakes.

Al mismo tiempo, la empresa lanzó la aplicación móvil Sora para iOS, donde los usuarios pueden generar sus propios clips de 10 segundos, incluidos los que muestran su doble virtual o el de conocidos que autorizaron el uso de su imagen. El servicio encabezó la lista de aplicaciones gratuitas en la App Store el primer día tras su lanzamiento; sin embargo, su creciente popularidad va acompañada de inquietud por la cada vez más delgada frontera entre lo ficticio y lo real.

Así, pese a las declaraciones de OpenAI sobre mecanismos de restricción integrados, ya en las primeras 24 horas tras el lanzamiento los usuarios encontraron formas de eludir algunas medidas de control. Periodistas observaron que la aplicación permite grabar fácilmente la pantalla y el sonido, pese a la prohibición de grabaciones desde Sora. Esto implica que videos con voz o imagen falsificadas pueden difundirse sin marcas identificativas, y que la marca de agua en los videos descargados, prevista por la compañía, resulta poco visible y puede eliminarse con herramientas de terceros.

Una de las mayores preocupaciones ha sido lo verosímiles que resultan los videos con personas reales. Algunos clips con Sam Altman y empleados de OpenAI son casi imposibles de distinguir de los auténticos. La empresa afirma que cada video incluye metadatos e indicadores visuales que confirman su origen artificial, pero los usuarios señalan lo contrario. Además, según 404 Media, ya aparecieron videos que infringen derechos de autor: en la aplicación se podían ver personajes de franquicias conocidas como Avatar, Zelda, Batman y Rick and Morty.

Dentro de OpenAI no todos están de acuerdo con esa línea de desarrollo. Un empleado, John Hallman, declaró que siente inquietud por la salida de Sora 2, pese a los esfuerzos del equipo por crear una experiencia de usuario positiva. Otro ingeniero, Boaz Barak, también reconoció la superioridad tecnológica del sistema, pero señaló que es pronto para hablar de éxito: las consecuencias de su uso en el mundo real aún no pueden predecirse por completo.

Sora ofrece a los usuarios opciones sobre quién puede usar su apariencia en los videos: solo el titular, personas aprobadas, suscripciones mutuas o cualquier persona. Muchos empleados de OpenAI, incluido Sam Altman, permitieron que su imagen se use sin restricciones. Sin embargo, los intentos de generar personalidades conocidas directamente suelen bloquearse, al menos en esta fase.

OpenAI afirma que intenta tener en cuenta los aspectos legales y éticos, incluida la protección frente a infracciones de derechos de autor y la difusión de desinformación. Pero ya hay usuarios y observadores que señalan numerosas vulnerabilidades, lo que indica que los desarrolladores no siguen el ritmo de expansión del contenido generativo.

Dado lo difícil que resulta distinguir los clips generados de los videos reales y lo sencillo que es eludir incluso las limitaciones existentes, Sora suscita una preocupación razonable no solo como logro tecnológico, sino también como posible fuente de manipulaciones a gran escala.


¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!