Hasta los propios ingenieros de la empresa admitieron que, en ocasiones, las capacidades del nuevo modelo les resultaban inquietantes.
Recientemente OpenAI presentó una versión actualizada de su modelo para generación de vídeo — Sora 2 — capaz de crear clips cortos con personajes y escenas fotorrealistas, casi indistinguibles de los reales. El nuevo lanzamiento amplió las capacidades de la IA para trabajar con el movimiento, la expresión facial y la iluminación, lo que de inmediato provocó debates animados sobre los límites aceptables en el ámbito del contenido sintético y los riesgos de la difusión de deepfakes.
Al mismo tiempo la empresa lanzó la aplicación móvil Sora para iOS, donde los usuarios pueden generar sus propios clips de 10 segundos, incluidos los que cuentan con su doble virtual o con conocidos que han permitido el uso de su imagen. El servicio encabezó la lista de aplicaciones gratuitas en la App Store el primer día tras su lanzamiento; sin embargo, su creciente popularidad va acompañada de inquietud por la cada vez más delgada línea entre lo ficticio y lo real.
Así, pese a las declaraciones de OpenAI sobre mecanismos de restricción integrados, ya en las primeras 24 horas tras el lanzamiento los usuarios encontraron formas de eludir algunas medidas de control. Los periodistas observaron que la aplicación permite grabar fácilmente la pantalla y el sonido, pese a la prohibición de grabaciones dentro de Sora. Esto significa que los vídeos con voz o imagen falsificadas pueden difundirse sin marcas identificativas, y la marca de agua en los vídeos descargados, prevista por la compañía, resultó poco visible y se elimina con facilidad mediante herramientas de terceros.
Una de las mayores preocupaciones ha sido lo verosímiles que resultan los vídeos con personas reales. Algunos vídeos con Sam Altman y empleados de OpenAI son casi imposibles de distinguir de los auténticos. La propia empresa afirma que cada vídeo incluye metadatos e indicadores visuales que confirman su origen artificial, pero los usuarios señalan lo contrario. Además, según 404 Media, ya han aparecido vídeos que infringen derechos de autor: en la aplicación se podían ver personajes de franquicias conocidas, como Avatar, Zelda, Batman y Rick y Morty.
Dentro de OpenAI no todos están conformes con esa línea de desarrollo. Un empleado, John Hallman, declaró que siente inquietud por la salida de Sora 2, pese a los esfuerzos del equipo por crear una experiencia de usuario positiva. Otro ingeniero, Boaz Barak, también reconoció la superioridad tecnológica del sistema, pero señaló que es pronto para hablar de éxito: las consecuencias de su uso en el mundo real aún no pueden predecirse por completo.
Sora ofrece a los usuarios opciones sobre quién puede usar su apariencia en los vídeos: solo el titular, personas aprobadas, suscripciones mutuas o cualquier persona. Muchos empleados de OpenAI, incluido Sam Altman, permitieron que su imagen se use sin restricciones. Sin embargo, los intentos de generar personalidades conocidas directamente suelen bloquearse, al menos en esta fase.
OpenAI afirma que intenta tener en cuenta los aspectos legales y éticos, incluida la protección frente a las infracciones de derechos de autor y la difusión de desinformación. Pero ya hay usuarios y observadores que señalan numerosas vulnerabilidades, lo que indica que los desarrolladores no siguen el ritmo de expansión del contenido generativo.
Teniendo en cuenta lo difícil que resulta cada vez distinguir los clips generados de los vídeos reales y lo sencillo que es eludir incluso las limitaciones existentes, Sora suscita una preocupación razonable: no solo como logro tecnológico, sino también como posible fuente de manipulaciones a gran escala.