La disculpa pública fue solo el primer paso de los actores en la lucha por proteger su identidad digital.
La generación incesante de videoclips con actores conocidos sin su consentimiento en la plataforma Sora 2 volvió a poner de relieve los problemas relacionados con el uso de redes neuronales para crear copias digitales de personas. Tras la aparición en el servicio de OpenAI de videos generados con Bryan Cranston, entre ellos un video conjunto con Michael Jackson, la compañía anunció que reforzaría los mecanismos de control sobre cómo se utilizan las imágenes y las voces de personas famosas.
Declaración conjunta fue publicada por el propio Bryan Cranston, el sindicato de actores SAG-AFTRA, así como varias de las principales agencias — United Talent Agency, Creative Artists Agency y Association of Talent Agents. Señalaron que OpenAI reconoció la generación no deseada y expresó su pesar. En respuesta a las críticas, la compañía confirmó su intención de respetar el principio de participación voluntaria en la creación de copias digitales: ningún artista o intérprete debe aparecer en ese tipo de videos sin una autorización previa. También se prometió un tratamiento rápido de las denuncias relacionadas con el incumplimiento de esta política.
Aunque OpenAI no divulgó detalles de los cambios en la aplicación Sora, la propia declaración constituyó un paso importante en el reconocimiento público del problema. La plataforma ya había provocado críticas tras la aparición de videos con representaciones distorsionadas de personajes conocidos. Tras esos incidentes, la compañía canceló la política anterior de «rechazo por defecto» y prometió proporcionar a los titulares de derechos una configuración más detallada para la generación de contenido, más acorde con el principio de consentimiento voluntario para el uso de la imagen.
Aunque Bryan Cranston valoró positivamente la reacción de OpenAI y calificó lo ocurrido como un ejemplo importante de diálogo, el presidente de SAG-AFTRA, Sean Astin, pidió la adopción de medidas legislativas. Subrayó la necesidad de un instrumento jurídico capaz de proteger a los profesionales creativos frente a la copia masiva no autorizada mediante IA. En ese contexto mencionó el proyecto de ley en discusión en Estados Unidos NO FAKES (Ley para Fomentar Obras Originales, Promover el Arte y Mantener Seguro el Entretenimiento), cuyo objetivo es garantizar protección contra la replicación digital sin el permiso del intérprete original.
En el contexto de la rápida difusión de modelos generativos y su integración en plataformas mediáticas populares, incidentes como este plantean una cuestión fundamental: dónde están los límites de lo aceptable cuando las tecnologías pueden reproducir rostros y voces con casi total verosimilitud. Y mientras las empresas prometen reforzar los filtros y mejorar el control, la comunidad profesional sigue insistiendo en garantías institucionales —incluido el ámbito de la ley.