Juez reconoce la buena fe en la formación, pero sanciona por robo

Anthropic acordó pagar por lo menos 1.500 millones de dólares para resolver una demanda colectiva presentada por un grupo de escritores que acusaban a la compañía de infringir derechos de autor. Según las partes, esto equivale a unos 3.000 dólares por cada obra y es mucho menos de lo que la compañía podría haber enfrentado en caso de perder en juicio: expertos hablaban de al menos miles de millones de dólares, y algunas estimaciones elevaban la cifra por encima de 1 billón de dólares.
Se trata de la primera en Estados Unidos resolución colectiva de un conflicto sobre derechos de autor en el contexto de la IA generativa, y su resultado podría influir en el enfoque de reguladores y de la industria creativa respecto a cuestiones legales relacionadas con la inteligencia artificial. «Este acuerdo emblemático supera cualquier pago conocido hasta ahora en casos de derechos de autor. Es el primero en la era de la IA, ofrece una compensación real a cada obra y establece un precedente: las empresas de IA tendrán que pagar a los titulares de derechos. La señal es clara: tomar libros ajenos de sitios pirata está mal», declaró el copresentador de los demandantes Justin Nelson, de Susman Godfrey LLP.
Anthropic no reconoce culpa ni responsabilidad. «Si el tribunal aprueba el acuerdo, cerrará las reclamaciones pendientes de los demandantes. Seguimos concentrados en crear sistemas de IA seguros que ayuden a personas y organizaciones a ampliar sus capacidades, promover descubrimientos científicos y resolver problemas complejos», señaló la subconsejera general de Anthropic, Aparna Sridhar, en un comunicado.
La demanda se presentó en 2024 ante el Tribunal de Distrito del Norte de California. Las escritoras y escritores Andrea Bartz, Kirk Wallace Johnson y Charles Greber afirmaban que la compañía entrenó sus grandes modelos de lenguaje con sus obras sin permiso, infringiendo la ley de derechos de autor.
En junio, el juez de distrito sénior William Alsup determinó que el propio entrenamiento entra en la doctrina del «uso justo», que permite el uso limitado no autorizado de materiales protegidos. Sin embargo, en el caso quedó una salvedad clave: Anthropic se basó en un conjunto masivo de libros pirata provenientes de las llamadas «bibliotecas en la sombra», incluido el conocido recurso LibGen. Según el juez, «Anthropic descargó más de siete millones de copias pirata de libros, no pagó nada y continuó almacenándolos, incluso decidiendo no utilizarlos para el entrenamiento», y los autores tienen derecho a reclamar compensación precisamente por esas copias bibliotecarias.
No está claro cómo recibirá la comunidad literaria los términos del acuerdo. Dado que el caso se tramitó mediante el mecanismo opt-out, los autores descontentos dentro de la clase podrán salir del acuerdo y presentar demandas individuales. Cabe destacar que los demandantes solicitaron mantener en secreto el “umbral opt-out”, por lo que no se informará al público cuántas renuncias provocarían la rescisión del trato.
Los problemas legales de Anthropic no terminan aquí. La compañía también afronta una demanda de grandes discográficas, incluida Universal Music Group, que sostienen que en el entrenamiento del chatbot Claude se utilizaron letras de canciones protegidas por derechos de autor. Los demandantes buscan ampliar la demanda, añadiendo alegaciones sobre la descarga de composiciones a través de BitTorrent, y advierten que presentarán una nueva demanda por piratería si el tribunal no permite incorporar esos cambios.
La historia está en desarrollo. Seguiremos informando.