Dos nuevas sentencias judiciales son malas noticias para tus autores favoritos

Suscríbete a Slatest para recibir los análisis, las críticas y los consejos más profundos, todos los días, en tu bandeja de entrada.
La semana pasada, dos jueces federales del Distrito Norte de California emitieron fallos legales que intentan resolver uno de los debates más complejos en el mundo de la inteligencia artificial: si constituye una violación de derechos de autor que las grandes tecnológicas utilicen libros publicados para entrenar bots generativos como ChatGPT. Desafortunadamente para los numerosos autores que han presentado demandas con este argumento, ninguna decisión les favorece, al menos no por ahora. Y eso significa que los creadores de todos los sectores podrían no poder impedir que las empresas de IA utilicen su trabajo a su antojo.
El martes, un juez de distrito de EE. UU. dictaminó que la startup Anthropic, respaldada por Amazon, no violó la ley de derechos de autor cuando utilizó las obras de tres autores para entrenar al chatbot insignia de la compañía, Claude. En Bartz v. Anthropic , los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson afirmaron que la empresa de inteligencia artificial había infringido sus protecciones de derechos de autor cuando varios de sus libros no solo se habían utilizado para entrenar a Claude, sino que también se habían pirateado ilegalmente para dicho propósito. La réplica de Anthropic fue que todas sus prácticas, desde la capacitación en sí hasta la utilización de libros que sus ingenieros habían pirateado y comprado alternativamente para la capacitación de Claude, constituían un caso de uso justo y eran perfectamente legales. El juez de distrito de EE. UU. William Alsup estuvo de acuerdo en parte con Anthropic y dictaminó que la capacitación en sí no violó la ley de derechos de autor, pero que la piratería ciertamente sí. Se programó un nuevo juicio para decidir sobre los daños causados por las descargas de libros ilícitos por parte de Anthropic.
El segundo fallo llegó justo un día después, en relación con un caso que autores destacados como Sarah Silverman, Ta-Nehisi Coates y Richard Kadrey habían presentado contra Meta por motivos similares, aunque de alcance más limitado. Simplemente argumentaron, en un intento de juicio sumario en Kadrey v. Meta , que el entrenamiento automático de IA con obras protegidas por derechos de autor socava su capacidad para negociar otros acuerdos, y que los conjuntos de Llama de Meta son "capaces de reproducir pequeños fragmentos de texto de sus libros". El juez Vince Chhabria se puso del lado de Meta, pero pareció hacerlo con pesar, afirmando que el uso por parte de Meta del trabajo de los escritores para entrenar a sus bots no es necesariamente legal, pero que los demandantes " presentaron los argumentos equivocados ". Chhabria fue incluso más allá y añadió: "Es difícil imaginar que pueda ser un uso legítimo utilizar libros protegidos por derechos de autor para desarrollar una herramienta para ganar miles de millones o billones de dólares al tiempo que se permite la creación de un flujo potencialmente infinito de obras competidoras". Sin embargo, en lugar de presentar ese "argumento potencialmente ganador", los autores presentaron al tribunal "claramente perdedores". La IA de Meta no reprodujo suficiente texto de los libros de los autores como para constituir plagio o piratería. El juez también decretó que estos escritores "no tienen derecho al mercado para licenciar sus obras como datos de entrenamiento de IA". Pero, en última instancia, a diferencia de Alsup, Chhabria pareció dejar abierta la vía legal para que los autores volvieran a litigar su caso con otros argumentos si así lo deseaban.
Aunque aún no lo sabemos con certeza, parece probable que los autores lo intenten de nuevo. Después de todo, Kadrey, Silverman y Coates también han estado litigando contra OpenAI , alegando infracción directa de derechos de autor y competencia desleal en el uso que OpenAI hace de sus libros para entrenar bots como ChatGPT. Su demanda ya ha obtenido algunos resultados, obligando a OpenAI a revelar detalles de sus datos de entrenamiento, cuidadosamente protegidos, en los tribunales. También podrían verse alentados por una importante decisión sobre derechos de autor en IA de febrero, cuando la organización global de medios y tecnología Thomson Reuters ganó una demanda por uso legítimo contra una startup de IA cuyos grandes modelos de lenguaje ingerían y reproducían los textos legales de Thomson Reuters.
Estos autores no son los únicos creativos que argumentan que los frutos de su trabajo no deberían ser combustible fácil para las máquinas avanzadas de predicción de sintaxis. En los últimos meses, varios casos judiciales, de alto y bajo perfil, han enfrentado a todos, desde autores hasta poderosas compañías de medios , editores musicales y eminentes organizaciones de noticias, contra empresas de IA florecientes y bien financiadas, con resultados dispares. Todas estas batallas legales son existenciales para editores y escritores en un momento en que la IA ya está revolucionando sectores creativos largamente asediados, y cuando los ejecutivos tecnológicos redoblan su insistencia en que se dejen de lado las limitaciones de los derechos de autor en la carrera armamentística por la supremacía de la IA. Si ganan, puede que nada impida que las empresas de IA destruyan las industrias que permiten a los humanos ejercer su expresión creativa y llenen el vacío con generaciones de máquinas de imitación.
En el caso del CEO de OpenAI, Sam Altman, incluso está aprovechando su nueva relación amistosa con el presidente Donald Trump con la esperanza de que el gobierno federal declare unilateralmente que todos los métodos de entrenamiento de IA son permisibles como uso legítimo. La administración Trump ya ha realizado algunos movimientos favorables en nombre de Altman y compañía este mes, con DOGE despidiendo al director de la Biblioteca del Congreso y al director de su Oficina de Derechos de Autor de EE. UU., justo cuando la agencia se disponía a publicar un informe que recomendaba estándares de derechos de autor para el entrenamiento de IA que serían más favorables para los autores. (La oficina actualmente no tiene a nadie al mando ). También existe el temor de que el Congreso intente anular todas las regulaciones de IA a nivel estatal a través de la legislación federal, lo que significaría que las pocas leyes que existen para proteger a los creadores de la IA, como el proyecto de ley de Tennessee contra los deepfakes no autorizados de artistas notables, pronto podrían ser aplastadas.
Todo lo anterior significa que aún quedan muchos aspectos legalmente turbios sobre la IA y los derechos de autor por un tiempo. Los jueces tendrán que evaluar las implicaciones para los derechos de autor de una amplia gama de medios: no solo texto, sino también texto impreso en comparación con texto digital, además de ilustraciones, videos y música. Además, es probable que todas estas sentencias de tribunales federales sean apeladas por cualquiera de las partes, independientemente del resultado, lo que hace casi inevitable que los tribunales de apelación e incluso la Corte Suprema intervengan. (El reciente fallo de la Corte Suprema sobre la orden ejecutiva de Trump sobre ciudadanía por nacimiento imposibilitará que los tribunales inferiores suspendan efectivamente cualquier acción ejecutiva de la Casa Blanca en materia de IA y derechos de autor). Sin embargo, los fallos de los casos Anthropic y Meta de la semana pasada ofrecen ciertas indicaciones que nos dan una pista sobre la posible decisión del sistema judicial respecto al uso legítimo.
En el caso Anthropic, un razonamiento del juez Alsup fue que los conjuntos de datos entrenados y los modelos de IA que impulsan a Claude cuentan con suficientes filtros antiplagio, lo que significa que «Claude no creó ninguna copia exacta ni ninguna imitación sustancial». (También admitió que «si los resultados llegaran a ser infractores, los autores podrían interponer una demanda».) Es más, Anthropic almacenó todos los libros utilizados para el entrenamiento en un archivo interno permanente, pero nunca los distribuyó a terceros ni los hizo públicos de forma inapropiada. Esta «biblioteca central» no aplicaba el uso legítimo, pero no infringía los derechos de autor siempre que los libros se adquirieran correctamente. (Por esta razón, el juez planea llevar a Anthropic a juicio por los libros robados).
En el caso Meta, el juez Chhabria no pareció coincidir con todos los argumentos de Alsup, especialmente con la afirmación de que la compra de libros para la capacitación indica una compensación suficiente, y prácticamente redactó una guía para que sus demandantes la repitieran más adelante. En concreto, declaró que los autores deberían argumentar que los chatbots de Meta producen resultados sorprendentemente similares a sus obras, que la capacidad de la IA para hacerlo a gran escala y a un ritmo acelerado reduce el mercado de sus libros (especialmente en el caso de no ficción y ficción reciente), y que la IA de Meta logra todo esto mediante el uso de copias piratas de libros para la capacitación (un hecho que se descubrió durante este mismo juicio). «En muchas circunstancias, será ilegal copiar obras protegidas por derechos de autor para entrenar modelos generativos de IA sin permiso», declaró Chhabria. «Lo que significa que las empresas, para evitar responsabilidades por infracción de derechos de autor, generalmente tendrán que pagar a los titulares de los derechos de autor por el derecho de uso de sus materiales».
Ambos jueces parecen coincidir en un par de puntos clave. En primer lugar, las generaciones de IA que se asemejan significativamente a las muestras de sus datos de entrenamiento no están protegidas por el uso legítimo, pero los filtros que impiden que los chatbots copien sus fuentes son legales. "El LLM Antrópico implementa filtros para que, si un usuario solicita prácticamente una obra completa, no se la conceda", afirmó Ray Seilie, abogado especializado en entretenimiento y tecnología que trabaja como asesor legal del bufete KHIKS.
En segundo lugar, las empresas de IA no pueden acortar el proceso de entrenamiento mediante la piratería de propiedad intelectual. En lo que discrepan sobre este segundo punto es en qué medida el entrenamiento en sí mismo viola la legislación sobre derechos de autor. Es probable que veamos más disputas similares sobre este tema a medida que otros casos se tramiten en los tribunales.
Pero para los creadores preocupados por cómo la IA se ha apropiado de su trabajo, estos fallos han ofrecido una estrategia. En la nueva demanda de Disney contra el generador de imágenes Midjourney y las demandas de las tres grandes discográficas contra la tecnología de música con IA , los demandantes atacan específicamente a las respectivas empresas emergentes por generar imágenes/canciones que se asemejan fácilmente a las obras protegidas por derechos de autor utilizadas para el entrenamiento (por ejemplo, Midjourney escupiendo una réplica del Pato Donald, o la aplicación Suno imitando la voz de Bruce Springsteen). Los autores que litigan con OpenAI y otros generadores de texto pueden señalar cómo los libros generados por IA se han apoderado de varias listas de los más vendidos de Amazon , y cómo en muchos casos esos "libros" autorizados aparecen como clones absolutos de obras originales . Estos escritores y periodistas también pueden utilizar argumentos de que las empresas de IA intentaron acelerar la capacitación mediante piratería masiva, que estas herramientas generativas son capaces de replicar su trabajo a gran escala y con velocidad , y que cualquier material de capacitación protegido por derechos de autor que se filtró en un ciberataque o se compartió sin permiso no se ajusta a los límites del uso justo.
¿Y si también se pierden estas batallas por los derechos de autor? Entonces, será difícil impedir que las startups de IA utilicen todas las obras creativas para sus propios fines, sin tener en cuenta a los artistas y escritores que realmente las han realizado. Y tendremos un mundo menos bendecido por la creatividad humana que por una bazofia de segunda categoría que arruina las carreras de quienes, con su imaginación, hicieron que la IA fuera tan potente .
