En el corazón de la revolución de la inteligencia artificial late una pregunta incómoda: ¿es legal usar obras protegidas para entrenar estos modelos? Una reciente sentencia a favor de Anthropic arroja algo de luz, pero también nuevas sombras. Aunque el juez validó el uso justo en su entrenamiento, la polémica no ha hecho más que empezar. Y el desenlace podría implicar multas colosales y consecuencias globales.
Una victoria legal que no resuelve el problema
La empresa Anthropic ha conseguido una resolución judicial favorable tras ser acusada de infringir derechos de autor al entrenar sus modelos de IA con libros protegidos. El juez William Alsup avaló su argumento principal: el uso de esas obras fue “uso justo”, un principio legal que permite utilizar contenidos con copyright bajo ciertas condiciones, especialmente si el uso es transformador.

Según Alsup, el entrenamiento de IA es una de las aplicaciones más transformadoras de nuestro tiempo. Este razonamiento valida, en parte, la estrategia de muchas tecnológicas: usar obras sin pedir permiso directo a los autores, siempre que se genere algo nuevo a partir de ellas.
En su defensa, Anthropic detalló que gastó millones en la compra de libros físicos —incluso de segunda mano— para luego escanearlos y digitalizarlos. Sin embargo, también se probó que descargó bases de datos como Books3 o LibGen, que contienen millones de libros pirateados.
El coste oculto de una aparente victoria
Pese al respaldo judicial al concepto de uso justo, Anthropic no ha salido completamente ilesa. El juez permitió que los autores continúen con una demanda paralela por haber descargado de forma masiva más de siete millones de libros sin pagar por ellos. Aunque muchos no se usaron finalmente en el entrenamiento, fueron almacenados, lo que plantea un nuevo foco de conflicto legal.
Esto supone una amenaza económica enorme para Anthropic: si la justicia considera que hubo violación de copyright, la multa mínima sería de 750 dólares por libro. Con millones en juego, la compañía podría enfrentarse a sanciones de miles de millones de dólares.
Y no están solos: empresas como Meta o Google también entrenaron sus modelos con materiales similares, y podrían verse envueltas en litigios parecidos. Meta, por ejemplo, descargó más de 80 TB de libros con copyright vía BitTorrent.

Un futuro incierto para la inteligencia artificial
Esta sentencia marca un punto de inflexión. Mientras en algunos casos —como el de Ross Intelligence frente a Thomson Reuters— los jueces rechazaron el uso justo, el caso de Anthropic va en dirección contraria, siempre y cuando se adquieran legalmente los textos utilizados.
Pero la batalla legal sigue. Cada victoria es parcial, cada paso abre nuevos frentes. Y el sector de la IA deberá decidir: ¿comprará cada libro que use, o asumirá el riesgo de costosos juicios? La respuesta marcará el futuro del desarrollo tecnológico.