Saltar al contenido
Tecnología

¿Puede la IA salirse con la suya? La sentencia que podría cambiarlo todo (o no)

Una importante empresa de inteligencia artificial acaba de ganar una batalla judicial clave por derechos de autor. Pero lejos de cerrar el caso, esta victoria abre una nueva puerta a futuros litigios millonarios. Lo que parecía un triunfo definitivo puede convertirse en una amenaza aún más peligrosa para la industria.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

En el corazón de la revolución de la inteligencia artificial late una pregunta incómoda: ¿es legal usar obras protegidas para entrenar estos modelos? Una reciente sentencia a favor de Anthropic arroja algo de luz, pero también nuevas sombras. Aunque el juez validó el uso justo en su entrenamiento, la polémica no ha hecho más que empezar. Y el desenlace podría implicar multas colosales y consecuencias globales.


Una victoria legal que no resuelve el problema

La empresa Anthropic ha conseguido una resolución judicial favorable tras ser acusada de infringir derechos de autor al entrenar sus modelos de IA con libros protegidos. El juez William Alsup avaló su argumento principal: el uso de esas obras fue “uso justo”, un principio legal que permite utilizar contenidos con copyright bajo ciertas condiciones, especialmente si el uso es transformador.

¿Puede la IA salirse con la suya? La sentencia que podría cambiarlo todo (o no)
© Nataliya Vaitkevich – Pexels

Según Alsup, el entrenamiento de IA es una de las aplicaciones más transformadoras de nuestro tiempo. Este razonamiento valida, en parte, la estrategia de muchas tecnológicas: usar obras sin pedir permiso directo a los autores, siempre que se genere algo nuevo a partir de ellas.

En su defensa, Anthropic detalló que gastó millones en la compra de libros físicos —incluso de segunda mano— para luego escanearlos y digitalizarlos. Sin embargo, también se probó que descargó bases de datos como Books3 o LibGen, que contienen millones de libros pirateados.


El coste oculto de una aparente victoria

Pese al respaldo judicial al concepto de uso justo, Anthropic no ha salido completamente ilesa. El juez permitió que los autores continúen con una demanda paralela por haber descargado de forma masiva más de siete millones de libros sin pagar por ellos. Aunque muchos no se usaron finalmente en el entrenamiento, fueron almacenados, lo que plantea un nuevo foco de conflicto legal.

Esto supone una amenaza económica enorme para Anthropic: si la justicia considera que hubo violación de copyright, la multa mínima sería de 750 dólares por libro. Con millones en juego, la compañía podría enfrentarse a sanciones de miles de millones de dólares.

Y no están solos: empresas como Meta o Google también entrenaron sus modelos con materiales similares, y podrían verse envueltas en litigios parecidos. Meta, por ejemplo, descargó más de 80 TB de libros con copyright vía BitTorrent.

¿Puede la IA salirse con la suya? La sentencia que podría cambiarlo todo (o no)
© KATRIN BOLOVTSOVA – Pexels

Un futuro incierto para la inteligencia artificial

Esta sentencia marca un punto de inflexión. Mientras en algunos casos —como el de Ross Intelligence frente a Thomson Reuters— los jueces rechazaron el uso justo, el caso de Anthropic va en dirección contraria, siempre y cuando se adquieran legalmente los textos utilizados.

Pero la batalla legal sigue. Cada victoria es parcial, cada paso abre nuevos frentes. Y el sector de la IA deberá decidir: ¿comprará cada libro que use, o asumirá el riesgo de costosos juicios? La respuesta marcará el futuro del desarrollo tecnológico.

Fuente: Xataka.

Compartir esta historia

Artículos relacionados