Skip to main content

La empresa de inteligencia artificial Anthropic ha alcanzado un acuerdo preliminar en una demanda colectiva presentada por varios autores estadounidenses, evitando un juicio que podría haberle costado cifras astronómicas

 

Los autores —Andrea Bartz, Charles Graeber y Kirk Wallace Johnson— acusaban a la compañía de entrenar su modelo de lenguaje Claude con millones de libros descargados sin autorización desde bibliotecas oscuras como LibGen.

En junio, el juez de distrito William Alsup determinó que el entrenamiento con libros adquiridos legalmente constituía un uso justo bajo la legislación de derechos de autor en EE UU. Sin embargo, en ese mismo fallo se reconoció que la forma en que se obtuvo gran parte del material—mediante descargas masivas desde fuentes piratas—no estaba protegida por dicho principio, lo que abrió la puerta a un litigio por infracción masiva.

La demanda podría haber implicado indemnizaciones por daños estatutarios que alcanzaban hasta 150 000 USD por obra infringida. Con aproximadamente 7 millones de obras implicadas, las cifras escalaban potencialmente hasta el billón de dólares.

El acuerdo, cuyas condiciones permanecen por ahora confidenciales, ya fue presentado ante el tribunal. Se espera su aprobación preliminar en una audiencia programada alrededor del 3 al 5 de septiembre. Tanto Anthropic como los abogados de los autores han declarado que se trata de “un acuerdo histórico” que beneficiará a todos los miembros de la clase.

Expertos legales coinciden en que, aunque un acuerdo no establece jurisprudencia, este caso será observado atentamente. Podría sentar precedentes importantes en el campo emergente de litigios por derechos de autor contra empresas de IA.

Este episodio refleja la creciente tensión entre creadores y desarrolladores de IA. Mientras el sector defiende que el uso de contenido con transformación analítica constituye “fair use”, los autores y defensores de los derechos de propiedad intelectual lo cuestionan, especialmente cuando hay descarga masiva sin autorización. La controversia ya incluye otros frentes legales, como demandas similares por entrenamiento en datos musicales o noticias.

A medida que se revelen los detalles del acuerdo y se acerque la audiencia judicial, el sector se prepara para nuevas pautas sobre cómo las compañías de IA deben acceder y utilizar materiales protegidos. El desenlace de esta historia podría redefinir los límites de la legalidad en el entrenamiento de modelos genéricos como Claude.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario