Skip to main content

«Si un medio de comunicación copiara un montón de historias del New York Times y las publicara en su sitio, probablemente sería visto como una flagrante violación de los derechos de autor del Times. Pero ¿qué pasa cuando una empresa de tecnología copia esos mismos artículos, los combina con innumerables otros trabajos copiados y los utiliza para entrenar un chatbot de IA capaz de conversar sobre casi cualquier tema, incluidos los que conoció en el Times?»

La pregunta la plantea este artículo de The Washington Post, a raíz de la reciente demanda presentada por el New York Times contra OpenAI y Microsoft ha llevado al centro de atención una cuestión legal fundamental: ¿constituye una infracción de derechos de autor el uso de obras protegidas para entrenar modelos de inteligencia artificial, o puede considerarse un «uso justo»? Esta disputa legal, que se centra en la utilización de «millones» de artículos del Times para desarrollar modelos de IA como ChatGPT y Bing, podría tener implicaciones significativas para la industria emergente de la IA generativa.

La demanda del New York Times contra OpenAI y Microsoft por el uso de artículos protegidos por derechos de autor en el entrenamiento de IA plantea un dilema legal crucial.

La ley de derechos de autor tradicionalmente distingue entre la copia literal de una obra, generalmente ilegal, y su «remix» o uso creativo. Sin embargo, la naturaleza de los sistemas de IA, que pueden memorizar y reproducir obras casi exactas, complica esta distinción. Aunque las empresas tecnológicas han defendido en el pasado el uso de obras protegidas como «uso justo», argumentando que su tecnología representa un uso transformador de dichas obras, la situación con la IA presenta nuevos desafíos.

El caso del New York Times se basa en dos aspectos principales: la infracción de derechos en la «entrada» de datos al ser escaneados y copiados para el entrenamiento de modelos como GPT-4, y la «salida» de estos modelos, que en ocasiones han reproducido resúmenes detallados o secciones enteras de artículos del Times. Aunque los tribunales han sido reticentes a considerar la formación de un modelo de IA en obras con derechos de autor como una violación en sí misma, la reproducción de pasajes textuales idénticos podría inclinar la balanza.

Este caso no solo pone a prueba los límites de la ley de derechos de autor en la era de la IA, sino que también podría tener consecuencias significativas para la industria de noticias, que ha estado en crisis desde el auge de Internet. Mientras los editores buscan compensación por el uso de sus materiales para entrenar IA, algunos también están publicando trabajos producidos por IA, lo que ha generado tanto reacciones negativas como errores embarazosos.

Ahora, la compañía de Sam Altman ofrece entre 1 y 5 millones de dólares al año a los editores de medios de comunicación, tras la demanda del Times.

 

Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación. Esta es la de hoy.