Skip to main content

Un tribunal de Estados Unidos ordenó a OpenAI conservar todas las conversaciones mantenidas en ChatGPT, incluidas las que el usuario decidió borrar. La medida, dictada en plena disputa legal con The New York Times, deshace una promesa tácita, que lo escrito al chatbot quedaba entre tú y la máquina. No hay derecho al olvido en la inteligencia artificial.

Lo que dijiste ya no desaparece

La orden judicial se emitió en mayo de 2025, pero ha vuelto a escena por dos razones. Primero, por las recientes declaraciones de Sam Altman, que reabren el debate sobre la confidencialidad de los chats. Y en segundo lugar, la aclaración de OpenAI sobre qué cuentas están afectadas y cómo se está gestionando esa retención de datos. Más que una novedad, es una actualización con consecuencias todavía en curso.

Desde mayo, OpenAI está obligado a guardar todos los registros de ChatGPT, sin límite de tiempo. La orden incluye los mensajes eliminados, las sesiones temporales y los historiales de usuarios que jamás activaron el guardado. Aunque hasta ahora la política decía que se borraban a los 30 días, esa cláusula ya no aplica. Esto afecta a cualquier usuario que no tenga un contrato empresarial con “retención cero”. Es decir, a casi todos.

Lo que se prometía (y lo que se incumple)

OpenAI aseguraba que no almacenaba chats más allá de lo necesario para “mejorar el servicio” o detectar abusos. Si alguien eliminaba una conversación, desaparecía. Eso decía la letra pequeña. Pero el conflicto legal con The New York Times lo cambió todo. Un juez federal ordenó preservar todos los datos para su posible uso en juicio. Las promesas se vuelven opcionales cuando interviene un tribunal.

La empresa ha presentado una apelación. Alega que la orden judicial contradice su política de privacidad y pone en entredicho la confianza de millones de usuarios.

Cuando el chatbot se convierte en testigo

En una entrevista reciente, Sam Altman—CEO de OpenAI—admitió que las conversaciones con ChatGPT no están protegidas por ningún privilegio legal. No es un abogado. Ni un terapeuta. Ni un médico. “No hemos resuelto eso todavía”, dijo. En otras palabras: si un fiscal lo pide, tu historial puede hablar.

Y aunque tú lo hayas borrado, OpenAI puede haberlo guardado.

Precedentes que ya han dejado huella

No es una hipótesis. En 2023, dos abogados presentaron ante un tribunal de Nueva York textos generados por ChatGPT con jurisprudencia falsa. El juez los multó con 5.000 dólares y los obligó a formarse sobre IA. No es que el chatbot mintiera, es que ellos no comprobaron lo que decía. Pero el resultado fue el mismo: castigo judicial.

En otro caso, tres letrados utilizaron la herramienta para construir un alegato y terminaron sancionados por “imprudencia extrema”. La IA no reemplazó su juicio, lo desactivó.

Una memoria larga como un juicio

Hay algo desconcertante en la idea de que una conversación digital pueda salir del chat y entrar en una sala con estrado. No por culpa del algoritmo, sino por la fragilidad de las reglas. La pregunta no es si la IA puede recordar. Es si tú tenías derecho a olvidar.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario