Skip to main content

La reciente advertencia del CEO de OpenAI, Sam Altman, ha encendido las alarmas sobre el uso de ChatGPT como herramienta de acompañamiento emocional. En un episodio del podcast This Past Weekend with Theo Von, Altman explicó que las interacciones con ChatGPT no cuentan con la protección legal equivalente a la que ofrecen profesionales como médicos, abogados o psicólogos, lo que significa que esas conversaciones podrían ser solicitadas por tribunales.

Altman señala que muchas personas, especialmente jóvenes, han llegado a emplear la IA como si fuera su terapeuta o coach emocional. Relatan sus problemas personales y buscan orientación sobre relaciones o salud mental, sin ser conscientes de que esas conversaciones no gozan de privilegio legal como ocurre en la relación médico–paciente o abogado–cliente.

Según informa Fast Company, aunque muchos usuarios sienten que han encontrado un espacio de confidencia, esas conversaciones podrían ser reveladas ante una demanda, pues no existen garantías legales como el secreto profesional. Altman llegó a afirmar: “Si usas ChatGPT para hablar de tus cosas más sensibles y luego hay una demanda, podríamos estar obligados a producirlas, y me parece muy mal”, recalcando la necesidad urgente de establecer un marco legal claro.

OpenAI enfrenta una batalla legal con The New York Times, que exige la retención indefinida de los registros de conversación de millones de usuarios, incluso si estos han sido borrados por el usuario. La compañía está apelando esta exigencia, argumentando que se trata de un exceso judicial que amenaza la privacidad del usuario.

El artículo de Fast Company subraya que, a diferencia de los mensajes cifrados de extremo a extremo en plataformas como WhatsApp o Signal, las conversaciones en ChatGPT no están encriptadas de ese modo y OpenAI puede acceder a ellas para entrenar modelos o vigilar usos indebidos.

El contraste entre la sensación subjetiva de intimidad del usuario y la realidad legal es notable: muchas personas usan el chatbot para tratar emociones, pero sin fundamento legal que respalde el concepto de confidencialidad. Altman advierte del potencial daño a la salud mental de esta práctica y el riesgo de dependencia emocional o desinformación en situaciones delicadas.

Finalmente, Altman reclama que se debe legislar con urgencia para establecer estándares de privacidad apropiados para la inteligencia artificial, equiparables a los existentes en profesiones reguladas. La falta de definición en este terreno puede desalentar el uso responsable de IA en ámbitos sensibles.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario