Skip to main content

Un reportaje del MIT Technology Review revela que algunos terapeutas están usando ChatGPT durante sus sesiones sin avisar a sus pacientes. La noticia sacude el ecosistema de confianza que sostiene la relación terapeuta–paciente y plantea preguntas urgentes sobre privacidad, ética y el papel real de la inteligencia artificial en la salud mental.

Cuando las palabras no son del todo tuyas

Uno de los casos documentados ocurre en Los Ángeles. Declan, paciente habitual, notó algo extraño durante una videollamada. Su terapeuta copiaba sus palabras en otra ventana y respondía con frases impersonales, como dictadas. Descubrió que usaba ChatGPT en tiempo real para formular respuestas.

Otro episodio involucró a una redactora que recibió un correo extensamente redactado por su terapeuta. El tono era distinto. Preguntó si lo había escrito ella misma. La respuesta fue que no, que recurrió a ChatGPT para estructurarlo mejor. En ambos casos el consentimiento brillaba por su ausencia.

Ventajas que no curan, respuestas que no sienten

Para algunos profesionales, la tentación es clara. ChatGPT puede ayudar a redactar correos, resumir sesiones o sugerir enfoques. Pero también puede desdibujar la línea entre asistencia y sustitución.

Los grandes modelos de lenguaje no entienden emociones, ni detectan matices personales. A veces ofrecen consejos inofensivos. Otras, refuerzan delirios o minimizan síntomas graves. Una investigación titulada «Delusion and stigma in large language models: A study on psychiatric advice from ChatGPT» alertó que los LLM pueden reproducir estigmas o sugerir respuestas clínicamente inapropiadas. Y lo hacen con la misma convicción sintética que usan para recitar una receta de cocina.

Datos íntimos y decisiones opacas

Más allá del contenido, está el cómo. Usar una IA en sesiones terapéuticas implica introducir información sensible en plataformas que no siempre cumplen normativas de privacidad, como HIPAA en Estados Unidos. Algunos terapeutas defienden que solo usan ChatGPT de forma interna, sin copiar textos literales del paciente. Pero incluso así, el rastro de datos queda. Y los pacientes rara vez lo saben.

Confianza: esa línea invisible

Cuando alguien acude a terapia, entrega algo más que palabras. Entrega contexto, vulnerabilidad, historia. Saber que una máquina intervino sin aviso rompe ese pacto implícito. Algunos pacientes describieron la revelación como una traición emocional. Otros, como un quiebre en el proceso. La confianza, dicen los manuales, es la base de la alianza terapéutica. Y también su condición de posibilidad.

Otras voces, otros límites

En Reino Unido, el NHS ha pedido frenar el uso de chatbots como sustitutos terapéuticos. En un comunicado, la institución advirtió que estos sistemas no están preparados para detectar crisis ni ofrecer contención real, especialmente en el caso de adolescentes y jóvenes, donde el uso de tecnología como primera vía de ayuda es cada vez más común.

En India, especialistas alertan que, aunque accesibles, los bots no pueden evaluar ni diagnosticar. En Estados Unidos, medios como The Washington Post recomiendan avisar siempre si se usa IA en interacciones personales delicadas. Casos como el del TOC agravan el dilema, ya que hay evidencia de que ChatGPT alimenta bucles compulsivos sin resolverlos. La ilusión de conversación puede ser peor que el silencio.

¿IA como ayuda, pero con reglas claras?

Investigadores exploran posibles usos positivos, desde guías psicoeducativas hasta asistentes para estructurar sesiones. Pero con condiciones. Que no reemplacen. Que no oculten su presencia. Y que estén supervisadas por profesionales reales, no por prompts automáticos.

Cuestión de honestidad

Algunas respuestas, por más fluidas que suenen, no vienen de quien se espera. En la intimidad de una sesión, el origen importa. No solo lo que se dice, sino quién lo dice. La tecnología puede ser aliada, pero solo si no traiciona el pacto más antiguo de todos, saber con quién estamos hablando.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario