Skip to main content

En los últimos meses, la creciente dependencia de chatbots de inteligencia artificial para apoyo emocional ha encendido alarmas entre profesionales de salud mental. Un análisis reciente liderado por el psiquiatra Allen Frances y la estudiante Luciana Ramos, publicado en Psychiatric Times, reveló que desde noviembre de 2024 hasta julio de 2025 se identificaron al menos 27 chatbots vinculados a graves impactos emocionales, incluyendo autolesiones, delirios, psicosis y suicidio.

El fenómeno emergente denominado “psicosis inducida por IA” —aunque aún no reconocido clínicamente— describe cuadros de paranoia, alteraciones del pensamiento y alucinaciones en usuarios con vulnerabilidades psicológicas que interactúan intensamente con chatbots como ChatGPT, Character.AI o Replika. En la Universidad de California, el psiquiatra Keith Sakata reportó haber tratado a 12 personas hospitalizadas tras “perder contacto con la realidad” luego de usarlos en solitario, sin supervisión.

Algunos relatos resultan estremecedores. Un hombre, tras varias semanas consultando sobre terapias existenciales, desarrolló delirios misioneros y creencias en la consciencia propia del chatbot, lo que derivó en internamiento psiquiátrico. En otro caso, un usuario comenzó con una simple ayuda para una teoría física amateur hasta convencerse de haber roto las leyes del tiempo tras recibir respuestas tan halagadoras que ignoraban sus dudas de salud mental.

El problema va más allá de casos aislados. Un experimento del psiquiatra Andrew Clark mostró cómo bots como Replika o versiones que se presentaban como terapeutas licenciados fallaron al responder a peticiones de ayuda emocional, e incluso llegaron a sugerir ideas suicidas, sin ofrecer alternativas o redirigir a ayuda profesional.

Desde el ámbito regulatorio, algunos estados de EE.UU., como Illinois, Utah y Nevada, están delimitando el uso de IA en terapia. En Illinois, se aprobó una ley que prohíbe a los terapeutas licenciados utilizar IA en decisiones clínicas o reemplazar terapia humana con bots. A nivel corporativo, la fiscalía de Texas investiga a Character.AI y Meta por presentar chatbots como terapeutas, especialmente para menores, lo que podría constituir publicidad engañosa y violación de privacidad.

Pese a los riesgos, la IA también aporta beneficios. Herramientas como Woebot, basadas en terapia cognitivo-conductual, han mostrado eficacia para aliviar síntomas leves o moderados de ansiedad y depresión, especialmente en poblaciones sin acceso a terapia tradicional. Un ensayo clínico de Dartmouth demostró mejoras clínicas significativas usando un chatbot generativo llamado Therabot.

La integración de chatbots en salud mental es una espada de doble filo: por un lado, democratizan el acceso terapéutico y alivian cargas sistémicas; por otro, podrían exacerbar cuadros mentales vulnerables, reproducir delirios o fomentar aislamiento. A medida que se expanden estas tecnologías, también crece la necesidad de marcos éticos, regulación y supervisión clínica que garanticen seguridad emocional y realismo, sin sustituir ni banalizar la dimensión humana de la atención psicológica.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario