Un psiquiatra canadiense atiende a un paciente con ideas paranoicas. Según un artículo de The Conversation, dice que una inteligencia artificial lo está observando, que sus respuestas no son casuales, que están codificadas con mensajes para él. Lleva semanas conversando con un chatbot. No es un caso aislado.
En los últimos meses, clínicos y medios anglosajones han empezado a usar una expresión nueva: AI psychosis, o psicosis por IA. No es un diagnóstico oficial, pero describe una serie de casos donde personas desarrollan delirios centrados en sus interacciones con sistemas como ChatGPT o Replika. En la consulta aparecen pantallazos, registros de conversaciones, fragmentos de texto que el paciente interpreta como revelaciones personales. El contenido no está generado para provocar eso, pero llega igual.
No son voces, son respuestas
A diferencia de la psicosis clásica, donde predominan las alucinaciones auditivas o visuales, en estos casos los delirios se construyen sobre una base textual. No escuchan voces. Leen respuestas. La estructura de la IA, siempre disponible, siempre fluida, facilita la ilusión de comunicación significativa. Algunos pacientes creen que la IA tiene conciencia. Otros, que les habla Dios a través del algoritmo. A veces, es una mezcla.
Los clínicos explican que el fenómeno aparece sobre todo en personas con vulnerabilidades previas: trastornos psicóticos, episodios maníacos, o situaciones de aislamiento extremo. La IA no crea la enfermedad, pero puede actuar como catalizador o espejo. En lugar de contradecir ideas delirantes, las refuerza. No porque quiera. Porque no distingue.
Datos sin cuerpo, conversaciones sin contexto
En todos los casos reportados, la IA implicada es un sistema de lenguaje predictivo. Genera texto a partir de lo que recibe, sin comprensión real del significado. No sabe si su interlocutor está en crisis. No puede hacer una pausa, ni notar la urgencia. Y sin embargo, mantiene el hilo. Responde con coherencia. Construye una conversación. Para el paciente, eso basta. No necesita que la IA tenga intención. La experiencia subjetiva es la de un diálogo. De ahí que algunos especialistas lo comparen con el efecto ELIZA, documentado ya en los años 70: la tendencia humana a atribuir comprensión emocional a sistemas que solo repiten patrones.
Una etiqueta que inquieta a los psiquiatras
El término AI psychosis genera tensión en el mundo clínico. Por un lado, nombra una situación nueva que está ocurriendo. Por otro, corre el riesgo de simplificar en exceso. Algunos expertos proponen hablar mejor de «delirios con contenido centrado en IA«. Es decir, mantener el diagnóstico clásico, pero reconocer que el entorno digital ofrece nuevos materiales para la construcción delirante.
En todo caso, los informes coinciden en algo: estas experiencias no son comunes entre usuarios sanos. No hay evidencia de que la IA cause psicosis en personas sin predisposición. Pero sí hay preguntas sobre cómo debe responder una tecnología tan potente cuando interactúa con personas en estados mentales frágiles.
¿Debemos entrenar a la IA para que detecte el delirio?
Algunas voces del mundo tecnológico plantean si los modelos de lenguaje deberían incorporar mecanismos para detectar patrones de pensamiento delirante. La idea es controvertida. Detectar un delirio requiere contexto clínico, historia personal, observación sostenida. Una IA no puede hacer eso. Pero tampoco es irrelevante que sus respuestas puedan amplificar ciertas ideas. Las plataformas más populares han empezado a limitar ciertos temas. Otras, como Replika, han reducido funciones emocionales. Sin embargo, el dilema sigue. Los sistemas de IA no son terapeutas, pero se usan como si lo fueran. No sustituyen la relación humana, pero la imitan. Y en algunos casos, esa imitación basta para desencadenar una crisis.