La proliferación de herramientas de IA generativa ha abierto nuevas vías de creación de contenido, personalización y apoyo digital. Pero cuando entran en contacto con personas vulnerables a los trastornos alimentarios, los sistemas no solo acompañan, también pueden empujar. Un colectivo de investigadores, junto al CDT, ha mapeado seis formas en que estas tecnologías refuerzan dinámicas dañinas incluso sin proponérselo.
Cuando el algoritmo responde sin freno
Los modelos generativos funcionan con datos. Muchísimos datos. Aprenden patrones y generan texto, imágenes o sonido en función de lo que el usuario pide. En un entorno creativo, eso puede parecer inocuo. Pero cuando del otro lado hay una persona con una relación conflictiva con la comida o el cuerpo, el resultado puede ser otra cosa. Algunos chatbots, entrenados para agradar, acaban ofreciendo consejos que imitan el acompañamiento pero sin filtros ni conciencia de contexto.
La promesa de ayudar que también puede doler
Detectar señales tempranas. Acompañar sin juicios. Personalizar consejos. Las promesas de la IA generativa en salud mental suenan bien. Pero el mismo mecanismo que permite detectar también puede sugerir. Y ahí es donde la lógica de optimización entra en conflicto con la fragilidad humana. El informe advierte que los sistemas pueden derivar en sugerencias sobre cómo ocultar síntomas o mantener rutinas perjudiciales. Sin intención. Solo porque lo piden.
El dato que se convierte en espejo
Lo que se introduce, lo que se busca, lo que se comenta, todo alimenta al sistema. Prompts, imágenes, historiales, chats. En escenarios de trastornos alimentarios, eso puede implicar búsquedas sobre peso, comida o cuerpo. Y el sistema, que no discrimina entre contexto clínico y cotidiano, devuelve respuestas adaptadas pero sin red. Lo que podría ser apoyo se convierte en validación.
Diseñado sin preguntar a quien lo necesita
Lo que distingue al informe es su método. No parte de lo que puede fallar en general, sino de lo que falla en concreto. Habla con pacientes, terapeutas, diseñadores. Y recoge seis categorías de riesgo que no son abstractas: amplificación de contenido dañino, refuerzo de sesgos, consejos perjudiciales, falsa sensación de apoyo, exposición de datos sensibles, y ausencia de salvaguardas para quienes más las necesitan.
Seis vectores de riesgo que el sistema no ve
Los seis riesgos descritos por el informe no aparecen como accidentes puntuales, sino como patrones sistémicos. El primero es la amplificación de contenido dañino, los modelos tienden a generar textos e imágenes que refuerzan o incluso glorifican comportamientos desordenados en torno a la comida o el cuerpo. A esto se suma el refuerzo de sesgos. Muchas de estas herramientas reproducen una visión limitada sobre quién puede tener un trastorno alimentario, dejando fuera a cuerpos y experiencias diversas.
También está la generación de consejos perjudiciales, con indicaciones explícitas que perpetúan el problema, desde restricciones alimentarias hasta formas de ocultar síntomas.
Otro riesgo es la simulación de apoyo, los sistemas aparentan comprensión o contención, pero sin una base clínica que los respalde. La exposición de datos sensibles agrava la situación, ya que estos sistemas procesan y personalizan con información que podría ser muy íntima, sin ofrecer garantías suficientes.
Finalmente, la ausencia de salvaguardas específicas deja a muchas personas expuestas, los modelos no distinguen niveles de riesgo ni adaptan su comportamiento según la vulnerabilidad del usuario.
Lo que devuelve el reflejo
La IA generativa personaliza. Acompaña. Pero también reproduce. Amplifica. En el caso de los trastornos alimentarios, eso significa que puede devolver una versión aumentada del problema. El informe del CDT no propone alarmas, sino herramientas.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.