Skip to main content

Los adolescentes los buscan cuando no saben a quién más acudir. A cualquier hora, sin cita, sin tener que dar explicaciones. Los chatbots de inteligencia artificial se han convertido en una especie de confidente digital para miles de jóvenes que atraviesan momentos difíciles. Según un informe de Common Sense Media, el 73 % de los adolescentes ha utilizado alguna vez un chatbot de inteligencia artificial. Pero el informe advierte que estos sistemas no están preparados para ofrecer apoyo emocional seguro. Y podrían hacer más daño que bien.

Parecen escuchar, pero no entienden

Los chatbots conversacionales funcionan con modelos de lenguaje entrenados para generar respuestas coherentes a partir del texto que reciben. Simulan comprensión y empatía, pero no sienten ni comprenden el sufrimiento. En salud mental, esto tiene implicaciones críticas. Según Common Sense Media, los chatbots más populares, como Character.ai, Replika o Snapchat My AI, fallan al detectar señales de crisis como pensamientos suicidas o autolesiones. En una evaluación con escenarios simulados, ninguno de ellos fue capaz de orientar al usuario hacia ayuda profesional. Aunque pueden iniciar conversaciones con frases de apoyo genéricas, no evalúan riesgos complejos ni remiten a especialistas. Y cuanto más se alarga la conversación, peor es su desempeño.

Lo que prometen y lo que ofrecen

La promesa es alguien con quien hablar, en cualquier momento, sin ser juzgado. Para un adolescente aislado, eso puede parecer suficiente. Algunos estudios sugieren beneficios limitados en contextos muy controlados, especialmente con bots diseñados específicamente para salud mental, como Wysa o Woebot. Pero la mayoría de los sistemas accesibles en redes sociales o apps generalistas no cuentan con formación clínica ni protocolos de intervención.

El informe subraya el riesgo de la ilusión de competencia. Los jóvenes pueden creer que están recibiendo ayuda profesional, cuando en realidad están solos frente a un sistema sin criterio médico ni responsabilidad legal.

Datos sensibles en terreno resbaladizo

Hablar con un chatbot implica compartir mucho más que palabras. Los sistemas almacenan textos, patrones emocionales, momentos críticos. Algunos incluso recuerdan conversaciones pasadas para mantener el hilo, lo que refuerza la ilusión de vínculo. Pero esa memoria no garantiza protección ni confidencialidad. Common Sense señala que muchos de estos bots utilizan sistemas de recopilación de datos opacos. No siempre explican cómo se almacenan, analizan o comparten las interacciones. En ausencia de regulación específica, operan fuera del marco de las leyes sanitarias y de protección de datos sensibles.

Confianza que puede costar caro

El informe califica como «inaceptable» el uso de estos sistemas para apoyo emocional en adolescentes. Identifica fallos sistemáticos al evaluar crisis, respuestas que refuerzan creencias negativas y conversaciones que pueden prolongarse sin sentido ni orientación. También señala un riesgo de dependencia emocional en jóvenes que dejan de buscar apoyo humano porque sienten que el chatbot los entiende. Estos sistemas, advierte el estudio, no solo no están preparados para contener el sufrimiento, sino que pueden amplificarlo. El riesgo no está solo en lo que dicen, sino en lo que omiten o no detectan.

Ecos y alertas más allá del estudio

No es una advertencia aislada. Investigadores de la Universidad de Stanford alertan sobre el impacto psicológico de estos «compañeros artificiales». Un estudio reciente halló que los adolescentes que usan bots de conversación con frecuencia presentan mayores niveles de aislamiento y menor disposición a buscar ayuda real. Algunos estados de Estados Unidos ya estudian restricciones al uso de IA generativa en salud mental, especialmente en contextos no supervisados. Por su parte, organizaciones como el Center for Humane Technology y la American Psychological Association han pedido marcos regulatorios específicos para estas herramientas.

La pregunta pendiente

¿Qué hacer con una tecnología que escucha, pero no comprende? ¿Cómo evitar que la promesa de cercanía termine alejando a quienes más necesitan ayuda real? Los chatbots seguirán ahí, disponibles y amables. Pero el cuidado emocional exige algo más que una buena respuesta.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario