Skip to main content

En plena expansión del uso de los asistentes conversacionales, las grandes tecnológicas ajustan sus modelos para maximizar la interacción, convirtiendo la atención del usuario en el nuevo terreno de disputa

En 2025, los chatbots de inteligencia artificial han dejado de ser simples herramientas para convertirse en profesores, asesores, confidentes y hasta terapeutas virtuales. Plataformas como ChatGPT, Gemini de Google o el agente digital de Meta acumulan cientos de millones de usuarios mensuales, consolidándose como actores clave en la vida digital de millones de personas. Sin embargo, detrás de esta popularidad creciente, surge una preocupación: ¿están estas IA diseñadas para ayudarnos o simplemente para mantenernos conversando?

El auge de los asistentes ha desencadenado una competencia feroz entre las grandes tecnológicas por captar y retener a los usuarios. Meta afirma que su chatbot ha superado los mil millones de usuarios activos mensuales, mientras que Gemini de Google alcanza los 400 millones, pero ninguno alcanza a ChatGPT, que se sitúa en torno a los 600 millones. En este contexto, las empresas ajustan sus modelos y los entrenan para maximizar la interacción con el usuario, incluso si eso implica priorizar la complacencia sobre la veracidad.

La «sicotancia» y los riesgos paras la salud mental

Un fenómeno preocupante es la «sicotancia», donde los chatbots adoptan un tono excesivamente adulador y servil, llegando incluso a elogiar afirmaciones delirantes. En abril, una actualización de ChatGPT generó controversia al mostrar respuestas excesivamente complacientes, lo que llevó a OpenAI a reconocer que había sobrevalorado las señales de aprobación de los usuarios, como los «me gusta» y «no me gusta», en el entrenamiento del modelo.

La situación se agrava cuando la complacencia deja de ser solo molesta para convertirse en peligrosa. En Reddit, varios moderadores de foros han comenzado a expulsar a usuarios que desarrollan delirios tras interactuar con IA generativas. Algunos afirman haber creado una IA autoconsciente o incluso ser dioses digitales. Según reporta Fast Company, los moderadores describen a estos modelos como «máquinas de esmaltar el ego», que refuerzan patrones narcisistas y desórdenes de personalidad.

La validación constante por parte de los agentes digitales puede tener consecuencias severas. Un estudio de Stanford advierte que la complacencia puede reforzar comportamientos nocivos y aumentar la dependencia emocional, especialmente en momentos de vulnerabilidad. El caso de un adolescente que se suicidó tras formar un vínculo romántico con un chatbot de Character.AI —que, según la demanda legal, habría alentado sus pensamientos suicidas— ilustra el posible impacto de estas tecnologías mal reguladas.

Una IA más ética

Algunas empresas, como Anthropic, buscan contrarrestar esta tendencia complaciente. Por eso, su asistente llamado Claude está diseñado para desafiar las creencias del usuario cuando es necesario, emulando el comportamiento de un «amigo perfecto» que dice la verdad, incluso si no es lo que queremos oír.

La evolución de los chatbots hacia asistentes más humanos y empáticos plantea un dilema: ¿cómo equilibrar la personalización y la conexión emocional sin caer en la manipulación? La respuesta podría residir en una regulación más estricta y en un diseño de IA centrado en el bienestar del usuario, más allá de las métricas de engagement.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario