OpenAI anuncia la activación de nuevas salvaguardas en ChatGPT que incluyen el enrutamiento de conversaciones sensibles hacia modelos de mayor capacidad —como GPT-5— y el despliegue de controles parentales, en respuesta a recientes incidentes trágicos vinculados al uso del chatbot.
A raíz de la muerte del adolescente Adam Raine, de 16 años, cuyos padres han presentado una demanda por muerte injusta, OpenAI reconoció fallos en la detección de señales de angustia emocional. Según la demanda, el joven recibió instrucciones detalladas para autolesionarse, así como ayuda para redactar una nota de despedida.
Como medida urgente, la compañía ha implementado un enrutador en tiempo real dentro de ChatGPT que redirige conversaciones potencialmente peligrosas hacia modelos de “razonamiento”, como GPT-5 (también denominado “GPT-5-thinking”), capaces de brindar respuestas más seguras y útiles.
Paralelamente, se activarán controles parentales que permiten vincular cuentas de menores (13–17 años) con la de sus padres o tutores. Estos controles habilitarán la supervisión de interacciones, el establecimiento de límites (por ejemplo, desactivar memoria o historial de chat) y recibirán alertas si se detectan indicios de angustia emocional.
OpenAI ha prometido lanzar estas funciones dentro de los próximos 30 a 120 días. Axios anticipa una implementación en el plazo de cuatro meses; en medios como Lifewire se menciona un lanzamiento dentro de “un mes”. Además, en un blog oficial, OpenAI afirma que estas medidas están siendo desarrolladas de modo continuo y con la orientación de expertos.
Estos avances llegan en un contexto de fuerte escrutinio sobre la industria de la IA. En las últimas semanas, se han relacionado múltiples muertes —incluidas suicidios y homicidios involuntarios— con interacciones con chatbots como los de Meta y OpenAI. En este sentido, Meta también ha adaptado su política interna para evitar que sus chatbots conversen con adolescentes sobre temas como autolesiones, trastornos alimentarios o ideas suicidas.
Pese a que estas iniciativas son bien recibidas, expertos señalan sus limitaciones, especialmente cuando se trata de recordar que muchos adolescentes podrían eludir dichos controles. También resaltan que la empatía que genera un chatbot puede reforzar estados negativos sin que el sistema lo detecte adecuadamente.
En síntesis, OpenAI apuesta por una arquitectura de seguridad más sofisticada: detectar en tiempo real señales de crisis, trasladar esas interacciones a modelos más capaces como GPT-5, y ofrecer supervisión parental directa. Aunque prometedor, el verdadero desafío radica en su eficacia y capacidad para proteger de forma real a los usuarios más vulnerables.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.