Desde enero de 2026, ChatGPT ha empezado a estimar si una cuenta pertenece a un menor de edad, incluso sin que el usuario lo declare. El cambio forma parte de una estrategia más amplia de OpenAI para adaptar la experiencia de uso según la edad, aplicando nuevas protecciones automáticas. Esta función abre el debate sobre privacidad, algoritmos y el papel de la inteligencia artificial en la vida digital de los adolescentes.
La nueva intuición de la IA
No se trata de una simple casilla de edad. El sistema de predicción utiliza un modelo que analiza señales de comportamiento como el tiempo de existencia de la cuenta, los horarios de uso o los patrones de interacción. Con esta información, el sistema estima si quien está detrás de la pantalla tiene menos de 18 años. Si la respuesta es sí, aplica una versión más restringida de ChatGPT, sin necesidad de verificación directa por parte del usuario. Este sistema está activo por defecto en las cuentas personales de ChatGPT y se inspira en iniciativas previas de OpenAI, como el Teen Safety Blueprint y los principios de comportamiento para menores de 18.
Un filtro que cambia la experiencia
Cuando el sistema detecta que un usuario podría ser menor, activa protecciones que limitan el acceso a contenido considerado sensible. Esto incluye temas como violencia gráfica, retos virales peligrosos, juegos de rol de contenido sexual o violento, autolesiones o estándares extremos de belleza.
En los casos en que el modelo no tiene certeza, se aplica por defecto la versión con salvaguardas. El objetivo es minimizar el riesgo sin requerir datos adicionales, aunque la decisión se basa en inferencias automatizadas.
Si el sistema se equivoca
Los adultos que sean clasificados erróneamente como menores pueden verificar su edad mediante una selfie a través de Persona, un servicio externo de verificación. OpenAI afirma que no retiene la imagen ni el documento y que solo recibe la confirmación de que el usuario es mayor de edad. El proceso está disponible desde el menú de configuración de cuenta. Este paso busca equilibrar la protección de menores con el respeto a la privacidad y la experiencia de los adultos, aunque introduce un nuevo nivel de interacción con sistemas automatizados de identificación.
Controles para familias y un paso hacia el modo adulto
Además del sistema automático, OpenAI ofrece controles parentales opcionales. Estos permiten definir horarios de uso, limitar funciones específicas o recibir alertas si se detectan señales de angustia o riesgo. Funcionan como complemento al modelo de predicción, ofreciendo un marco de supervisión más amplio para adolescentes.
La predicción de edad también prepara el terreno para un futuro «modo adulto» en ChatGPT, donde ciertos contenidos estarán disponibles solo tras verificación explícita. Es decir, el sistema no solo filtra, también segmenta.
Decidir sin preguntar
El movimiento de OpenAI se inscribe en una tendencia global dónde las plataformas intentan proteger a menores sin pedirles directamente que confirmen su edad. El modelo automatizado evita fricciones, pero plantea dilemas sobre privacidad, precisión y transparencia. Qué datos se usan, cómo se interpretan y hasta dónde puede llegar una inferencia son preguntas que no desaparecen, aunque la intención sea proteger.