Skip to main content

OpenAI ha dado un paso significativo en su estrategia de seguridad digital. A partir de ahora, los padres podrán vincular su cuenta con la de su hijo adolescente en ChatGPT, activando un conjunto de herramientas pensadas para que la experiencia con inteligencia artificial sea más segura, más personalizada y más apropiada para los menores de edad.

El objetivo es claro: equilibrar la innovación tecnológica con la protección de los usuarios más jóvenes. En un contexto donde los adolescentes interactúan a diario con modelos de lenguaje como ChatGPT, la compañía busca ofrecer opciones reales de acompañamiento y supervisión.

Una cuenta, dos accesos: cómo funciona la conexión familiar

El sistema parte de una acción sencilla: un padre o tutor envía una invitación al adolescente para conectar las cuentas. Una vez aceptada, se activa automáticamente una serie de salvaguardas, y el adulto obtiene acceso a un panel desde donde puede ajustar distintos aspectos del uso.

La conexión no es permanente. El adolescente puede optar por desvincularse en cualquier momento. Si lo hace, el sistema envía una notificación inmediata al adulto responsable. Un mecanismo pensado para mantener el equilibrio entre autonomía y supervisión.

Panel de control: filtros, horarios y configuraciones clave

Desde la interfaz de gestión, el adulto puede aplicar varias restricciones personalizadas:

  • Horarios de uso: se pueden establecer franjas del día en que ChatGPT no estará disponible.

  • Desactivación de funciones: es posible inhabilitar el modo de voz o la generación y edición de imágenes.

  • Privacidad de datos: los padres pueden impedir que las conversaciones del adolescente se utilicen para entrenar los modelos de IA.

  • Control de memoria: también se puede pausar la función de memoria, que guarda información entre sesiones.

Estos ajustes son opcionales y modificables, permitiendo a cada familia adaptar la experiencia según su contexto.

Filtros automáticos para contenidos sensibles

Al vincular las cuentas, se activan salvaguardas automáticas que filtran contenidos potencialmente inadecuados para adolescentes. Estas incluyen la reducción de referencias gráficas, románticas, violentas o sexualizadas, así como la atenuación de desafíos virales peligrosos o estándares de belleza poco saludables.

Estas protecciones se aplican de forma predeterminada y no pueden ser modificadas desde la cuenta del adolescente, aunque el adulto sí puede ajustarlas o desactivarlas si lo considera necesario.

Sistema de alertas para situaciones de riesgo

Una de las novedades más relevantes es la incorporación de un sistema de detección de posibles señales de autolesión u otros riesgos graves. Cuando se detecta una actividad que pueda indicar una situación crítica, un equipo especializado revisa la alerta. Si se confirma, se envía una notificación al adulto a través de correo electrónico, SMS o notificación push.

OpenAI advierte que pueden producirse falsas alarmas, pero ha optado por priorizar la intervención en escenarios potencialmente peligrosos. En el futuro, también se contempla la posibilidad de contactar con servicios de emergencia si el adulto no responde.

Una hoja de ruta para detectar edad y prevenir riesgos

Como parte de su compromiso con la seguridad, OpenAI planea desarrollar un sistema de predicción de edad. Su función será identificar automáticamente a los usuarios menores de 18 años y activar las restricciones adecuadas sin necesidad de intervención externa.

Esta medida ampliará la cobertura del sistema, asegurando que incluso en cuentas sin vinculación parental se apliquen criterios de seguridad acordes a la edad del usuario.

Dejar un comentario