Skip to main content

Un cruce delicado entre autonomía y protección

La inteligencia artificial ha abierto nuevas formas de aprender, crear y conversar. Pero también ha complicado viejas preguntas. ¿Cuánta libertad es demasiada? ¿Cuánta protección es suficiente? OpenAI, una de las empresas que lideran el desarrollo de modelos conversacionales como ChatGPT, acaba de exponer su visión sobre el uso de estas herramientas por parte de adolescentes. La tensión es evidente y proponen ofrecer un espacio seguro sin ahogar la curiosidad ni comprometer la privacidad.

“Si hablas con un médico sobre tu historial clínico o con un abogado sobre un problema legal, se ha decidido que lo mejor para la sociedad es que esa información esté protegida con privilegios especiales y altos niveles de confidencialidad. Creemos que ese mismo nivel de protección debe aplicarse a las conversaciones con una IA, ya que cada vez más personas recurren a estos sistemas con preguntas delicadas y preocupaciones privadas. Estamos defendiendo esta postura ante los legisladores», argumenta Sam Altman.

Una IA que se fija en los gestos

No hará falta subir un DNI. OpenAI trabaja en un sistema que, observando cómo se usa la herramienta, intentará deducir si quien está al otro lado es menor de edad. Si hay dudas, la IA aplicará restricciones como si lo fuera. Se trata de prevenir riesgos desde el diseño, sin pedir credenciales de entrada.

Cuando la ley lo exija —porque no todos los países marcan el mismo umbral— se podrá pedir una verificación más formal. Admiten que es una concesión en privacidad para los adultos. Pero la justifican como parte de un deber mayor.

Controles parentales y apagones programados

Durante septiembre, OpenAI implementará controles parentales opcionales para adolescentes desde los 13 años. Las cuentas podrán vincularse con la de un padre o tutor, quien podrá:

  • Ajustar cómo responde ChatGPT, según criterios apropiados por edad.
  • Desactivar funciones como la memoria del chat o el historial de conversaciones.
  • Recibir notificaciones si se detectan señales de angustia grave.
  • Establecer horarios en los que la IA no se podrá usar (“blackout hours”).

En caso extremo, si no es posible contactar a un tutor y se identifica un riesgo inminente, se podrá involucrar a las autoridades, como policía o servicios de emergencia.

Zonas vedadas, incluso en la ficción

La propuesta de OpenAI incluye límites según la edad. Temas como suicidio, autolesión o sexualidad explícita quedarán fuera del alcance adolescente, incluso si se formulan como ficción o curiosidad narrativa. Lo que sería una respuesta permitida para adultos, aquí se bloquea o suaviza.

Y si el sistema detecta señales de riesgo —una frase que insinúe desesperación, una búsqueda que suene a grito—, se activará una cadena de respuesta. Primero, avisar a los tutores. Si eso falla y hay peligro inmediato, se avisará a las autoridades. La IA, dicen, no mirará hacia otro lado.

Promesa de privacidad, pero con doble fondo

La empresa asegura que quiere una privacidad «al nivel de la consulta médica o legal». O sea, confidencialidad casi absoluta. Pero hay una excepción, si los sistemas automáticos detectan amenazas graves —a uno mismo o a otros— podrán activar revisión humana. El margen es fino. Lo bastante abierto para intervenir cuando toca, lo bastante cerrado para no invadir sin motivo. En teoría.

Preguntas que la IA aún no puede contestar

El enfoque recuerda al de redes sociales con controles parentales o filtros de edad. Pero la IA generativa añade un ingrediente distinto. Aquí no se modera contenido preexistente, sino que se genera al momento, según la conversación. Es más difícil prever, más difícil limitar.

Y ahí surgen preguntas. ¿Qué precisión tendrá la estimación de edad? ¿Quién decide qué se puede contar y qué no en una historia ficticia? ¿Qué pasa si un menor expresa malestar sin usar las palabras clave que activan las alarmas? ¿Cómo se evitarán falsos positivos? ¿Y quién vigila que las excepciones no se conviertan en norma?

Podar para crecer, sin cortar de más

OpenAI lo resume con una metáfora de jardinería: hay que podar para que el árbol crezca fuerte. El símil es transparente. Con la intención de limitar para cuidar. Pero en cada corte hay una decisión. ¿Y si se cercena una rama que aún no sabíamos necesaria?  La IA puede ser refugio o peligro, guía o filtro. Sobre todo cuando quien pregunta es alguien que aún está descubriendo qué puede decir, qué puede imaginar y hasta dónde puede llegar.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario