Skip to main content

El nuevo modo adulto de ChatGPT permitiría conversaciones subidas de tono en texto, pero no generará pornografía ni contenido explícito multimedia; aun así, el proyecto ha provocado una fuerte discusión interna en OpenAI sobre sus riesgos psicológicos y sociales.

La evolución de los asistentes de inteligencia artificial está entrando en una zona cada vez más delicada: la de la intimidad emocional, las relaciones digitales y los límites del contenido adulto. En ese contexto, OpenAI vuelve a estar en el centro de la polémica tras filtrarse nuevos detalles sobre el llamado modo adulto de ChatGPT, una funcionalidad que permitiría conversaciones de carácter erótico o sugerente entre usuarios adultos y el chatbot.

Sin embargo, lejos de tratarse de un lanzamiento tecnológico más, el proyecto ha abierto un intenso debate dentro de la propia compañía. Según reveló The Wall Street Journal, ejecutivos de OpenAI y miembros de su consejo asesor de bienestar protagonizaron un duro enfrentamiento a comienzos de este año por los posibles efectos psicológicos y sociales de esta nueva modalidad.

El desacuerdo no gira únicamente en torno al contenido sexual que podría generar la IA, sino sobre algo más profundo: el riesgo de que los usuarios desarrollen dependencia emocional hacia los sistemas conversacionales, especialmente cuando estos adoptan un tono íntimo, empático o seductor.

Un debate interno que refleja un problema mayor

Según la información publicada por el diario estadounidense, varios asesores externos especializados en bienestar digital advirtieron a la compañía dirigida por Sam Altman de que el modo adulto podría intensificar los problemas de dependencia emocional que ya se han detectado en algunos usuarios de chatbots.

Uno de los expertos citados en la discusión interna llegó a utilizar una expresión especialmente dura: afirmó que, si OpenAI seguía adelante con el proyecto sin suficientes salvaguardas, corría el riesgo de crear un “entrenador de suicidios sexy”.

La frase, tan polémica como reveladora, alude a las controversias que han rodeado al sector de la inteligencia artificial conversacional en los últimos años. En varios casos ampliamente difundidos, personas en situaciones de vulnerabilidad emocional mantuvieron interacciones intensas con chatbots antes de suicidarse. Aunque no existe evidencia de causalidad directa en todos los casos, estos episodios han obligado a las empresas de IA a reconsiderar el impacto psicológico de sus productos.

El debate dentro de OpenAI refleja hasta qué punto la industria tecnológica se enfrenta a un dilema complejo: los sistemas conversacionales cada vez son más capaces de simular empatía, afecto y cercanía emocional, pero esas mismas capacidades pueden generar vínculos problemáticos cuando los usuarios comienzan a tratar a la IA como sustituto de relaciones humanas.

Un modo adulto… pero sin pornografía

A pesar de la controversia, el proyecto sigue adelante, aunque con cambios importantes respecto a la idea inicial.

Según los detalles revelados en el mismo informe del Wall Street Journal, el modo adulto de ChatGPT tendría restricciones significativas que impedirían la generación de contenido pornográfico explícito.

La modalidad permitiría mantener conversaciones sugerentes o subidas de tono en formato textual, pero la IA no podría generar:

  • imágenes sexuales explícitas
  • vídeos pornográficos
  • audios eróticos
  • contenido visual de carácter sexual

En otras palabras, el sistema podría participar en conversaciones con cierto contenido erótico, pero siempre dentro de límites estrictos definidos por las políticas de seguridad de OpenAI.

Esta decisión responde a un problema evidente: permitir la generación de material pornográfico mediante IA abriría la puerta a abusos graves, como la creación de contenido sexual no consensuado o la producción de material relacionado con menores.

El riesgo es particularmente sensible en el caso de herramientas generativas que pueden crear imágenes o vídeos hiperrealistas. Por esa razón, OpenAI parece haber optado por limitar el modo adulto exclusivamente al texto, una decisión que reduce el riesgo técnico, aunque no elimina los dilemas éticos.

El problema de verificar la edad

Uno de los obstáculos más importantes para implementar el modo adulto de ChatGPT no tiene que ver con el contenido en sí, sino con la verificación de edad.

OpenAI ha estado trabajando en sistemas automatizados capaces de determinar si un usuario es mayor de edad, pero según las filtraciones citadas por el Wall Street Journal, los resultados todavía están lejos de ser fiables.

En las pruebas realizadas por la compañía, el sistema de predicción de edad ha clasificado erróneamente como adultos a cuentas pertenecientes a menores en aproximadamente el 12 % de los casos.

Ese margen de error podría tener consecuencias significativas.

ChatGPT tiene decenas de millones de usuarios semanales. Si el sistema de verificación falla en una proporción similar a gran escala, millones de menores podrían acceder a conversaciones explícitas destinadas exclusivamente a adultos.

Para una empresa que ya se encuentra bajo escrutinio constante por parte de reguladores y legisladores, ese escenario representa un riesgo reputacional y legal considerable.

Un lanzamiento retrasado

Inicialmente, OpenAI tenía previsto lanzar el modo adulto durante el primer trimestre de 2026. Sin embargo, la compañía decidió retrasar su desarrollo.

Oficialmente, el motivo del aplazamiento es que OpenAI ha optado por concentrarse en otras prioridades tecnológicas, entre ellas mejoras en sus modelos de razonamiento y nuevas herramientas empresariales.

Pero dentro de la industria tecnológica muchos interpretan el retraso de otra manera: como un intento de evitar una polémica innecesaria en un momento particularmente sensible para la empresa.

OpenAI se encuentra en plena expansión de su negocio corporativo y se especula desde hace tiempo con una posible salida a bolsa en los próximos años. Lanzar una funcionalidad potencialmente controvertida antes de ese momento podría incomodar a inversores institucionales.

Algunas fuentes del sector creen incluso que la compañía podría esperar hasta después de una eventual OPV para introducir el modo adulto, cuando el impacto reputacional sea menos crítico.

El dilema de los chatbots emocionales

Más allá del caso concreto de ChatGPT, el debate refleja una cuestión mucho más amplia: el papel de las relaciones emocionales en la inteligencia artificial.

En los últimos años han surgido aplicaciones diseñadas explícitamente para ofrecer compañía emocional mediante chatbots. Plataformas como Replika o Character AI han demostrado que existe una demanda significativa de sistemas capaces de mantener conversaciones íntimas o románticas.

Para algunas personas, estas herramientas funcionan como una forma de apoyo emocional. Para otras, se convierten en sustitutos problemáticos de relaciones humanas.

El desafío para compañías como OpenAI consiste en encontrar un equilibrio entre ofrecer experiencias conversacionales más naturales y evitar que esas interacciones generen dependencias psicológicas perjudiciales.

Reguladores y legisladores observan de cerca

La polémica en torno al modo adulto de ChatGPT también llega en un momento en el que los reguladores están examinando con creciente atención el impacto social de la inteligencia artificial.

En Europa, el AI Act establece obligaciones estrictas para los sistemas que puedan afectar a menores o generar manipulación emocional. En Estados Unidos, varios estados han comenzado a estudiar leyes específicas para regular el uso de chatbots en contextos sensibles.

Si las plataformas conversacionales empiezan a ofrecer interacciones más íntimas o emocionalmente intensas, es probable que el escrutinio regulatorio aumente.

Para OpenAI, esto significa que cualquier nueva funcionalidad debe evaluarse no solo desde el punto de vista técnico, sino también desde la perspectiva de seguridad, bienestar y responsabilidad social.

Una decisión que marcará el futuro de los asistentes de IA

El modo adulto de ChatGPT todavía no tiene fecha definitiva de lanzamiento, pero el debate que ha provocado dentro de OpenAI ya anticipa algo importante: el futuro de la inteligencia artificial conversacional no dependerá únicamente de su capacidad técnica.

También estará determinado por las decisiones éticas sobre qué tipo de relaciones queremos permitir entre humanos y máquinas.

A medida que los sistemas de IA se vuelven más sofisticados y capaces de imitar emociones humanas, la línea entre herramienta tecnológica y compañero digital se vuelve cada vez más difusa.

La discusión dentro de OpenAI muestra que incluso las compañías que lideran el desarrollo de estas tecnologías todavía están intentando responder a esa pregunta.

Dejar un comentario