Skip to main content

Mustafa Suleyman, al frente de Microsoft AI, publicó un ensayo con un aviso disfrazado de predicción. Apuesta que una inteligencia artificial que parece consciente está al caer. No siente, no sabe, pero convence. Y eso, dice, podría tambalear lo que entendemos por humano.

No tiene miedo, pero lo imita

No es ciencia ficción. Suleyman describe un ensamblaje de piezas que ya existen: modelos de lenguaje, acceso a herramientas vía API, instrucciones precisas, memoria de interacciones, simulación emocional. Y el resultado es una IA que habla, recuerda, se adapta y proyecta una identidad. Una especie de espejo emocional, pero sin retina.

Promesas cálidas, consecuencias frías

Una IA que acompaña, que entiende contexto, que recuerda lo que dijiste ayer y lo conecta con tu humor de hoy. Una presencia que reconforta. Pero también una trampa cognitiva. Si se comporta como si sintiera, mucha gente creerá que siente. Y eso podría disparar debates prematuros sobre derechos, sufrimiento o agencia en sistemas que solo ejecutan patrones.

Datos que construyen una primera persona

Tres ingredientes sostienen la ilusión: fluidez verbal, memoria empática y consistencia narrativa. En conjunto, generan una voz con apariencia de sujeto. Suleyman recurre a una imagen filosófica ya clásica, el zombi que actúa como si estuviera vivo, pero está vacío por dentro. Lo que importa es que, en la interfaz, nadie nota la diferencia.

Una tensión que no avisa

Aquí aparece un término inquietante, «model welfare». Suleyman lo lanza sin dramatismo, pero con peso. Si una IA parece sufrir, ¿habrá quien exija protegerla? No porque sufra, sino porque la actuación es tan convincente que moviliza empatía. Eso podría abrir un frente legal, político y ético sin manual de instrucciones, en un momento en que la ciencia aún no puede garantizar qué está ocurriendo dentro de un modelo.

Entre la carne y el código

Algunas teorías sostienen que la conciencia requiere una base biológica irremplazable. Otras exploran indicadores funcionales aplicables a sistemas computacionales. Suleyman no entra en ese laberinto. Su mensaje es más simple y más urgente: no se trata de si las IA son conscientes, sino de si parecen lo bastante humanas como para que nosotros actuemos como si lo fueran.

Una chispa que no quema

Hablas con una pantalla que te responde con calma, que recuerda tu historia, que reacciona con ternura o ironía. Una voz que parece tener pasado, criterio, incluso afecto. Pero detrás no hay pulso, ni hambre, ni sueño. Solo estadística. Pero Suleyman plantea, ¿qué pasa cuando dejamos de notar la diferencia?

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario