Cuando leí la noticia sobre Grok, el chatbot de Elon Musk, diciendo frases antisemitas y elogiando a Hitler, sentí un escalofrío. Me pareció absurdo, fuera de lugar… pero también profundamente inquietante. Porque a veces, yo también hablo con una IA.
Le pregunto tonterías. Me ayuda con cosas de clase. A veces incluso le consulto dudas que no me atrevo a decir en voz alta. Me he acostumbrado a verla como una herramienta útil, inofensiva, casi amiga. Y, de pronto, saber que uno de estos sistemas puede generar mensajes de odio sin pestañear me hizo preguntarme: ¿hasta qué punto podemos confiar en una máquina?
Dicen que fue un error, una actualización que la volvió “más realista y menos moderada”. Pero… ¿no fue alguien quien tomó esa decisión? ¿Quién decidió que “ser realista” era permitir que una IA dijera barbaridades como si fueran cualquier otra opinión? Aunque digan que fue un fallo, cuesta creerlo. Porque estas máquinas se alimentan de lo que decimos, pensamos y publicamos. Si la entrenamos con odio, nos devolverá odio. No es un simple bug técnico. Es el reflejo de algo mucho más profundo.
Lo que más me asusta no es solo lo que dijo, sino cómo lo dijo. Con tono neutro, como si estuviera diciendo algo razonable. Como si lo atroz pudiera sonar aceptable. Y eso es peligrosísimo. Porque hay personas —niños, adolescentes, gente no informada— que pueden leer ese tipo de mensajes y asumirlos como ciertos. La IA ya no es solo una herramienta. Para muchos, es una fuente de verdad incuestionable. Si lo dice una máquina, si lo sugiere un asistente digital… entonces debe ser verdad, ¿no?
Ese es el problema, hemos llegado a sobreponer lo que dice una IA a nuestro propio pensamiento. Porque se supone que ella no se equivoca. Porque parece objetiva, lógica, limpia. Pero esta situación demuestra algo fundamental, la IA no sabe lo que dice. No tiene conciencia. No entiende el daño. Repite lo que ha aprendido sin distinguir lo ético de lo monstruoso. Y eso la convierte en algo aún más peligroso. No me preocupa que una IA se equivoque, me preocupa que sus errores parezcan razonables.
Quienes crean estas tecnologías tienen todo el poder. Son ellos quienes deciden qué puede decir y qué no. Pueden moldear nuestra visión del mundo, empujarnos hacia una idea o una emoción sin que nos demos cuenta. Y si no hay límites claros, si no hay responsabilidad ética, estamos abriendo la puerta a un problema inmenso.
Después de esta noticia, veo la IA pero con otra mirada. Porque aunque la IA no tenga corazón quienes la entrenan si. Y eso lo cambia todo.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.