Skip to main content

La profesora de Filosofía Política de la UPF rechaza los discursos apocalípticos sobre la inteligencia artificial, pero advierte de que la tecnología ampliará desigualdades entre quienes ya eran buenos y quienes eran mediocres.

Jahel Queralt no habla de la inteligencia artificial desde el entusiasmo ingenuo ni desde el miedo apocalíptico. Doctora en Filosofía, profesora de Filosofía Política en la Universitat Pompeu Fabra y especializada en debates sobre libertad de expresión, desinformación y fake news, Queralt propone una mirada más ponderada sobre una tecnología que ya está transformando la universidad, la circulación de información y las responsabilidades individuales en el espacio público. Su tesis central es sencilla, pero exigente: la IA es un instrumento. Puede ampliar capacidades, facilitar acceso al conocimiento y actuar como asistente de investigación, pero también puede producir contenido verosímil que no sea verdadero y agrandar brechas entre usuarios con distintas competencias.

La entrevista parte de una preocupación clásica en el debate contemporáneo: vivimos en un momento con más acceso a información que nunca, pero también con más desinformación, más bulos y una corriente regulatoria cada vez más punitiva frente a la tecnología. Queralt acepta que ese diagnóstico tiene parte de verdad, pero rechaza la lectura más pesimista. A su juicio, también es el momento histórico en que la ciudadanía dispone de más posibilidades para contrastar información y corregir errores. No deposita su confianza en una inteligencia humana idealizada, sino en algo más cotidiano: “las ganas de la gente de tener razón”. Su ejemplo es Wikipedia: si alguien introduce una falsedad, tarde o temprano otro usuario la corrige porque no soporta que quede publicada una información falsa.

Esa confianza en la corrección colectiva no es ingenua. Queralt admite que los espacios participativos también pueden acabar reflejando el relato de quienes son más activos, militantes o persistentes. Reconoce que existe lo que algunos autores llaman injusticia sistémica: no todas las personas tienen el mismo acceso a altavoces ni la misma capacidad para imponer una versión de los hechos. Pero, aun así, considera que plataformas como Wikipedia o X —antes Twitter— pueden funcionar como entornos relativamente democráticos, donde usuarios comunes son capaces de corregir a medios mainstream, desmontar imágenes falsas o frenar intentos de colar una mentira.

La idea resulta especialmente relevante en plena expansión de la IA generativa. Los grandes modelos de lenguaje han sido entrenados con materiales procedentes de internet y Wikipedia ha tenido un papel clave como fuente de conocimiento estructurado. Paradójicamente, ahora esos mismos modelos pueden desplazar parcialmente a Wikipedia como puerta de entrada a la información, porque muchos usuarios prefieren formular consultas conversacionales a un chatbot antes que navegar por una enciclopedia abierta. Además, la propia Wikipedia se ha visto obligada a limitar artículos generados con IA. Queralt no niega esa tensión, pero evita convertirla en una prueba definitiva de decadencia digital.

Su lectura de la IA es instrumental. No la presenta como salvación ni como amenaza absoluta. Es consciente de los riesgos, especialmente para profesiones vinculadas al conocimiento, la docencia, la investigación y la escritura. Pero introduce una observación llamativa: “Es una de las primeras veces en que los perdedores no son los de abajo”. Con esta frase señala que la IA puede afectar de lleno a sectores cualificados, académicos, profesionales y creativos que hasta ahora se sentían relativamente protegidos frente a la automatización.

Para Queralt, la inteligencia artificial está creando desigualdades nuevas. No necesariamente entre quienes tienen y quienes no tienen acceso, sino entre quienes ya eran buenos y pueden multiplicar sus capacidades, y quienes eran más mediocres y pueden quedar desplazados. La herramienta no iguala automáticamente. Al contrario: puede aumentar la ventaja de quienes saben preguntar, verificar, corregir, contextualizar y usar el resultado como punto de partida. Quien ya tenía criterio, conocimientos y método puede beneficiarse enormemente. Quien carece de ellos puede quedar atrapado en respuestas plausibles, pero débiles o directamente equivocadas.

La profesora de la UPF insiste, sin embargo, en que conviene huir del imaginario de Terminator. A veces, dice, se lee que estas tecnologías acabarán con la humanidad; pero después se les pide una tarea sencilla y fallan. Esa experiencia cotidiana le lleva a desconfiar tanto del entusiasmo desmedido como del catastrofismo. La IA puede ser potente, pero también limitada. Puede parecer brillante, pero equivocarse. Puede prometer autonomía, pero necesitar supervisión humana constante.

Donde Queralt ve una ventaja clara es en el acceso a recursos antes reservados a minorías académicas. En su ámbito, la universidad, solo los profesores más ricos o mejor situados podían permitirse asistentes de investigación para buscar jurisprudencia, recopilar bibliografía o localizar citas. Hoy, por un precio relativamente modesto, cualquier profesor, investigador o estudiante puede disponer de un asistente capaz de ayudar en esas tareas. La condición, naturalmente, es verificar siempre la información. Pero la posibilidad de tener apoyo básico para explorar documentación no le parece una mala noticia.

El punto más delicado aparece al abordar la desinformación. Queralt formula una distinción central: “La IA lo que hace muy bien es crear contenido verosímil, no necesariamente verdadero.” Ahí reside tanto su utilidad como su riesgo. Los modelos generativos producen textos, imágenes o explicaciones que suenan coherentes. Pero la coherencia formal no garantiza verdad. Una respuesta puede estar bien escrita, estructurada y resultar convincente, y aun así ser falsa. En el ecosistema informativo, esa capacidad de fabricar verosimilitud puede alimentar bulos, manipulaciones y campañas de desinformación.

Queralt no cree que eso baste para condenar la tecnología. Utiliza una comparación sencilla: si no hubiera coches y solo hubiera autobuses, habría menos accidentes de tráfico. Pero una sociedad no decide únicamente en función del riesgo cero; evalúa costes y beneficios. Con la IA debería ocurrir lo mismo. La filósofa reclama una discusión más equilibrada, que no oculte los peligros, pero tampoco ignore los beneficios. Como ejemplo cotidiano, explica que puede preguntar qué hacer si su hijo se ha quemado antes de actuar precipitadamente. La respuesta no sustituye a un médico, pero puede orientar una primera reacción. En ese sentido, la IA puede funcionar como un apoyo inmediato, siempre que no se confunda con autoridad infalible.

En su día a día, Queralt utiliza sobre todo ChatGPT. Admite que no es una elección original y que en parte responde a dependencia de trayectoria: uno se acostumbra a una interfaz, a una manera de funcionar y a una relación de uso. También reconoce que la herramienta parece adaptarse al estilo del usuario, aunque matiza que no cree del todo en esa memoria perfecta que a menudo se atribuye a la IA. Ha comprobado que pide cosas de conversaciones pasadas y el sistema no siempre las recupera bien. Por eso no comparte plenamente el temor de que todo lo introducido en la IA quede almacenado y operativo de forma lineal y transparente.

La entrevista desemboca en el Fòrum Valors Mataró Europa, donde Queralt plantea analizar la dificultad de detener este fenómeno y, sobre todo, los diferentes grados de responsabilidad en la circulación de noticias falsas. Para ella, no basta con culpar al creador de la fake news ni al medio que la difunde. También hay que mirar a la persona que la comparte. Ese punto es fundamental en su pensamiento: el usuario no es un sujeto pasivo. Recibir un bulo no convierte automáticamente a nadie en culpable, pero reenviarlo de manera histérica sin verificarlo sí contribuye a diseminar información falsa.

Esa apelación a la responsabilidad individual resulta especialmente pertinente en la era de la IA. Si las herramientas generativas facilitan la producción de contenidos engañosos, los usuarios deben reforzar sus hábitos de verificación. No todo puede resolverse mediante prohibiciones, filtros automáticos o leyes punitivas. También hace falta una cultura cívica de contención: pensar antes de compartir, contrastar antes de amplificar y asumir que cada usuario forma parte de la cadena de circulación informativa.

En la universidad, Queralt sí anticipa una transformación profunda. La IA cambia la manera en que los estudiantes estudian y también la forma en que los profesores evalúan el conocimiento. Algunas prácticas tradicionales están desapareciendo o perdiendo sentido. Si una herramienta puede redactar un ensayo aceptable, resumir textos o responder preguntas básicas, evaluar solo el producto final se vuelve insuficiente. La docencia deberá reinventarse. Pero, una vez más, Queralt rechaza la lectura apocalíptica: la universidad no desaparece, se adapta.

La cuestión de fondo es qué significa saber en un entorno donde las respuestas son abundantes, rápidas y baratas. La educación ya no puede centrarse únicamente en producir textos que una IA puede imitar. Debe evaluar comprensión, criterio, proceso, argumentación, capacidad de verificar fuentes y uso responsable de herramientas. La IA obliga a desplazar el énfasis desde la respuesta hacia el razonamiento. Y en ese terreno, la filosofía política, la ética y la teoría de la democracia tienen mucho que aportar.

La entrevista con Jahel Queralt ofrece una posición valiosa precisamente porque evita los extremos. No minimiza los riesgos: reconoce la producción de verosimilitud falsa, la desigualdad entre usuarios, el impacto profesional y la necesidad de responsabilidad ante las fake news. Pero tampoco acepta el discurso de pánico tecnológico. La IA no es una fuerza autónoma que devorará la sociedad ni una solución mágica para todos los problemas. Es una herramienta poderosa, imperfecta y socialmente ambivalente.

Su enfoque obliga a formular mejor las preguntas. No basta con preguntar si la IA es buena o mala. Hay que preguntar quién la usa, con qué criterio, en qué contexto, con qué supervisión, con qué efectos distributivos y bajo qué responsabilidades. En manos de una persona formada, puede aumentar capacidades. En manos de alguien acrítico, puede multiplicar errores. En una universidad que se reinventa, puede mejorar investigación y aprendizaje. En una institución que solo intenta conservar viejas prácticas, puede generar crisis.

El titular de la conversación está en esa frase seca y precisa: la IA crea contenido verosímil, no necesariamente verdadero. Es una advertencia contra el embrujo de la forma. En el mundo digital, lo convincente no siempre es cierto. Y en la era de la IA, esa distancia entre apariencia y verdad será una de las grandes batallas culturales, educativas y políticas.

Dejar un comentario