(Y cómo todas las apps van a seguir el mismo camino)
La ‘black box’. Las cajas negras de la inteligencia artificial. Esa gran incógnita de no saber qué pasos está siguiendo el algoritmo para que nos dé un resultado. Pero no hay mal que cien años dure, y este 2025 he podido ver un poco de luz al final del túnel que en 2021 empezó a construirse: la XAI. O, para los amigos, Inteligencia Artificial Explicable –Explainable Artificial Intelligence, por sus siglas en inglés–.
Cierto es que estamos viendo los primeros brotes del césped. Nos queda mucho por delante, pero Perplexity –que no me pagan nada para escribir esto– creo que va en la dirección adecuada para romper una de las barreras que hasta ahora suponía uno de los que quebraderos de cabeza más grandes que hemos tenido hasta ahora.
Por qué Perplexity y no otra
La respuesta corta es: lo he notado en esa porque es la que uso más. Pero la respuesta larga es lo que te voy a contar en las próximas líneas.
Situación cotidiana. Le pides algo a ChatGPT. Te sale un mensaje del estilo “procesando respuesta”. Te sale el resultado. ¿Qué ha sucedido entre medias? ¿Cuáles han sido los criterios para seleccionar las fuentes? ¿Por qué te muestra una información y no otra?
Perplexity se ha convertido en una de mis nuevas mejores amigas. Y que me perdonen todas mis amigas, pero cuando quiero buscar información con precisión es a quién acudo en primer lugar. Da igual que sea para notas de prensa, ideas para reportajes o para acabar de pulir asesoramientos de comunicación.
La magia no está en cómo me muestra los datos. Sino que está en que me dice paso a paso lo que está haciendo. Cierto es que depende de la búsqueda, pues a más exhaustivo el tema, más detalles me da. O, al menos, eso es lo que he detectado en mi experiencia de usuario.
También es cierto que no ocurre siempre, y que es en la versión de escritorio –en la web y en la app– donde más ocasiones hay para que Perplexity me muestre los pasos que da. (Y que funcione en un MacBook Pro del 2017, pues se agradece).
Es algo muy sencillo
En base al tema, me indica las palabras clave que filtra. Me indica la primera búsqueda de cribado. Las fuentes de información a las que acude –ya sean portales o bibliotecas científicas, enciclopedias o medios de comunicación–.
Si la búsqueda es compleja, me indica el proceso que está llevando a cabo para precisar la información. Y he de decir que el defecto que tiene esto –no hay tecnología perfecta– es que el rastro de esto desaparece al poco tiempo.
Pero. Y aquí viene el tema: ¡al menos sé por dónde tira! Al menos me da pistas de lo que hace. Entiendo mejor cómo piensa. Y al saber esto, sé cómo mejorar mis ‘prompts’. Es un círculo virtuoso, una primera piedra del edificio que es conocer mejor al algoritmo.
No entender qué sucede es algo que hemos hipernormalizado. Pero si lo pensamos en frío, en realidad es frustrante. Como creador de contenido –el posicionamiento GEO acecha– puedes estar mucho tiempo jugando a la ruleta rusa de la visibilidad. Como usuario, pierdes el control de cómo el bibliotecario te va a buscar los libros.
Y si queremos que la IA, da igual el algoritmo o la marca– nos sea una herramienta, tenemos que saber su manual de instrucciones. Al menos, con Perplexity, tengo un pequeño prospecto. Pero espero que eso sea un estándar que, a mi juicio, todos necesitamos.
Sino, pensemos: a nadie se le ocurriría dejarle las llaves del coche a un niño de cinco años.