En el AI Summit Barcelona, la inteligencia artificial no fue una demostración de poder, sino una conversación entre mundos. Entre el 14 y el 15 de octubre, en el Yellow Park de Glovo se reunieron más de 1000 personas y decenas de voces que no buscan protagonismo, sino transformar desde dentro las reglas del juego. Desde Paréntesis Media hablamos con tres ponentes cuyas trayectorias se cruzan en una misma inquietud: ¿cómo hacer que la IA sea comprensible, accesible y justa?
Entre la ansiedad y la curiosidad
“Muchas mujeres querían aprender sobre inteligencia artificial, pero no sabían por dónde empezar”, explica Stephany Oliveros. Desde su experiencia profesional con sistemas de IA, comenzó a recibir preguntas constantes de amigas, colegas, conocidas. Así nació su plataforma educativa en alianza con Naciones Unidas, She AI. Su enfoque es directo: píldoras de conocimiento para mujeres con poco tiempo y mucha incertidumbre. “Todo está adaptado para que incluso mi madre lo entienda”, bromea, aunque la frase apunta a un problema real: el lenguaje técnico puede excluir tanto como los algoritmos.
La ansiedad que resalta Oliveros no es solo técnica. “Las mujeres tienen dudas sobre si estos sistemas cumplen lo que prometen, sobre qué implican para su trabajo, su entorno, y su salud mental”, explica. Para ella, crear un espacio seguro de aprendizaje no es un añadido, sino una condición para que la alfabetización funcione. «No es como utilizar un chat GPT, es una herramienta que está causando una nueva revolución y necesitamos ser parte de ello para poder construir un futuro más igualitario», insiste. Cita un dato revelador: “El 77 % de las mujeres quiere aprender de IA, pero solo el 40 % de las empresas ofrece formación interna”.
Visibilizar, no solo incluir
Julia Stamm, fundadora de She Shapes AI, una empresa para destacar el trabajo de las mujeres emprendedoras en el mundo de la IA, apunta a otro vértice del mismo problema: la visibilidad. “Muchísimo trabajo liderado por mujeres ya existe, pero no tiene plataforma ni acceso a financiación”, señala. Desde su organización impulsa premios, redes y asesoramiento para que las voces femeninas en IA no se queden en el margen.
Stamm denuncia también una doble vara: “Cuando un hombre usa IA en el trabajo, se le aplaude; cuando lo hace una mujer, se le acusa de hacer trampa”. La frase es dura, pero viene acompañada de datos y ejemplos. Advierte que, aunque muchas mujeres entran al sector tecnológico, pocas alcanzan puestos de liderazgo. «El entorno sigue siendo tóxico en muchas empresas tech. Hay talento, pero falta apoyo real para que crezca y se quede».
Para Stamm, la solución no es solo técnica ni legislativa. Insiste en la necesidad de incorporar la responsabilidad desde el inicio: «No se trata de añadir ética al final, sino de pensar la IA con responsabilidad desde el principio». “Queremos mostrar lo que pasa cuando la IA se usa bien, con propósito y con ética desde el principio”.
Y insiste que es muy importante centrarnos en la alfabetización digital, que no es solo una cuestión de formación, sino de equidad. «Si no entiendes qué hay dentro de estas herramientas, las usas como si fueran magia. Y lo mágico no se cuestiona».
¿Y si la IA nos leyera la mente?
El profesor Thorsten O. Zander lleva esa discusión a un nivel aún más íntimo. Su vocación empezó temprano: «Tenía cuatro años cuando vi una serie llamada Captain Future. Un profesor salvaba su cerebro metiéndolo en una máquina. Fue entonces cuando supe que quería trabajar en esto», recuerda entre risas.
«Todo el mundo entiende que algo está cambiando con la llegada de la IA, y solo podremos tener éxito si logramos una IA en la que se pueda confiar y una sociedad que entienda cómo utilizarla», afirma. Desde su empresa Zander Labs and y su cátedra en Alemania, trabaja con sistemas que captan señales cerebrales para ajustar el comportamiento de las máquinas. “No se trata de usar la tecnología, sino de colaborar con ella”, dice. Imagina asistentes virtuales que detectan nuestro estado emocional en tiempo real o pilotos automáticos entrenados con nuestras propias reacciones mentales.
Pero Zander es consciente del vértigo. «Las señales del cerebro son lo más íntimo que tenemos», advierte. Por eso sus dispositivos procesan la información localmente y borran los datos en segundos. Lo esencial, dice, es que el usuario sepa qué se capta, por qué, y durante cuánto tiempo. Y va más allá: “Las compañías deben ser mucho más transparentes de lo que han sido hasta ahora. No podemos pedir confianza si no explicamos cómo funcionan nuestras tecnologías. No basta con regular. La regulación siempre va por detrás. Hace falta autorregulación y una ciudadanía que entienda lo que está en juego”. Y, además ser accessibles: «Tenemos que hablar sin tecnicismos y acercarnos a la gente. No podemos esperar que una persona que no está metida en ciencia o empresa lea artículos académicos. Tenemos que salir a explicar, todos, desde donde estemos», concluye Zander.
Una misma pregunta en tres idiomas
Oliveros, Stamm y Zander no hablan de lo mismo, pero sí desde lo mismo. Desde el deseo de que la IA no sea solo una tecnología, sino una oportunidad para hacer mejor las cosas. Sus ámbitos son distintos —educación comunitaria, política de inclusión y visibilación, neurotecnología— pero comparten un diagnóstico, sin comprensión no hay confianza, y sin confianza no hay participación real.
El AI Summit Barcelona no cerró debates pero los abrió. Las voces que se escucharon en Barcelona no dieron respuestas definitivas, pero sí una certeza: entender la IA no es opcional.