Skip to main content

El vicegerente de Transformación Digital de la Universitat Oberta de Catalunya defiende la creación de equipos especializados para gobernar la IA y evitar riesgos como la “shadow AI”, una inteligencia artificial que crece sin control dentro de las organizaciones.

Ricard Gómez (Barcelona, 1970) es vicegerente de Transformación Digital de la Universitat Oberta de Catalunya (UOC), la primera universidad no presencial nacida en la era de Internet, que acaba de anunciar la creación de un centro de inteligencia artificial.

¿Qué es el centro de IA que está creando o ha creado la UOC?

El centro de IA viene a ser un equipo de expertos, tanto desde el punto de vista tecnológico como desde el punto de vista de los procesos, que nos tienen que ayudar a impulsar un programa que ya tenemos en marcha, que se llama SofIA, y que promueve la adopción de la inteligencia artificial en la UOC.

Esencialmente, lo que hace SofIA es establecer las bases desde el punto de vista ético y de seguridad. Es un programa muy multidisciplinar en el que participa mucha gente de la organización de la UOC y que identifica oportunidades de aplicación de la IA en nuestros procesos, tanto desde la perspectiva de la mejora y la optimización como de su aplicación en el ámbito de la docencia.

La cuestión es cómo la inteligencia artificial puede insertarse para mejorar y amplificar —o aumentar, que es el término que se utiliza ahora— nuestro modelo docente. Con este contexto, lo que hemos planteado es la construcción de un centro de expertise o centro de excelencia en inteligencia artificial para la UOC.

El objetivo es tener un grupo de personas, con un núcleo muy tecnológico, que conozca muy bien las herramientas: cómo funcionan, qué capacidades tienen, qué pueden hacer y qué no pueden hacer, qué no deberían hacer, aspectos de seguridad, aspectos éticos, los modelos de lenguaje —los conocidos LLM—, etc. Todas estas herramientas, no necesariamente de un único proveedor sino de varios, con un espectro que nos resulte útil.

Queremos ver cómo podemos utilizar todo esto para mejorar la prestación de nuestra docencia en la UOC en diversos ámbitos.

Por un lado, en la optimización y mejora de procesos, es decir, hacer más eficiente cómo hacemos las cosas en la UOC. No se trata necesariamente de digitalizar lo que ya existe usando IA, sino de repensar los procesos utilizando inteligencia artificial.

Otro ámbito es el de la investigación. El uso de herramientas de IA puede potenciar y acelerar la capacidad de nuestros equipos de investigación.

Y finalmente, en el modelo docente. Del mismo modo que hace treinta años decíamos que seríamos los primeros en utilizar Internet —que en aquel momento era muy incipiente y limitada—, ahora queremos aprovechar esta nueva tecnología disruptiva para llegar al estudiante con otras capacidades: más personalización, adaptación a su ritmo y a su manera de aprender, que son muy diversas. Incluso para estudiantes con algún tipo de discapacidad abre nuevas posibilidades.

El enfoque del centro de excelencia es dual: bottom-up y top-down.

Por un lado, recoger iniciativas de quienes conocen realmente los procesos, trabajarlas, priorizarlas y ver si generan retorno. Y por otro, desde una perspectiva estratégica, identificar dónde están los problemas más relevantes y capturar el máximo valor posible.

Ese valor puede ser, en algunos casos, mejorar la experiencia del estudiante; en otros, mejorar la eficiencia o la escalabilidad. Es decir, con el mismo equipo poder llegar a más estudiantes, de manera más personalizada y con más calidad.

Para ello buscamos personas que no necesariamente sean tecnólogos. Habrá un núcleo tecnológico fuerte, pero también necesitamos perfiles que conozcan bien los procesos internos: la gestión académica, la biblioteca o la investigación en determinados ámbitos.

Ese diálogo entre quienes conocen la IA y quienes conocen los procesos es clave para encontrar buenos casos de uso y construir un buen business case, invirtiendo lo justo y asegurando que el proyecto sea eficiente en costes. Esta universidad no dispone de una financiación enorme, por lo que debemos centrarnos en aquello que realmente nos dé retorno.

Con ese diálogo encontraremos aplicaciones de inteligencia artificial que nos permitan avanzar en esa dirección.

¿La UOC es la primera universidad que da este paso en España?

Hay otras universidades que también lo están utilizando, en algunos casos privadas. Las públicas también están dando pequeños pasos. Todo el mundo está mirando hacia aquí.

Ahora bien, crear un equipo específico tan focalizado en inteligencia artificial no me consta que lo estén haciendo muchas universidades. Sí hay alguna privada que también lo está impulsando.

¿Cómo ha sido la acogida?

En general ha sido muy buena. Si hablo desde dentro, el equipo tecnológico está entusiasmado porque tiene ganas de hacer cosas distintas y de impulsar una transformación importante dentro de la universidad.

Cuando aparece una tecnología disruptiva con esta capacidad de hacer cosas diferentes, todo el mundo quiere participar. Incluso desde el orgullo de pertenencia: volveremos a ser los que disrumpimos la universidad.

En el resto de la universidad también ha generado muchísimo interés. Hay personas que ya han dicho que quieren formar parte, profesorado especializado que quiere participar o contribuir en la parte ética.

Y fuera también ha sido muy impactante la cantidad de personas que me han escrito, que me han pedido conexión o que quieren hablar sobre cómo lo estamos haciendo. Otras universidades se han puesto en contacto con nosotros, tanto en España como en Latinoamérica y en el ámbito anglosajón.

Me ha sorprendido el mensaje de “qué valientes sois haciendo esto”. ¿Valientes? Nos toca hacerlo. Quizá hay un punto de imprudencia o de temeridad, pero si todos consideran que es oportuno y nadie se atreve, quizá el riesgo es no hacerlo.

¿Existe un riesgo?

Respondería con una pregunta: ¿cuál es el riesgo de intentar tener un equipo especializado en una tecnología disruptiva que te permita elegir bien qué proyectos abordar?

Creo que el riesgo es justamente el contrario: no hacerlo.

Esta tecnología también tiene su lado oscuro. Abre la puerta a nuevos riesgos de seguridad. Cuando introduces agentes de IA que realizan determinadas operaciones asociadas a personas, si alguien consiguiera controlarlos podría realizar pagos, firmar documentos o aceptar operaciones peligrosas.

Por eso es importante tener un equipo de especialistas que permita establecer una gobernanza clara de esta tecnología.

En muchas organizaciones esta tecnología se ha dejado crecer libremente. Y eso puede acabar generando lo que antes se llamaba shadow IT, tecnología en la sombra.

Con la IA puede ocurrir lo mismo: shadow AI, inteligencia artificial en la sombra, sistemas que hacen cosas dentro de tu organización y ni siquiera sabes que existen.

Tener un equipo que controle esto, gestione la gobernanza y garantice la seguridad es muy importante. En ese sentido, crear este equipo es un ejercicio de responsabilidad y de orden dentro de la organización.

Este centro es de nueva creación. ¿Cuántas personas tendrá?

Esperamos que alrededor de una decena de personas.

¿A tiempo completo?

Sí.

¿Qué perfiles profesionales tendrá?

En el núcleo necesitaremos profesionales tecnológicos: ingenieros informáticos, especialistas en arquitectura, datos o seguridad.

El líder de esta estructura también debe tener lo que yo llamo capacidad de ser el “pegamento de la casa”: alguien capaz de moverse por la organización, adaptarse y entender qué necesita cada interlocutor.

Esto no consiste en llegar e implantar una tecnología, sino en preguntar: ¿qué haces?, ¿qué proceso tienes?, ¿dónde tienes problemas?, ¿dónde están los cuellos de botella?

La tecnología puede ayudar a resolver eso. A partir de ese diálogo podemos encontrar mecanismos de mejora.

También habrá perfiles muy diversos: personas de biblioteca, recursos de aprendizaje u otras áreas que se formen en IA para poder mantener ese diálogo y encontrar soluciones.

¿La IA es una nueva revolución o la continuidad de Internet?

La inteligencia artificial es una herramienta, pero una herramienta con una capacidad de disrupción brutal.

La tecnología ha evolucionado de forma continua, pero aquí hay un salto. Las capacidades que ofrece son tan grandes que generan un escalón en esa evolución.

Es disruptiva, es un tsunami. Para mí es tan importante como Internet o quizá incluso más.

Internet tardó en democratizarse y en llegar a los hogares. La IA, en cambio, ha entrado directamente en nuestras casas a través de un simple chat con lenguaje natural.

Antes ya existía el machine learning. Yo mismo trabajé en reconocimiento de voz en IBM en 1996. Pero entonces existía una barrera cultural: hablar con máquinas resultaba extraño.

Hoy la gente habla con Siri o Alexa con total normalidad.

La gran disrupción es esa democratización masiva y el hecho de que muchas empresas ya están construyendo sus negocios sobre estas herramientas.

Si juntas esa proximidad con el salto de capacidades, no tengo ninguna duda de que es una tecnología disruptiva y que hay que subirse a esta ola.

¿Quiere añadir algo más sobre la IA o el centro de IA?

Para mí es fundamental cómo la utilizaremos.

Este agosto entra en vigor el reglamento europeo de inteligencia artificial y en la UOC tenemos un compromiso claro: hacer un uso absolutamente ético de la IA.

Comparado con otras organizaciones que quizá no sean tan estrictas, esto puede parecer un freno competitivo. Hay cosas que no podemos hacer, por ejemplo analizar emociones de estudiantes mediante datos biométricos, porque es ilegal.

La cuestión clave es recordar que somos una universidad y que utilizaremos la inteligencia artificial para mejorar la experiencia del estudiante y hacerla más humana.

Esta tecnología debe potenciar nuestra humanidad, no deshumanizarla.

Dejar un comentario