Skip to main content

No estamos aún en el escenario de algoritmos que puedan adjudicar contratos públicos. Además, sería una forma de ocultar tras ellos los mismos intereses corruptos de siempre

En estas jornadas de frenética actualidad resulta difícil conectar la televisión y no tropezar con una tertulia política. Como si de una plaga de verano se tratara, proliferan los analistas. Quizá es debido a la primavera lluviosa, a la que le ha seguido un posterior bochorno (político, claro está).

En una de estas conversaciones de cuñados, que la IA sin duda no podría replicar ni con fine tuning, una tertuliana saltó con una solución mágica: «Mientras sean los humanos quienes controlen las adjudicaciones, habrá corrupción; debemos dejar que lo haga la IA«. Aunque necesitaría varias newsletters de Paréntesis MEDia, voy a intentar responder en un artículo, con datos. Pero avanzo la conclusión: no estamos, todavía, en ese punto.

El entrenamiento

Para empezar, la inteligencia artificial parte de un gran problema: la entrenan los humanos con datos humanos. Si le volcáramos el historial de adjudicaciones públicas de los últimos treinta años, es probable que se repitieran los favoritismos hacia las mismas empresas. Lo que es peor: podrían incluso acrecentarse peligrosamente.

Lo único positivo es que, al tratarse de una IA, todo el mundo querría analizar sus sesgos y conflictos éticos.

La complacencia

A todo ello se le suma otro problema no menos importante: el servilismo. Un estudio reciente de Anthropic llegó a la conclusión de que la IA generativa tiende a dar la razón a los humanos. Lo que es peor: nosotros preferimos aquellas respuestas falsas que coinciden con nuestras creencias.

Lo que sí que hace (y muy bien) la IA es vestir cualquier argumento con una pátina de seguridad y verosimilitud que te hace cuestionar incluso lo que es verdad y mentira.

Responsabilidad

¿Quién se hará responsable de las decisiones de la IA? El problema de delegar en un algoritmo es que, precisamente, es una forma de ocultar tras él a los humanos que lo han programado. Todo es eminentemente humano, en última instancia. Incluso si algún día la IA es capaz de generarse a sí misma, también habrá una creación humana original.

En los pocos experimentos que he visto de implementación de IA en la administración pública, todos tienen algo en común: sobre el papel siempre hay un responsable humano. Porque deben poder explicarse con claridad las decisiones que toman estos sistemas. Y porque siempre debe haber una persona física o jurídica que cargue con las consecuencias de su uso.

Ya me imagino a los jueces emitiendo una orden de búsqueda y captura de Sam Altman, porque la IA ha favorecido la adjudicación de obras a empresas yanquis. O lo que es peor: han decidido cobrar un tanto por ciento de cada adjudicación pública que otorgue la IA.

La arbitrariedad

Otro problema de las adjudicaciones públicas viene dado por la perversión de algunos indicadores. Mientras la puntuación económica es muy difícil de distorsionar (porque se trata de comparar números enteros), hay otras categorías un tanto arbitrarias. Una de ellas es la puntuación técnica, que parece ser lo que se presuntamente se amañó en algunos concursos.

Incluso a veces las propias bases de una convocatoria pública están ya escoradas desde un inicio para favorecer determinados intereses. Por lo tanto, aunque la adjudicación definitiva la realizara una IA generativa, el proceso ya vendría determinado desde un inicio por el documento (humano).

Lo que sí hace muy bien la IA

Después de enumerar las limitaciones que tiene la IA para sustituir a los burócratas en la toma de decisiones, conviene detenerse en lo que sí puede hacer. De entrada, puede ser una gran herramienta de análisis de datos para depurar responsabilidades. Es decir, encontrar patrones de corrupción en los datos públicos.

Estoy pensando también en investigaciones periodísticas emblemáticas de los últimos años, como los Papeles de Panamá. Lo que antes requería de un consorcio de periodistas analizando documentos sin descanso, ahora puede ser más fácil con el uso de algoritmos inteligentes.

De hecho, las grandes redacciones con recursos ya incorporan departamentos de análisis de datos, algunos de ellos asistidos por herramientas de IA. E incluso la Agencia Tributaria está incorporando algoritmos capaces de cruzar la inmensa cantidad de datos que disponen entre administraciones. Para que encontrar el fraude sea cada vez más fácil y pueda castigarse con celeridad.

A medida que las administraciones vayan haciendo más amigables los portales de transparencia, puede que incluso podamos dar con los indicios de corrupción a golpe de prompt. Y eso sí que podría disuadir, de alguna forma, los comportamientos al margen de la ley.

Adrián Soler Royes

Redactor de tecnología y consultor en IA generativa aplicada a la comunicación.

Redactor de tecnología y consultor en IA generativa aplicada a la comunicación.
Adrián Soler

Periodista por la Universitat Pompeu Fabra de Barcelona. Soy especialista en IA, tecnología y formador en comunicación. Reflexiono sobre cómo los algoritmos moldearán nuestro oficio.

Dejar un comentario