Julio Ponce Solé sostiene que, en las decisiones administrativas discrecionales, la inteligencia artificial no debería sustituir al decisor humano, sino limitarse a asistirlo, porque la equidad, la empatía y la motivación jurídica siguen exigiendo una intervención humana real.
La discusión sobre inteligencia artificial en el sector público suele plantearse en términos de eficiencia: expedientes más rápidos, más automatización, menos carga burocrática y decisiones más homogéneas. Pero hay una pregunta anterior, más incómoda y mucho más importante: ¿puede una administración justa prescindir de una intervención humana sustantiva cuando decide sobre derechos, cargas o situaciones individuales? El trabajo de Julio Ponce Solé, publicado en CERIDAP con el título Artificial Intelligence and Interaction Between Machines and Humans: Discretionary Powers, Human Reserve in the Public Sector and the EU Regulation of 2024, coloca esa cuestión en el centro del debate jurídico europeo y lo hace desde una tesis clara: en el ámbito de las potestades discrecionales de la administración, la IA no debería reemplazar la decisión final humana, sino actuar únicamente como apoyo.
El valor del texto no reside solo en su posicionamiento normativo, sino en el marco que propone para pensar la relación entre máquinas, administración pública y derechos fundamentales. Ponce Solé no discute la utilidad general de la inteligencia artificial en la gestión pública, ni niega su potencial para asistir a funcionarios y órganos administrativos. Lo que examina es algo más preciso: la compatibilidad entre el uso de IA y el derecho a una buena administración cuando la decisión exige ponderación, apreciación del caso, escucha del afectado y deber de motivación. En ese terreno, el autor formula lo que denomina “reserva de humanidad” o “reserva humana”: una técnica jurídica basada en el principio de precaución para excluir o limitar la automatización plena allí donde el uso de IA pueda conducir a decisiones injustas.
La tesis parte de una distinción crucial que a menudo se diluye en el entusiasmo tecnológico. No todas las decisiones administrativas son iguales. Algunas son regladas: la norma fija de forma estrecha los presupuestos y el resultado. Otras, en cambio, son discrecionales: exigen valorar circunstancias, ponderar intereses, interpretar el contexto, calibrar proporcionalidad y, en ocasiones, atender factores humanos que no se dejan reducir fácilmente a variables predefinidas. Es precisamente en este segundo tipo de decisión donde Ponce Solé sitúa el límite. En su análisis, la IA puede ayudar a ordenar información, detectar patrones, sugerir cursos de acción o anticipar riesgos, pero no debería asumir por sí sola la resolución final cuando existe un margen de apreciación administrativa.
El argumento central del autor no se apoya solo en la prudencia política, sino en una crítica de capacidad. El ensayo afirma que las máquinas carecen de empatía y no pueden desarrollar determinadas inferencias abductivas típicamente humanas, dos elementos que considera relevantes para decidir con equidad. Ponce Solé sostiene que la empatía no debe confundirse con sentimentalismo ni con arbitrariedad, sino entenderse como la capacidad humana de comprender la situación del otro, sus vulnerabilidades y sus dificultades, y de integrar esa comprensión en una decisión imparcial y objetiva. En su razonamiento, precisamente porque la buena administración no es mera lógica instrumental, sino también trato justo y atención al caso concreto, la ausencia de empatía en los sistemas algorítmicos se convierte en un problema jurídico y no solo filosófico.
El autor va más allá y conecta esa ausencia con la calidad misma del juicio administrativo. A su juicio, las máquinas pueden imitar estilos lingüísticos empáticos, pero no experimentar la condición humana ni situarse realmente en el lugar del afectado. No enferman, no envejecen, no sufren, no dependen de ayudas públicas ni experimentan la vulnerabilidad social que tantas veces está en juego en los procedimientos administrativos. Por eso, aunque puedan parecer convincentes o incluso “humanas” en su superficie conversacional, no estarían en condiciones de sustituir adecuadamente la dimensión relacional y comprensiva que exige una decisión justa. En el texto, esa limitación no se presenta como una objeción romántica a la tecnología, sino como una razón para aplicar el principio de precaución en el actual estado del arte.
A esa idea suma otra menos popular en el debate público, pero jurídicamente muy significativa: la de las inferencias abductivas. Ponce Solé sostiene que las máquinas no desarrollan del mismo modo la capacidad humana de formular hipótesis plausibles a partir de indicios parciales y contexto abierto, una operación cognitiva especialmente relevante cuando la administración debe valorar situaciones complejas que no encajan limpiamente en esquemas rígidos. Esa referencia a la abducción apunta a un problema de fondo: la decisión administrativa discrecional no consiste únicamente en aplicar reglas o correlaciones estadísticas, sino en construir una comprensión razonable del caso. El autor entiende que esa operación, en conexión con la empatía y la equidad, sigue siendo un espacio que conviene reservar al ser humano.
El ensayo enlaza esta discusión con el derecho europeo a la buena administración. CERIDAP resume expresamente que el estudio aborda la relación entre seres humanos e IA a la luz del “right to good administration and fair discretionary administrative decisions”, y Ponce recuerda que este principio ha sido desarrollado desde hace décadas por la jurisprudencia europea y hoy forma parte del marco de derechos que debe orientar la actividad administrativa. En esa lógica, la audiencia del interesado y la obligación de motivar no son rituales formales: son garantías de corrección, de control y de justicia material. El artículo insiste en que, si existe obligación de abrir un trámite de audiencia o de dar razones individualizadas, la automatización plena se vuelve especialmente problemática.
Aquí es donde el texto se vuelve especialmente relevante para el debate regulatorio actual. El Reglamento europeo de IA de 2024, el conocido AI Act, fija como objetivo promover una IA centrada en el ser humano y fiable, garantizando un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales. Así lo expresa el propio texto oficial del Reglamento (UE) 2024/1689, aprobado el 13 de junio de 2024 y publicado en el Diario Oficial el 12 de julio de 2024. El reglamento entró en vigor veinte días después de su publicación y su aplicación general comienza el 2 de agosto de 2026, aunque las prohibiciones del artículo 5 y las disposiciones generales empezaron a aplicarse desde el 2 de febrero de 2025.
Sin embargo, Ponce Solé subraya una limitación importante de ese marco europeo. El AI Act sí prevé supervisión humana para sistemas de alto riesgo, pero no consagra de forma general una “reserva humana” para las decisiones discrecionales del sector público. El artículo 14 del reglamento establece que los sistemas de IA de alto riesgo deben diseñarse y desarrollarse de manera que puedan ser supervisados eficazmente por personas físicas durante su uso. Y el propio ensayo recuerda que esa supervisión humana se justifica en la norma para prevenir o minimizar riesgos para la salud, la seguridad o los derechos fundamentales. Pero, a juicio del autor, eso no equivale todavía a prohibir que la decisión final discrecional se desplace de facto hacia la máquina.
La crítica es relevante porque el concepto de supervisión humana puede vaciarse en la práctica si la persona que “supervisa” se limita a validar una recomendación algorítmica sin verdadera capacidad, tiempo o información para apartarse de ella. En teoría, el humano está “in the loop”; en la práctica, puede convertirse en un mero legitimador formal de una decisión ya moldeada por el sistema. El trabajo de Ponce Solé apunta justamente a ese riesgo: una administración podría cumplir nominalmente con la supervisión humana exigida por el AI Act y, al mismo tiempo, erosionar la responsabilidad, la escucha y la motivación que exige el principio de buena administración. Esa tensión entre supervisión formal y decisión realmente humana es uno de los puntos más fértiles del ensayo.
El AI Act sí incorpora, además, otra pieza que encaja con esta preocupación: el derecho a explicación del artículo 86. Según el reglamento, las personas afectadas tienen derecho a obtener una explicación cuando una decisión del responsable del despliegue se base principalmente en la salida de determinados sistemas de IA de alto riesgo y esa decisión produzca efectos jurídicos o les afecte significativamente de modo similar, con impacto negativo en su salud, seguridad o derechos fundamentales. Ponce Solé destaca expresamente ese punto, pero lo lee como una garantía útil aunque insuficiente. Tener derecho a una explicación no resuelve por sí solo el problema de fondo si el sistema ya ha colonizado el núcleo de la apreciación discrecional.
El texto resulta especialmente útil porque no se limita a denunciar, sino que propone una orientación normativa concreta. Ponce Solé sostiene que los reguladores de los Estados miembros podrían, respetando el AI Act, establecer prohibiciones o límites adicionales para impedir la sustitución de la decisión discrecional final humana. Incluso va más allá: considera que esa prohibición debería incorporarse de forma explícita en el futuro al artículo 5 del reglamento, que hoy recoge las prácticas prohibidas de IA. Es una propuesta ambiciosa, porque desplaza el debate desde la mera “supervisión” hacia una verdadera reserva de decisión humana en sectores sensibles.
Ese planteamiento conecta directamente con una pregunta muy actual en la transformación digital del Estado: qué parte de la administración puede automatizarse sin vaciar de contenido el ideal europeo de una administración imparcial, motivada y respetuosa con la dignidad de la persona. La tentación de automatizar no es solo tecnológica; también es presupuestaria y organizativa. La IA promete velocidad, consistencia y escala en contextos de plantillas tensas y demanda creciente. Pero el ensayo advierte de que la administración no es una cadena de montaje normativa. Allí donde la decisión exige apreciar circunstancias singulares, escuchar al afectado y justificar por qué se adopta una opción y no otra, la sustitución del juicio humano puede dañar la equidad misma del procedimiento.
La discusión es especialmente pertinente para el sector público porque muchas de las áreas donde la IA puede desplegarse con más intensidad —servicios sociales, ayudas, inspección, empleo, migración, educación, salud administrativa o acceso a prestaciones— afectan directamente a personas en situación de vulnerabilidad. En estos ámbitos, la diferencia entre una decisión reglada y una discrecional no es una sutileza académica: puede determinar si la administración reconoce o ignora circunstancias humanas decisivas. La “reserva humana” que propone Ponce Solé busca precisamente evitar que la promesa de eficiencia termine degradando el estándar de justicia administrativa.
También conviene subrayar que el propio AI Act reconoce la especial sensibilidad del sector público. El reglamento clasifica como de alto riesgo diversos sistemas utilizados por autoridades públicas y prevé mecanismos específicos de vigilancia del mercado, además de un régimen reforzado para usos que inciden sobre derechos fundamentales. El considerando 171 y el artículo 86, con ese derecho a explicación, son una prueba de que el legislador europeo sabe que no está regulando una tecnología cualquiera. Pero el ensayo de Ponce Solé añade una advertencia incisiva: una IA human-centric no se garantiza solo con transparencia, documentación y supervisión general; en ciertos espacios exige preservar una decisión final genuinamente humana.
Ahí reside la relevancia estratégica del artículo. En un momento en que las administraciones europeas empiezan a experimentar con sistemas predictivos, asistentes de tramitación, clasificación automatizada y herramientas de apoyo a la decisión, el debate ya no puede quedarse en la dicotomía simplista entre usar IA o no usarla. La cuestión decisiva pasa por definir qué funciones puede asumir, en qué condiciones, con qué garantías y con qué límites materiales. Ponce Solé ofrece una respuesta exigente: la IA puede asistir, ordenar, sugerir y apoyar; pero no debería ocupar el lugar donde la administración ejerce discrecionalidad sobre personas concretas. En ese núcleo, la legalidad no agota la justicia, y la justicia administrativa sigue requiriendo humanidad.
Leído con distancia, el texto no es una enmienda total a la inteligencia artificial en lo público. Es más bien un intento de fijar una frontera constitucional y administrativa antes de que la lógica de la automatización la desdibuje. Su advertencia de fondo es sobria, pero poderosa: si el sector público renuncia demasiado deprisa a la intervención humana en las decisiones discrecionales, puede acabar sacrificando precisamente aquello que justifica su legitimidad en un Estado de derecho: la posibilidad de escuchar, ponderar, explicar y decidir con equidad. Esa es la discusión que el AI Act abre, pero no cierra. Y es también la razón por la que este ensayo merece ser leído con atención por juristas, reguladores y responsables públicos que hoy diseñan la administración algorítmica del mañana.