Skip to main content

Un sistema creado para orientar la gestión penitenciaria interna ha terminado influyendo en permisos, terceros grados y libertad condicional sin un marco claro de garantías judiciales. 

RisCanvi nació en Catalunya hace década y media como una herramienta de evaluación del riesgo en las cárceles. Su nombre une dos palabras, “riesgo” y “cambio”, y su función original era ayudar a la administración penitenciaria a valorar la probabilidad de reincidencia, violencia o quebrantamiento de condena de las personas internas. Sobre el papel, era un instrumento técnico de apoyo, integrado en un protocolo y pensado para que los profesionales de prisión dispusieran de más información a la hora de tomar decisiones complejas. Con el paso de los años, sin embargo, su papel ha crecido hasta convertirse en una pieza de enorme influencia dentro del ecosistema penitenciario catalán. Y ahí empieza el problema: una cosa es que un algoritmo ayude a organizar el trabajo interno de las prisiones, y otra muy distinta es que sus resultados terminen condicionando, de facto, decisiones judiciales que afectan directamente a la libertad de una persona.

Eso es precisamente lo que revela el dossier de Público sobre RisCanvi: que un sistema diseñado para apoyar la gestión penitenciaria se ha deslizado progresivamente hacia el terreno judicial, donde fiscales y jueces lo utilizan como una referencia de peso al valorar permisos, progresiones de grado o libertad condicional. La investigación documenta que este uso se produce sin criterios homogéneos, sin formación suficiente y sin garantías claras sobre el contexto en que deben interpretarse esos resultados. El hallazgo central no es únicamente técnico. Es político, jurídico y social: cuando la predicción algorítmica entra en un ámbito tan sensible como la justicia penitenciaria, cualquier falta de transparencia o de control deja de ser un defecto administrativo para convertirse en una cuestión de derechos fundamentales.

El caso de Omar —nombre ficticio utilizado para proteger su identidad— resume con crudeza esa tensión. Interno desde 2011, con una evolución positiva en prisión y acompañado por profesionales externos en su proceso de reinserción, vio cómo su solicitud de tercer grado se complicaba por la aparición de un “RisCanvi alto” en el expediente enviado al juez. Esa calificación, según cuenta la investigación, ya había pesado antes en la denegación de un permiso ordinario. La escena es reveladora porque muestra cómo una etiqueta numérica o categórica puede acabar funcionando como un argumento de autoridad difícil de desmontar. No se trata de que el algoritmo decida formalmente. Se trata de que su resultado puede instalarse en el expediente como una advertencia silenciosa que condiciona toda la lectura posterior del caso.

Ahí reside una de las principales claves del debate. RisCanvi no actúa en un vacío. Forma parte de un sistema sociotécnico en el que intervienen funcionarios, juntas de tratamiento, juristas, psicólogos, trabajadores sociales, fiscales y jueces. Dentro de prisión, según el propio protocolo, sus resultados deben interpretarse con cautela y siempre con contexto. La advertencia que ven los funcionarios cuando validan las evaluaciones indica expresamente que esos niveles de riesgo no deben condicionar por sí solos la decisión final y que han de leerse teniendo en cuenta el motivo y el contexto del caso. Pero fuera del entorno penitenciario, cuando esos mismos resultados aterrizan en sede judicial, el contexto se debilita o desaparece. Lo que para un técnico interno es una variable más, para un juez o un fiscal puede convertirse en una señal aparentemente objetiva, compacta y difícil de discutir.

La investigación de Público muestra que esa traslación del algoritmo desde la administración penitenciaria a la justicia se produce, además, en un escenario de gran disparidad. Algunas fuentes jurídicas sostienen que determinados juzgados de vigilancia penitenciaria otorgan al resultado de RisCanvi una relevancia casi determinante. Si el informe incluye un riesgo medio o alto, la barrera para obtener un permiso o una progresión de grado se vuelve mucho más difícil de superar. Otras instancias, como algunas audiencias provinciales, parecen hacer una lectura más matizada. Pero el hecho de que no exista un criterio uniforme ya es, por sí mismo, una mala noticia. En un ámbito donde está en juego la libertad, la desigualdad en el uso de una misma herramienta puede traducirse en desigualdad de trato.

El debate no se limita a si el algoritmo acierta mucho o poco. La cuestión de la precisión importa, por supuesto, pero no agota el problema. Según los estudios citados en el dossier, la capacidad predictiva de RisCanvi se sitúa en niveles comparables a los de herramientas similares utilizadas en otros países, como Canadá, Estados Unidos o Reino Unido. Carlos Castillo, investigador de la Universitat Pompeu Fabra, explica que si se comparan dos internos, uno reincidente y otro no reincidente, en algo más del 70% de los casos la herramienta habrá asignado una puntuación mayor al que efectivamente reincidió. Dicho de otro modo: el sistema tiene una capacidad relevante para ordenar riesgos, pero también falla en torno a un 30% de los casos en ese tipo de comparación. Y ese margen de error, que en otros ámbitos podría asumirse como una limitación estadística más, adquiere otra dimensión cuando puede traducirse en meses o años adicionales de restricción efectiva de libertad.

La potencia del sistema procede de la gran cantidad de variables que incorpora. RisCanvi utiliza 43 factores de riesgo en su versión completa y una versión inicial más reducida para las personas que ingresan por primera vez en prisión. Entre esos factores hay elementos estáticos, vinculados a la biografía del interno, como el tipo de delito, la edad del primer hecho delictivo, la nacionalidad o determinados antecedentes familiares. Pero también hay factores dinámicos, ligados a la conducta en prisión y, al menos en teoría, susceptibles de cambiar: la impulsividad, la hostilidad, la respuesta al tratamiento, la existencia de conflictos con otros internos o la evolución personal durante la condena. El equilibrio entre ambos bloques es decisivo. Si el sistema castiga demasiado el pasado y pesa poco el cambio real producido durante la estancia en prisión, la promesa de reinserción queda erosionada desde la propia arquitectura del modelo.

Esa es precisamente una de las críticas más persistentes alrededor de RisCanvi. Diversas voces reclaman desde hace años que los factores dinámicos, especialmente aquellos que dependen de la evolución del interno, tengan más peso en el cálculo. No es una objeción secundaria. En el fondo, cuestiona la filosofía de la herramienta. ¿Está RisCanvi pensado para fotografiar una trayectoria de riesgo casi congelada en el tiempo o para captar auténticos procesos de transformación? Si el modelo responde más al primer enfoque que al segundo, su uso dentro del sistema penitenciario entra en fricción con la lógica rehabilitadora que debería orientar la ejecución penal. La cárcel, en ese caso, corre el riesgo de convertirse en un espacio donde se exige cambiar mientras el propio sistema estadístico tarda demasiado en reconocer ese cambio.

El caso de Omar vuelve a ilustrarlo. La investigación apunta a que variables como la naturaleza violenta del delito por el que fue condenado o el hecho de haberlo cometido bajo intoxicación alcohólica podrían seguir penalizándole muchos años después, pese a su buena evolución penitenciaria. A ello se suma otro elemento todavía más preocupante: en varios momentos, su RisCanvi no se habría actualizado con la periodicidad prevista por el protocolo, que establece revisiones al menos semestrales. Es decir, no sólo puede existir un problema en la ponderación de las variables, sino también una mala praxis en la actualización de los datos. Si el juez recibe una fotografía vieja de la situación del interno, la promesa de objetividad se convierte en una ficción burocrática.

Este punto enlaza con una realidad material que el dossier subraya con claridad: las cárceles catalanas arrastran desde hace tiempo problemas de personal y recursos. Cuando un sistema depende de la actualización periódica y rigurosa de información cualitativa y cuantitativa, cualquier déficit estructural repercute directamente en la calidad de la predicción. Los algoritmos no corrigen por sí solos las carencias de la administración. Más bien las absorben, las sistematizan y, a veces, las proyectan con una apariencia de neutralidad. La idea de que una puntuación nace de una máquina puede inducir a pensar que está libre de fallos humanos, cuando en realidad descansa sobre datos introducidos, interpretados y validados por personas e instituciones con limitaciones muy concretas.

Otro de los grandes ejes del debate es el impacto desigual sobre los internos más vulnerables. El reportaje de Público insiste en que la combinación entre opacidad, uso judicial intenso y falta de recursos de defensa penaliza especialmente a quienes tienen menos apoyos. Muchos internos no saben cómo recurrir una decisión, no comprenden el funcionamiento del sistema o no tienen acceso a una defensa letrada suficientemente especializada. La situación se agrava en el caso de personas extranjeras con dificultades idiomáticas y en perfiles socialmente más frágiles. En la práctica, eso significa que el sesgo no sólo puede estar en el algoritmo o en su uso institucional, sino también en la capacidad desigual de los afectados para impugnarlo. La justicia algorítmica, cuando carece de garantías reales de contradicción, tiende a castigar más a quien menos herramientas tiene para defenderse.

Aquí aparece de lleno la dimensión europea del problema. El reglamento de inteligencia artificial aprobado por la Unión Europea en 2024 sitúa el foco sobre los usos de alto riesgo, especialmente en ámbitos como la justicia, la gestión pública o las prisiones. La lógica del nuevo marco es clara: cuanto más sensible sea el contexto de aplicación, mayores deben ser las exigencias de transparencia, supervisión, trazabilidad, seguridad y control humano. Judith Membrives, responsable de Tecnología y Derechos Humanos en Lafede, advierte en el dossier de que extender el uso de un sistema de IA o de un algoritmo más allá de la finalidad para la que fue concebido genera un “vacío de garantías”. Y la expresión es especialmente pertinente en este caso. Porque uno de los hallazgos más relevantes de la investigación no es que RisCanvi exista, sino que su empleo judicial se parece a un desplazamiento de finalidad: de herramienta administrativa interna a argumento de autoridad en decisiones jurisdiccionales.

Ese desplazamiento no es un matiz técnico, sino un salto cualitativo. Cuando una herramienta diseñada para orientar el trabajo de una junta de tratamiento termina condicionando el criterio de un juez, se diluye la frontera entre apoyo técnico y delegación de juicio. Nadie sostiene formalmente que el algoritmo sustituya al magistrado. Pero el efecto de autoridad técnica puede ser suficiente para inclinar la balanza. De hecho, la literatura científica y los estudios citados en el dossier apuntan a que los seres humanos tienden a sobredimensionar la fiabilidad de las recomendaciones algorítmicas, incluso cuando disponen de información que apunta en sentido contrario. La pregunta, por tanto, ya no es sólo si el modelo es correcto, sino qué hace psicológicamente y organizativamente con quienes lo utilizan.

Ese aspecto es fundamental y suele quedar relegado en las discusiones públicas sobre IA. Helena Matute, desde la Universidad de Deusto, recuerda en la investigación que el verdadero desafío no es únicamente evaluar a la máquina, sino estudiar cómo interactúa con la persona que trabaja con ella. Si una predicción errónea induce a error al profesional, aunque el sistema sea formalmente “auxiliar”, el resultado final puede ser peor que el de una decisión puramente humana. En otras palabras: la calidad de un sistema de apoyo a la decisión no se mide sólo por su precisión estadística aislada, sino por el efecto conjunto que genera en la práctica institucional. Y esa dimensión sociotécnica resulta decisiva en un entorno tan delicado como la justicia penitenciaria.

Mientras tanto, la Generalitat trabaja en una actualización de RisCanvi que debería entrar en funcionamiento durante 2026. Según las informaciones recogidas por Público, la nueva versión prevé introducir mejoras técnicas, nuevos puntos de corte y, de forma especialmente relevante, técnicas de aprendizaje automático orientadas a la equidad, el llamado fairness-aware machine learning. También se plantea reforzar el peso de los factores dinámicos para captar mejor la evolución real del interno, además de abrir datos anonimizados a la comunidad científica, crear un repositorio de código y documentación viva, y establecer sistemas automáticos de control de precisión y sesgos. Todo ello apunta a una modernización significativa del sistema.

Sin embargo, conviene no caer en una lectura ingenua. Una mejora técnica no resuelve por sí sola un problema institucional, jurídico y democrático. Un algoritmo más sofisticado puede reducir algunos sesgos y mejorar ciertos indicadores, pero también puede aumentar la opacidad y dificultar la auditabilidad externa. Cuanto más complejo es el modelo, más difícil resulta comprender por qué ha llegado a una determinada conclusión. Y cuanto más difícil es entenderlo, más difícil es impugnarlo, supervisarlo y exigir responsabilidades. La gran tentación de los poderes públicos en la era algorítmica consiste en presentar la actualización tecnológica como una solución suficiente para problemas que, en realidad, remiten a desigualdades estructurales, déficits de recursos y ausencia de reglas claras.

En el fondo, RisCanvi plantea una pregunta más amplia sobre el lugar que deben ocupar los algoritmos en el Estado de derecho. Nadie discute que la administración necesita herramientas para gestionar riesgos, ordenar información y mejorar la coherencia de sus decisiones. Tampoco parece razonable negar por principio cualquier utilidad a los modelos predictivos. El problema surge cuando una tecnología estadística comienza a acumular poder sin un marco robusto de control democrático. Si un interno no puede saber con claridad qué variables le perjudican, si no tiene una vía real y accesible para corregir errores, si el juez utiliza la predicción sin formación específica y si la administración no transparenta suficientemente la lógica del sistema, entonces el algoritmo deja de ser una ayuda prudente y se convierte en una caja de influencia difícil de acotar.

La historia de RisCanvi no es sólo la historia de un software penitenciario catalán. Es también un caso de estudio sobre cómo la digitalización del sector público puede reconfigurar silenciosamente relaciones de poder muy sensibles. En teoría, hablamos de eficiencia, evidencia y apoyo técnico. En la práctica, hablamos de permisos denegados, terceros grados bloqueados, recursos difíciles de presentar y trayectorias de reinserción que pueden quedar frenadas por una puntuación cuya autoridad nadie ha delimitado del todo. Ahí es donde el debate sobre IA abandona la abstracción y se vuelve tangible: no estamos ante máquinas futuristas, sino ante sistemas que pueden influir sobre la libertad, el trato institucional y las oportunidades de recomponer una vida.

Por eso el caso merece atención mucho más allá del ámbito penitenciario. Lo que está en juego no es únicamente si RisCanvi funciona mejor o peor que otras herramientas parecidas, sino si una democracia acepta que tecnologías de alto impacto operen en zonas grises normativas. La cuestión decisiva no es si el algoritmo “sabe” algo sobre el riesgo, sino quién controla su uso, quién responde por sus efectos y quién protege a quienes quedan atrapados en sus márgenes de error. En una sociedad que delega cada vez más decisiones en sistemas de datos, el verdadero test no consiste en celebrar la modernización, sino en verificar que esa modernización no rebaja garantías allí donde más deberían reforzarse.

Si algo muestra el dossier de Público es que el debate sobre RisCanvi ya no puede limitarse a la precisión matemática. La discusión de fondo tiene que ver con la finalidad legítima del sistema, con la transparencia, con la supervisión judicial, con la formación de los operadores, con el derecho de defensa y con la capacidad real de la prisión para reconocer la evolución de las personas. Porque una herramienta que nació para medir riesgo no debería acabar consolidando inercias que dificulten el cambio. Y una justicia que aspira a ser garantista no puede permitirse tratar una predicción estadística como si fuera una verdad reforzada.

Dejar un comentario