Skip to main content

Una mirada a los primeros magistrados que se atreven a usar IA

Un juez frente a una pantalla. Una resolución escrita en segundos. ¿Quién redactó realmente esa orden judicial? En Estados Unidos, algunos magistrados han empezado a integrar inteligencia artificial en su trabajo cotidiano. No para decidir, pero sí para procesar. No para juzgar, pero sí para escribir. Y en ese matiz empieza una transformación más profunda de lo que parece.

Una ayuda silenciosa que escribe por ellos

Los primeros en probarlo fueron jueces municipales con exceso de casos y pocos recursos. Luego, algunos en tribunales federales. Usan IA generativa —como ChatGPT— para redactar borradores de fallos, resumir documentos o encontrar precedentes. Lo hacen sin protocolos oficiales, en sus despachos, de forma experimental. «Lo uso como una calculadora», declaró al MIT Technology Review un magistrado que pidió anonimato. Buscan alivio en lo repetitivo. Automatizar lo que no requiere interpretación. Pero la frontera no siempre es clara.

Promesas de eficiencia en juzgados al límite

La adopción se justifica por la sobrecarga. Tribunales colapsados, personal escaso, decisiones que se acumulan. Con IA, una orden menor se redacta en segundos. Un texto que antes requería una hora de búsqueda, ahora aparece en pantalla con un clic. En teoría, la IA permite que el juez se concentre en lo importante.

Detrás del texto, una caja negra

Estas herramientas funcionan con modelos entrenados en millones de textos. Incluyen leyes, sentencias, artículos. Pero no entienden el derecho. No tienen noción del contexto, ni del impacto de una palabra mal puesta. A veces aciertan con precisión quirúrgica. Otras, inventan leyes, mezclan conceptos o citan casos que nunca existieron. Los juristas llaman a eso «alucinaciones». Y no siempre se detectan a tiempo.

Errores que nadie quiere firmar

Ya ha habido fallos que levantaron sospechas. En Nueva Jersey, un juez tuvo que reescribir una orden por errores evidentes. En Mississippi, otro incluyó párrafos incoherentes, sin aclarar su origen. En ambos casos, el uso de IA no estaba prohibido, pero tampoco regulado. Los documentos salieron con la firma del juez. Nadie más respondió por ellos.

Afuera, pruebas con freno de mano

En Reino Unido, desde 2023 los jueces pueden usar IA para redactar borradores. Solo eso. Y siempre bajo responsabilidad personal. Geoffrey Vos, jefe de justicia civil, fue claro: «La decisión judicial sigue siendo exclusivamente humana». En Estonia, se permiten algoritmos para disputas menores como multas de tráfico o reclamos administrativos. Pero cada decisión es revisada por humanos. Allí, la automatización se mide al milímetro. En Estados Unidos, todavía no hay reglas. Solo precedentes que se escriben mientras ocurren.

El volante sigue en manos humanas

Una máquina puede redactar sin cansarse. Puede encontrar patrones, repetir fórmulas, sugerir caminos. Pero no puede sentir el peso de una decisión. No distingue un tecnicismo de una tragedia. Y aunque el texto parezca impecable, el juicio sigue siendo humano. La responsabilidad también. En la justicia, no basta con que algo funcione. Tiene que responder.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario