Firmas

Juez «ex machina»: Inteligencia Artificial y justicia

Antonio Abellán Albertos
Juez «ex machina»: Inteligencia Artificial y justicia
En su columna, Antonio Abellán aborda la temática de los jueces-robot y la aplicación de la Inteligencia Artificial de un modo crítico.
26/2/2022 06:47
|
Actualizado: 10/1/2023 12:51
|

La pandemia ha potenciado las herramientas telemáticas y, en el ámbito de la Administración de Justicia, ha supuesto la constatación de que el empleo de medios electrónicos es una necesidad insoslayable, de tal forma que la mejor prueba del interés en ello es que la Unión Europea ha aprobado el Reglamento (UE) 2021/694, del Parlamento Europeo y del Consejo, de 29 de abril, que dota el programa «Europa Digital» con un presupuesto, durante el período comprendido entre el 1 de enero de 2021 y el 31 de diciembre de 2027, de 7.588 millones de euros. 

Las ventajas de adecuación de la Administración de Justicia a herramientas digitales que faciliten y optimicen los recursos humanos y materiales parece indiscutible a la vista de que su empleo se encuentra normalizado en el resto de facetas de nuestra vida, en las que van teniendo cada vez más intervención la realización de acciones, que antes pensábamos eminentemente humanas, por máquinas, de tal manera que la propia utilización cotidiana de las aplicaciones de nuestro smartphone es el más claro ejemplo del alcance de la inconsciente omnipresencia de la informática.

El Informe 14 (2011) del Consejo Consultivo de Jueces Europeos (CCJE) ya consideraba que la informatización ayuda a los tribunales, no sólo a racionalizar los expedientes, sino que también facilita el registro y seguimiento de los asuntos.

Ahora bien, también destacó que su utilización no debería disminuir las garantías del proceso. La comunicación de la Comisión Europea «La digitalización de la justicia en la UE: Un abanico de oportunidades» (2020), también indicó que «cualquier actuación relacionada con la digitalización de la justicia debe llevarse a cabo respetando plenamente los derechos fundamentales, como el derecho a la protección de los datos personales, a un juez imparcial y a una tutela judicial efectiva, así como los principios de proporcionalidad y subsidiariedad», evitando interferencias con los derechos de defensa.

DUDAS SOBRE EL EMPLEO DE LA INTELIGENCIA ARTIFICIAL

En este sentido, aunque es claro que, en términos generales, nadie duda de la bondad de la digitalización de la justicia en cuanto a actividades de anonimización de las resoluciones judicialesconversión y transcripción de audio a texto por reconocimiento de voz, traducción automáticaautomatización robótica de procesos de gestión de las oficinas judiciales, la reducción de papel, el acceso electrónico a la información, los procedimientos y su seguimiento en línea e incluso la videoconferencia potestativa, esto es, cuando pretenda servirse de ella el justiciable, muchas más dudas surgen en cuanto al empleo de la inteligencia artificial (IA) en el ámbito policial y judicial, donde existen riesgos considerables asociados a su uso para la toma de decisiones automatizadas o para la actuación policial predictiva o la justicia predictiva.

La Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial), de 21 de abril de 2021, señala en su considerando 40 que «deben considerarse de alto riesgo ciertos sistemas de IA destinados a la administración de justicia y los procesos democráticos, dado que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial. En particular, a fin de evitar el riesgo de posibles sesgos, errores y opacidades, procede considerar de alto riesgo aquellos sistemas de IA cuyo objetivo es ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos».

Como resalta la «Carta ética europea del Consejo de Europa sobre el uso de la inteligencia artificial en los sistemas judiciales», para la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) es fundamental garantizar que la IA siga siendo una herramienta al servicio del interés general y que su uso respete los derechos individuales.

En este sentido, se hace hincapié en los principios de:

• Respeto de los derechos fundamentales desde el diseño.

• No discriminación  entre individuos o grupos de individuos.

• Calidad y seguridad, en lo que respecta al tratamiento de las resoluciones judiciales y de los datos.

Transparencia (acceso al diseño), imparcialidad (ausencia de sesgos) y equidad e integridad, que hagan accesibles y comprensibles los métodos de tratamiento de datos, autorizando auditorías externas.

• Principio «bajo el control del usuario»: excluyendo un enfoque prescriptivo y asegurando que los usuarios sean actores informados y con control de sus elecciones, todo ello bajo el espíritu de la integridad intelectual, es decir, priorizando el interés de la justicia.

REVISIÓN DE LAS DECISIONES JUDICIALES Y LOS DATOS UTILIZADOS

Se contempla que los profesionales de la justicia deben poder revisar en todo momento las decisiones judiciales y los datos utilizados para producir un resultado sin estar necesariamente vinculados a él en función de las características específicas de ese caso concreto.

Para ello, «el usuario debe ser informado en un lenguaje claro y comprensible de si las soluciones ofrecidas por las herramientas de inteligencia artificial son o no vinculantes, de las diferentes opciones disponibles, y de que tiene derecho a asesoramiento jurídico y a acceder a un tribunal.

También debe ser informado claramente de cualquier tratamiento previo de un caso por parte de la inteligencia artificial antes o durante un proceso judicial y tener derecho a oponerse, para que su caso pueda ser escuchado directamente por un tribunal en el sentido del artículo 6 del CEDH».

Así, CEPEJ propone que cuando se implante cualquier sistema de información basado en la inteligencia artificial deben existir programas de alfabetización informática para los usuarios y debates en los que participen los profesionales del sistema de justicia.

El Consejo de la Abogacía Europea (CCBE) destaca que el uso de la inteligencia artificial plantea muchos interrogantes, especialmente en relación con los derechos fundamentales y el Estado de Derecho, de tal forma que el cambio debe adoptarse cuando mejore, o al menos no empeore, la calidad de nuestros sistemas de justicia, teniendo en cuenta que no puede subordinarse la mejora a meras ganancias de eficiencia o a beneficios de ahorro de costes.

Aunque la Comisión Europea haya subrayado que la toma de decisiones final debe seguir siendo una actividad y decisión humana, puesto que «solo un juez puede garantizar el verdadero respeto de los derechos fundamentales, encontrar el equilibrio entre intereses contrapuestos y reflejar los cambios constantes de la sociedad en el análisis de un asunto», el CCBE pide a la Comisión que refuerce aún más el derecho a un juez ‘humano’ en sus acciones y, en consecuencia, prevea garantías explícitas bajo los principios de:

• Identificación): todas las partes implicadas en un proceso judicial deberían poder identificar siempre, antes y dentro de una decisión judicial los elementos resultantes de la aplicación de una herramienta de IA.

• No delegación: el juez no debe delegar, en ningún caso, todo o parte de su poder de decisión a una herramienta de IA.

• En cualquier caso, debe garantizarse el derecho a un juez humano en cualquier fase del procedimiento.

• La posibilidad de que las partes verifiquen la introducción de datos y el razonamiento de la herramienta de IA (principio de transparencia).

• La posibilidad de que las partes discutan e impugnen los resultados de la IA (principio de discusión) de manera contradictoria fuera de la fase de deliberación y con un plazo razonable.

• La neutralidad y objetividad de las herramientas de IA (principio de neutralidad) utilizadas deben estar garantizadas y ser verificables.

Autores como el preclaro Nieva Fenoll considera que el proceso tradicional está en crisis y el empleo de inteligencia artificial puede suponer una mejora puesto que, en definitiva, tampoco el juez es un ser sobrenatural o infalible, siendo así que el empleo de IA podría evitar las influencias externas así como el recurso a la propia «intuición» humana, a las «corazonadas», al tiempo que podría recurrirse una justicia automatizada en casos en los que las evidencias sean claras o los procedimientos poco complejos, de tal forma que los jueces se puedan concentrar en los casos más difíciles, incluso vaticinando un futuro en el que la labor de la abogacía en pleitos de trabajo reiterativo será cada vez más complicado, de tal forma que una salida laboral pueda ser reconducirse a asistentes jurídicos de los informáticos que configuren los algoritmos aplicables al proceso.

LA INTELIGENCIA ARTIFICIAL NO ES UNA PANACEA

El empleo de la IA no debe plantearse como como panacea del desatasco de la saturada Administración de Justicia, motivada precisamente por escasez de recursos humanos que se propiciará limitar más aún.

Una cosa es el hecho de que en determinadas materias el empleo de herramientas o formularios (cumplimentados a costa del trabajo de la abogacía experta) pueda servir para agilizar los procesos, como se ha utilizado en el ámbito concursal, en el que el Consejo General del Poder Judicial ha dispuesto una serie de modelos, y otra el empleo de algoritmos a la hora de establecer previsiones de riesgo de fuga, reincidencia, fianzas económicas o pronósticos de libertad, como pueda ser en el caso de comparecencias de libertad provisional o para valorar la condicional, de tal manera que la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, en la exposición del Informe «The right to privacy in the digital age» (2021), ha enfatizado la urgente necesidad de establecer una moratoria a la venta y el uso de los sistemas de Inteligencia Artificial que amenazan gravemente a los derechos humanos, hasta que se hayan puesto en vigor las salvaguardas adecuadas.

Pide además que se prohíban los programas de IA cuyo uso no cumpla con la normativa internacional de derechos humanos.

En este sentido, organizaciones como Fair Trials abogan directamente por prohibir su uso por parte de las fuerzas del orden y las autoridades judiciales y de justicia penal para predecir, perfilar o evaluar el riesgo o la probabilidad de comportamiento «delictivo» de las personas.

También resulta cuestionable que haya procedimientos más o menos merecedores de uso de IA o «juez robot» por el hecho de su aparente repetibilidad, poca complejidad o por su escasa cuantía; ello supone, además de un mensaje equívoco sobre la calidad de la propia justicia, la introducción de criterios contrarios al principio de igualdad de acceso de los ciudadanos a la justicia (de ricos: juez-humano; de pobres: un juez-máquina), teniendo además en cuenta que en ese tipo de pleitos la denominada como ‘brecha digital’ puede hacer su aparición con más fuerza aún que en otros de mayor enjundia económica, puesto que, precisamente, aun cuando en dicho concepto cabe incluir a un espectro amplio de personas de diversa índole, lo más normal es que se aúnen sin recursos económicos y sin formación informática, de tal forma que no sepan comprender quién o mejor dicho qué les está realmente juzgando, recordando que el artículo 117.3 de la Constitución Española establece que la justicia se administra por jueces y magistrados integrantes del poder judicial, entre los que no incluye al juez-máquina.

El fenómeno tecnológico, las modernas técnicas de minería de datos y facilidades de acopio, la vigilancia masiva, el Big Data, ofrecen posibilidades de investigación y eficiencia hasta hace poco impensables pero que también deben ser contrapesadas para verificar su legitimación y empleo conforme al ordenamiento. En este sentido cabe exigir también el escrupuloso respeto de las garantías reconocidas en los procesos judiciales, con especial atención a los ciudadanos sospechosos, acusados y condenados, de tal manera que las mismas no se queden en proclamas programáticas, debiéndose recordar continuamente el pensamiento de Beccaría: “No existe libertad cada vez que las leyes permiten que en algunos casos el hombre deje de ser persona y llegue a convertirse en cosa».

Otras Columnas por Antonio Abellán Albertos:
Últimas Firmas