La implementación de la IA en el sistema de justicia: garantías, jueces robot y uso de IA generativa
|
12/11/2024 09:48
|
Actualizado: 12/11/2024 09:48
|
Durante esta semana, se celebrará la quinta edición de los ‘Legal Innovation Days’, de la mano del proveedor de software Wolters Kluwer Legal Software. El ciclo de conferencias busca acelerar y facilitar la digitalización del sector jurídico español. Y esta sesión, denominada Panorama actual y futuro de la IA en la práctica legal y el sistema de justicia, no es la excepción.
El próximo miércoles 13 de noviembre, a las 17:00 horas, tendrá lugar una mesa redonda con la participación de Ofelia Tejerina, presidenta de la Asociación de Internautas y experta en Derecho Digital, y Joaquín Delgado, Magistrado de la Audiencia Nacional y experto en ‘Judial-Tech’.
Ambos profesionales explicarán normativas tan importantes como el Reglamento Europeo de Inteligencia Artificial, que entró en vigor el 1 de agosto, o la Política de uso de la IA en la Administración de Justicia, publicada en junio por el Comité Técnico Estatal de la Administración Judicial Electrónica (CTAJE).
Para conocer más sobre la legislación española y europea sobre IA, así como para debatir sobre los cambios en las garantías procesales, la legitimidad de jueces no humanos o el uso de la IA generativa, en Confilegal hemos entrevistado a Tejerina y Delgado. Podremos así obtener, de estas dos voces expertas, una visión global sobre las intensas repercusiones jurídicas y sociales que traerán consigo las nuevas tecnologías en la justicia española.
1. ¿Consideráis que la implementación de la IA en el sistema de justicia español será un proceso gradual y constante, o con altibajos y grandes saltos? ¿Cuántos años creéis que se tardará en alcanzar un nivel de adopción suficiente para cubrir las demandas actuales?
Ofelia Tejerina: Será algo progresivo. La tecnología estará disponible en un corto plazo, así que la implementación rápida y eficiente dependerá de quienes gestionan los recursos. Pero las prisas no son buenas para nada.
Primero, es necesario contar con tecnología segura por defecto, y con un personal formado para su correcto uso. Después, será imprescindible garantizar protocolos de reacción que incluyan un plan B por si la tecnología falla. La hiperdependencia de la tecnología hace que nos olvidemos de esto hasta que es demasiado tarde.
Joaquín Delgado: La IA puede ayudar a mejorar los diferentes ámbitos de un sistema de justicia entendido en sentido amplio. Agrupa no solamente la resolución de conflictos por parte de órganos judiciales, sino también otros medios alternativos de resolución. También los mecanismos para empoderamiento jurídico de las personas.
En el ámbito de los mecanismos alternativos, la tecnología se está incorporando como la “cuarta parte” en el modelo tripartito tradicional de resolución de conflictos. Debemos destacar la incorporación de elementos IA en las plataformas de resolución de disputas online, que permiten proponer soluciones personalizadas. Y la IA también puede mejorar el empoderamiento de los ciudadanos para la satisfacción de sus necesidades jurídicas, mediante la implementación de soluciones (bots…) que suministren respuestas elaboradas a las consultas.
2. Ofelia, como gran defensora de los derechos digitales y la privacidad en España, ¿consideras que se debe priorizar un elevado ritmo de implementación de la IA, o que, por el contrario, se debe ir ‘con pies de plomo’, garantizando poco a poco la ciberseguridad del internauta?
Siempre he defendido que la implementación de tecnología sin una correcta evaluación de riesgos es un atraso, no un progreso. Ahora se debate el falso dilema entre innovación y legislación. Quienes defienden priorizar la velocidad tecnológica para evitar quedarse fuera del mercado, no se dan cuenta que un mercado sin confianza, sin seguridad jurídica y sin capacidad de reacción ante un fallo, es algo que nadie desea.
No se paran a pensar en los usuarios, y tampoco tienen en cuenta que ellos mismos, empresarios y desarrolladores, también lo son en este caso. Ante un sistema de responsabilidades legales mal configurado, un fallo provocado por un proveedor les hunde el chiringuito y no tienen dónde reclamar. Pero solo lo piensan cuando el daño está hecho.
3. Joaquín, eres experto en todo lo que concierne a la transformación digital de la justicia. Te preguntamos lo mismo que a Ofelia. ¿Cuáles son para ti las prioridades en este proceso de adopción de la IA en el sistema de justicia español, la velocidad de implementación o el acompañamiento normativo?
Con carácter prioritario, se deberían impulsar los mecanismos que permitan una automatización de la tramitación de los diferentes procedimientos (aplicando incluso RPA o robótica de software), comenzando con los procedimientos monitorios, o las demandas de consumidores. Así, se podrán disminuir los tiempos de respuesta del sistema judicial (una de las grandes asignaturas pendientes), y la oficinal judicial podrá dedicar más tiempo a asuntos de mayor complejidad. Estas cuestiones no entran en la categoría de sistemas de alto riesgo del Reglamento UE de IA. Por tanto, es más sencillo abordar su implementación.
También es importante desarrollar sistemas que presten asistencia al juez en la toma de decisiones jurisdiccionales. Por ejemplo, ofreciendo una propuesta de resolución en asuntos sencillos y repetitivos; o ayudando al juez al análisis de los grandes volúmenes de información en los procesos de mayor complejidad Y, desde un planteamiento amplio del sistema de justicia, deberían implementarse plataformas online de resolución de conflictos, dependientes del sistema público de justicia, en las que se introduzcan elementos IA.
4. La política de uso de Inteligencia Artificial busca mejorar la eficiencia de la Justicia a través del uso de soluciones basadas en IA. Esta ha cristalizado en un documento, presentado y aprobado por el Pleno del CTAJE el 21 de junio de 2024. ¿Cómo valoráis dicha iniciativa? ¿Cómo se comportan los países de nuestro entorno en este tema?
Ofelia Tejerina: Muy buena. Podríamos calificar esta iniciativa como innovadora, pero creo que sería más correcto decir realista y, en algunos puntos, incluso previsora. Este Comité Técnico es consciente de que hace ya más de cinco años que en Europa se habla de inteligencia artificial y justicia, y de cómo esto va a afectar a los Estados miembros.
Por eso, ver materializada esta preocupación a nivel interno, en España, es un gran avance que, sin duda, apoyamos. Eso sí, con las reglas europeas del juego. Porque en esta carrera tecnológica, China y Estados Unidos no pueden ser ejemplo de eficiencia ni de nada. Hablo en términos de riesgo-beneficio.
Joaquín Delgado: Como primer paso, ha de ser valorado positivamente. Me parece especialmente útil la parte dedicada a los casos de uso permitidos y prohibidos (Anexo II), que pone encima de la mesa los problemas ligados al uso de IA generativa por profesionales del sistema de justicia.
Debemos ser conscientes de los riesgos que encierra, como el peligro de imprecisión en sus resultados. También hay que considerar los riesgos ligados a la confidencialidad y protección de datos personales. Y en esta línea cabe destacar la ‘Artificial Intelligence (AI): Guidance for Judicial Office Holders’ (12 Diciembre 2023) del Poder Judicial de Inglaterra y Gales.
5. Hablando ahora del Reglamento de IA de la UE, este entró en vigor el pasado 1 de agosto. Su misión es fomentar el desarrollo y la implantación responsables de la inteligencia artificial en Europa. Como legislación pionera a nivel mundial en este ámbito, ¿qué balance hacéis de sus pros y contras, tres meses después de su implementación?
Ofelia Tejerina: Todavía queda mucho trabajo por hacer y situaciones específicas por definir. Pongamos por ejemplo el Reglamento de Protección de Datos, donde la experiencia ha ido ‘atornillando’ sus directrices, a pesar de tener una larga tradición regulatoria en esta materia. En el caso del RIA, no solo es una regulación novedosa, sino que exige estándares técnicos muy novedosos también para su implementación ‘confiable’.
Aún está vías de desarrollo, así que no puedo defenderlo como una norma infalible, como tampoco entiendo que, aún siendo mejorable, suponga un freno a la innovación. Si acaso, a la innovación irresponsable.
Joaquín Delgado: El RIA aporta el marco de seguridad jurídica necesario para el desarrollo de sistemas IA en los distintos ámbitos de la sociedad, públicos y privados. Solamente por esta razón, debe ser valorado muy positivamente. Pero también quiero destacar uno de sus elementos claves, es decir, el antoprocentrismo. El RIA coloca al ser humano y sus derechos como elemento nuclear del desarrollo tecnológico IA. También resalto la consideración de la vulnerabilidad (personas con discapacidad, menores de edad, personas adultas mayores…) en sistemas IA, que está muy presente en toda el RIA.
Pero todavía queda un amplio camino normativo por recorrer. Primero, el propia RIA establece un sistema escalonado de entrada en vigor. Segundo, será necesaria una legislación interna española que complemente el RIA. Su finalidad será hacer plenamente efectiva su aplicación, y establecer el régimen sancionador. En este sentido, nos encontramos con una construcción similar al Reglamento General de Protección de Datos, que fue complementado con la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales. Además, serán necesarias regulaciones sectoriales, tanto normas jurídicas como recomendaciones, guías de buenas prácticas, directrices, interpretaciones.
6. ¿Cómo se puede garantizar el respeto al derecho de defensa y a las garantías procesales, con la delegación de la toma de decisiones judiciales en una IA?
Ofelia Tejerina: Confiando en su capacidad para ejecutar instrucciones imparciales. Hoy se habla mucho del sesgo de la IA, pero nos olvidamos de que quienes toman decisiones judiciales, quienes formamos parte del sistema judicial, también tenemos sesgos.
En ese sentido la IA debe colaborar con el sistema, contribuyendo a eliminar decisiones injustas o arbitrarias. Creo que una IA entrenada por un jurista humano, que se nutra de fuentes jurídicas, e implementada bajo un régimen de responsabilidades reglado, podría garantizar ese derecho de defensa mucho mejor que una persona ‘inauditable’.
Joaquín Delgado: La sociedad ha avanzado hacia un sistema de garantías en la resolución de conflictos, que asegure la independencia e imparcialidad del decisor, y el adecuado respeto a los derechos fundamentales. La aplicación de la inteligencia artificial no puede suponer ningún paso atrás en esta evolución. En todo caso, una parte sujeta a una decisión algorítmica ha de poder examinar y cuestionar adecuadamente su aplicación.
Esto lleva consigo al menos tres elementos. Uno, es necesario que las partes conozcan que se ha utilizado una solución IA para la toma de decisión. Dos, la defensa ha de poder acceder a los algoritmos y datos que se utilizaron para producir un resultado (transparencia). Y tres, ha de poder impugnar de forma efectiva la decisión algorítmica. Ello puede determinar una serie de consecuencias sobre las posibilidades de alegación y prueba, especialmente en materia de carga de la prueba.
7. ¿Os preocupa que la sociedad no acepte que una inteligencia no humana se encargue de dirimir los conflictos? ¿Creéis que es más fácil lograr dicha aceptación en algunos sectores del Derecho, antes que en otros? ¿Cuáles serían?
Ofelia Tejerina: Una de las tareas que tiene el legislador es, precisamente, generar confianza sobre el mercado, en este caso, de la IA. Dicho eso, la respuesta no puede ser general. En nuestro sector, estoy segura de que muchos abogados te dirán que no tendrían problema si una IA sustituye al juez, en según qué fases procesales.
Pero, si le dices al cliente que su caso lo va a resolver un robot, no estoy tan segura de que lo aceptase. Pasará lo mismo si le dices que su caso lo va a preparar y defender una IA. Todo dependerá de la visión más o menos ‘hollywoodiense’ del encuestado. Sin meterme en política, un ámbito en el que creo que sí podría tener buena acogida es en la mediación. Más específicamente, por ejemplo, en la resolución de conflictos de comunidades de propietarios.
Joaquín Delgado: El RIA no prohíbe expresamente la sustitución del juez por un sistema de IA para la toma de decisiones. Pero en su preámbulo se orienta a considerarlo como no posible: «La utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana».
En todo caso, y dado el acelerado avance tecnológica en IA, necesitamos abrir un debate serio en la sociedad. Este debe ir en línea con la Recomendación (2020)1 del Comité de Ministros del Consejo de Europa, sobre las consecuencia de los sistemas algorítmicos para los derechos del hombre. Es necesario reflexionar sobre las ventajas aportadas, y los diferentes peligros derivados de la implantación de decisiones automatizadas IA en el sistema de justicia, cuyos resultados puedan guiar las políticas públicas judiciales.
8. Para terminar, nos gustaría que cada uno nos comentéis las expectativas que os habéis formado con la adopción de la IA en la práctica legal y el sistema de justicia. ¿Sois optimistas? ¿Creéis que en España destaca la prudencia, o que, por el contrario, se quiere acelerar el proceso de implementación?
Ofelia Tejerina: Soy muy fan de las posibilidades de la inteligencia artificial para mejora del sistema judicial, así que, en ese sentido soy muy optimista. Creo que en algunos casos será útil que la IA tome las decisiones y el humano las supervise. Y en otros, será mucho mejor al revés.
Aunque sí que tengo cierto recelo sobre nuestra capacidad como país para implementar tecnología. Me refiero a si seremos capaces de invertir suficientes recursos, sopesando correctamente los riesgos y las garantías. También temo que nos pasemos de frenada, olvidándonos por ejemplo de la formación de los usuarios.
Joaquín Delgado: Sí que hay que ser optimistas, por las enormes posibilidades que ofrece la IA, pero siempre que se respeten los elementos que garanticen la ‘humanización’ en su aplicación. Va indisolublemente ligado al respeto de principios esenciales como el respeto a la dignidad humana, el control por el usuario del sistema de justicia, el respeto de los derechos fundamentales, la garantía del acceso a justicia, o el respeto a la garantía jurisdiccional, entre otros.
También quiero destacar la necesidad de establecer un marco de gobernanza adecuado. Considero importante un adecuado funcionamiento de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Pero también del INCIBE y de la AEPD, dada la estrecha conexión de la RIA con otras normativas digitales, especialmente en materia de ciberseguridad protección de datos personales (RGPD). Y si lo aplicamos al sistema de justicia, están llamados a tener un papel relevante tanto el CTAJE, como el CGPJ, en su condición de autoridad de protección de datos jurisdiccionales.
Si estás interesado en participar, haz clic aquí y completa los datos para formalizar tu inscripción. Te recordamos que la asistencia es gratuita, pero las plazas son limitadas y se asignarán estrictamente por orden de inscripción.
Noticias Relacionadas: