Cuando se utiliza por primera vez la inteligencia artificial en cuestiones relacionadas con la justicia, sorprende y asusta a la vez la potencialidad que tiene esta herramienta tecnológica novedosa que ha irrumpido como un toro de 500 kilos en la plaza de toros de la Administración de Justicia.
Esta es la expresión más acertada para poder comprender la fuerza con la que en el sector justicia ha entrado la IA en cuanto los ciudadanos se dan cuenta de la facilidad que supone utilizar esta herramienta que lo que hace es permitirnos ganar tiempo y ser más rápidos en la obtención de información.
¡Ojo! He dicho obtención de información y no capacidad para resolver, aunque esto último es la consecuencia de la mejora en la obtención de información para que, a la hora de resolver, contemos con herramientas más útiles y seguras.
Pero lo que no está permitido es que la inteligencia artificial sea un sustitutivo del esfuerzo del jurista que trabaja en el derecho, en la medida en que la facilidad que permite la IA se convierta en la creación de un cuarto poder que sería el poder de la IA, añadido al poder legislativo, ejecutivo y judicial.
No es posible llegar a entender y admitir que hayamos subcontratado a la IA para que haga de jurista que resuelve, ya que no es admisible una justicia monopolizada por la IA y que ésta trabaje “por” o en lugar del jurista, y no “para” el jurista, que es por lo que se utiliza la tecnología en el mundo del derecho.
FIGURA DEL JUEZ SABIO
El problema es que en algunos países se ha introducido la figura del denominado “Juez Sabio”, como en Estonia o China, en donde la IA tiene facultades directas de resolver y no de facilitar la fuente de información para que el jurista agilice la respuesta.
Esto no es posible ni admisible, ya que la IA generativa no puede tener la facultad de ser la encargada de resolver. Puede ayudar al jurista para darle información más rápida asegurando la eficiencia, y que ello conlleve la eficacia de la respuesta. Pero no podemos hacer que la aspiración de la eficiencia nos convierta en servidores de la IA y que sea esta la que se convierta en juez y no en fuente de información, que es lo que debe ser.
Son muchas las preguntas que nos surgen en este tema de los límites en torno al uso de la IA en la justicia con este planteamiento que hacemos.
Así, ¿deben los jueces, magistrados y fiscales actuar con la debida prevención en el uso de la IA o es posible una confianza desorbitada en lo que la IA “propone” como solución al conflicto? ¿Propone la IA la resolución directamente o sirve de ayuda para que resuelva el juez? ¿Cuál es la consecuencia del uso desproporcionado de la IA a la hora de resolver el juez? ¿Puede utilizarse en la justicia sin límites? ¿Puede delegar el juez en la IA para que sea ésta la que resuelva? ¿O la IA es un mero ayudante y quien propone “opciones” de ayuda para que sea el juez el que resuelva?
La mayoría de las organizaciones internacionales que están tratando de la proyección de la IA en la justicia están poniendo el acento en que debe prohibirse el uso de la IA para resolver directamente y que solamente la capacidad de dictar resoluciones judiciales la tiene el juez o magistrado, pero no la inteligencia artificial, que actúa como servidor del ser humano y not como sustituto de éste. Y menos en el mundo del derecho.
EL CASO DEL JUEZ ARGENTINO QUE UTILIZÓ LA IA PARA HACER UNA SENTENCIA
No estamos negando, con ello, que la IA no tenga capacidad para hacerlo, sino que lo que estamos afirmando es que no lo debe hacer, ya que la respuesta y la solución la debe dar el ser humano y no la máquina, por muy perfeccionada que esté.
Y ello porque, al final, puede ocurrir que el juez sea el ser humano que introduce los algoritmos en aquella y no el juez profesional.
Buen ejemplo de la necesidad de establecer parámetros claros de prohibición de uso de la IA para resolver lo hemos visto recientemente en una sentencia de un tribunal de apelación argentino que anuló una sentencia de un juez penal que había utilizado la IA generativa directamente para resolver, dándole los hechos y las pruebas y dictando la sentencia que le había propuesto la IA en su sentencia.
Esto fue detectado por el letrado defensor de quien había sido condenado en la sentencia, por cuanto se detectó que en la misma se había utilizado la inteligencia artificial para la condena, lo que fue revocado por el tribunal de apelación por el uso indebido de la IA generativa directamente para resolver y no como ayuda del juez penal.
Así, la sentencia 1239/2025, de 4 de junio, de la Cámara en lo Penal de Esquel, Argentina, anula una condena de dos años y seis meses de prisión por un delito de robo simple, al comprobarse que el juez de primera instancia utilizó inteligencia artificial generativa para redactar la sentencia.
¿QUÉ CONSTABA EN LA SENTENCIA ANULADA?
«Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar», una frase muy común en aplicaciones de IA, que quedó por error en el texto, ha sido la prueba que ha evidenciado el uso de IA por parte del juez para redactar la sentencia.
Los magistrados citan en su resolución el Acuerdo Plenario 5435/2025 del Tribunal Superior de Justicia de Chubut, que aprueba las Directrices Éticas para el uso de Inteligencia Artificial Generativa en el Poder Judicial.
Este acuerdo establece la prohibición de delegar la toma de decisiones en sistemas automatizados, exige transparencia en el uso de estas herramientas y establece como condición necesaria el control humano y la protección de los datos sensibles involucrados.
5 RAZONES PARA ANULAR LA CONDENA POR EL USO INDEBIDO DE LA IA
Interesa destacar las cinco razones de peso que se dictaron para anular la condena por uso indebido de la IA para resolver:
1.- Por falta de transparencia, al desconocerse el sistema de IA empleado, los datos que se utilizaron o el «prompt» o instrucción que se dieron, lo que impediría controlar posibles sesgos del algoritmo.
2.- Por faltar la trazabilidad del razonamiento judicial, dando lugar a una decisión que, aunque puede estar motivada, impide controlar no sólo la génesis de tal motivación, sino la validez de sus fundamentos.
3.- Por delegación indebida de la función jurisdiccional, que es, por naturaleza, personal e intransferible.
4.- Por violación del principio de juez natural, ya que nadie puede ser juzgado por otros jueces que los instituidos por la ley antes del hecho de la causa. Mucho menos por una tecnología desarrollada por empresas privadas y aplicada al margen del control de las partes.
5.- Y por faltar la imprescindible supervisión humana y el control sobre el resultado.
La IA no es “sustitutiva” de la motivación del juez según su criterio y la “sana crítica”. Esta “sana crítica” no es la de la IA, sino la del juez, y el deber de motivar es de éste, no de buscar cómo motiva la IA para copiarlo el juez después.
Por ello, la coexistencia de la IA y el trabajo del juez es complementaria y de uso auxiliar, sin que suponga una “usurpación de funciones”.
La resolución del tribunal argentino determina la nulidad de la sentencia y lo circunscribe a la “falta de motivación” por ser ésta basada en la IA directamente, lo que viene a suponer un vicio en la redacción de la sentencia determinante de la nulidad.
EL CASO DE COLOMBIA
Otro ejemplo lo tenemos en la sentencia de la Corte Constitucional de Colombia T-323 de 2024, que se refiere a un supuesto de aplicación de ChatGPT 3.5 por parte del Juzgado del Circuito en la sentencia de tutela de segunda instancia del 30 de enero de 2023.
El juez del Circuito advirtió que haría uso de herramientas de inteligencia artificial generativas para «extender los argumentos de la decisión adoptada», recogiendo las preguntas realizadas al aplicativo y sus respuestas.
La Corte Constitucional considera que «el uso de IA generativa en la administración de justicia, sin salvaguardas, puede afectar el deber de motivar las decisiones judiciales, las garantías del juez natural independiente e imparcial y el derecho a la defensa al producirse desconfianza sobre la fiabilidad de las decisiones y, por tanto, promoverse que fácticamente se dé un reemplazo del juez por parte de la herramienta y la adopción de los fallos dentro del sistema judicial».
Del mismo modo, el informe “Artificial Intelligence and Fundamental Rights”, presentado por la European Union Agency for Fundamental Rights en el año 2020, exige justificar adecuadamente los criterios y procesos mediante los cuales se adoptan decisiones basadas en algoritmos; esto es, debe contar con la correspondiente motivación, con la dación de razones, con los argumentos que justifiquen la decisión tomada a la luz de la prueba practicada.
Por ello, la IA no será el juez, sino una ayuda para éste, para el abogado o el fiscal, con el fin de avanzar de forma más ágil en la solución del conflicto. La IA complementa el trabajo del jurista y le hace ser más eficaz y eficiente, porque responde mejor, con menos tiempo para hacerlo y con menos recursos utilizados.
La IA no sustituye al razonamiento jurídico. Ayuda al jurista a que éste pueda razonar más rápido y mejor. Ayuda en la toma de decisiones.
Y la conclusión es evidente: “La facultad de resolución del juez es indelegable en la IA”.
Además, por último, es preciso hacer una precisión importante, ya que, una vez comprobada la facilidad de información que ofrece la IA, existe un evidente riesgo de un uso exagerado de la misma, no solamente por los juristas, sino también por los ciudadanos.
Y es que se puede llegar a perder la capacidad de búsqueda de información que siempre hemos tenido los juristas para saber dónde encontrar la información para obtener una respuesta jurídica.
CHATGPT NO ES UNA BASE DE DATOS
Y si se hace un uso excesivo y exorbitante de la IA para que sea ésta la que directamente nos dé la información sin tener que buscar absolutamente nada en nuestras bases de datos de jurisprudencia y de doctrina, se acabará perdiendo la capacidad del ser humano de razonar y de motivar. Hay que seguir buscando en las bases de datos para obtener doctrina y jurisprudencia.
No es la IA la que debe buscar, sino nosotros, los juristas. Y las bases de datos, al final, son IA, pero nosotros le pedimos lo que debe buscar y servirnos de ayuda. Pero ChatGPT no es una base de datos. No podemos fiar el derecho en ChatGPT. No es profesional ni correcto en derecho actuar así.
Hay que precisar el peligro que tiene la IA bajo estas consideraciones, porque quien utilice la misma como única forma de encontrar información jurídica acabará perdiendo toda su capacidad de raciocinio y de esfuerzo para abandonarse de forma definitiva y única en lo que la IA le ofrezca, sin evaluar la certeza de esa fuente de información y los posibles errores que pueden existir, que serán los que, finalmente, el jurista cometa a la hora de exponer su tema o de poner la resolución.
Resulta, por último, importante señalar, entonces, que el uso de la IA generativa en justicia para resolver debe estar claramente prohibido y que debe sujetarse y limitarse la utilización de la misma a lo que realmente es: una fuente de información, pero que no se utilice de forma exclusiva y excluyente, sino como “una ayuda más”.
De lo contrario, quien así actúe perderá las capacidades que el jurista siempre ha tenido a la hora de bucear en cuál es la información que está buscando y la que elige como adecuada para afrontar su caso y para resolver el juez el que ante el mismo se ha planteado.
Cuidado, pues, con el riesgo de dejar al cerebro humano descansar demasiado si nos abandonamos a la IA, porque, cuando queramos utilizarlo… estará “desentrenado”.
La forma de estar activos y “sanos” mentalmente es seguir utilizando nuestro cerebro como lo hemos hecho hasta ahora. Lo contrario es peligroso.
Por ello, el jurista humano es insustituible. La IA no le puede sustituir. Que se exija que la “justicia sea inteligente” no quiere decir que lo sea por utilizar la IA, sino por “utilizarla bien”.