La Instrucción 2/2026 del Consejo General del Poder Judicial (CGPJ), anunciada el 28 de enero de 2026 y publicada en el BOE dos días después, dibuja por primera vez el perímetro dentro del cual jueces y magistrados podrán -y deberán- moverse cuando utilicen sistemas de inteligencia artificial en el ejercicio de su función.
No se trata de una declaración de intenciones ni de un catálogo de buenas prácticas: estamos ante una norma vinculante que, con sorprendente celeridad, anticipa el marco regulatorio que aún espera su tramitación parlamentaria.
Una Instrucción “sin Ley”
Llama la atención que el órgano de gobierno de los jueces se adelante al legislador. La Instrucción hace referencia expresa al Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial, aprobado por el Consejo de Ministros en marzo de 2025, que todavía transita por los pasillos del Congreso.
Sin embargo, el CGPJ ha considerado que no podía esperar: la realidad -esa que siempre va por delante del Derecho- ha impuesto su ritmo.
«La disponibilidad creciente de herramientas de IA […] evidencia la necesidad de concretar criterios, pautas de uso y principios dirigidos específicamente a jueces, juezas, magistrados y magistradas», reconoce la propia exposición de motivos de la Instrucción.
O, en palabras más directas del propio CGPJ en su nota de prensa: el empleo de sistemas de IA generativa «puede vulnerar los derechos y libertades de las personas».
Traducción: La IA parece estar ya en los despachos judiciales, y se ha querido poner orden.
El principio cardinal: el juez decide
Si hubiera que condensar la Instrucción en una sola idea, sería esta: la inteligencia artificial puede asistir, pero jamás sustituir. El ordinal cuarto despliega un catálogo de principios entre los que destacan el control humano efectivo, la no sustitución del juzgador y la responsabilidad judicial exclusiva.
El mensaje es inequívoco: ningún algoritmo, por sofisticado que sea, puede valorar pruebas, interpretar normas ni dictar sentencias.
El borrador que genere una máquina no es resolución judicial; es, como mucho, un punto de partida que exige «revisión y validación personal, completa y crítica» por parte del titular del órgano, que es quien mantiene «en todo momento su exclusiva responsabilidad sobre la resolución correspondiente».
Prohibido usar la IA de casa
Una de las disposiciones más controvertidas -y quizá más difíciles de fiscalizar- de la Instrucción establece que los jueces únicamente pueden emplear los sistemas de IA que les faciliten las Administraciones competentes o el propio CGPJ.
sí, queda expresamente prohibido utilizar herramientas externas para tareas jurisdiccionales que impliquen datos del procedimiento.
Hay una excepción: solo se admite el uso de herramientas no autorizadas para «finalidades de preparación o estudio, tales como la elaboración de resúmenes o traducciones o el análisis de fuentes jurídicas, doctrinales o técnicas», pero siempre con información procedente exclusivamente de fuentes abiertas.
Además, «[l]os jueces no podrán en ningún caso incorporar datos judiciales a estos sistemas de IA».
La ratio puede ser comprensible -confidencialidad, seguridad, trazabilidad-, pero la ejecución esboza un laberinto de obstáculos:
• Traducciones: Si la Instrucción permite usar sistemas no autorizados para traducir, pero prohíbe incorporar datos judiciales a esos sistemas, ¿con qué se supone que debe traducirse un contrato en inglés aportado como prueba?;
• Jurisprudencia contextualizada: ¿Deja de ser «fuente abierta» una sentencia del CENDOJ en el momento en que el juez formula su búsqueda describiendo el tipo de litigio que tiene entre manos?;
• Fuentes técnicas: Un juez puede preguntar a la IA qué es la aluminosis; pero si pregunta si es normal que un forjado con aluminosis presente grietas a los quince años, ¿está estudiando patologías constructivas o analizando su caso?;
• Resúmenes: Si resumir doctrina sobre arrendamientos con subarriendo está permitido, pero el juez solo se interesa por ese tema porque su caso versa sobre eso, ¿el resumen es preparación o es trabajo jurisdiccional encubierto?;
• Anonimización: ¿Cumple la norma el juez que sustituye «Supermercados Pérez» por «el arrendatario» y «Supermercados López» por «un competidor», o sigue incorporando datos judiciales solo que sin nombres propios?
• Fuentes que mutan: Si un juez estudia con IA jurisprudencia sobre cláusulas suelo cuando aún no tiene ningún caso de cláusulas suelo, y al mes siguiente le reparten uno, ¿debe revelar tal uso?
La Instrucción traza una frontera nítida sobre el papel que se desdibuja en cuanto el juez abre el navegador. La prohibición de incorporar datos judiciales a sistemas no autorizados, leída con rigor, impide casi cualquier uso útil de la excepción que la propia norma contempla. Y la alternativa -una lectura flexible que permita consultas «anonimizadas» o «abstractas»- no encuentra apoyo en el texto.
El elefante en la Sala: los borradores de sentencias
También se aborda una cuestión muy sensible: la generación automatizada de borradores de resoluciones. Varios proyectos piloto -algunos en juzgados mercantiles- ya emplean IA para este fin.
La Instrucción los bendice, pero con condiciones draconianas: solo sistemas autorizados, revisión crítica obligatoria y prohibición de considerarlos decisiones automatizadas.
El problema no está en la diligencia del juzgador, sino en la naturaleza misma del borrador. Quien recibe un texto ya redactado no parte de cero: parte de una propuesta que genera un inevitable efecto de anclaje.
Y cuanto más impecable parece el borrador, mayor es el sesgo de confirmación. Revisar críticamente no es lo mismo que redactar desde la página en blanco.
El esfuerzo cognitivo -y en última instancia la función jurisdiccional- de detectar lo que falta, lo que sobra o lo que está sutilmente mal enfocado en un documento aparentemente correcto podría ser, paradójicamente, mayor que el de construirlo uno mismo.
«La responsabilidad plena y exclusiva de las resoluciones corresponde en todo caso a los jueces», proclama la Instrucción. Nadie lo discute. Pero la norma exige una revisión «completa y crítica» sin preguntarse si el formato del borrador automatizado facilita o dificulta esa tarea.
Regular el uso de una herramienta sin atender a cómo esa herramienta condiciona al usuario puede llevarnos a resultados no deseables.
Lo que se prohíbe y lo que no se dice
La Instrucción también enumera los usos vedados: automatización de decisiones, perfilado de personas, predicción de comportamientos, tratamiento de datos especialmente protegidos fuera de los supuestos legales. La lista es razonable y coherente con el Reglamento europeo de IA.
Más llamativo es lo que la Instrucción omite. No se pronuncia sobre la publicidad del uso de IA en el proceso: ¿debe informarse a las partes de que el borrador de la sentencia fue generado por una máquina? ¿Tienen los justiciables el derecho a saberlo?
Tal silencio es elocuente y, además, dudosamente reconciliable con el Reglamento (UE) 2024/1689, que la propia Instrucción invoca como marco de referencia.
El artículo 86 del Reglamento reconoce a toda persona afectada por una decisión basada en un sistema de IA de alto riesgo el derecho a obtener «explicaciones claras y significativas» sobre el papel del sistema en el procedimiento decisorio.
Luego el justiciable tendría, en principio, derecho a saber si la resolución que resuelve su caso fue redactada o preparada por la IA. Pero la Instrucción no arbitra mecanismo alguno: ni obliga a consignar el uso de IA en la resolución, ni prevé un trámite de información a las partes.
El resultado es una asimetría incómoda: el juez sabe que usa IA; el justiciable, no necesariamente. Los abogados quedamos en tierra de nadie, preguntándonos si debemos advertir al cliente de una posibilidad que ni siquiera podemos confirmar.
En Argentina supimos que un juez había delegado su sentencia en la IA porque olvidó borrar «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar», lo que condujo a su anulación.
Quizá dentro de poco la pregunta sobre si el juez usa IA resulte tan anacrónica como inquirir si consulta bases de datos electrónicas. O quizá no: al fin y al cabo, una cosa es que la tecnología auxilie a quien decide, y otra que quien padece la decisión no sepa hasta qué punto.