Opinión | Sentencias fantasma: Por qué las multas no van a resolver lo que la opacidad ha creado

Jorge Carrera, abogado, exmagistrado, exjuez de enlace de España en Estados Unidos y consultor internacional, plantea, como solución para evitar que las Inteligencias Artificiales generen citas falsas de sentencia, el acceso libre a la base de datos del Centro de Documentación Judicial del CGPJ, sobre estas líneas, que tiene su sede en San Sebastián.

3 / 04 / 2026 00:36

Actualizado el 04 / 04 / 2026 00:49

«Los avances tecnológicos son algo corriente y no hay nada inherentemente impropio en usar una herramienta de inteligencia artificial fiable como asistente. Pero las normas vigentes imponen a los abogados un papel de guardián para asegurar la exactitud de sus escritos» – Juez P. Kevin Castel, en Mata v. Avianca, Inc., S.D.N.Y., 22 de junio de 2023.

En julio de 2025, el juez federal Julien Xavier Neals, del Distrito de Nueva Jersey, hizo algo que ningún magistrado desea hacer jamás: retirar su propia sentencia.

No por un cambio de criterio. No por una nulidad procesal.

La retiró porque estaba plagada de citas jurisprudenciales que no existían. Casos inventados, frases atribuidas a resoluciones que nunca las contuvieron, referencias a jurisdicciones equivocadas.

El abogado defensor lo detectó, escribió una carta cortés —la diplomacia forense tiene sus propios códigos— y el juez se vio obligado a reconocer el desastre.

La nota oficial fue lacónica: «Esa opinión y orden se introdujeron por error. Seguirá una opinión y orden posterior».

Lo que no dijo —lo que nadie dijo oficialmente— es que los errores tenían la huella inconfundible de una inteligencia artificial generativa.

La escena habría sido impensable hace tres años. Hoy ya no lo es. Y lo verdaderamente inquietante no es que haya ocurrido, sino que estamos ante la punta de un iceberg cuya masa sumergida nadie se atreve aún a cartografiar.

La epidemia global de las sentencias que nunca fueron

Hagamos el inventario, porque la geografía de la catástrofe ya es global.

En mayo de 2023, el caso Mata v. Avianca puso el fenómeno en el mapa: dos abogados de Nueva York presentaron un escrito con 6 sentencias completamente fabricadas por ChatGPT, incluyendo citas internas y nombres de ponentes inventados.

El juez Castel les impuso una multa de 5.000 dólares y les obligó a escribir cartas de disculpa a cada juez cuyo nombre había sido falsamente invocado.

El caso fue pionero, pero la lección no caló.

En España, en febrero de 2026, la Sala de lo Penal del Tribunal Superior de Justicia de Canarias multó con 420 euros a un abogado que introdujo en un recurso de apelación nada menos que 48 citas de sentencias del Tribunal Supremo —y un informe del Consejo General del Poder Judicial— que sencillamente no existían.

La documentalista del tribunal verificó cada referencia: ninguna se correspondía con resolución alguna. El letrado había utilizado una herramienta de IA generalista, sin someter los resultados a la más mínima comprobación.

El tribunal calculó la multa con un criterio tan imaginativo como elocuente: el coste de una suscripción anual a una herramienta de IA jurídica especializada, reducido a la mitad por el arrepentimiento del infractor. Un mensaje claro: si hubieras invertido 840 euros en una herramienta fiable, no estaríamos aquí.

En Colombia, la ofensiva ha sido más severa. La Corte Suprema de Justicia, mediante Auto AC739-2026 de febrero de 2026, impuso una multa de quince salarios mínimos a un abogado que fundamentó un recurso extraordinario de revisión con diez sentencias apócrifas generadas por IA.

Lo más grave: tras ser advertido y requerido para que subsanara, presentó un escrito de corrección que incorporaba cuatro nuevas citas igualmente inexistentes.

La reincidencia posterior a la advertencia fue lo que detonó la severidad máxima.

Tres meses antes, la misma Corte había anulado una sentencia del Tribunal Superior de Sincelejo que se apoyaba en jurisprudencia fantasma. Y en Chubut, Argentina, un tribunal anuló una condena penal cuando descubrió que el juez de primera instancia había dejado incrustada en su sentencia la frase reveladora: «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar».

La IA no solo había redactado la resolución: había firmado su propia autoría.

Ya no hablamos de incidentes aislados. Hablamos de un fenómeno sistémico que afecta por igual a abogados, jueces y fiscales, en jurisdicciones de «common law» y de tradición continental, en países desarrollados y en vías de desarrollo. La pregunta que todos nos hacemos es: ¿cómo lo paramos?

La mentira antes de la máquina: un problema viejo con traje nuevo

Antes de lanzarnos a la respuesta fácil —sancionar, prohibir, regular—, conviene hacernos una pregunta previa que casi nadie formula: ¿acaso no existían las citas falsas de jurisprudencia antes de la inteligencia artificial?

La respuesta honesta es que sí. Cualquier profesional del derecho con cierta experiencia ha visto escritos que citan sentencias de forma imprecisa, que atribuyen a una resolución lo que otra dice, que confunden el «obiter dictum» con la «ratio decidendi» o que, directamente, inventan un criterio jurisprudencial que no existe como tal.

La diferencia, y es una diferencia de envergadura, está en la escala. Un abogado perezoso o deshonesto podía falsear una o dos citas; una IA generativa puede fabricar diez, cuarenta y ocho o cien con la misma facilidad con la que genera un soneto.

Y lo hace con una verosimilitud que engaña incluso a profesionales experimentados: números de sentencia con el formato correcto, ECLI aparentemente válidos, nombres de magistrados ponentes que suenan auténticos, citas internas que remiten a otras citas igualmente ficticias.

«Aquí llegamos al corazón del problema, al nudo que la mayoría de los análisis sortea con elegancia: ¿por qué la inteligencia artificial alucina sentencias? Porque no tiene acceso fiable y estructurado a las sentencias reales».

El problema, por tanto, no es enteramente nuevo. Lo que es nuevo —y radicalmente nuevo— es la velocidad de proliferación, la escala industrial del error y la dificultad de detección. Cuando un humano mentía sobre una cita, lo hacía con la torpeza propia de quien sabe que miente.

Cuando una IA alucina, lo hace con la serena convicción de quien no sabe que está inventando. Y esa diferencia cualitativa convierte un problema antiguo de ética profesional en una amenaza sistémica para la integridad del proceso.

El reflejo sancionador: necesario pero insuficiente

La primera reacción de los sistemas judiciales ha sido, previsiblemente, la sanción. Y no es una reacción irrazonable.

Quien firma un escrito procesal responde de su contenido: es el principio básico de la buena fe procesal, del deber de veracidad, de la «Rule 11» estadounidense.

Si un abogado presenta citas falsas —da igual que las haya fabricado él, su pasante o un algoritmo—, la responsabilidad profesional es suya.

En esto, el juez Castel acertó plenamente en Mata v. Avianca: no sancionó el uso de IA, sino la falta de verificación y la posterior ocultación. El uso de ChatGPT como herramienta no fue el pecado; el pecado fue la abdicación del juicio profesional.

Dicho esto, la pregunta que debemos formularnos es más incómoda: ¿van las multas a resolver el problema? Una multa de 420 euros en Canarias. Una de 5.000 dólares en Nueva York. Quince salarios mínimos en Colombia.

¿Son estas cantidades disuasorias para un fenómeno que se reproduce a una velocidad exponencial, que afecta a miles de profesionales que utilizan herramientas de IA a diario, muchos de ellos sin formación alguna sobre sus limitaciones?

La sanción tiene un valor simbólico innegable: traza la línea, señala que hay un umbral que no se puede cruzar, genera jurisprudencia sobre la responsabilidad profesional en la era de la IA.

Todo eso es valioso. Pero confiar exclusivamente en la vía sancionadora para contener una epidemia tecnológica es como pretender apagar un incendio forestal con una manguera de jardín. No descartemos la manguera, pero preguntémonos si no deberíamos, ante todo, dejar de alimentar el fuego.

El fuego que nadie quiere ver: las bases de datos cerradas

Y aquí llegamos al corazón del problema, al nudo que la mayoría de los análisis sortea con elegancia: ¿por qué la inteligencia artificial alucina sentencias? Porque no tiene acceso fiable y estructurado a las sentencias reales.

Pensemos en la paradoja española. El CENDOJ —Centro de Documentación Judicial, órgano técnico del Consejo General del Poder Judicial— custodia más de ocho millones de resoluciones judiciales.

Son documentos públicos, elaborados por jueces que cobran un salario público, tratados informáticamente mediante un contrato público de tres millones de euros.

No tienen propiedad intelectual: el artículo 13 de la Ley de Propiedad Intelectual excluye expresamente de protección las resoluciones de los órganos jurisdiccionales. Y sin embargo, el acceso masivo y computacional a ese corpus está vedado.

El aviso legal del CENDOJ lo prohíbe explícitamente: no se permite la descarga masiva de información ni su utilización para usos comerciales. Recientemente, el propio buscador ha implementado un CAPTCHA que bloquea de facto a cualquier agente de IA.

El resultado es un circuito circular que tiene algo de kafkiano: la jurisprudencia es un bien público que se produce con dinero público, pero cuyo acceso computacional intenso queda reservado a un puñado de editoriales jurídicas que adquieren las resoluciones al CGPJ a 1,27 euros la unidad, las empaquetan en bases de datos privadas de suscripción y las revenden a los propios profesionales del derecho que, no lo olvidemos, contribuyen con sus impuestos a financiar el sistema judicial que las produce.

El CGPJ ingresa por este concepto en torno a un millón de euros anuales. Un millón de euros. Esa es la dimensión del interés privado que estamos protegiendo a costa de mantener cerrado el acceso computacional intenso o inteligente a la jurisprudencia.

Mientras tanto, Francia publica cientos de miles de resoluciones pseudonimizadas en Judilibre, con API pública.

El Reino Unido opera Find Case Law con una API abierta y un marco de análisis computacional sin tasas.

Estonia adopta ECLI y políticas de datos que facilitan la búsqueda y la cita automatizada.

La Directiva europea 2019/1024, sobre datos abiertos y reutilización de la información del sector público, establece el principio de apertura por diseño y por defecto.

España, sin embargo, sigue poniendo candados donde debería poner pasarelas.

La ecuación que nadie plantea: abrir para dejar de inventar

Volvamos a la ecuación fundamental. Una inteligencia artificial generativa, entrenada con corpus genéricos, sin acceso estructurado ni verificable a bases de datos jurídicas oficiales, produce inevitablemente citas apócrifas.

No por malicia, sino por diseño: los modelos de lenguaje generan texto estadísticamente plausible, no semánticamente verdadero.

Saben qué aspecto tiene una cita del Tribunal Supremo, pero no saben —no pueden saber, sin acceso a la fuente— si esa cita existe realmente.

La solución técnica existe y no es especialmente compleja: dar a las herramientas de IA acceso fiable, estructurado y verificable a las bases de datos de jurisprudencia y legislación.

Esto significa APIs abiertas, documentación ECLI completa, metadatos interoperables, licencias de reutilización claras.

No significa regalar el trabajo editorial de quienes aportan valor añadido con análisis, notas marginales y sistematización doctrinal —ese trabajo seguirá teniendo su mercado—, sino abrir la materia prima que es, por definición constitucional y legal, un bien público.

«Necesitamos una infraestructura de verificación automatizada que permita a cualquier herramienta —humana o artificial— confirmar en milisegundos si una cita jurisprudencial es real, si dice lo que se afirma que dice y si está vigente«.

Cuando una IA tiene acceso a la base real de jurisprudencia, puede verificar en tiempo real si una sentencia existe antes de citarla.

Puede contrastar el ECLI, comprobar la fecha, confirmar el ponente, verificar el contenido.

El salto cualitativo es enorme: de un sistema que inventa con soltura a un sistema que verifica antes de citar. Tal vez no 100% infalible, pero mucho más seguro. La diferencia entre un loro elocuente y un investigador riguroso.

¿Puede esto resentir ciertos intereses privados? Sin duda. Las grandes editoriales jurídicas —Aranzadi, La Ley, Lefebvre y sus equivalentes internacionales— han construido modelos de negocio lucrativos sobre el acceso privilegiado a un recurso público.

Pero esos modelos no pueden servir de excusa para mantener la opacidad de un bien que la ciudadanía financia. Además, la experiencia internacional demuestra que acceso primario abierto y negocio editorial pueden coexistir: lo que el mercado retribuye no es el acceso a la sentencia en bruto, sino el valor añadido del análisis, la sistematización y la herramienta de búsqueda sofisticada.

El derecho comparado —Francia, Reino Unido, Estonia— es la prueba viviente de que la apertura no destruye el mercado editorial; lo transforma y, en muchos casos, lo mejora.

No es solo la IA: es la arquitectura de la información jurídica

Hay un argumento que rara vez se formula con la claridad que merece: el problema de las citas falsas no es solo un problema de la IA. Es un problema de la arquitectura de la información jurídica.

Durante décadas, los sistemas jurídicos han funcionado con la premisa implícita de que la verificación de una cita jurisprudencial es responsabilidad exclusiva del profesional que la invoca.

En un mundo analógico, con volúmenes encuadernados de repertorios jurisprudenciales, eso tenía sentido.

En un mundo digital, es un anacronismo. Si disponemos de la tecnología para que cada cita jurisprudencial sea verificable en tiempo real —no solo por humanos, sino por máquinas—, ¿por qué seguimos confiando en un sistema de honor que depende de que cada abogado, cada juez, cada fiscal compruebe manualmente cada referencia?

El ECLI —European Case Law Identifier— fue un paso en la dirección correcta: un identificador único, estandarizado, que permite referenciar de forma inequívoca cualquier resolución judicial europea. Pero su implementación sigue siendo desigual, su integración con herramientas de IA prácticamente inexistente, y su adopción por parte de los operadores jurídicos, tibia.

Lo que necesitamos no es solo un identificador: necesitamos una infraestructura de verificación automatizada que permita a cualquier herramienta —humana o artificial— confirmar en milisegundos si una cita jurisprudencial es real, si dice lo que se afirma que dice y si está vigente.

Eso exige inversión pública. Exige voluntad política. Exige que los poderes públicos asuman que la infraestructura de información jurídica es tan crítica para el Estado de Derecho como las propias sedes judiciales.

Y exige, sobre todo, que dejemos de tratar la jurisprudencia como un activo comercial del que el CGPJ extrae un modesto millón de euros anuales, y empecemos a tratarla como lo que es: la manifestación tangible de cómo se imparte justicia en nombre del pueblo español.

Sí, hay que sancionar al abogado que presenta 48 citas falsas sin verificar una sola. Sí, hay que anular la sentencia del juez que delega su razonamiento en un algoritmo. Sí, hay que exigir responsabilidad profesional a quien abdica de su deber de veracidad. En esto, la vía sancionadora cumple su función y no debe abandonarse.

Pero si seguimos debatiendo el problema únicamente desde la perspectiva de la sanción, estaremos tratando el síntoma y no la enfermedad.

La enfermedad es un sistema de información jurídica que, en pleno siglo XXI, mantiene cerrado con candado computacional el acceso a un bien público que la ciudadanía financia. Un sistema que obliga a la IA —y con frecuencia también al humano— a adivinar lo que debería poder verificar.

Abramos las bases de datos. Abramos las APIs. Implementemos el ECLI de forma universal e interoperable.

Demos a las herramientas de inteligencia artificial —y a los profesionales que las utilizan— los medios para verificar en lugar de inventar. Los intereses privados que puedan resentirse tendrán que evolucionar y acomodarse al correr de los tiempos, como han hecho siempre los intermediarios cuando la tecnología democratiza el acceso a un recurso que nunca debió estar monopolizado.

Las sentencias fantasma seguirán proliferando mientras la jurisprudencia real permanezca encerrada. El antídoto contra la ficción jurídica no es la multa: es la luz.

Taylor Swift registra su voz y su imagen como marcas para blindarse frente a la inteligencia artificial

La firma Sullivan & Cromwell pide perdón a un juez de Nueva York por presentar escritos con citas judiciales inventadas por la IA

El TSJ de Navarra evita sancionar a una abogada que presentó jurisprudencia falsa generada por IA, pero lanza una advertencia al sector

Un acusado en Alemania recusa al juez con un escrito de IA plagado de jurisprudencia inventada —y funciona

La Abogacía Española y el Poder Judicial sellan una alianza ante la IA: «una herramienta de apoyo, nunca un sujeto decisor»

La Abogacía Española impulsa la formación en Upro con seis avatares para acompañar al abogado digital

Lo último en Firmas

CDL - El estrecho de Ormuz y la fuerza mayor bajo el derecho de Inglaterra y Gales (II)

Opinión | CDL: El estrecho de Ormuz y la fuerza mayor bajo el derecho de Inglaterra y Gales (II)

Tribunal de Instancia

Opinión | Teletrabajo en los Tribunales de Instancia o cuando querer no es poder

Pelham

Opinión | La sentencia Pelham/Kraftwerk de 2026: ¿embrión de un derecho de autor híbrido?

Imagen de apertura fin de la policía

Opinión | El fin de la Policía: El mundo multipolar nos devuelve a la ley del más fuerte

Eugenio Ribón

Opinión | La votación del martes: última oportunidad para hacer justicia con quienes han ejercido la justicia