El Tribunal Superior de Justicia de Navarra (TSJN) ha archivado la pieza disciplinaria abierta contra la letrada Inmaculada Gómiz Chazarra tras reconocer esta el error y disculparse, pero el auto se convierte en un aviso formal sobre los riesgos del uso irresponsable de la inteligencia artificial en los juzgados.
La Sala de lo Social del Tribunal Superior de Justicia de Navarra ha decidido no sancionar a una abogada que incluyó en un recurso judicial ocho citas de sentencias que no existían —generadas presumiblemente por una herramienta de inteligencia artificial— pero ha aprovechado el auto para lanzar una advertencia contundente a toda la profesión jurídica.
El tribunal deja claro que el uso descuidado de la IA en los tribunales puede constituir mala fe procesal y acarrear sanciones económicas de hasta 6.000 euros.
La resolución tiene la forma de un auto, el número 2/2026, de el 5 de marzo de 2026. Ha sido dictada por el tribunal de la Sala de lo Social del TSJN, compuesto por Miguel Azagra Solano, presidente, Carlos González González y María José Ramo Herrando, ponente.
El procedimiento se tramitó como pieza separada de sanciones, dimanante del Recurso de Queja 392/2025.
En el procedimiento también intervino la procuradora Virginia Barrena Sotes, que firmó junto a la abogada los escritos de descargo presentados ante el tribunal.
Qué sucedió
El 26 de octubre de 2025, la abogada Gómiz Chazarra interpuso un recurso de queja ante el TSJN. En ese escrito incluía párrafos atribuidos a ocho resoluciones judiciales —sentencias supuestamente del Tribunal Constitucional, del Tribunal Supremo, del propio TSJ de Navarra y del TSJ de Madrid— que citaba en apoyo de sus argumentos.
El problema era que ninguna de esas sentencias existía tal y como las describía. Las fechas no coincidían con los números de recurso.
Los textos reproducidos no se correspondían con el contenido real de las resoluciones citadas.
En definitiva, según recoge el tribunal, se trataba de «sentencias cuya cita es inventada».
El mensaje es claro: presentar ante un tribunal jurisprudencia generada por una herramienta de inteligencia artificial sin verificar su existencia y contenido reales constituye una vulneración de la buena fe procesal. Y esa vulneración puede ser sancionada.
El 20 de febrero de 2026, la Sala acordó abrir una pieza separada de sanciones para depurar las posibles responsabilidades de la letrada por mala fe procesal, al amparo del artículo 247 de la Ley de Enjuiciamiento Civil.
Al mismo tiempo, le concedió un plazo de cinco días para alegar lo que considerara oportuno en su defensa.
La respuesta llegó en dos escritos. En el primero, presentado el 25 de febrero, Gómiz Chazarra reconocía el error y pedía el archivo, alegando que había sido involuntario, fruto de una falta de revisión y de la «confianza en el borrador preparado».
Solicitó la máxima comprensión y, subsidiariamente, la sanción más leve posible: un simple apercibimiento. El segundo escrito, del 3 de marzo, abundaba en la misma línea e insistía en que la letrada «jamás» tuvo intención de faltar al respeto al tribunal.
Qué dice el auto
El tribunal parte del marco legal aplicable: el artículo 247 de la Ley de Enjuiciamiento Civil obliga a todos los intervinientes en un proceso a ajustarse a las reglas de la buena fe procesal.
Su incumplimiento puede dar lugar a multas de entre 180 y 6.000 euros, sin que en ningún caso superen la tercera parte de la cuantía del litigio.
Pero el núcleo del auto no es la sanción, que finalmente no se impone. Es la reflexión sobre la inteligencia artificial.
La Sala dedica un fundamento jurídico completo a advertir sobre los riesgos del uso de herramientas como ChatGPT en el ámbito judicial.
Cita un estudio académico de enero de 2024 —Matthew Dahl et al., Large Legal Fictions— según el cual las llamadas «alucinaciones legales» —respuestas falsas pero presentadas con apariencia de veracidad— se producen entre el 69% y el 88% del tiempo dependiendo del modelo utilizado.
Los propios sistemas, señala el estudio, no siempre saben cuándo están generando información jurídica ficticia.
El tribunal deja claro que el uso descuidado de la IA en los tribunales puede constituir mala fe procesal y acarrear sanciones económicas de hasta 6.000 euros.
El tribunal recuerda también las orientaciones de la Law Society británica de noviembre de 2023 y los documentos del Consejo de la Abogacía Europea, que coinciden en señalar que los abogados son los responsables últimos de verificar la exactitud de todo lo que presentan ante los tribunales, con independencia de qué herramienta hayan utilizado para preparar sus escritos.
Como referente de jurisprudencia comparada, el auto cita el conocido caso Avianca en Estados Unidos, en el que un juez federal impuso en 2023 una multa de 5.000 dólares a un abogado por presentar jurisprudencia ficticia generada por ChatGPT.
El TSJN subraya que aquel juez no cuestionó el uso de la IA como herramienta de apoyo, sino el incumplimiento del deber de verificar lo que se presenta.
La conclusión de la Sala es inequívoca: el uso descuidado de estas tecnologías «es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso».
Por qué no hay sanción
A pesar de la gravedad de lo ocurrido, la Sala resuelve archivar la pieza sin imponer ninguna sanción económica.
El argumento es la reacción inmediata de la letrada: reconoció el error, presentó disculpas formales y no intentó mantener la validez de las citas falsas. El tribunal valora especialmente que esa rectificación se produjo en cuanto se abrió el expediente disciplinario, sin resistencia ni justificación posterior del error.
La Sala deja, no obstante, una puerta abierta a la interpretación: el propio auto señala que sirve «quizá» de advertencia sobre las implicaciones legales, deontológicas y éticas del uso irresponsable de las nuevas tecnologías.
El adverbio no es casual. El tribunal es consciente de que está ante un fenómeno emergente y de que este caso no será el último.
Implicaciones
El auto no sienta jurisprudencia en sentido técnico, pero tiene un valor de señal difícil de ignorar. Es una de las primeras resoluciones judiciales españolas que aborda expresamente el problema de las alucinaciones jurídicas de la IA y sus consecuencias procesales.
El mensaje es claro: presentar ante un tribunal jurisprudencia generada por una herramienta de inteligencia artificial sin verificar su existencia y contenido reales constituye una vulneración de la buena fe procesal. Y esa vulneración puede ser sancionada.
Que en este caso no lo haya sido se debe exclusivamente a las circunstancias concretas del episodio —el reconocimiento inmediato del error y las disculpas formales— y no a que la conducta sea irrelevante desde el punto de vista deontológico.
Para la abogacía española, el auto llega en un momento de expansión acelerada del uso de herramientas de IA en la preparación de escritos judiciales.
El deber de verificación, que siempre ha existido, adquiere ahora una dimensión nueva: ya no basta con revisar el texto propio, sino también con comprobar que las fuentes que genera una máquina son reales.
El TSJ de Navarra ha dado una segunda oportunidad a una abogada que, por no revisar el borrador generado por una herramienta de IA, presentó ante el tribunal ocho sentencias que no existían.
Pero lo ha hecho con una advertencia que trasciende el caso: la inteligencia artificial puede equivocarse con total convicción, y la responsabilidad de lo que se presenta ante un juez siempre recae sobre el abogado que lo firma.
La pieza queda archivada. La advertencia, no.