Opinión | IA: Primero fueron las citas falsas, ahora viene lo serio

Javier Martínez, abogado ejerciente en España y en el estado de Nueva York, Estados Unidos, y fundador de la firma Ad Litem | Litigation & ADR, explica en su columna como el uso de inteligencia artificial en la justicia ya está generando conflictos reales en el mundo: jueces que consultan chatbots, pruebas generadas por IA y demandas por ejercicio ilegal de la abogacía. Foto: Generada digitalmente.

10 / 03 / 2026 05:43

En esta noticia se habla de:

Hace un mes conocimos la Instrucción 2/2026 del CGPJ, que permite al juez español usar IA -con muchos matices-.

También el Libro Blanco del CGAE sobre Inteligencia Artificial y Abogacía.

Desde antes, contábamos con la Guía de Buenas Prácticas del ICAM para el uso de la IA en la abogacía, así como con el Reglamento Europeo de Inteligencia Artificial (Reglamento (UE) 2024/1689), cuyas primeras obligaciones ya han comenzado a desplegarse.

Pero mientras el debate aquí parece todavía institucional -con algunos casos recientes relativos a alucinaciones jurisprudenciales-, en otros países asistimos a una segunda oleada de supuestos que van mucho más allá de las citas inventadas: jueces que motivan sentencias con chatbots, abogados que presentan conversaciones con IA como prueba, bufetes que usan IA para justificar sus minutas, y aseguradoras que demandan a OpenAI por ejercicio ilegal de la abogacía.

Colombia: el juez que preguntó a ChatGPT para decidir

En enero de 2023, el Juzgado Primero Laboral del Circuito de Cartagena confirmó una sentencia de tutela que protegía el derecho a la salud de un menor con trastorno del espectro autista.

El juez Juan Manuel Padilla García introdujo en ChatGPT varias preguntas sobre el caso -si los menores autistas están exonerados de copagos, si la tutela procede, si la jurisprudencia constitucional es favorable- y transcribió literalmente las respuestas del chatbot en la sentencia.

El juez advirtió que la IA «no reemplaza» su decisión, sino que buscaba «optimizar tiempos». Pero el resultado es que una resolución judicial colombiana contiene párrafos redactados por una máquina, sin verificación auditable de las fuentes citadas por la IA.

Que la decisión de fondo fuera probablemente correcta –fue confirmada posteriormente– no evita la suspicacia sobre que la motivación de esa sentencia fue, propiamente, un ejercicio de confirmación, no de razonamiento.

Delegar la fundamentación complementaria en una herramienta que puede alucinar compromete la integridad del proceso.

No es de extrañar, por tanto, que Colombia haya adoptado una de las regulaciones más restrictivas del mundo en cuanto al uso de la IA por los jueces.

El Acuerdo PCSJA24-12243, de 16 de diciembre de 2024, aprobado por el Consejo Superior de la Judicatura, impone deberes de una dureza notable. Los funcionarios judiciales deben prescindir de herramientas de IA para la «valoración de medios probatorios, escrutinio de hechos, realización de juicios de valor» y para «motivar o adoptar las decisiones en un proceso, partiendo, exclusivamente, de las respuestas ofrecidas por la respectiva herramienta».

Pero lo más llamativo es la obligación de transparencia radical que recoge su artículo 10: cuando la IA se emplee en actividades que impacten decisiones sustanciales, el funcionario debe hacer explícito el nombre de la herramienta, el modelo y la empresa proveedora, la fecha de uso, confirmar que leyó y aceptó los términos y condiciones, explicar para qué fue empleada y -aquí lo verdaderamente insólito- incluir «los prompts o instrucciones utilizadas».

Es decir, las preguntas que el juez formula a la IA deben constar en el expediente, sea en el cuerpo de la resolución, en notas a pie de página o en anexos. Comparemos: la Instrucción 2/2026 del CGPJ ni siquiera obliga al juez español a informar al justiciable de que ha empleado IA.

México: el Tribunal que dijo sí (con condiciones)

En el otro extremo está México.

El Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito no solo ha utilizado IA para calcular el monto de garantías en juicios de amparo, sino que ha elaborado jurisprudencia obligatoria sobre cómo debe usarse.

La primera tesis (agosto de 2025) valida la IA como herramienta para «facilitar el razonamiento numérico» -actualización de valores, tasas de interés, plazos procesales-, distinguiendo expresamente estas tareas del «núcleo decisorio jurisdiccional».

La segunda tesis (enero de 2026), ya con valor de jurisprudencia vinculante, fija cuatro requisitos mínimos: proporcionalidad e inocuidad, protección de datos, transparencia y explicabilidad, y supervisión humana.

Lo notable del enfoque mexicano es que nace del propio tribunal, en un ejercicio de «autocontención» ante la ausencia de regulación específica.

A falta de ley, el juzgador se autorregula y establece estándares auditables: la persona juzgadora debe informar de que usa IA, exponer la metodología y los datos empleados, y explicar cómo se llegó al resultado.

California: cuando el abogado usa la IA como testigo

En Oh v. Sweet Oak Parent LLC, un litigio de consumo sobre un edulcorante cuyo envase supuestamente engañaba al comprador por estar lleno solo al 60%, el abogado de la demandada adjuntó como prueba una conversación con Grok, la IA de la red social X, para intentar demostrar que un consumidor razonable no se dejaría engañar por el tamaño del paquete.

El juez del Central District de California no se limitó a ignorar la prueba. En una nota a pie de página destinada a hacer historia, explicó por qué la descartaba: la IA generativa tiende a devolver al usuario la respuesta que este quiere escuchar.

El tribunal citó investigación académica sobre la adulación -la tendencia de los modelos de lenguaje a confirmar los sesgos del «prompter»- para concluir que una conversación con un chatbot carece de valor probatorio.

Este caso es fascinante para la litigación. Si se adjuntara mañana un informe generado por IA como prueba en un procedimiento español, ¿qué haría el tribunal?

La LEC no contempla específicamente este supuesto. Se admite como prueba «cualquier otro medio» que permita acreditar hechos relevantes, pero la fiabilidad y la trazabilidad son presupuestos implícitos de toda prueba.

Una respuesta de chatbot, formulada mediante preguntas dirigidas y propensa a la aquiescencia, difícilmente superaría un mínimo escrutinio adversarial.

El precedente californiano ofrece argumentos útiles para cualquier oposición procesal a este tipo de «pruebas».

No por casualidad, el Senado de California aprobó en enero de 2026 la SB 574, una proposición legislativa que obliga a los abogados a verificar personalmente la exactitud de todo material generado por IA -incluidas citas jurisprudenciales-, prohíbe introducir información confidencial en plataformas de IA generativa y veta que los árbitros deleguen su análisis independiente en estas herramientas.

Nueva York: cuando ChatGPT calcula la minuta

En el caso decidido por el Southern District de Nueva York en J.G. v. NYC Department of Education, un despacho de abogados solicitó al tribunal el reembolso de 113.484,62 dólares en honorarios y costas.

Para justificar la razonabilidad de sus tarifas, el bufete invocó como «contraste» (cross-check) los resultados de una consulta a ChatGPT-4, argumentando que la IA confirmaba que sus tarifas horarias eran conformes al mercado.

El juez Engelmayer rechazó de plano el argumento. Calificó la referencia a ChatGPT como «absolutamente nada persuasiva» y aconsejó al bufete «eliminar las referencias a ChatGPT de futuras solicitudes de honorarios».

El tribunal acabó fijando los honorarios en 53.050,13 dólares -menos de la mitad de lo solicitado y por debajo incluso de la oferta de transacción que la parte contraria había hecho-.

El mensaje es claro: un tribunal no aceptará que la IA valide lo que debe acreditar el letrado con pruebas de mercado convencionales.

El caso conecta directamente con una tendencia legislativa emergente.

En el Senado del Estado de Nueva York se tramita la proposición S. 7263, que pretende imponer responsabilidad civil a los propietarios de chatbots que permitan a sus sistemas dar «cualquier respuesta sustantiva, información o asesoramiento» que, de ser realizado por una persona física, constituiría ejercicio ilegal de profesiones reguladas -entre ellas, expresamente, la abogacía-.

La proposición establece que el propietario del chatbot no podrá exonerarse de responsabilidad por el mero hecho de advertir al usuario de que interactúa con una IA. Es decir: el disclaimer no salva.

Illinois: la aseguradora que demandó a OpenAI

El caso más audaz de todos se presentó el 4 de marzo de 2026 ante el Northern District de Illinois.

Nippon Life Insurance Company of America ha demandado a OpenAI Foundation y OpenAI Group PBC por tres causas de acción: interferencia ilícita con contrato (tortious interference), abuso de proceso y ejercicio ilegal de la abogacía.

Los hechos son elocuentes. Una asegurada había transado un litigio contra la aseguradora Nippon -con desistimiento firme incluido-.

Esa misma asegurada subió después al chatbot la respuesta de su abogado y le preguntó si le estaba haciendo «gaslighting».

ChatGPT concluyó que sí: que el letrado estaba invalidando sus sentimientos y manipulándola emocionalmente.

Convencida por esa respuesta, despidió a sus abogados y comenzó a litigar ella sola, asistida íntegramente por ChatGPT, y tratando de deshacer el acuerdo transaccional con hasta 60 escritos elaborados por la IA.

La aseguradora alega que OpenAI, a través de ChatGPT, actuó como un abogado no colegiado que indujo deliberadamente el incumplimiento de un acuerdo transaccional válido.

ChatGPT, subraya la demanda, «no es miembro del Colegio de Abogados de Illinois» ni está «admitido para ejercer en ninguna jurisdicción de los Estados Unidos», pero redacta demandas, realiza investigación jurídica, proporciona análisis legal y emite consejos jurídicos.

La demanda reclama 300.000 dólares en daños compensatorios y 10 millones en daños punitivos, además de una orden judicial permanente que prohíba a OpenAI ejercer la abogacía en Illinois. Sidley Austin actúa como letrado local del demandante.

La acción no surge de la nada: se inscribe en una secuencia que arrancó con las demandas contra DoNotPay -el «primer robot abogado del mundo»-, cuyo creador tuvo que pagar 193.000 dólares a la FTC en 2024 por publicitar capacidades jurídicas que su chatbot no tenía, y que además fue demandado en California por ejercicio no autorizado de la abogacía (Faridian v. DoNotPay).

La diferencia es que DoNotPay era una startup que se vendía expresamente como sustituto del abogado. OpenAI, en cambio, es la empresa de IA más valiosa del mundo, y su producto no se comercializa como servicio jurídico -exclusión recientemente añadida en sus condiciones generales-.

Para el Derecho español, donde el intrusismo profesional en la abogacía se castiga penalmente (artículo 403 CP), la pregunta no es teórica: si un chatbot asesora jurídicamente a un justiciable español sin que medie abogado colegiado, ¿quién responde?

El ICAM no ha esperado a que la pregunta se formule en un juzgado.

El pasado 17 de febrero registró en el Congreso una propuesta de modificación del artículo 403 del Código Penal para tipificar lo que denomina «neointrusismo digital»: castigar con multa de seis a doce meses a quien, con ánimo de lucro, «diseñe, comercialice, ofrezca, publicite o ponga a disposición del público un sistema automatizado que, sin intervención directa y efectiva de un profesional habilitado, genere recomendaciones, dictámenes, estrategias o documentos que constituyan actos propios de una profesión titulada».

Lo que estos casos exigen al Derecho español

Lo que une a estos casos no es solo la tecnología, sino la ausencia de norma. En todos ellos, el Derecho llegó después -a veces como sentencia, a veces como sanción, a veces como demanda- a poner orden donde la regulación no había llegado antes.

Tenemos la oportunidad de no repetir ese patrón reactivo. Pero para ello se necesita más de lo que hay.

Como poco una obligación de transparencia frente al justiciable cuando un juez emplee IA en la motivación de su resolución; un régimen claro sobre la admisibilidad procesal de materiales generados por IA; una definición precisa de dónde termina la herramienta auxiliar del profesional y dónde empieza el ejercicio no autorizado de una profesión regulada; y un régimen disciplinario tipificado en infracciones que regulen expresamente el mal uso de la IA -el principio de tipicidad no exige menos-.

Sin esos pilares, el marco español será un edificio con cimientos pero sin paredes: técnicamente correcto en sus principios, pero incapaz de contener lo que sin duda vendrá.

Taylor Swift registra su voz y su imagen como marcas para blindarse frente a la inteligencia artificial

El TSJ de Navarra evita sancionar a una abogada que presentó jurisprudencia falsa generada por IA, pero lanza una advertencia al sector

Un acusado en Alemania recusa al juez con un escrito de IA plagado de jurisprudencia inventada —y funciona

La Abogacía Española y el Poder Judicial sellan una alianza ante la IA: «una herramienta de apoyo, nunca un sujeto decisor»

La Abogacía Española impulsa la formación en Upro con seis avatares para acompañar al abogado digital

La Abogacía Española y el CGPJ reúnen a sus expertos para medir el impacto real de la IA en la Justicia

Lo último en Firmas

CDL - El estrecho de Ormuz y la fuerza mayor bajo el derecho de Inglaterra y Gales (II)

Opinión | CDL: El estrecho de Ormuz y la fuerza mayor bajo el derecho de Inglaterra y Gales (II)

Tribunal de Instancia

Opinión | Teletrabajo en los Tribunales de Instancia o cuando querer no es poder

Pelham

Opinión | La sentencia Pelham/Kraftwerk de 2026: ¿embrión de un derecho de autor híbrido?

Imagen de apertura fin de la policía

Opinión | El fin de la Policía: El mundo multipolar nos devuelve a la ley del más fuerte

Eugenio Ribón

Opinión | La votación del martes: última oportunidad para hacer justicia con quienes han ejercido la justicia