I. Introducción: el ángulo ciego de la Circular 3/2026
La Circular Interpretativa 3/2026 del Consejo General de la Abogacía Española, dictada al amparo del artículo 23 de la Ley Orgánica 5/2024, de 11 de noviembre, del Derecho de Defensa (en adelante, LODD), constituye un hito normativo de primer orden en la regulación deontológica del ejercicio profesional asistido por sistemas de inteligencia artificial generativa.
Su acierto principal reside en haber elevado a categoría dogmática el deber de verificación y control, anclándolo en la doctrina de la actio libera in causa y desplazando con ello cualquier intento de desresponsabilización tecnológica del abogado.
Sin embargo, la propia Circular advierte, con notable prudencia, que «no trata otro tipo de infracciones que se pudieran cometer con ocasión del uso de la IA, como pueden ser las referidas a la vulneración del deber de confidencialidad o del secreto profesional, que se tratarán en otra circular».
Esta autolimitación, lejos de ser una mera cláusula de estilo, abre un espacio doctrinal que resulta imprescindible cubrir: el régimen jurídico aplicable cuando el profesional de la abogacía introduce datos personales —y, lo que es más grave, datos amparados por el secreto profesional— en un sistema de IA generativa de tercero.
II. La encomienda de datos a la IA generativa como tratamiento de datos personales: arquitectura jurídica
2.1. Calificación jurídica del «prompting» con datos personales
La introducción de información personal en un sistema de IA generativa —ya sea mediante prompt, mediante adjunto de documento o mediante integración API— constituye, sin género de duda, un tratamiento de datos personales en el sentido del artículo 4.2 del Reglamento (UE) 2016/679 (RGPD). En efecto, dicho precepto incluye expresamente entre las operaciones de tratamiento «la consulta, utilización, comunicación por transmisión, difusión o cualquier otra forma de habilitación de acceso».
De aquí se sigue que cuando un abogado vuelca en una herramienta de IA un escrito de demanda, un atestado, un contrato, un dictamen médico forense o cualquier documento que contenga datos identificativos del cliente, de la contraparte, de testigos o de terceros, está activando inmediatamente el régimen completo de cumplimiento del RGPD y de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD).
2.2. La determinación del rol: responsable, encargado y la ficción del usuario
Uno de los puntos más controvertidos en la práctica forense actual es la determinación de los roles a efectos del RGPD. El despacho de abogados actúa como responsable del tratamiento (artículo 4.7 RGPD) respecto de los datos de su cliente y de los terceros afectados por el asunto.
Cuando contrata —o, peor aún, cuando utiliza sin contratar formalmente— un sistema de IA generativa, debería formalizarse un encargo de tratamiento ex artículo 28 RGPD con el proveedor del modelo.
La práctica revela, sin embargo, una doble patología generalizada.
En primer lugar, el uso de versiones gratuitas o de consumidor de modelos como ChatGPT, Gemini o Copilot, cuyas condiciones generales prevén con frecuencia el uso de los inputs para entrenamiento del modelo, lo cual es radicalmente incompatible con el principio de limitación de la finalidad (artículo 5.1.b RGPD).
En segundo lugar, la ausencia generalizada de contratos de encargo que cumplan el contenido mínimo del artículo 28.3 RGPD, incluyendo cláusulas sobre transferencias internacionales, subencargados, medidas técnicas y organizativas y devolución o supresión de los datos al término de la prestación.
2.3. Transferencias internacionales y la sombra del Schrems III
La práctica totalidad de los grandes modelos fundacionales son ofrecidos por compañías estadounidenses con infraestructura distribuida globalmente.
Ello implica que cualquier prompt introducido por un abogado español puede ser objeto de una transferencia internacional de datos en el sentido del Capítulo V del RGPD.
La Decisión de Ejecución (UE) 2023/1795 de la Comisión, de 10 de julio de 2023, relativa al EU-US Data Privacy Framework, ofrece un cauce de adecuación, pero su estabilidad jurídica se encuentra bajo tela de juicio tras la presentación de recursos ante el Tribunal de Justicia de la Unión Europea que evocan inevitablemente la doctrina sentada en las sentencias Schrems I (C-362/14) y Schrems II (C-311/18).
El profesional de la abogacía no puede ignorar este escenario de incertidumbre. La prudencia exige asumir la posibilidad de un futuro Schrems III y, en consecuencia, articular salvaguardas adicionales conforme a las Recomendaciones 01/2020 del Comité Europeo de Protección de Datos sobre medidas que complementan los instrumentos de transferencia.
2.4. La intersección con el Reglamento de Inteligencia Artificial
La entrada en vigor escalonada del Reglamento (UE) 2024/1689 (Reglamento de Inteligencia Artificial, AI Act) añade una capa normativa adicional. Si bien la mayoría de las herramientas de IA generativa de propósito general se clasificarán como modelos GPAI (General Purpose AI) y no necesariamente como sistemas de alto riesgo, su utilización por parte de un Abogado en el contexto de la administración de justicia puede aproximarse peligrosamente al supuesto del Anexo III, punto 8 del AI Act, que califica como de alto riesgo los sistemas destinados a auxiliar a una autoridad judicial en la investigación e interpretación de hechos y de la ley. Aunque el Abogado no sea autoridad judicial, su escrito sí instrumentaliza esa función mediata, lo que aconseja una interpretación cautelar.
III. El secreto profesional ante la nube
El secreto profesional del abogado es, en el ordenamiento español, un instituto de triple naturaleza: derecho-deber subjetivo del profesional, garantía objetiva del derecho fundamental de defensa y presupuesto institucional de la confianza pública en la abogacía. Su base normativa se articula en torno a tres preceptos esenciales:
• Artículo 542.3 LOPJ: «Los abogados deberán guardar secreto de todos los hechos o noticias de que conozcan por razón de cualquiera de las modalidades de su actuación profesional, no pudiendo ser obligados a declarar sobre los mismos».
• Artículo 16 de la Ley Orgánica 5/2024, del Derecho de Defensa: refuerza el secreto como manifestación del derecho fundamental de defensa, configurándolo no ya como mero deber profesional, sino como pieza estructural de la tutela judicial efectiva.
• Artículo 21 CDAE, cuyo apartado 1 dispone que «el uso de las tecnologías de la información y la comunicación no exime de cumplir las normas deontológicas que regulan la profesión», y cuyo apartado 2 impone el «uso responsable y diligente» de tales tecnologías.
En este sentido, el artículo 4.1 CDAE, invocado reiteradamente por la mentada Circular, no se limita al deber de diligencia técnica en la confección de escritos.
La confianza e integridad profesional son conceptos jurídicos indeterminados cuyo contenido material se nutre, entre otros elementos, del respeto al secreto profesional.
Un abogado que utiliza herramientas de IA sin haber evaluado previamente sus garantías de confidencialidad infringe el artículo 4.1 CDAE no por el resultado, sino por el procedimiento; no por lo que produce, sino por lo que arriesga.
IV. La doble dimensión deontológica latente: del deber de diligencia al deber de confidencialidad
Una lectura sistemática del Código Deontológico permite identificar dos dimensiones de riesgo deontológico asociadas al uso de la IA generativa, que conviene diferenciar con nitidez:
4.1. Dimensión a posteriori (riesgo de output): el ámbito propio de la Circular 3/2026
Es el supuesto extensamente tratado por la Circular interpretativa: el escrito firmado y presentado contiene errores —fabulaciones jurisprudenciales, normas inexistentes, razonamientos viciados— y su entrega consuma la infracción del artículo 125.u) EGAE. La actio libera in causa traslada la responsabilidad al momento inicial de delegación acrítica.
4.2. Dimensión a priori (riesgo de input): el ámbito que aborda este trabajo
Es el supuesto silenciado: el mero hecho de introducir información sensible o protegida en una herramienta no auditada configura, por sí mismo, una infracción potencial del artículo 21.1 y 21.2 CDAE, con independencia de que el output sea técnicamente correcto. La diferencia es radical: en el primer caso, el daño jurídico se materializa con la presentación del escrito; en el segundo, el daño se materializa con la simple pulsación de la tecla «Enter».
Esta segunda dimensión presenta una particularidad de alto interés dogmático: se trata de una infracción de peligro abstracto y, en ocasiones, de un ilícito permanente cuyos efectos se prolongan en el tiempo mientras los datos permanezcan accesibles al proveedor o a sus subencargados. Las categorías clásicas de consumación instantánea del derecho sancionador administrativo se ven, en este punto, sometidas a fuerte tensión hermenéutica.
V. Riesgos jurídicos y operativos derivados del uso profesional de la inteligencia artificial generativa
Del estudio conjunto del RGPD, la LOPDGDD, el Código Deontológico de la Abogacía Española y la Ley Orgánica 5/2024 cabe identificar seis tipologías de riesgo cuya convergencia configura, en nuestra opinión, un cuadrante crítico para la práctica forense.
El primero, y más severo, es el entrenamiento del modelo con datos del cliente. Cuando el profesional utiliza versiones de consumidor de los grandes modelos fundacionales —cuyas condiciones generales prevén la reutilización de inputs para fines de entrenamiento—, se produce una vulneración directa del principio de limitación de la finalidad del artículo 5.1.b) del RGPD y del deber de sigilo del artículo 542.3 LOPJ. La probabilidad es alta y el impacto, crítico, dada la potencial irreversibilidad de la incorporación al modelo.
El segundo riesgo deriva de las transferencias internacionales irregulares. La práctica totalidad de los proveedores líderes opera infraestructuras con presencia significativa en Estados Unidos, lo que activa el Capítulo V del RGPD. La estabilidad del actual EU-US Data Privacy Framework se encuentra sometida a tensión jurisprudencial ante el TJUE en una evolución que evoca la doctrina Schrems I y II, lo que aconseja asumir un escenario de eventual invalidación sobrevenida.
El tercer riesgo, particularmente frecuente, es la ausencia de contrato de encargo de tratamiento conforme al artículo 28.3 RGPD, con el consiguiente riesgo sancionador del artículo 83.4 del propio Reglamento. Su probabilidad es muy alta —constituye la regla y no la excepción en la praxis profesional actual— y su impacto, alto.
El cuarto riesgo es la omisión de la evaluación de impacto del artículo 35 RGPD cuando concurran sus presupuestos, lo que puede resultar exigible con frecuencia cuando concurran categorías especiales, volumen relevante, sistematicidad o colectivos vulnerables en despachos de Abogados.
El quinto riesgo, probablemente el más sensible desde la perspectiva del derecho de defensa, se refiere a la eventual exposición de información amparada por el secreto profesional mediante su incorporación a un canal técnico no suficientemente controlado o auditado. Esta conducta, según las circunstancias del caso —naturaleza de la información, grado de accesibilidad por terceros, condiciones contractuales del proveedor, existencia de medidas de confidencialidad y elemento subjetivo concurrente—, podría llegar a proyectarse sobre el ámbito penal del artículo 199.2 del Código Penal, así como sobre el régimen disciplinario previsto en el EGAE, en particular cuando suponga una vulneración efectiva del deber de secreto profesional.
El sexto es la falta de trazabilidad del uso de la IA, que vulnera el principio de accountability del artículo 5.2 RGPD y el mandato del artículo 21.2 CDAE, e invierte de facto la carga probatoria de la diligencia en perjuicio del profesional.
Del análisis emerge un patrón estructural: los riesgos de mayor probabilidad coinciden con los de mayor impacto, lo que obedece a una causa común: la informalidad con que la profesión ha incorporado instrumentos cuya arquitectura jurídica permanece, paradójicamente, en notable medida ignorada por quienes los emplean.
VI. Conclusión
En definitiva, el desafío de la inteligencia artificial generativa para la abogacía no se agota en la verificación del producto, sino que comienza, en rigor, mucho antes: en el instante mismo en que el profesional decide qué información confiar a una máquina cuya arquitectura, en demasiadas ocasiones, desconoce.
La diligencia profesional del siglo XXI exige, por consiguiente, conocer no solo el Derecho, sino también la tecnología; no solo defender al cliente ante los Tribunales, sino protegerlo frente a los servidores. Sólo así podrá la Abogacía española mantener la posición de garante institucional del derecho de defensa que la Ley Orgánica 5/2024 le ha confiado con renovado vigor.