La redacción nos citó por videoconferencia: dos tazas y una pantalla. Por un lado, Santiago Martín Caravaca, madrileño y “avvocato” —colegiado en el Ordine degli Avvocati di Torino y en el Colegio de la Abogacía de Madrid—, se conectó ayer desde el Caffè San Carlo, en Turín. Martín Caravaca es «Head of AI Practice, Futura Law Firm».
Pablo Sáez de Hurtado es jurista multidisciplinar y asesor legal especializado en Derecho Digital, consultor Legaltech/Al y Business Artificial Intelligence Development & Legal Manager en Skiller Academy. También escritor, formador y divulgador sobre la IA. Sáez de Hurtado abrió su portátil en el Café Gijón, de Madrid, con la calle Recoletos a la espalda.
El motivo era simple y urgente: Italia ha aprobado su ley nacional de inteligencia artificial (DDL); al otro lado, el anteproyecto español afina su andamiaje sancionador. Entre sorbo y sorbo, los dos buscamos la geometría de la coincidencia y la fisura de la diferencia, con la «AI Act» como línea de horizonte. ¿Promoción y soberanía tecnológica frente a «enforcement» y garantías? ¿Dos acentos de una misma norma europea?
En estas páginas, esa conversación breve —y necesaria— se convierte en reflexión compartida con todos los lectores de Confilegal a través de esta columna de opinión sui géneris.
En el contexto europeo de 2025, tras la histórica aprobación del Reglamento de Inteligencia Artificial de la Unión Europea (“AI Act”) en junio de 2024 [1], los Estados miembros han iniciado una carrera crucial para adaptar sus ordenamientos jurídicos nacionales.
La “AI Act”, considerado la primera legislación integral sobre Inteligencia Artificial (IA) a nivel mundial, establece un marco regulatorio basado en riesgos que busca equilibrar la innovación tecnológica con la protección de los derechos fundamentales [2].
Italia y España, dos de las principales economías del sur de Europa, se han posicionado en la vanguardia de este proceso de transposición, aunque con enfoques marcadamente distintos.
El 17 de septiembre de 2025, el Parlamento italiano aprobó definitivamente el «Disegno di Legge» (DDL) n. 1146-B en materia de inteligencia artificial [3], una norma que se distingue por su profundo anclaje en principios humanistas y su enfoque promocional de la innovación.
La ley italiana no es una mera transposición técnica de la «AI Act» europeo, sino una interpretación cultural y constitucional que refleja la tradición jurídica y filosófica del país.
Valores, objetivos del DDL
Martín Caravaca: El DDL abre en su artículo 1 con una idea nítida: uso correcto, transparente y responsable de la IA en dimensión “antropocéntrica”. No es un adjetivo ornamental. En Italia, antropocéntrico no suena igual que el anglicismo traducido “human-centric” de los informes corporativos: resuena con la gramática cultural del Renacimiento, cuando el humanismo colocó a la persona —su dignidad, libertad y razón— en el centro de la vida cívica y del saber.
Al elegir ese término, el DDL amarra la arquitectura jurídica a un centro de gravedad clásico: la persona y su mundo, no la pura eficiencia técnica ni el fetichismo del dato.
Sáez de Hurtado: El lenguaje importa, y mucho. Como explica el profesor Luciano Floridi de la Universidad de Oxford, el concepto de IA antropocéntrica implica que “la tecnología debe servir para amplificar las capacidades humanas, no para sustituir el juicio moral y la responsabilidad de las personas” [4].
Por eso me convence este DDL. Además, el artículo 3 del DDL desarrolla este principio estableciendo que los sistemas de IA deben desarrollarse y aplicarse “nel rispetto dell’autonomia e del potere decisionale dell’uomo” (respetando la autonomía y el poder decisional del ser humano) [3].
Esta formulación va más allá de los requisitos técnicos de la «AI Act» y establece un principio constitucional que permea toda la regulación italiana.
Si uno se asoma a estos dos textos (el Anteproyecto español y DDL italiano) con la lupa de los valores —no con el microscopio de las definiciones— percibe enseguida dos respiraciones distintas. Italia habla desde un impulso teleológico (“promuove”, “favoriscono”). España, en cambio, desde un ethos garantista y sancionador (“régimen sancionador”, “prohibiciones y excepciones”). El problema es que se han olvidado de las sanciones a la Administración Pública.
Martín Caravaca: Así es. Ambos se reconocen deudores de la «AI Act», pero cada cual ordena sus textos legales desde su propia arquitectura axiológica.
Arquitectura institucional: un modelo distribuido
Italia ha optado por un modelo de gobernanza distribuido que aprovecha las competencias existentes de diferentes autoridades:
• AgID (Agenzia per l’Italia Digitale): es responsable de promover la innovación y el desarrollo de la inteligencia artificial. También se encarga de definir los procedimientos y de ejercer las funciones y competencias en materia de notificación, evaluación, acreditación y supervisión de los sujetos encargados de verificar la conformidad de los sistemas de inteligencia artificial, de acuerdo con lo establecido por la normativa nacional y de la Unión Europea. Su papel es fundamentalmente promocional, alineado con la Estrategia Nacional de Digitalización 2026 [5].
• ACN (Agenzia per la Cybersicurezza Nazionale): es quien se ocupa de la vigilancia de mercado de IA con facultades inspectivas y sancionadoras y punto de contacto único con la UE en la materia. Además, promueve el uso de IA en ciberseguridad. Esta designación refleja la prioridad italiana de vincular la IA con la ciberseguridad nacional [6].
Además, se mantienen las competencias de Banca d’Italia, CONSOB e IVASS como vigilantes sectoriales; y siguen firmes las del «Garante per la Protezione dei Dati Personali» y AGCOM (como coordinador de servicios digitales). Un comité de coordinación en Presidencia articula el conjunto.
La democracia y la subsidiariedad tecnológica.
Sáez de Hurtado: Hay otra cosa Santiago que me ha sorprendido el artículo 4 del DDL: resalta que la IA no puede perjudicar el método democrático, ni la libertad del debate frente a interferencias ilícitas, ni el ejercicio de las competencias territoriales conforme a autonomía y subsidiariedad.
Martín Caravaca: Podría no estar… y, sin embargo, ahí está. Es lo decisivo. Italia baja a ley lo que suele vivir en la Constitución: el foro público es de los ciudadanos, no de los algoritmos.
Sáez de Hurtado: Y ese renglón: “libertad del debate democrático frente a interferencias ilícitas” es 2025 puro: «deepfakes electorales», operaciones de influencia transnacional, plataformas que reordenan la conversación pública. Esta disposición del DDL italiano es particularmente relevante en el contexto de las elecciones europeas de 2024, donde se documentaron múltiples casos de desinformación generada por IA [11]. El artículo 4 establece una barrera legal específica contra estas prácticas, complementando las disposiciones generales del Digital Services Act.
Martín Caravaca: Aquí conviene leer, además, el cierre literal del precepto: “l’esercizio delle competenze e funzioni delle istituzioni territoriali sulla base dei princìpi di autonomia e sussidiarietà” (artículo 4 DDL).
Sáez de Hurtado: Es una advertencia útil: la arquitectura tecnológica no puede vaciar competencias territoriales ni condicionar el foro público.
Martín Caravaca: Exacto, la subsidiariedad y la arquitectura constitucional de competencias se convierten en diseño tecnológico.
Sáez de Hurtado: Aunque nuestro anteproyecto no lo enuncie igual, el Estado de las Autonomías exige en la práctica lo mismo. Imagina una plataforma que controle dependencia, educación o sanidad con un modelo opaco o que desplace competencias autonómicas sin debate parlamentario.
Martín Caravaca: Por eso convence el triángulo del DDL: subsidiariedad (lo local decide lo local), libertad del debate (sin manipulación algorítmica) y soberanía (el Estado como garante último de la infraestructura cívica: datos, ciberseguridad, integridad electoral). Compatible con la «AI Act», pero con una lectura cultural y constitucional muy italiana y que desde nuestra cultura española se entiende además de forma mucho más sensible.
Sáez de Hurtado: Correcto, Italia, además, no crea nuevas obligaciones técnicas para sistemas o modelos; designa autoridades, prioriza sectores (como por ejemplo: salud, trabajo, administración pública y justicia, cultura) y difiere, como ya has adelantado, las sanciones a decretos delegados que desarrollarán el artículo 99 del Reglamento.
Sanciones
Sáez de Hurtado: ¿Podrá Italia multar a su Administración por incumplir la «AI Act»? En España, como sabes, el artículo 30.4 del Anteproyecto excluye las multas al sector público y prevé solo apercibimientos y medidas correctoras (conforme al artículo 99.8 de la «AI Act»).
Martín Caravaca: Aquí hay más misterio, querido Pablo. El DDL no cierra este punto porque pospone el régimen sancionador concreto a decretos legislativos, precisamente para dar cumplimiento al artículo 99.1 de la «AI Act» (que obliga a cada Estado a fijar las sanciones), luego no hay hoy una respuesta categórica: dependerá de cómo Italia ejecute el art. 99 (si sanciona con multa a entes públicos o más bien recurre a apercibimientos/medidas correctoras/disciplinarias).
Sáez de Hurtado: ¿Puede Italia sancionar ya a otros sujetos?
Martín Caravaca: Puede vigilar y adoptar medidas, pero el régimen completo de multas requiere de esos decretos delegados (art. 24 DDL). Hasta entonces, no hay régimen sancionador propio plenamente operativo.
Sáez de Hurtado: ¿Cuál fue tu primera impresión, Santiago?
Soberanía de datos estratégicos: de la obligación a la preferencia
Sáez de Hurtado: Santiago, el Senado llegó a introducir la obligación de ubicar la IA pública en servidores italianos. Eso cayó luego. ¿Qué queda en el DDL?
Martín Caravaca: Es correcto. El DDL italiano navega hábilmente entre la protección de la soberanía tecnológica y el respeto a las normas de competencia europeas. Ahora se mantiene el art. 5d que permite que puedan ser privilegiadas soluciones que garanticen la localización y la elaboración de datos estratégicos en data center italianos; pero no los impone.
Sáez de Hurtado: No es banal. Puede tener un impacto crucial en contratos públicos.
Martín Caravaca: Si, es un punto espinoso y que ha generado debate. En licitaciones, esa preferencia, «server» italiano, si se diseña con criterios objetivos, proporcionados y transparentes, puede inclinar decisiones hacia proveedores con capacidades «on-shore», especialmente en sectores sensibles. Mal diseñado, roza la restricción. El DDL, al eliminar el antiguo mandato rígido de “servers” en territorio nacional, reduce el riesgo de fricción con el Derecho de la Unión, pero marca una política industrial y de soberanía tecnológica clara. El reto será no cerrar el mercado y respetar la competencia, como advierte el propio DDL.
Sáez de Hurtado: ¿Cuál es la clave?
Martín Caravaca: La clave será entender el perímetro y límites de la palabra “privilegiare” dentro de un marco pro-competencia y no discriminatorio. Si las cláusulas se circunscriben a “dati strategici” y se justifican por ciber resiliencia e interés esencial, podrán convivir con la libre circulación de datos y con la contratación pública europea, siempre que no se conviertan en barreras indiscriminadas. El reto, no solo de Italia, es proteger los datos estratégicos de servicios públicos esenciales sin cerrar el mercado. En el contexto geopolítico actual, cierta soberanía operativa es comprensible; lo difícil será hallar el equilibrio, sin vulnerar las normativas comunitarias.
Salud: reglas claras en la aplicación de IA en datos sanitarios.
Sáez de Hurtado: Vamos al grano: salud. Antes del DDL, ¿qué nos enseñó Friuli-Venezia Giulia? Tu lo viviste en primera persona, Santiago, cuéntanos.
Martín Caravaca: Así es. En 2022 el Garante Privacy Italiano (equivalente a la AEPD española) abrió tres procedimientos por un proyecto regional de “medicina de iniciativa” que, con un algoritmo, elaboró listados de pacientes frágiles para priorizar seguimiento y vacunación Covid. Hubo medidas y sanciones. Después llegaron los tribunales: Pordenone anuló íntegramente la sanción por un motivo muy RGPD -error en la atribución de roles; la empresa no decidió fines ni medios-. Udine también anuló su caso. El tercero (Trieste) sigue pendiente, con la eficacia de la orden suspendida. Hubo multas, luego fallos judiciales, y al final el mensaje fue: esto necesita reglas más claras y mejores.
Fondo español: el ethos garantista y el régimen sancionador
Sáez de Hurtado: El Anteproyecto de Ley español para el buen uso y la gobernanza de la inteligencia artificial, presentado en marzo de 2025, adopta un enfoque marcadamente diferente al italiano [7]. Mientras Italia prioriza la promoción y la innovación, España se centra en la construcción de un robusto aparato de supervisión y control.
AESIA: El Pilar Central del Sistema Español: La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), creada en 2023 mediante Real Decreto 729/2023 y con sede en A Coruña, se erige como la piedra angular del modelo español [8]. A diferencia del modelo distribuido italiano, España ha optado por la centralización de competencias en una única autoridad especializada.
AESIA concentra funciones clave: supervisión e inspección de sistemas de IA, imposición de sanciones, autoridad de vigilancia del mercado, y punto de contacto con la Comisión Europea. Esta concentración busca garantizar una aplicación uniforme de la normativa en todo el territorio español y crear un interlocutor fuerte ante las instituciones europeas.
El presupuesto inicial de AESIA para 2025 asciende a 12 millones de euros, con una plantilla prevista de 150 funcionarios especializados [9]. Estas cifras reflejan la ambición española de crear una autoridad de supervisión robusta y técnicamente competente.
Régimen sancionador: rigor y controversia en España.
El corazón del anteproyecto español es su detallado régimen sancionador. El texto tipifica las infracciones en tres categorías (leves, graves y muy graves) y establece sanciones que pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual mundial, siguiendo el modelo de la «AI Act» [7].
La controversia del sector público: El artículo 30.4 del anteproyecto excluye a las administraciones públicas de las multas económicas, previendo únicamente apercibimientos y medidas correctoras [7]. Esta decisión ha generado un intenso debate. El profesor Alejandro Huergo Lora, de la Universidad de Oviedo critica que “esta exclusión puede crear una percepción de impunidad que debilite la efectividad disuasoria del régimen sancionador” [10].
Derecho de desconexión: una innovación pionera
El anteproyecto español introduce un “derecho de desconexión o retirada del mercado” de sistemas de IA que hayan causado incidentes graves [7]. Esta medida, pionera en la Unión Europea, permite a los ciudadanos solicitar la retirada inmediata de un sistema de IA que haya vulnerado sus derechos fundamentales, anticipándose a disposiciones similares de la «AI Act» que entrarán en vigor en 2026.
Textos legales desde su propia arquitectura axiológica
Tabla comparativa de enfoques regulatorios
| Aspecto | Italia (DDL 1146-B) | España (Anteproyecto) | AI Act UE |
| Filosofía Principal | Antropocéntrica y promocional | Garantista y sancionadora | Basada en riesgos |
| Autoridad Principal | ACN (vigilancia) + AgID (promoción) | AESIA (centralizada) | Autoridades nacionales |
| Régimen Sancionador | Diferido a decretos legislativos | Detallado (hasta 35M€) | Marco general |
| Sector Público | Por definir | Excluido de multas | Decisión nacional |
| Soberanía Tecnológica | Preferencia por proveedores nacionales | No especificada | No regulada |
| Enfoque Sectorial | Detallado (sanidad, trabajo, justicia) | General | Principios generales |
Sáez de Hurtado: Y ahí entra el DDL en el ámbito de salud, ¿no?
Martín Caravaca: Exacto.
Sáez de Hurtado: Sí, lo he leído y me parece muy acertado cómo el DDL traza el carril para el uso de la IA en sanidad.
Martín Caravaca: Coincido; lo hemos comentado varias veces. Explícalo tú, Pablo, que lo conoces bien.
Sáez de Hurtado: Soy sintético. Los puntos clave son:
1.- Transparencia al paciente: hay derecho a saber si una prestación se apoya en IA;
2.- No discriminación en el acceso: nada de variables socioeconómicas o códigos postales para “empujar” listas; los criterios han de ser clínicos y objetivos (gravedad, riesgo, urgencia);
3.- El médico controla la IA, no al revés: la IA asiste; pero la decisión es médica (véase el artículo 7.5 del DDL, «in fine, lasciando impregiudicata la decisione, che è sempre rimessa agli eser centi la professione medica”)
4.- Gobernanza y control: evaluación previa, revisión y actualización periódica de los modelos, seguridad y trazabilidad;
5.- Datos para I+D: se permite el uso secundario de datos sin identificadores directos por sujetos habilitados, con reglas y supervisión; y se alinea con el Espacio Europeo de Datos de Salud (entornos seguros, finalidades acotadas).
Sáez de Hurtado: Vamos con lo práctico, ahora te toca a ti, Santiago. ¿Puede un hospital usar la IA para priorizar citas en Italia?
Martín Caravaca: Sí, siempre que la priorización se base en criterios clínicos verificables y el médico conserve la última palabra. Lo que se prohíbe es la discriminación: ni código postal, ni renta, ni atajos opacos. Y debe informarse al paciente de que hay apoyo algorítmico.
Sáez de Hurtado: ¿Y si el sistema falla?
Martín Caravaca: El DDL exige verificación y actualización periódica. No vale “lo pusimos en la IA y ya está”. Hay que medir el desempeño, los sesgos y los efectos en el acceso igualitario.
Sáez de Hurtado: ¿Qué significa para que lo entiendan nuestros lectores “uso secundario de datos sin identificadores directos” para I+D en IA?
Martín Caravaca: Que los datos clínicos ya recogidos legítimamente (historias, registros) pueden reutilizarse para investigación y desarrollo de IA sin pedir un nuevo consentimiento individual, siempre que:
Primero, se excluyan los identificadores directos (nombre, DNI, nº de historia, teléfono, email); segundo, el proyecto lo lleven sujetos habilitados; y tercero, se respeten medidas de seudonimización/anonimización o se usen datos sintéticos con garantías.
Sáez de Hurtado: Dame ejemplos que entienda cualquiera.
Martín Caravaca: Por ejemplo, asistencia médica proactiva: atención primaria detecta con IA personas con alto riesgo de EPOC y las invita a espirometría. Pero pueden ser miles de cosas. Lo mismo con diabetes: si los análisis y hábitos muestran riesgo, el sistema propone contactar años antes para cambiar dieta, ejercicio y medicación. Resultado: retrasar —o incluso evitar— la enfermedad.
Alertas en consulta: una plataforma pública sugiere al médico de familia que revise un parámetro. Queda trazado quién, cuándo y por qué se genera la alerta.
Sáez de Hurtado: En suma, ¿puede la sanidad en Italia usar mis datos para medicina predictiva y proactiva?
Martín Caravaca: Sí, con reglas estrictas: sin identificadores directos para I+D; finalidades claras; proporcionalidad y minimización; evaluación de impacto; supervisión del Garante; médico al mando y transparencia contigo. No es que la salud “venza” a la privacidad: el DDL armoniza ambos bienes para que la IA útil sea posible, explicable y controlada.
Otro punto clave es que el DDL aporta la ley nacional que faltaba para usar, en sanidad e I+D, la base jurídica de “interés público relevante” de los artículos 9.2 g) y h) RGPD. Esto cumple el requisito europeo de que esa base esté especificada por ley y sea proporcionada. Por otro lado, el “uso secundario” se alinea con el principio de limitación de la finalidad (artículo 5.1.b): la ley define la nueva finalidad pública de I+D y acota condiciones (desidentificación, sujetos, control del Garante). Finalmente, privacidad desde el diseño (artículos 24/25) y seguridad (artículo 32) se refuerzan con exigencias sectoriales (verificación y actualización periódica, rol de AGENAS).
Sáez de Hurtado: Pongamos un ejemplo. Hospital “A” quiere entrenar una IA para predecir infartos con historias clínicas.
Ayer (antes): seudonimizaban datos, se subían a servidores de un proveedor y… cruzaban los dedos para que el Garante no lo parara.
Mañana (con DDL + EHDS): el proyecto se declara de interés público, se informa a la ciudadanía, se pide permiso al organismo nacional que gestiona el acceso a datos, se trabaja en un entorno seguro (no te llevas los datos crudos a casa), y el uso queda acotado: investigar sí; publicidad o seguros, no.
Traducción práctica: un despliegue regional tipo Friuli, si se integra en (o replica el modelo de) la plataforma AGENAS, si trata datos sin identificadores directos para finalidades de investigación/experimentación o para soporte asistencial con sugerencias no vinculantes, si informa al paciente y documenta DPIA, probablemente no recibiría el mismo varapalo. El foco de control pasaría de “no hay base” a “demuestra proporcionalidad, no discriminación, calidad de modelo y seguridad.
Y volviendo al origen: Pordenone anuló por roles de tratamiento, no porque el proyecto fuese intachable.
Martín Caravaca: Justo. El DDL reduce esa ambigüedad organizativa y fija un marco estable. Pasamos del sudoku a un manual común: mismo objetivo -mejor salud-, con garantías comprensibles para profesionales y ciudadanos.
Sáez de Hurtado: Pasemos al mundo del trabajo.
Martín Caravaca: El artículo 11 del DDL fija que la IA en el trabajo debe ser segura, fiable y transparente, respetuosa de la dignidad, y no discriminatoria (sexo, edad, origen, creencias, orientación, condición social/económica). El empleador debe informar del uso de IA en la relación laboral en los términos del d.lgs. 152/1997.
El artículo 12 crea un Observatorio Nacional en el Ministerio de Trabajo sobre la adopción de sistemas de IA en el mundo del trabajo con el objetivo de crear una estrategia, una monitorización del impacto, un mapa de sectores más afectados y una formación para trabajadores y empleadores.
Sáez de Hurtado: ¿Hay algún matiz interesante en el uso de la IA Administración de Justicia?
Martín Caravaca: En Justicia (art. 15), el magistrado conserva siempre la decisión sobre interpretación, hechos y pruebas. El Ministerio deberá reglamentar los usos organizativos, autorizar la experimentación y promover formación específica para jueces y personal.
Sáez de Hurtado: Esta disposición se alinea con las Directrices Éticas para el Uso de IA en Sistemas Judiciales del Consejo de Europa, que establecen que “la IA debe utilizarse para asistir a los jueces en sus decisiones, pero nunca para sustituir su juicio humano” [12].
Pasemos a la creatividad. ¿Qué hay de nuevo en Propiedad Intelectual?
Martín Caravaca: Italia actualiza su ley de derechos de autor: aclara que las “obras del ingenio” deben ser de origen humano, se añade “humano” a la frase del actual artículo 1 italiana “Sono protette ai sensi di questa legge le opere dell’ingegno di carattere creativo”, y también se protegen las obras si se crean con ayuda de IA, siempre que el resultado sea fruto del trabajo intelectual del autor.
Sáez de Hurtado: Curioso. En España, el artículo 1 de la LPI ya lo implica porque parte del concepto de autor. Y evidentemente autor no es una cosa. Italia ahora se alinea: protege la creatividad humana, incluso cuando la IA es solo una herramienta de apoyo.
Martín Caravaca: Exacto. La idea clave: la IA no puede ser autora. Solo hay derecho de autor si hay aportación creativa humana identificable.
Sáez de Hurtado: Entendido. En la práctica: quedan fuera de protección las obras generadas de forma autónoma por IA, y conviene documentar la contribución humana (dirección creativa, selección, edición) cuando se use IA en el proceso.
Martín Caravaca: Además, introduce un art. 70-septies que permite la extracción de texto y datos (TDM) a partir de obras o materiales a los que se accede legítimamente, también para IA generativa, conforme a los límites vigentes (reservas opt-out, licencias cuando proceda).
Sáez de Hurtado: ¿Qué cambia en el plano del derecho penal?
Martín Caravaca: Varias cosas. Se agravan delitos cometidos mediante IA cuando ésta sea medio insidioso, cuando dificulte la defensa o agrave las consecuencias. Se tipifica la difusión ilícita de contenidos generados o alterados con IA (los deepfakes lesivos) con penas de prisión. Y se delegan reformas para precisar la responsabilidad civil y penal —incluida la imputación según el control efectivo sobre el sistema— y ajustar reglas probatorias. La señal es clara: prevención y atribución proporcionada.
Bien, pues hemos terminado, ¿no? Recomendaciones para el futuro Pablo?
Sáez de Hurtado: Para Italia: Acelerar la aprobación de los decretos legislativos que desarrollen el régimen sancionador, asegurando que el enfoque promocional no comprometa la efectividad del «enforcement».
Para España: Reconsiderar la exclusión del sector público del régimen sancionador, buscando fórmulas que garanticen la igualdad ante la ley sin comprometer la eficacia administrativa.
Para Europa: Fortalecer los mecanismos de coordinación entre autoridades nacionales y desarrollar estándares técnicos comunes que faciliten la interoperabilidad y reduzcan la fragmentación regulatoria.
Martín Caravaca: Bravo, Pablo, estoy de acuerdo. Estoy de acuerdo, la verdadera medida del éxito no estará en la letra de la ley, sino en su capacidad para construir un ecosistema de inteligencia artificial que sea, a la vez, competitivo, ético y, sobre todo, humano. En esta tarea, Italia y España, con sus diferentes acentos pero con un objetivo común, están escribiendo las primeras páginas de la historia de la IA europea del siglo XXI.
Ha sido un placer charlar contigo. Un saludo a todos los lectores de Confilegal.
Sáez de Hurtado: Para mí también, un abrazo querido amigo y otro saludo afectuoso a quienes nos leen.
Referencias
[1] Parlamento Europeo y Consejo de la Unión Europea. (2024, 13 de junio). Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial.
[2] Veale, M., & Zuiderveen Borgesius, F. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97-112.
[3] Senato della Repubblica. (2025, 17 de septiembre). Disegno di legge n. 1146-B: Disposizioni e deleghe al Governo in materia di intelligenza artificiale. Parlamento Italiano.
[4] Floridi, L. (2019). Translating Principles into Practices: A Framework for the Governance of AI. Science and Engineering Ethics, 25(6), 1543-1557.
[5] Presidenza del Consiglio dei Ministri. (2024). Strategia Nazionale di Digitalizzazione 2026. Dipartimento per la Trasformazione Digitale.
[6] Agenzia per la Cybersicurezza Nazionale. (2024). Piano Strategico Nazionale per la Cybersicurezza 2024-2026. ACN.
[7] Ministerio para la Transformación Digital y de la Función Pública. (2025, marzo). Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial. Gobierno de España.
[8] Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. BOE núm. 201, de 23 de agosto de 2023.
[9] Ministerio de Hacienda y Función Pública. (2025). Presupuestos Generales del Estado 2025: AESIA. Gobierno de España.
[10] Huergo Lora, A. (2025). El régimen sancionador en el Anteproyecto de Ley de IA: luces y sombras. Revista de Administración Pública, 218, 45-72.
[11] European Digital Media Observatory. (2024). AI-Generated Disinformation in the 2024 European Elections. EDMO.
[12] Consejo de Europa. (2018). Ethical Guidelines for the Use of AI in Judicial Systems. CEPEJ.