Opinión | La regulación de los modelos de IA general en la Ley europea de IA ya es aplicable

Moisés Barrio
Moisés Barrio Andrés es letrado del Consejo de Estado. Asesor de diversos Estados y de la Unión Europea en materia de regulación digital. Profesor de Derecho digital. Director del Diploma de Alta Especialización en Legal Tech y transformación digital (DAELT) de la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid. En su columna analiza cómo la UE impone desde agosto de 2025 obligaciones de transparencia y seguridad a los modelos de IA general como GPT-5 o DALL-E. Foto: Confilegal.

3 / 09 / 2025 05:44

En esta noticia se habla de:

Desde el pasado 2 de agosto de este año, resultan aplicables las normas de la Unión Europea (UE) para los modelos de IA más avanzados contenidas en el Reglamento UE de inteligencia artificial, el RIA o la Ley de IA, que también he analizado de forma práctica en un libro reciente editado por Lefebvre, titulado precisamente “Reglamento UE de inteligencia artificial (Incluye los actos de desarrollo y ejecución de la AI Act)”.

Tal día constituyó un momento crucial: no solo para la Ley de IA, sino para la estrategia general de la UE en materia de regulación digital.

¿Por qué? Se trata de la regulación de los proveedores de modelos de IA de uso general (modelos GPAI por sus siglas en inglés), como OpenAI, Google, Meta, Microsoft, Mistral o DeepSeek, actores estructurales en la nueva etapa de la IA que abrió la presentación de ChatGPT en noviembre de 2022.

Estos modelos se definen jurídicamente como aquel modelo que es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado.

Algunos modelos GPAI destacados son, por ejemplo, GPT-5, que es un modelo de IA de uso general que puede realizar tareas como traducción, resumen de texto y respuesta a preguntas, pero de igual forma genera texto creativo, como poemas, historias o código de programación.

Es el modelo subyacente a ChatGPT. Así como también DALL-E o Stable Diffusion, que son modelos de IA generativa especializados en la creación de imágenes a partir de descripciones textuales o prompts.

Este hito jurídico aportará más transparencia, seguridad y responsabilidad a los sistemas de IA que se están comercializando. Estas normas suponen que sus proveedores deben ofrecer una información más clara sobre cómo se entrenan sus modelos de IA, una mejor aplicación de las protecciones de los derechos de autor y un desarrollo más responsable de la IA.

OBLIGACIONES DE TRANSPARENCIA

A partir de ahora, los proveedores deberán cumplir las obligaciones de transparencia y derechos de autor cuando comercialicen modelos GPAI en el mercado de la UE. Por eso, se aplica a GPT-5 de OpenAI, que se lanzó unos pocos días después, el 7 de agosto. Asimismo, los modelos que ya estaban en el mercado antes del 2 de agosto de 2025 deberán garantizar el cumplimiento antes del 2 de agosto de 2027.

De igual manera, los proveedores de los modelos más avanzados o impactantes que presenten riesgos sistémicos, es decir, aquellos que superen los 10^25 FLOP, deberán cumplir obligaciones adicionales, como notificar los mismos a la Comisión Europea y garantizar la seguridad y protección del modelo.

Para ayudar a todos los proveedores, la Comisión Europea ha publicado unas directrices en las que se aclara quién debe cumplir las obligaciones.

Con estas directrices, la Comisión Europea ha aportado una claridad muy necesaria. Se trata por ello de un documento muy útil y esclarecedor. Ahora bien, sigue pendiente una cuestión clave: el umbral de FLOP en la Ley de IA para determinar el carácter sistémico del modelo.

Una modificación del umbral, que actualmente está en fase de estudio, debe basarse en pruebas sólidas, con las obligadas consultas a expertos y referencia al estado de la técnica del mundo real.

Estimo que cualquier reajuste debe garantizar que los proveedores de GPAI más grandes y líderes sigan estando plenamente incluidos en el ámbito de aplicación.

Los futuros ajustes deben beneficiar a aquellos innovadores cuyos modelos GPAI no supongan claramente un riesgo sistémico, y no introducir una forma de eludir los requisitos de la Ley de IA.

Además, la Comisión ha publicado una plantilla para ayudar a los proveedores a resumir los datos utilizados para entrenar sus modelos.

UN CÓDIGO DE BUENAS PRÁCTICAS RESPALDADOS POR LA COMISIÓN EUROPEA Y LOS ESTADOS MIEMBROS

También es importante subrayar que el Código de buenas prácticas para estos modelos, que ya ha sido respaldado por la Comisión Europea y los Estados miembros para demostrar el cumplimiento de la Ley de IA en este punto, es otro instrumento muy relevante, en este caso de soft law. Esta herramienta proporciona a las empresas tecnológicas una base fiable sobre la que trabajar.

Las que ya han firmado el Código, como Microsoft, Google, Amazon u Open AI, han enviado una señal clara: quieren cumplir las normas de la UE. Al mismo tiempo, las empresas que no lo han firmado deben esperar un escrutinio adicional. Han optado por no seguir un marco de transparencia y seguridad que se ha desarrollado a lo largo de meses de aportaciones de expertos y reuniones públicas con todas las partes implicadas.

Esa elección lo dice todo y, a mi juicio, las empresas que no lo han firmado van a tener que desarrollar importantes esfuerzos adicionales para explicar cómo sus modelos cumplen con las reglas de la Ley de IA.

Por lo demás, la aplicación de las normas para los modelos GPAI requerirá una gran capacidad por parte de la Oficina Europea de IA. El talento para evaluar los modelos más avanzados es escaso, y por eso el Parlamento Europeo lleva mucho tiempo reclamando una plantilla mínima 200 personas, incluidos expertos técnicos, jurídicos y políticos de primer nivel.

En todo caso, aunque la plena supervisión de estos modelos tendrá lugar a partir de agosto de 2026, la Oficina Europea de IA ya debe examinar el cumplimiento por parte de los proveedores líderes.

La aseguradora Nippon Life demanda por 10 millones de dólares a OpenAI: ChatGPT prestó asistencia legal a una cliente

Lorenzo Silva acusa a las grandes tecnológicas de construir sus Inteligencias Artificiales robando derechos de autor

El Tribunal Superior Regional de Hamburgo analiza las excepciones de TDM en la creación de datasets para entrenar modelos de IA

Opinión | Novedades de la regulación de la IA en Estados Unidos

El Centro Universitario ICAM lanza su oferta educativa

OpenAI, en el punto de mira: un tribunal alemán dictamina que la IA infringió derechos de autor y reaviva el debate global sobre música y algoritmos

Lo último en Firmas

Letrado de la Administración de Justicia LAJ

Opinión | La fractura silenciosa de los LAJ: nuevos sumideros de los Tribunales de Instancia

Hoja de ruta del Juez Peinado

Opinión | El juez Peinado y su hoja de ruta

Isarel y Turquía.

Opinión | Turquía en la lista: Cómo Israel fabrica su próximo enemigo y por qué esta vez puede tener razón

Victoria López Barrio

Opinión | La división de la cosa común frente a la herencia yacente

Peinado

Opinión | Por qué yerra Peinado