Edificio de la Comisión Europea en Bruselas
La AI Act Whistleblower Tool es un portal seguro de denuncias anónimas, gestionado por la Comisión Europea, que permite informar sobre posibles infracciones del AI Act, especialmente en relación con prácticas de IA ya prohibidas, proveedores de modelos de IA de uso general (GPAI) y riesgos sistémicos con impacto en derechos fundamentales. Foto: EP.

Bruselas activa el canal de denuncias del Reglamento de IA antes de que sea plenamente aplicable

17 / 12 / 2025 05:45

Actualizado el 17 / 12 / 2025 12:53

En esta noticia se habla de:

La Comisión Europea empieza a aplicar el Reglamento de Inteligencia Artificial (AI Act) antes de tiempo. No lo hace todavía con multas o sanciones, sino con vigilancia, denuncias y recopilación de pruebas.

Ese es el sentido del ‘AI Act Whistleblower Tool’ (Herramienta de denuncia del Acta de IA), una nueva herramienta que funciona como un auténtico de canal de denuncias. El portal, alojado en la página web de la Comisión, permite que los usuarios reporten presuntas infracciones del ‘AI Act’, especialmente las relacionadas con los proveedores de modelos de inteligencia artificial de uso general GPAI (‘General-Purpose AI’ o IA de propósito general), es decir, sistemas todoterreno que resumen, escriben, traduzcan e incluso se integren en múltiples productos y servicios.

Su objetivo es claro: identificar los riesgos reales antes de la entrada en vigor del ‘AI Act’ y evitar que las prácticas dañinas se consoliden en el mercado.

«La Comisión quiere detectar prácticas dañinas y riesgos sistémicos (especialmente en torno a los modelos de IA de uso general o GPAI) antes de la plena aplicabilidad del Reglamento 2024/1689», explica en conversación con este medio Amedeo Marchelli, abogado experto en Compliance.

«Esta herramienta tiende un puente en materia de ejecución al reforzar la capacidad de vigilancia de mercado y la coordinación entre la UE y las autoridades nacionales», añade.

¿Qué infracciones se pueden denunciar a través de este canal?

Entre ellas, las ya perseguidas por el Reglamento de Inteligencia Artificial como determinadas categorizaciones biométricas, ‘scraping’ indiscriminado para bases de datos de reconocimiento facial, ‘social scoring’, técnicas manipulativas/cognitivo-conductuales etc, entre otras.

Además, en el caso de los proveedores de modelos GPAI, pueden comunicarse incumplimientos como la falta de documentación técnica, la ausencia de resúmenes sobre los datos de entrenamiento, deficiencias en la evaluación de riesgos del modelo o la inexistencia de medidas adecuadas de mitigación.

Quedan fuera, al menos por ahora, muchas de las obligaciones que todavía no son exigibles, como las evaluaciones de conformidad de los sistemas de alto riesgo o los análisis de impacto en derechos fundamentales.

Una herramienta que no sustituye a los canales de denuncia internos

Este canal de denuncias convivirá con los sistemas internos y externos de denuncia actuales y preexistentes en las empresas o en los países. Como apunta el abogado «actúa como ventanilla UE con confidencialidad y seguimiento anónimo: acusa recibo, determina la competencia y gestiona o coordina con autoridades nacionales mientras los canales nacionales e internos mantienen sus plazos».

Desde el punto de vista del Compliance, sin embargo, la herramienta introduce un cambio relevante: aumenta la probabilidad de que problemas internos escalen directamente a la «AI Office» europea, activando investigaciones paralelas a nivel comunitario y nacional.

Por eso, el abogado recomienda a las empresas anticiparse a este nuevo escenario. La clave pasa por reforzar los canales internos de denuncia, garantizar la ausencia de represalias y estar preparadas para responder con rapidez y coherencia.

«Es fundamental contar con un manual interno de investigación amparado por el privilegio profesional y tener preparada toda la documentación susceptible de auditoría: inventarios de sistemas de IA, evaluaciones de riesgos, evaluaciones de modelos, medidas de transparencia y registro de incidentes», concluye.

Con esta herramienta, Bruselas lanza un mensaje inequívoco: el «AI Act» ya no es solo un futuro Reglamento. La supervisión ha comenzado.

Noticias relacionadas:

La Abogacía española advierte a sus profesionales sobre los riesgos de utilizar la IA en la práctica jurídica

La World Compliance Association lanza una certificación de IA Officer enfocada en gobernanza y cumplimiento

Traductora despedida porque la IA hace ya «innecesario» su trabajo, aunque la empresa no la utilice

Los tribunales vuelven a alertar del uso de IA en los escritos de los abogados: citar sentencias falsas puede ser mala fe procesal

El CGPJ da el visto bueno a los anteproyectos de Ley Orgánica de protección civil del derecho al honor y al de Ley para el buen uso y la gobernanza de la IA

«Los deepfake no son una broma»: la iniciativa de la AEPD para concienciar sobre el uso de la IA

Lo último en Profesionales

SOCIOS BALDER IP

BALDER factura 28,8 millones y crece un 5% apoyado en la IA de agentes en 2025

cuatrecasas cinco socios

Cuatrecasas refuerza su estructura con cinco nuevos socios

eugenio ribón congreso derecho bancario

El ICAM analiza los retos del nuevo mapa financiero en su VI Congreso de Derecho Bancario

rooited in women pons ip (2)

El sector IP avanza en talento femenino, pero sigue lejos de la dirección

El CGPJ inadmite la petición de las acusaciones del 'caso Begoña' de amparar al juez Peinado frente al Gobierno

El Colegio de Procuradores de Madrid respalda la independencia judicial como «pieza clave» del Estado de Derecho