La Comisión Europea empieza a aplicar el Reglamento de Inteligencia Artificial (AI Act) antes de tiempo. No lo hace todavía con multas o sanciones, sino con vigilancia, denuncias y recopilación de pruebas.
Ese es el sentido del ‘AI Act Whistleblower Tool’ (Herramienta de denuncia del Acta de IA), una nueva herramienta que funciona como un auténtico de canal de denuncias. El portal, alojado en la página web de la Comisión, permite que los usuarios reporten presuntas infracciones del ‘AI Act’, especialmente las relacionadas con los proveedores de modelos de inteligencia artificial de uso general GPAI (‘General-Purpose AI’ o IA de propósito general), es decir, sistemas todoterreno que resumen, escriben, traduzcan e incluso se integren en múltiples productos y servicios.
Su objetivo es claro: identificar los riesgos reales antes de la entrada en vigor del ‘AI Act’ y evitar que las prácticas dañinas se consoliden en el mercado.
«La Comisión quiere detectar prácticas dañinas y riesgos sistémicos (especialmente en torno a los modelos de IA de uso general o GPAI) antes de la plena aplicabilidad del Reglamento 2024/1689», explica en conversación con este medio Amedeo Marchelli, abogado experto en Compliance.
«Esta herramienta tiende un puente en materia de ejecución al reforzar la capacidad de vigilancia de mercado y la coordinación entre la UE y las autoridades nacionales», añade.
¿Qué infracciones se pueden denunciar a través de este canal?
Entre ellas, las ya perseguidas por el Reglamento de Inteligencia Artificial como determinadas categorizaciones biométricas, ‘scraping’ indiscriminado para bases de datos de reconocimiento facial, ‘social scoring’, técnicas manipulativas/cognitivo-conductuales etc, entre otras.
Además, en el caso de los proveedores de modelos GPAI, pueden comunicarse incumplimientos como la falta de documentación técnica, la ausencia de resúmenes sobre los datos de entrenamiento, deficiencias en la evaluación de riesgos del modelo o la inexistencia de medidas adecuadas de mitigación.
Quedan fuera, al menos por ahora, muchas de las obligaciones que todavía no son exigibles, como las evaluaciones de conformidad de los sistemas de alto riesgo o los análisis de impacto en derechos fundamentales.
Una herramienta que no sustituye a los canales de denuncia internos
Este canal de denuncias convivirá con los sistemas internos y externos de denuncia actuales y preexistentes en las empresas o en los países. Como apunta el abogado «actúa como ventanilla UE con confidencialidad y seguimiento anónimo: acusa recibo, determina la competencia y gestiona o coordina con autoridades nacionales mientras los canales nacionales e internos mantienen sus plazos».
Desde el punto de vista del Compliance, sin embargo, la herramienta introduce un cambio relevante: aumenta la probabilidad de que problemas internos escalen directamente a la «AI Office» europea, activando investigaciones paralelas a nivel comunitario y nacional.
Por eso, el abogado recomienda a las empresas anticiparse a este nuevo escenario. La clave pasa por reforzar los canales internos de denuncia, garantizar la ausencia de represalias y estar preparadas para responder con rapidez y coherencia.
«Es fundamental contar con un manual interno de investigación amparado por el privilegio profesional y tener preparada toda la documentación susceptible de auditoría: inventarios de sistemas de IA, evaluaciones de riesgos, evaluaciones de modelos, medidas de transparencia y registro de incidentes», concluye.
Con esta herramienta, Bruselas lanza un mensaje inequívoco: el «AI Act» ya no es solo un futuro Reglamento. La supervisión ha comenzado.