Firmas

Opinión | Primeros efectos del Reglamento de IA: freno a las prácticas abusivas

Opinión | Primeros efectos del Reglamento de IA: freno a las prácticas abusivas
Sofía Anido es abogada sénior en el área Legal de BDO Abogados. En su columna detalla los efectos del Reglamento europeo de Inteligencia Artificial y explica las prácticas que han quedado vetadas en territorio europeo tras el despliegue de la primera fase que se inició el 2 de febrero.
20/2/2025 05:35
|
Actualizado: 19/2/2025 21:01
|

La siguiente afirmación ya es de sobra conocida: el pasado mes de agosto entró en vigor el Reglamento europeo de Inteligencia Artificial (RIA). Lo que resulta menos evidente es qué sucede a partir de ahora.

Si bien muchas empresas y profesionales ya se están familiarizando con sus implicaciones, todavía persiste una duda clave: ¿cuándo podrán las autoridades exigir su cumplimiento y sancionar sus infracciones?

Aunque el RIA establece un plazo general de dos años como periodo transitorio, no sigue la clásica vacatio legis en la que todas sus disposiciones entran en vigor simultáneamente tras un periodo de adaptación. En su lugar, el Reglamento ha optado por un calendario de aplicación escalonado.

En otras palabras, el RIA no entra en juego de golpe, sino que va desplegándose por fases.

En este sentido, resulta relevante puntualizar que, si bien el RIA todavía no es exigible en su totalidad por ahora, en el momento en el que hay datos personales u obras protegidas involucradas en una herramienta de IA, estamos pisando un terreno que sí está ya sólidamente regulado (Reglamento General de Protección de Datos, normativa relativa a los derechos de autor), y no podemos escudarnos en el hecho de que todavía tenemos tiempo para adaptarnos al RIA para justificar el incumplimiento de otras normativas.

Ahora mismo nos encontramos de lleno en la primera fase de despliegue del RIA: desde el pasado día 2 de febrero, ciertas prácticas vinculadas a la inteligencia artificial han quedado completamente vetadas del territorio europeo, puesto que contravienen los valores de la Carta de Derechos Fundamentales de la Unión Europea.

El mensaje es claro: cualquier empresa que desarrolle o utilice estos sistemas deberá cesar su actividad de inmediato.

¿Qué usos de la IA cruzan la línea roja?

1.- Manipulación encubierta: El primer gran bloqueo recae sobre los sistemas diseñados para influir en las personas sin que éstas se den cuenta, llevándolas a tomar decisiones que normalmente no tomarían. Esto es especialmente grave si la decisión las perjudica a ellas o a terceros.

En línea con esto, se prohíben los sistemas que, además, se aprovechen de las vulnerabilidades de colectivos especialmente protegidos como niños, personas mayores o en riesgo de exclusión social.

2.- Puntuación social: No estará permitido clasificar a las personas según su comportamiento o características personales si esto puede causarles daño o discriminarlas sin justificación.

Sería un equivalente a una evaluación crediticia en la que, en lugar de solvencia, pretende determinarse la confiabilidad de un individuo a nivel social. Ejemplo de ello sería el controversial sistema de crédito social chino.

Esta prohibición persigue evitar sistemas que puedan condicionar el acceso a oportunidades, como encontrar empleo o recibir asistencia social, basándose en criterios arbitrarios.

3.- Predicción delictiva sin base real: No se podrán usar sistemas que intenten predecir si una persona va a cometer un delito solo analizando su personalidad o sus características personales.

Esta restricción es una respuesta a los riesgos de discriminación y errores judiciales que estos sistemas pueden generar al no basarse en pruebas objetivas, como el caso de la herramienta COMPAS, en Estados Unidos.

Sin embargo, sí se permitirá el uso de herramientas que ayuden a jueces o fuerzas de seguridad en investigaciones concretas, siempre que se basen en hechos comprobables y relacionados con un delito real.

4.- Reconocimiento biométrico masivo: Se prohíbe recopilar imágenes de internet o de cámaras de vigilancia para crear bases de datos que identifiquen a las personas mediante su rostro u otras características físicas.

Del mismo modo, no se podrán utilizar sistemas de IA para analizar las expresiones faciales, el tono de voz, los gestos, etc. de las personas, con el objetivo de deducir qué están sintiendo (inferencia de emociones) en contextos como su trabajo o en la escuela, salvo que sea necesario por razones de salud o seguridad.

5- Clasificación biométrica con fines discriminatorios: No se podrá utilizar IA para clasificar a las personas según su raza, religión, orientación sexual u otros rasgos personales de carácter especialmente sensible, a partir de datos biométricos, salvo en casos específicos donde sea necesario para hacer cumplir la ley.

6.- Vigilancia masiva en espacios públicos: Se prohíbe el reconocimiento facial en tiempo real en la calle u otros lugares públicos para identificar a las personas sin su consentimiento.

Con esta medida, la UE busca evitar un escenario de supervisión constante, en el que cada movimiento pudiera ser analizado e interpretado por algoritmos.

No obstante, se permitirán excepciones en circunstancias extraordinarias que impliquen amenazas graves para la seguridad o la vida de las personas, siempre bajo estrictos controles.

En caso de no prohibirse las mencionadas conductas, este tipo de sistemas de monitorización podrían nutrirse, por ejemplo, de las bases de datos que se prohíben en el punto anterior (4).

Más allá de una mera regulación técnica, este marco normativo lanza un mensaje inequívoco: la innovación no puede avanzar a costa de los derechos fundamentales. A partir del 2 de febrero, todas las entidades que desarrollen o comercialicen IA en Europa deberán alinearse con estas normas o enfrentarse a sanciones.

La UE no solo elimina de su mercado las prácticas más invasivas y potencialmente dañinas de la IA, sino que además sienta un precedente global sobre cómo debe abordarse la revolución digital con responsabilidad. Es el primer paso hacia un modelo de convivencia entre tecnología y ética, en el que la inteligencia artificial sirva a la sociedad sin comprometer su dignidad.

Otras Columnas por Sofía Anido:
Últimas Firmas