Firmas

La futura regulación comunitaria sobre la Inteligencia Artificial

La futura regulación comunitaria sobre la Inteligencia Artificial
Javier Puyol, uno de los expertos reconocidos en este campo, describe por donde va a ir la futura regulación de la Inteligencia Artificial en la Unión Europea. Foto: Confilegal.
17/7/2023 06:30
|
Actualizado: 17/7/2023 11:43
|

La Inteligencia Artificial (IA, o AI en inglés) es la capacidad que tiene un dispositivo (como un móvil, ordenador o un robot) para realizar tareas que generalmente requieren inteligencia humana

En el ámbito puramente informático, la inteligencia Artificial es la disciplina donde se estudia y desarrollan este tipo de sistemas.

Puede afirmarse, que del mismo modo que la inteligencia humana es compleja y múltiple, también lo es la Inteligencia Artificial, de manera que incluye numerosas áreas de conocimiento que intentan regular distintos aspectos de la inteligencia humana, como:

(i) la capacidad para percibir, reconocer el entorno y reaccionar en consecuencia;

(ii) la capacidad para planificar y resolver problemas;

(iii) la habilidad para aprender constantemente y adaptarse;

(iv) las inteligencias social, emocional, musical; y, finalmente;

(v) la vinculada a la creatividad.

EL PARLAMENTO EUROPEO SE PRONUNCIA

 El 14 de junio de 2023, el Parlamento Europeo adoptó su posición sobre la futura Ley comunitaria sobre la Inteligencia Artificial (IA), la cual se encuentra en fase de aprobación y al mismo tiempo, en consonancia tanto con el Libro Blanco sobre la Inteligencia Artificial, aprobado por la Comisión Europea el 19 de febrero de 2020, donde se propuso un marco jurídico para la inteligencia artificial cuyo objetivo es abordar los riesgos generados por los usos específicos de la IA a través de un conjunto de normas centradas en el respeto de los derechos fundamentales y la seguridad, y donde se garantice que las personas perjudicadas por los sistemas de Inteligencia Artificial disfruten del mismo nivel de protección que las personas perjudicadas por otras tecnologías; como con el informe sobre responsabilidad por Inteligencia Artificial, donde la Comisión Europea identificó los retos específicos que plantea la utilización de la misma, de conformidad con las normas sobre responsabilidad existentes, entre otros eventos a tener en consideración.

Se trata de tener un enfoque europeo con relación a la Inteligencia Artificial (IA) lo cual ayudará a construir una Europa más resiliente para la Década Digital en la que las personas y las empresas puedan disfrutar de los beneficios precisamente generados a consecuencia de la Inteligencia Artificial.

Debe destacarse que la futura Ley sobre la IA va a ser pionera en el mundo con relación, precisamente a la regulación sobre la IA

La prioridad del Parlamento Europeo ha sido siempre y de manera principal la de garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.

En este mismo sentido el Parlamento también ha querido establecer una definición tecnológicamente neutra y uniforme de la IA para que pueda aplicarse a futuros sistemas y desarrollos tecnológicos que la misma abarque.

«La prioridad del Parlamento Europeo ha sido siempre y de manera principal la de garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente»

Sobre esta base, debe destacarse que la futura Ley de IA va a establecer normas diferentes para sus distintos niveles de riesgo.

Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen:

a). La manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños

b). La puntuación social: referente, en este caso a la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales

c). Los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

EXCEPCIONES

No obstante, ello, existen tal como señala el Parlamento Europeo, algunas excepciones a esta calificación.

Por ejemplo, en lo referente a los sistemas de identificación biométrica a distancia «a posteriori», en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Profundizando en el concepto de riesgo vinculado al uso y al desarrollo de la Inteligencia Artificial, debe tenerse presente que los sistemas de Inteligencia Artificial pueden afectar de manera negativa a la seguridad y/o a los derechos fundamentales de las personas, considerándose en tal caso de alto riesgo, y, ello permite categorizarse a esta tecnología, en dos categorías bien diferentes.

a). En primer término, debe considerarse que los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, están sujetos a dicha normativa, y consiguientemente con ello, es procedente el respeto y la observancia de la misma.

En este ámbito normativo se incluyen, los juguetes, la aviación, los automóviles, los dispositivos médicos y, finalmente, también, los ascensores.

b). En segundo lugar, deben ser tenidos en consideración los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE, y que son los que se indican seguidamente:

• La identificación biométrica y categorización de personas físicas.

• La gestión y la explotación de infraestructuras críticas.

• La educación y formación profesional.

• El empleo, gestión de trabajadores y acceso al autoempleo.

• El acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.

• La aplicación de la ley.

• La gestión de la migración, el asilo y el control de fronteras.

• La asistencia en la interpretación jurídica y aplicación de la ley.

LAS IA DE ALTO RIESGO TIENEN QUE SER EVALUADAS

Tal como señala el Parlamento Europeo, todos los sistemas de IA de alto riesgo tienen necesariamente que ser evaluados antes de su comercialización, y, también posteriormente a lo largo de su ciclo de vida.

Dentro de la futura regulación, se menciona especialmente a la llamada “Inteligencia Artificial Generativa”.

La misma hace referencia aquellos modelos capaces de generar automáticamente contenidos de texto, imágenes, música, vídeo u otro tipo de datos como proteínas.

Ejemplos de estos modelos son el ChatGPT para texto, (Large Languaje Models o LLM’s), y, DALL-E o Stable Diffusion para imágenes.

Estos modelos tienen miles de millones o incluso billones de parámetros, al haber sido entrenados con miles de millones de ejemplos de texto o imágenes en su mayoría de Internet.

Representan una revolución ya que nunca antes en la historia un ente no humano había tenido la capacidad de generar este tipo de contenido con el nivel de competencia de un humano[i].

En este caso, la IA de carácter generativo, de la que es un buen representante, tal como ha quedado indicado anteriormente el ChatGPT, tendría que cumplir una serie de requisitos a juicio del Parlamento Europeo, en orden fundamentalmente a las exigencias derivadas de la transparencia, y, que son los que se citan a continuación:

a). La necesidad de proceder a revelar que el contenido ha sido generado por IA.

b). El diseñar el modelo, a los efectos de evitar que genere contenidos de naturaleza ilegal.

c). La obligación de proceder a publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento del sistema.

También debe hacerse alusión a la Inteligencia Artificial de riesgo limitado, la cual hace referencia a los sistemas de IA con obligaciones específicas de transparencia.

Tal como señala el Parlamento Europeo, al utilizarse sistemas de IA como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina, con la finalidad de que la misma pueda tomar una decisión informada de continuar o retroceder.

Los sistemas de IA de riesgo limitado deben cumplir con una serie de requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa.

INTELIGENCIA ARTIFICIAL DE «RIESGO MÍNIMO O NULO»

En este sentido, el usuario tras interactuar con las aplicaciones puede decidir si desea seguir utilizándolas.

En todo caso, debe tenerse presente que, los usuarios deben ser conscientes y conocer de manera efectiva sobre el momento y las circunstancias concretas cuándo están interactuando con la IA.

Esto, por ejemplo, incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, los llamados “deepfakes”).

La propuesta del Parlamente Europeo hace también referencia a la llamada Inteligencia ArtificiaL de “riesgo mínimo o nulo”, permitiendo su libre utilización

Ello incluye la utilización de aplicaciones tales como como videojuegos habilitados para la Inteligencia artificial o filtros de «spam».

Así, debe indicarse que hoy por hoy, la gran mayoría de los sistemas de Inteligencia Artificial utilizados actualmente en el marco de la Unión Europea entran en dentro de esta categoría en el uso de esta tecnología

Complementariamente a ello, y de acuerdo con estos nuevos planteamientos, debe indicarse que una vez que un sistema de Inteligencia Artificial se incorpora al mercado, las autoridades competentes tienen la obligación de estar a cargo de la vigilancia del mismo en el mercado, estableciéndose que los usuarios garanticen la supervisión y el seguimiento humanos del mismo, y los proveedores deben adoptar, asimismo, un sistema de seguimiento posterior a su comercialización.

Del mismo modo, los proveedores y usuarios también informarán de incidentes graves y mal funcionamiento en el uso y la aplicación de cualquier desarrollo técnico basado en la Inteligencia Artificial.

En alguna medida, se trata de preparar un cuerpo normativo, que sea capaz de regular el uso y el desarrollo de la inteligencia Artificial para el futuro.En la propuesta formulada se tiene en consideración el hecho de que la Inteligencia Artificial va a tener una muy rápida evolución y un gran desarrollo, y por ello es necesario que la normativa que finalmente se establezca al efecto tenga un marcado un enfoque a prueba de futuro, que permita que las normas se adapten en cada momento a la evolución y al cambio tecnológico que se produzca.

Por todo ello, se trata de que las aplicaciones de Inteligencia Artificial deban seguir siendo fiables incluso después de haber sido comercializadas.

Esto requiere y exige una gestión continua por parte de los proveedores, a los efectos de minimizar los riesgos que esta nueva tecnología conlleva.

En definitiva, la Propuesta del Parlamento Europeo considera a la Inteligencia Artificial como parte de su estrategia digital, y por ello desde la UE se quiere regular la inteligencia artificial (IA) con la finalidad primordial de poder garantizar las mejores condiciones para el desarrollo y uso de la misma, en toda su dimensión, teniendo en consideración básicamente que se trata de una tecnología completamente innovadora, teniendo en cuenta sobre todo, los muchos  beneficios que la Inteligencia Artificial puede aportar en múltiples campos, tales como: una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible, entre otros muchos campos, donde va a ser de inmediata aplicación, sin que ello suponga limitar o condicionar el ejercicio de los derechos humanos en el ámbito europeo.


[i] Cfr.: OLIVER, Nuria. ¿Qué es la inteligencia Artificial? Fundación Ellis. Alicante. Obra citada

 

Otras Columnas por Javier Puyol Montero:
Últimas Firmas
  • Opinión | ¿Ante qué juez se interpone una demanda de exequatur de una sentencia extranjera de divorcio?
    Opinión | ¿Ante qué juez se interpone una demanda de exequatur de una sentencia extranjera de divorcio?
  • Opinión | El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (y VI)
    Opinión | El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (y VI)
  • Opinión | Directiva Europea contra el «greenwashing»: hacia las auditorías rigurosas sobre las prácticas ESG
    Opinión | Directiva Europea contra el «greenwashing»: hacia las auditorías rigurosas sobre las prácticas ESG
  • Opinión | Caso Begoña Gómez: ¿voluntarismo judicial?
    Opinión | Caso Begoña Gómez: ¿voluntarismo judicial?
  • Opinión | Sobre la reparación del daño por el perdón del ofendido
    Opinión | Sobre la reparación del daño por el perdón del ofendido