La eurodiputada Pilar del Castillo apela a un diálogo internacional para regular la Inteligencia Artificial
Pilar del Castillo intervino telemáticamente desde Bruselas. No pudo desplazarse a Madrid, pero centró la cuestión sobre la Inteligencia Artificial y el nuevo Reglamento que ahora se está gestando en la capital de Europa. Foto: Parlamento Europeo.

La eurodiputada Pilar del Castillo apela a un diálogo internacional para regular la Inteligencia Artificial

Fue en el marco del foro "Inteligencia artificial creativa. Uso empresarial: oportunidades y riesgos”, organizado por el despacho Herbert Smith Freehills
|
02/11/2023 06:30
|
Actualizado: 02/11/2023 12:52
|

«Es fundamental un diálogo internacional, comenzando por uno entre Estados Unidos y la Unión Europea, en materia de Inteligencia Artificial (IA) generativa, por los estándares que compartimos», aseguró la eurodiputada española, Pilar del Castillo Vera, que es copresidenta del Intergrupo sobre IA del Parlamento Europeo y exministra de Educación española.

Fue en el marco del foro «Inteligencia artificial creativa. Uso empresarial: oportunidades y riesgos”, organizado por el despacho Herbert Smith Freehills en Madrid , que reunió a varios expertos para abordar los principales retos de las herramientas de IA.

Un recurso que, desde hace pocos meses, se ha convertido en un artículo de consumo accesible y que empresas en todo el mundo están ya empleando en su actividad cotidiana.

Del Castillo explicó el actual debate que está teniendo lugar en el seno de la Unión Europea sobre la Inteligencia Artificial puede terminar siendo la primera regulación del mundo en esta materia.

OBJETIVOS DEL FUTURO REGLAMENTO EUROPEO DE IA

La eurodiputada aseguró que “el desarrollo tecnológico de la IA afecta profundamente a la sociedad y a todos los sectores económicos”, por lo que, “el debate de cómo regularla está teniendo lugar en diferentes países e instituciones internacionales, no sólo en Europa”.  

Explicó que el Reglamento europeo en el que se trabaja actualmente “persigue un objetivo muy específico: proteger la salud, la seguridad y los derechos fundamentales de las personas, generando una mayor confianza en la Inteligencia Artificial, lo que a su vez potenciaría su desarrollo e implementación”.

Por eso, “ser los primeros en regular esta materia puede posicionar y ayudar a las empresas que operan en la UE a que tengan más instrumentos para desarrollarse”.

Por su parte, Eduardo Soler Tappa, socio director de Herbert Smith Freehills, declaró que la IA está teniendo un crecimiento exponencial y recuerda en sus orígenes a lo que pudo ser el nacimiento del propio internet, logrando en poco tiempo una gran implantación doméstica”.

Lo que explica “los grandes retos y desafíos a los que nos enfrentamos”.

 Y es que, los expertos coincidieron en que, si bien se trata de herramientas de enorme utilidad en la realización de tareas sencillas, repetitivas y «mecanizables», debido a la gran voracidad en datos que el aprendizaje de estos modelos requiere, son varios los riesgos de esta tecnología, que se extienden a cuestiones laborales y contractuales, de privacidad e identidad, derechos de autor o marcas, entre otros.

De este modo, las empresas que los utilicen deberán protegerse frente a tales riesgos mediante pautas de gobernanza completas y claras.

BASES ÉTICAS Y REGULATORIAS DE LA IA CREATIVA

En este sentido, Iria Calviño, socia, y Miguel Ángel Barroso, asociado sénior del despacho, analizaron las bases éticas y regulatorias de la IA creativa.

Explicaron que “estamos ante un desafío y una oportunidad, y lo determinante es utilizarla teniendo en cuenta los límites legales y éticos de nuestra sociedad”.

Y recordaron que “el ordenamiento jurídico de la UE ya recoge los principios éticos que nos regulan y vinculan –Carta de Derechos Fundamentales– y que también deben regir el marco ético de la IA».

De ahí que, en su opinión, “muchos de los debates que parecen que plantean estas nuevas herramientas ya están aterrizados en el mundo jurídico”.

Añadieron que los principios éticos aplicables pueden concentrarse en cuatro grandes bloques relacionados con los derechos fundamentales: el respeto a la autonomía humana, la equidad e igualdad, la predicción del daño, y, finalmente, la transparencia.

POLÍTICAS CORPORATIVAS

Pablo García Mexía, director de Derecho Digital de Herbert Smith Freehills, argumentó que, a través de la IA generativa, “vamos a crear herramientas tremendamente útiles, pero que también generan muchos riesgos que debemos planificar y regular, sin esperar a que su impacto en nuestras organizaciones sea tan grande que nos arrolle”.

Por ello, aseguró “es fundamental contar con una política interna en las empresas que desarrolle el modo en el que se usen estas herramientas”.

Y planteó una serie de principios que se deben respetar como que se construyan pautas de uso y formación de las personas; que se trate una política concreta y adaptada a las necesidades de la empresa; que cuente una estructura sencilla y clara; o que sea una política orientada a la seguridad, basada en la transparencia y en las normas globales éticas internacionales.

También recomendó a las empresas que se planteen una política propia, separada de las demás políticas que existan en el seno de la organización, dada su importancia y riesgos.

El objetivo, apostilló, es “que las compañías puedan usar la IA de un modo eficaz, seguro y eficiente”.

Y apeló a la generación de herramientas de IA propias dentro de las compañías “porque hará más fácil el control de riesgos al permitir encastrar los principios deseados desde el inicio de su uso”.

Ahondando en este asunto, Ana Garmendia, asociada de la firma, aludió a los contenidos que debe fijar y desarrollar esta política corporativa, como a quién va dirigida, qué riesgos existen en el uso de la IA, qué conducta se espera de quienes la utilizan, cuándo hay incumplimientos y, en estos casos, cuáles son las consecuencias o a quién se deben reportar.

Evento IA_HSF-standard-width-1200px-gigapixel-standard-width-1200px-gigapixel
Pablo García Mexía, director de Derecho Digital de Herbert Smith Freehills, durante su intervención.

DEBE HABER UN APRENDIZAJE SUPERVISADO

Finalmente, intervino Oriol Pujol, catedrático de Ciencias de la Computación e Inteligencia Artificial y decano de la Facultad de Matemáticas e Informática de la Universidad de Barcelona, quien subrayó la importancia de que el aprendizaje automático de estas herramientas (que mejoran su rendimiento a partir de la experiencia) sea un “aprendizaje supervisado”.

A este respecto, señaló que la IA aprende de humanos, con competencias inferenciales pero, además, con competencias referenciales, es decir, que conectan lo que la herramienta arroja con el mundo real.

Y apuntó al riesgo de que “si se genera demasiado contenido con estas herramientas de manera no regulada puede que esas últimas competencias se pierdan en el tiempo”.

Por último, señaló otros riesgos existentes, a su juicio, de la IA generativa, como el desconocimiento del propósito implícito de los modelos del lenguaje, que puede dar lugar a estereotipos o sesgos sociales; el uso incorrecto de la herramienta suponiendo posibles problemas de seguridad y privacidad o de Propiedad Intelectual; el impacto medioambiental; o la centralización del poder porque, concluyó, “sólo unas pocas empresas tienen el control sobre estas herramientas de IA”.

Noticias Relacionadas:
Lo último en Profesionales