PUBLICIDAD
PUBLICIDAD

Por qué es necesario regular la Inteligencia Artificial

Moisés Barrio Andrés, letrado del Consejo de Estado, profesor, árbitro y abogado, explica aquí la necesidad de regular la Inteligencia Artificial.
|

La inteligencia artificial (IA o AI en inglés) es una tecnología «retro». Arranca tras la Segunda Guerra Mundial, y el término se acuñó en 1956 por John McCarthy en un encuentro científico celebrado en el Dartmouth College de New Hampshire (EE.UU.), donde sus participantes debatieron sobre la posibilidad de simular la inteligencia humana mediante máquinas.

Más modernamente, en 1997 el ordenador Deep Blue de IBM derrotó al campeón del mundo de ajedrez Gary Kasparov.

PUBLICIDAD

Agrupa, a grandes trazos, a diversas tecnologías apoyadas en programas informáticos y algoritmos que no se limitan a realizar mecánicamente tareas programadas, sino que aprenden de la experiencia, como hacemos nosotros, y pueden elaborar juicios y tomar decisiones de forma autónoma.

PUBLICIDAD

EL MUNDO JURÍDICO NO PUEDE QUEDAR AL MARGEN DEL AUGE DE LA IA

Hoy asistimos a su auge gracias a la importante reducción de los costes del hardware, las capacidades del big data o la nube, y a la llamada Artificial Intelligence as a Service (AIaaS), que permite a los desarrolladores de software utilizar componentes, por ejemplo, de IBM, Google o Microsoft en vez de tener que programar desde cero todos los aspectos de la aplicación.

La inteligencia artificial está presente gradualmente en todas partes: en nuestros dispositivos domésticos del Internet de las Cosas, en los servicios y plataformas digitales, en los robots, en las calles de las smart cities, en las oficinas, en las fábricas, en los hospitales, etc.

PUBLICIDAD

Naturalmente, el mundo jurídico no iba a quedar al margen de esta tecnología disruptiva.

Sin embargo, por el momento estamos dejando que las compañías tecnológicas se ocupen en exclusiva del desarrollo ético y jurídico de la inteligencia artificial.

En un intento de ayudar a dar forma al futuro de la IA, en 2016, seis grandes empresas tecnológicas -Amazon, Apple, Google, Facebook, IBM y Microsoft- constituyeron la Asociación para la IA -la Partnership on Artificial Inteligence- en beneficio de las personas y la sociedad con el fin de «estudiar y formular las mejores prácticas sobre las tecnologías de la IA«.

PUBLICIDAD

Del mismo modo, en octubre de 2017, DeepMind, una de las compañías líderes mundial de IA adquirida por Google en 2014, presentó un nuevo comité de ética «para ayudar a los tecnólogos a poner en práctica la ética, y para ayudar a la sociedad a anticipar y dirigir el impacto de la IA de manera que trabaje para el beneficio de todos«.

LOS ESTADOS TIENEN QUE GARANTIZAR EL CUMPLIMIENTO DEL DERECHO EN ESTA MATERIA

Estas iniciativas son muy positivas y valiosas pero no son suficientes. El sector privado, que es probablemente el que más se beneficiará financieramente de cualquier decisión legal que se tome, está tomando el liderazgo en cuanto a la regulación de la IA.

PUBLICIDAD

Pero también es imprescindible que los Estados garanticen el cumplimiento del Derecho y los principios y derechos fundamentales consagrados en las constituciones nacionales y en la Carta de los Derechos Fundamentales de la Unión Europea.

Pero, ¿por qué necesitamos una regulación jurídica imperativa?

En otros trabajos me he ocupado detenidamente de las nuevas cuestiones que las leyes actuales no cubren.

Por ejemplo, no está del todo claro quién debe ser considerado responsable si la IA causa daños (por ejemplo, en un accidente con un coche autónomo o por una incorrecta aplicación de un algoritmo): el diseñador original, el fabricante, el propietario, el usuario o incluso la propia IA.

También se discute si debe reconocerse una personalidad electrónica autónoma para los sistemas más avanzados, que les atribuya directamente derechos y obligaciones.

PUBLICIDAD

Igualmente se plantean dilemas morales acerca de cómo la IA debe tomar determinadas decisiones importantes, e incluso si existirían decisiones en las que no debería tener la última palabra. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusión.

La falta de regulación también aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira pública.

LA IA DECIDE CUESTIONES VITALES, ECONÓMICAS Y SOCIALES SIN ESTAR SUJETA A NORMA LEGAL

Estos temas no son sólo preocupaciones doctrinales que nos entretienen a los académicos.

Los sistemas de IA ya tienen la capacidad de adoptar decisiones difíciles que hasta ahora se han basado en la intuición humana o en leyes y prácticas de los tribunales.

Tales decisiones van desde cuestiones de vida o muerte, como la utilización de los robots asesinos autónomos en los ejércitos, hasta asuntos de importancia económica y social, como la forma de evitar los sesgos algorítmicos cuando la inteligencia artificial decide por ejemplo si se debe otorgar una beca a un estudiante o cuándo se le concede la libertad condicional a un preso.

Si un ser humano tomara estas decisiones, estaría siempre sujeto a una norma legal y tiene que acompañarla de la motivación jurídica, es decir, explicar la fundamentación de su decisión con arreglo a la ley.

No existen tales reglas en el momento presente de la IA.

La regulación de la IA está actualmente presidida por intereses corporativos y se promueve desde un enfoque ético.

Y ello no siempre es conveniente.

Basta con mirar a la crisis financiera mundial de 2008 para ver qué ocurre cuando la autorregulación de la industria se sale de control.

Aunque los Estados han intervenido para exigir a los bancos que mantengan mejores activos para respaldar sus préstamos, la economía mundial sigue sufriendo las repercusiones de un régimen que antes era fundamentalmente autorregulado.

Eso no quiere decir que no se esté progresando.

DeepMind ha contratado a destacados analistas públicos, como el filósofo transhumanista Nick Bostrom y el economista Jeffrey Sachs, como miembros de su comité de ética, y la lista de miembros de la señalada Asociación para la IA incluye ahora a organizaciones sin fines de lucro como la Unión Americana de Libertades Civiles, Human Rights Watch y UNICEF.

Sin embargo, a principios de 2019 tan sólo cuenta con representantes de trece países de todo el mundo.

Ahora bien, los marcos éticos difieren notablemente de los jurídicos, que son los que únicamente pueden elaborar los legisladores internacionales, europeos o estatales.

Además, las reglas éticas solo vinculan en el fuero interno y conllevan, en caso de incumplimiento, pecado y hasta condena eterna, mientras que las reglas jurídicas vinculan en el fuero externo, acarreando su incumplimiento responsabilidad, sanciones, multas o incluso penas de prisión.

LA AUTORREGULACIÓN NO BASTA

Por el momento, los Estados siguen intentando alcanzar a Silicon Valley en lo que respecta a la regulación de la IA; cuanto más tiempo esperen, más difícil será encauzar adecuadamente el futuro de la IA.

En el Reino Unido existe un Comité de la Cámara de los Lores sobre IA, y la Comisión Europea ha puesto en marcha en junio de 2018 un grupo de expertos para debatir sobre los desafíos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Unión Europea (el High-Level Expert Group on Artificial Intelligence, AI HLEG).

Este grupo presentó el pasado 18 de diciembre de 2018 un primer borrador de unas directrices éticas para el desarrollo y uso de la Inteligencia Artificial.

Es una tarea difícil, pero no imposible.

A nivel nacional, los Estados ya supervisan muchas otras tecnologías complejas, incluyendo la energía nuclear o la clonación.

A nivel internacional, la Agencia Europea de Medicamentos (EMA) establece normas farmacéuticas para 28 países, y la ICANN regula partes clave de todo Internet.

Es importante disponer de un cuerpo jurídico imperativo, si bien prudente y meditado.

La autorregulación no basta.

Si las normas son sólo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician, dando a algunas organizaciones ventajas sobre otras.

Por ejemplo, ninguna de las principales empresas chinas de IA, como Alibaba, Tencent o Baidu, ha anunciado que vayan a crear comités de ética o que tengan intención de unirse a la indicada Asociación.

LAS EMPRESAS NO DEBEN SER LEGISLADORAS

Además, sin un marco unificado, un exceso de comités de ética privados también podría conducir a la existencia de demasiados conjuntos de normas.

Sería caótico y peligroso que cada gran empresa tuviera su propio código para la IA, al igual que si cada ciudadano privado pudiera establecer sus propios estatutos legales.

Sólo los Estados tienen el poder y el mandato de asegurar un sistema justo que imponga este tipo de adhesión en todos los ámbitos.

Por eso los Estados son soberanos, tienen Parlamentos y un Poder Judicial.

En definitiva, tienen el respaldo de una legitimación democrática.

Por lo tanto, cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, sin duda muy relevantes, pero no legisladores.

Las compañías tecnológicas pueden estar bien posicionadas para diseñar reglas debido a su experiencia en la materia, pero los actores de la industria rara vez están en la mejor posición para evaluar adecuadamente los riesgos democráticos, morales, éticos y jurídicos.

La historia muestra lo que puede suceder si los Estados se retiran y dejan que las empresas privadas establezcan sus propias normas reguladoras. Permitir que esto ocurra en el caso de la IA no sólo es imprudente, sino también muy peligroso.

Ahora bien, las naciones aún no han alcanzado posiciones definitivas sobre cómo debe regirse la IA.

Tenemos una oportunidad única para crear leyes y principios que rijan la misma desde una base común y con una indispensable colaboración público-privada, que debería ser preferentemente internacional con el respaldo de la ONU o, en su defecto, de ámbito europeo liderada por las instituciones de la UE.