Firmas
Ha llegado la hora de regular la Inteligencia Artificial
02/7/2023 06:31
|
Actualizado: 03/7/2023 11:43
|
Llevamos ya unos pocos años hablando de la Inteligencia Artificial (IA) como cuarta revolución industrial, y en los últimos meses no hay día que no surja una noticia sobre usos, riesgos, o declaraciones de expertos sobre esta tecnología emergente.
Y lo que nos queda.
Sabemos las estimaciones de lo que va a suponer la Inteligencia Artificial a la economía, los beneficios de una próxima era de las máquinas, su afectación transversal a todos los sectores, pero también sus riesgos como la opacidad (“la caja negra”), los sesgos, imprevisibilidad, o fallos de eficacia que pueden repercutir negativamente en derechos fundamentales como la igualdad y no discriminación, dignidad humana, privacidad, libertad de expresión, presunción de inocencia o derecho a un juez imparcial.
La Inteligencia Artificial se alimenta de un conjunto enorme de datos y de información, pero no siempre tiene el conocimiento para comprender toda esa información y evaluarla conforme a su contexto, y mucho menos la sabiduría para interpretarla y aplicarla a su contexto, e incluso a problemas distintos.
UNA HERRAMIENTA PARA HACER EL BIEN… O EL MAL
Por ello, la IA ha de considerarse una herramienta, y como cualquier herramienta podrá utilizarse para hacer el bien o el mal, lo que hay es que regular los malos usos, sus prohibiciones, y castigarlos.
La Inteligencia Artificial ha venido para quedarse y nos va a afectar en casi todo nuestro entorno. Al contrario que la famosa carta de expertos que pide paralizar la IA, la inteligencia artificial no se trata ni un genio que puedas volver a meter en la botella o de un expediente que puedas esconder en un cajón.
Por ejemplo, el primer antivirus, Reaper fue desarrollado para eliminar el primer virus -Creeper- o hasta más de 15 años después del primer atasco de carruajes y debido a la inseguridad y el caos que provocaba tanto coche de caballos no se creó la primera propuesta de Reglamento de Circulación por William Phelps Eno.
¿Alguien se imagina que hubiéramos paralizado el internet hasta la creación de los antivirus? ¿O que hubiéramos prohibido los vehículos a motor hasta el primer reglamento de circulación?
Y frente a tales propuestas abolicionistas nadie es capaz de contestar qué hacemos con aquellos robots que salvan vidas, que sirven para operar, IAs que se utilizan en las industrias sanitarias, farmacéuticas, en medioambiente o muchos otros usos que son plenamente beneficiosos para la sociedad.
Por supuesto, la comparativa entre la IA y la energía nuclear -capaz de producir verdaderamente la destrucción de la humanidad-, es del todo punto una extravagancia.
Sabemos que la regulación va por detrás de la sociedad y sus avances tecnológicos.
Y en realidad tiene lógica, las normas están para regular la convivencia en sociedad, al igual que los tribunales estamos para dirimir los conflictos que se producen entre personas.
UNA EVOLUCIÓN DISRUPTIVA, EXPONENCIAL E INESPERADA
Desde el año 2017, aunque más intensamente 2019 y 2020 hay Conclusiones, e incluso el Libro Blanco de la Inteligencia artificial aprobadas por Consejo Europeo, Parlamento Europeo o la Comisión.
La denominada Ley de Inteligencia Artificial propuesta por el Parlamento Europeo y el Consejo data en su primera versión de abril de 2021. Ya han pasado más de dos años.
Y en ese tiempo, la evolución de esta tecnología ha sido totalmente disruptiva, exponencial e incluso inesperada.
Hablar hace cinco o seis años de una regulación o una supervisión de la IA era una excentricidad pues ni siquiera se pensaba que la evolución de esta tecnología sería tan rápida. Lo que se pensaba que ocurriría en quizás una década se ha producido en un lustro.
Tras dos años de tramitación parlamentaria y mucha discusión académica y legislativa, el 14 de junio se produjo el debate y votación de la ley europea de inteligencia artificial, y posiblemente la ley más importante sobre la materia del mundo quedando a expensas de las negociaciones interinstitucionales.
REGULACIÓN
Es la hora de la regulación de la IA y comenzar a interpretarla y aplicarla. Y es algo que incluso la propia industria está pidiendo a gritos. Que la muchas veces autoidentificada como libertaria y anarcocapitalista Silicon Valley demande regulación, cuyo uno de los principales lemas era “muévete rápido y rompe cosas”, es algo inédito y sólo comprensible desde la envergadura del gran desafío al que nos enfrentamos.
Para ello, se hace necesaria la creación de las autoridades de supervisión a nivel europeo y español, el diseño de sus estatutos, la coordinación con otras autoridades como la Agencia Española de Protección de Datos (AEPD) y el supervisor europeo, la puesta en marcha de los registros de archivos y de operadores de alto riesgo, adopción de sistemas estandarizados de auditoría de algoritmos y cumplimiento normativo y la implementación del sandbox o banco de pruebas para comenzar a ponerlos en práctica, formación para auditores que sean capaces de evaluar la implementación y que previamente hayan sido acreditados como organismos de evaluación.
O por ejemplo, ¿cómo se coordinará un sello español de la IA con un sello europeo y unas normas estandarizadas internacionales y qué valor añadido aportará nuestro marcado en un mundo globalizado?
Asimismo, las compañías tienen que empezar a pensar en el procedimiento que exige la ley, la verificación de los requisitos del sistema, el examen del diseño, la preparación de la documentación y un sistema de control interno o vigilancia posterior continuada durante todo el ciclo de vida de la IA así como la creación de una nueva figura en el organigrama corporativo o la adaptación de una ya existente que asuma tales funciones de lo que ya se está llamando en la jerga tecnológica como RAI Champion («Responsable AI Champion») o AICO («AI Compliance Officer»).
QUEDA MUCHO POR HACER
Es decir, no es poco lo que todavía queda para una verdadera regulación y aplicación de la normativa de esta tecnología. Así, se espera que la aprobación de las normas estandarizadas (podríamos asimilarlo al reglamento técnico desarrolle la ley) tenga como fecha límite el 30 de abril de 2025, y los contratos adjudicados de sandbox y sello español de IA tienen un plazo de ejecución de 30 meses, esto es, 30 de diciembre de 2025.
Y en esto, las administraciones públicas deberían ser las primeras en comenzar a aplicar la ley europea una vez sea votada y en dar ejemplo, estando obligadas a ello. Así, con la aprobación por el Parlamento Europeo quedarán prohibidos definitivamente los “sistemas de IA para realizar evaluaciones de riesgo de personas físicas o grupos de personas físicas con el fin de evaluar el riesgo de una persona física de delinquir o reincidir o para predecir la ocurrencia o reincidencia de una infracción penal o administrativa real o potencial basada en la elaboración de perfiles”.
Por lo tanto, no sólo es que administraciones públicas deben comenzar a revisar sus sistemas y publicar los algoritmos, algo que no han hecho ni con VioGèn ni con RisCanvi en Cataluña, los cuales carecen de una mínima transparencia o alguna auditoria del sistema de predicción de riesgo de violencia de género considera que la calidad de los datos es mejorable o presenta sesgos y discriminaciones.
De igual manera, hasta que no lo publicaron los medios se desconocía que la Seguridad Social usaba un algoritmo secreto para “cazar” posibles fraudes en bajas laborales. O BOSCO, un software que utiliza el Gobierno, de algoritmo igualmente secreto, que las eléctricas utilizan para decidir quién es beneficiario del denominado bono social eléctrico y que se ha denunciado que además de su opacidad tiene fallos y sesgos.
A tenor de ello, directamente estos sistemas -según la última versión del Reglamento Europeo (si ésta se mantiene)- el primer día de su entrada en vigor deberían dejar de utilizarse por el Gobierno español.
El ejecutivo holandés utilizaba el algoritmo SyRI para detectar diversas formas de fraude, incluidos los beneficios sociales, las asignaciones y el fraude fiscal, y en 2020 el Tribunal de Distrito de La Haya declaró que este sistema violaba los derechos humanos.
Todos conocemos también ya el caso Compas del Tribunal Supremo de Wisconsin.
De igual manera, en el Reglamento quedan prohibidos los sistemas de reconocimiento facial y biométrico a tiempo real no selectivos, pero se permiten si se utiliza a posteriori previa resolución judicial para análisis de imágenes obtenidas.
Así, el sistema ABIS, siglas en inglés que responden a «sistema automático de identificación biométrica», que está entrenando el Ministerio del Interior y que además no ha consultado previamente a la AEPD, lo primero que deberá hacer será adaptarse a los requisitos del reglamento europeo como sistema de alto riesgo.
Y el legislador deberá prever un nuevo artículo 588 nonies para autorizar este tipo de sistemas.
Es decir, el camino no ha terminado con la primera aprobación del Reglamento europeo de IA, sino que acaba de comenzar y los tribunales pueden tener mucho que decir.
Otras Columnas por Alfonso Peralta Gutiérrez: