Idoia Salazar: “Los juristas deben entender la IA como un acompañamiento, no dejar que la máquina decida”
Idoia Salazar, experta europea en ética de la Inteligencia Artificial, es miembro y fundadora del Observatorio del Impacto Social y Ético de la IA (OdiseIA), una asociación pionera en Europa, que propugna el desarrollo ético de los algoritmos de la IA.

Idoia Salazar: “Los juristas deben entender la IA como un acompañamiento, no dejar que la máquina decida”

Es experta europea en ética de la Inteligencia Artificial
|
21/9/2019 01:00
|
Actualizado: 20/9/2019 22:44
|

La Inteligencia Artificial (IA) avanza a velocidad de vértigo y entre las inquietudes que provoca en una sociedad que camina a un ritmo más lento sobresale el del control ético de lo que las máquinas deciden.

Para Idoia Salazar, experta europea en este tema y miembro fundadora del Observatorio del Impacto Social y Ético de la IA (OdiseIA), una asociación pionera en Europa, la IA es complementaria de la inteligencia humana.

En esta entrevista con Confilegal pone como ejemplo el mundo del Derecho, donde la implantación de esta tecnología es ya un hecho, y explica: “Los juristas deben entender la IA como una tecnología de acompañamiento y no como una sustitución. Nos ayuda a tomar la decisión pero nunca la dejamos en manos de la máquina”.

Además de su papel en OdiseIA, Idoia Salazar es doctora en periodismo, especializada en medios digitales por la Universidad San Pablo CEU e investigadora principal del grupo SIMPAIR (‘Social Impact Of Artificial Intelligence And Robotics’ o Impacto social de la inteligencia artificial y la robótica), un foro a nivel europeo en el que expertos internacionales debaten e investigan sobre diversos campos de la inteligencia artificial.

Su primer libro se tituló «Las profundidades de internet».

“Es muy  importante – dice-  que todos asumamos esas tecnologías porque si no se entienden nos llevan al miedo y a la incertidumbre. Se ha difundido la tendencia ideológica de andar pensando en la inteligencia artificial como algo que nos va a sustituir”.

¿Pero en realidad, puede suceder? ¿Pueden acabar sustituyéndonos?

La IA tiene una parte que puede sustituir ciertas tareas mecánicas, como ocurrió en el pasado con la revolución industrial, pero esto no quita para que nosotros  veamos que hay muchas otras oportunidades para aplicar esta tecnología.

Surgirán muchos más puestos de trabajo que los que se destruirán.

No nos van a superar,  la Inteligencia Artificial viene a resolver una necesidad básica, a aliviar el «Big Data» [inteligencia de datos] que hay en la actualidad.

¿En qué fase estamos entonces?

Hoy en día, gracias a lo que ha supuesto internet y a la mayor capacidad que tienen las máquinas para almacenar datos, se ha producido una expansión exponencial.

En la revolución industrial necesitábamos aumentar nuestra actividad en un sentido físico y ahora necesitamos aumentarla intelectualmente.

Hablamos de un «software» que pretende gestionar mejor todos estos datos y sacarles un mayor rendimiento de lo que nuestro cerebro limitado puede llegar a hacer.

Hay un término, “inteligencia aumentada” que tiende  a ver la inteligencia artificial como una máquina que nos aumenta intelectualmente.

Lo estamos viendo desde esta perspectiva. Dejemos por tanto  de lado la idea apocalíptica de que las maquinas nos destruyen.

¿Qué papel juega aquí el Observatorio?

El Observatorio pretende redirigir la idea que tiene la sociedad en general sobre la IA,  reformar esa percepción apocalíptica y llevarla hacia algo más práctico, a que se entienda como complementaria del ser humano.

Al  igual que las máquinas nos complementaban físicamente, ahora esta invención acompañará a nuestra capacidad intelectual.

Así debe ser la Inteligencia Artificial Confiable según Ernest & Young.

LA MALA PRENSA DE LA IA

Parece que además la Inteligencia Artificial no tiene buena prensa

Esto es el impacto alimentado por la ciencia ficción, que relata cómo la maldad de los robots nos reemplaza.

Esa sustitución es un “problema”, entre comillas porque la sociedad tiene que ir delegando ciertas tareas más automáticas, como el manejo de los datos.

Esto no significa que los humanos no tengan que acompañar mediante su supervisión ciertas tareas, revisar el resultado de los análisis que hagan los algoritmos y complementarlos con su percepción.

Por ahora las máquinas, los algoritmos de IA, analizan los datos y en eso son mucho mejores que nosotros, son capaces de analizar  con mayor capacidad que nuestro cerebro, pero carecen de neuronas y por tanto las decisiones que puede tomar un algoritmo deben ser contrastadas con la decisión del humano, por ejemplo en cuanto al impacto social.

Un diagnóstico clínico tendrá que ser revisado por un médico para ver si se consideran todos los factores que llevan a determinar la capacidad de una persona.

¿Es una situación que también se puede dar en el mundo jurídico?

En efecto, en el mundo jurídico se tendrá que ver el contexto histórico, geográfico y cultural  del sujeto para tomar la decisión.

Aquí el humano tiene que ejercer la supervisión sobre los algoritmos.

Y hay una parte anterior a considerar, que es el análisis de los datos que va a buscar ese algoritmo para hacer el análisis.

¿Cuál es el problema inicial de los datos que maneja el algoritmo?

Son dos problemas fundamentales. El primero, que por la legislación relativa a protección de la intimidad, no se consiguen los datos suficientes para que los algoritmos puedan llegar a conclusiones concluyentes.

Me refiero a leyes relativas a privacidad y protección de datos. Hay muchas leyes en Europa (más que en EE.UU.) que protegen los datos y es difícil para los científicos o para  las empresas que los necesitan para alimentar a los algoritmos llegar a datos masivos para poder desarrollar esta tecnología.

En segundo lugar, están los sesgos  en los datos. Muchas veces se cogen de bases de datos históricas, de empresas o de sitios que no han sido muy depurados. Estos sesgos pueden ser conscientes o inconscientes.

Hay que vigilar ambas cosas no sólo porque se hayan incluido datos poco precisos de forma intencionada, sino también por errores humanos o  que derivan  de errores históricos.

«El humano tiene que ejercer la supervisión sobre los algoritmos. Y hay una parte anterior a considerar, que es el análisis de los datos que va a buscar ese algoritmo para hacer el análisis», según Idoia Salazar.

LOS PROBLEMAS DE AMAZON

Amazon tuvo un problema de este estilo

Porque en Amazon usaron un algoritmo para contratar y lo dejaron sacar conclusiones.  Pero esas conclusiones procedían de bases  de datos  antiguas y lo que pasó es que  la máquina, al coger datos y compararlos con los existentes, hacía un cálculo de probabilidad, de pura estadística:

La  máquina veía que los hombres de 40 años, de una determinada raza y con un determinado perfil eran más eficientes para esa empresa en su trabajo, daban mejores resultados.

Hacía por tanto una primera selección que utilizaba el departamento de recursos humanos, en un principio dándolo por bueno, pero  cuando empezaron a ver los resultados, se dieron cuenta de que se trataba de  un sesgo del algoritmo.

Por ejemplo, no se seleccionaban mujeres porque antes  había menos mujeres trabajando. Quitaron el algoritmo hasta que esos sesgos se pudieran corregir.

Con lo que la Inteligencia Artificial no ganó en popularidad

Claro, esta noticia saltó a los medios con un  gran  impacto, recalcando que  estaba sesgado. Pero el avance en este sentido se basa en  un proceso de prueba error.

Lo que se hace inicialmente es que vamos aprendiendo a medida que vamos probando.

Igual pasó con una red social en la que un algoritmo empezó a aprender de lo que se vertía y en este caso comenzó a extender ideas nazis.  Aprendió de todos  como un bebé y acabó con ideas radicales.

El resultado, por tanto, es como el de un niño que sale al mundo sin reglas ni conocimiento.

¿Cómo se puede modificar?

Al algoritmo del que hablábamos no se le había implementado ningún tipo de regla ética y se desvió de su camino. Creció torcido y hubo que quitarlo. Igual que un bebé que necesita que los padres le eduquen antes de salir al mundo, pasa algo parecido: necesita una educación por parte de su programador.

Sabemos implementar ahora  normas éticas del tipo de “no tengas en cuenta rangos de sexo,  factores de edad, raza, país o cultura”. Podemos implementar ciertos valores.

Los algoritmos empezarán a crear otros algoritmos y el  hecho de que crezcan con ciertas normas es importante para que lleguen a conclusiones correctas.

CRITERIO Y ÉTICA

¿Habrá que contar también con la ética del programador y de las empresas?

Es una de las funciones del Observatorio. Es importante que quienes manejan o compran sistemas de IA sean conscientes del poder de decisión y del impacto que pueden tener estos algoritmos.

No sólo el programador de la información o los ingenieros, sino los jefes, las cúpulas superiores, deben tener criterio y  ética. Que se preocupen. Los jefes de esos técnicos deben ver la necesidad de un estudio de impacto social del algoritmo antes de su lanzamiento.

Estas son las acciones previstas por ODISEIA para controlar los algoritmos y que se mantengan en unos límites éticos.

ROBOTS BUENOS, ROBOTS MALOS

En una entrevista en El País citaba usted  que en el mundo occidental los robots se califican casi de tecnología peligrosa y sin embargo en el mundo oriental se les ve como salvadores y protectores. ¿A qué se debe esa diferencia de percepción ética?

Está muy ligada al factor cultural. Es difícil crear un código ético internacional de IA. De hecho  se ha intentado y hay varias iniciativas en Europa en este sentido. Pero  es muy complicado aplicarlo en todos los países, porque no todo el mundo piensa igual.

La UE acabará creando principios muy básicos, pero sigue siendo necesario que cada país tenga en cuenta los principios éticos propios e ir viendo caso por caso.

¿No existe por tanto una normativa europea?

Entendida como de seguimiento obligatorio no la hay. Se hizo un borrador en el que se especificó una guía ética para tratamiento de sistemas de IA, pero es opcional, es orientativa, si no se aplica no se sanciona.

Si bien son principios importantes de transparencia de datos que indican  que no se afecte a determinado tipo de público o  a un público minoritario o  que no haya sesgos machistas o racistas.

Sirve de guía para quien lo quiera aplicar.

¿De qué manera considera que hay que educar para controlar la inteligencia artificial?

Ese es un tema muy importante. Uno de los grandes problemas que tenemos es la rápida evolución de estas tecnologías.  Nuestros abuelos han visto nacer la televisión y ahora se encuentran con la Inteligencia Artificial.

A los propios educadores tampoco les ha dado  tiempo a ponerse al día. Vemos cómo en ocasiones, las redes sociales no son usadas convenientemente.

Cómo tratar este tema mediante la educación es una de las labores del Observatorio, dando charlas a profesores, en colegios y universidades, para cambiar la percepción y ver las máquinas como un medio para desarrollar los trabajos.

ADAPTARNOS A CAMBIOS CONTINUOS

¿Qué está ocurriendo en las empresas?

Ocurre que ya las empresas no buscan gente con conocimientos, sino gente que sea capaz de adaptarse.

De inicio, el  sistema educativo tiene que cambiar, después hay que concienciar sobre el cambio social. Para que la tecnología sea bien acogida por la sociedad es preciso concienciar para asumir esos cambios sin que supongan un problema añadido.

Cuando nació internet y las ventas online, se perdieron muchos empleos en el sector comercio,  pero se crearon muchos más. Han crecido exponencialmente. En mayor medida ocurrirá con la IA porque el efecto será mucho mayor.  Pero la adaptación permitirá que sea menos traumático.

¿Qué supone la Inteligencia Artificial para el mundo jurídico?

A un juez que tenga una herramienta IA le  ayudará a analizar la jurisprudencia de un determinado caso, a comparar  leyes… El resultado del algoritmo es más rápido que el estudio de toda la jurisprudencia.

El algoritmo le da las conclusiones, pero no se trata de que el juez las aplique a la sentencia directamente, sino que tendrá que  valorar la decisión de la línea que ha seguido el algoritmo. Este último aspecto es un tema en el que se está trabajando ahora, pues aún no se puede hacer.

Se está estudiando el sistema que siguen los algoritmos para ver cómo toman las decisiones. Cuando se pueda ver ese proceso, se podrán apoyar en ellos. Se convertirá en la inteligencia aumentada del juez. Pero siempre debe verse como un apoyo.

Mesa redonda sobre «El impacto social y ético de la inteligencia artificial, un reto multidisciplinar», que tuvo lugar el pasado martes en el Campus Google, en el curso de la presentación pública de ODISEIA. Los participantes fueron David Santos, jefe del Gabinete Jurídico de la Agencia Española de Protección de Datos, Marta Periano, periodista, autora del libro «El enemigo conoce el sistema», Javier Camacho, profesor de Ética de la Universidad Pontificia de Comillas, y Cristina Soguero, investigadora de la Universidad Rey Juan Carlos. Todo moderado por Mar Cabra. Foto: Carlos Berbell/Confilegal.

JUEZ O MÁQUINA

Ha habido polémica sobre este asunto

A nivel europeo  se han hecho encuestas sobre quién prefieres que te juzgue, si un juez o una máquina. En Reino Unido prefieren la máquina, porque consideraron que  sería más objetiva que el humano.

Es cierto que  a lo largo de la historia se ve que también los humanos tenemos sesgos conscientes o inconscientes. En muchos casos, la IA nos hará un favor con los sesgos, siempre en la medida en que seamos capaces de crear algoritmos eficientes.

En todas las decisiones hay influencias de la propia ideología, del día que tengamos…. Puede ser una ayuda importante. Lo que venían a decir en Reino Unido es que era mejor una máquina objetiva que un juez con cierta ideología, es decir  cuestionaban aquí el sesgo de las personas.

Imagino que en un futuro no muy lejano veremos denuncias y juicios en los tribunales por mal uso de la Inteligencia artificial. ¿Lo ven ustedes así también?

Por supuesto y ya se produce. Está ocurriendo ahora con el uso de sistemas de inteligencia artificial  por el tema de privacidad de los datos.  Por uso indebido de datos en la  contratación de un algoritmo que no ha sido previamente estudiado.

LA IA Y LOS ABOGADOS

¿Hay muchos despachos de abogados que utilicen la IA?

Sí los hay, a nivel nacional e internacional. Les ayuda a lidiar con todos los datos del caso que tratan. El resultado es mucho más rápido.

¿Qué puede y que debe hacer la justicia y el mundo del derecho para garantizar la buena práctica en la inteligencia artificial?

Hay mucho interés en comprender muy bien las implicaciones que debe tener este tipo de tecnología y su evolución.

Lo importante es que observen el impacto de la actualidad y sigan manteniéndose activos y abiertos a los nuevos cambios derivados de la evolución de estas tecnologías, desarrollando normativas. Se deben asumir estas tecnologías para la gestión de datos y para lograr más eficiencia.

Los juristas deben entender la IA como una tecnología de acompañamiento y no como una sustitución Nos ayuda a tomar la decisión pero nunca la dejamos en manos de la máquina.

La Junta Directiva de ODISEIA está formada por grandes expertos en este campo.

Noticias Relacionadas:
Lo último en Profesionales