Firmas

Coches autónomos, dilemas morales

Fernando Pinto Palacios
Coches autónomos, dilemas morales
Fernando Pinto es magistrado, doctor en Derecho y académico correspondiente de la Real Academia de Jurisprudencia y Legislación. Foto: Carlos Berbell/Confilegal.
22/7/2019 06:15
|
Actualizado: 22/7/2019 09:24
|

Hace un año la revista Nature publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable.

Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales.

Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos.

Si sigue recto, atropella a tres ancianos.

Si da un giro brusco, chocará contra un muro.

En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban.

Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento.

A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales.

Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota.

Por otro lado, debería primarse la salvación del mayor número de personas.

Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano.

Tanto los delincuentes como los “sin techo” se posicionaron como las víctimas más “sacrificables” si era necesario para preservar otros intereses.

Más allá de estas coincidencias, el estudio reveló que era muy difícil establecer patrones de comportamiento moral, máxime cuando los dilemas se volvían más complejos.

Cuando estaba en juego la vida del participante, hasta un 40% de los encuestados declararon que daba igual quien falleciera siempre que se pudiera preservar la propia vida.

En la disyuntiva entre atropellar a una persona que estaba cruzando la vía de forma legal y la que lo hacía de forma ilegal, las respuestas se dividían al 50%.

Dentro de un siglo (quizá menos) muchas actividades que actualmente realizan personas pasarán a ser desempeñadas por máquinas.

Este desarrollo de la inteligencia artificial ha generado una honda preocupación acerca de cómo las máquinas van a tomar decisiones morales.

Al igual que un ordenador, los ingenieros diseñarán los programas que sirvan de soporte al robot.

Y, lógicamente, dentro de ese software deberán incluirse pautas de comportamiento ético que permitan a las máquinas resolver situaciones complejas.

En función de los principios que los diseñadores consideren más relevantes, las máquinas adoptarán unas u otras decisiones.

Esta situación plantea numerosos interrogantes acerca de qué debe prevalecer pues, cuando se priorizan determinados valores, se puede desembocar en una discriminación que afecte a otros colectivos.

¿Qué debe prevalecer?

¿Salvar la vida de muchas personas?

¿Proteger al más vulnerable?

¿O al más joven?

¿O al más valioso para la sociedad?

Estas ecuaciones morales también van a tener una enorme trascendencia económica.

¿Podrán los usuarios conocer los algoritmos introducidos por los ingenieros al diseñar el coche autónomo?

¿Qué ocurrirá si descubren que está diseñado para priorizar siempre la vida de los otros usuarios de la vía frente a la propia del ocupante?

¿Seguirán comprándolo?

Es posible, incluso, que algunos compradores quieran “participar” en el diseño del software trasladando a la máquina sus propias convicciones morales.

El comprador podría, por ejemplo, priorizar la salvación de las mascotas frente a las personas si es un firme defensor del animalismo.

Incluso podría programarse un comportamiento diferente del coche autónomo en función de si se encontrase en un barrio rico o en uno desfavorecido priorizando unas u otras víctimas en función de sus convicciones morales.

Los desacuerdos sobre cuestiones morales constituyen la esencia de una sociedad democrática.

Cuando trasladamos estos dilemas morales –en los que influye nuestra concepción sobre el bienestar, la libertad y la justicia- a los coches autónomos, estamos en realidad respondiendo a una difícil pregunta: ¿quién debe morir?

El desafío que representa el desarrollo de la inteligencia artificial es que, por primera vez en la historia, estamos a punto de definir en un algoritmo qué es correcto y qué es incorrecto.

Quizá sea el momento de recordar aquellas palabras que, hace ya más de cuarenta años, dijo Marvin Mansky: “Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte, decidirán mantenernos como mascotas”.

En esta noticia se habla de:

Otras Columnas por Fernando Pinto Palacios:
Últimas Firmas