Firmas

La ética y la responsabilidad derivada del uso de los algoritmos

La ética y la responsabilidad derivada del uso de los algoritmos
Javier Puyol es socio director de Puyol Abogados & Partners. Foto: Carlos Berbell/Confilegal.
23/12/2018 06:15
|
Actualizado: 07/6/2022 16:08
|

En el examen de esta materia, debe partirse del hecho consistente en que el tratamiento particular de los daños generados por la actividad informática, y de la que no son ajenos los algoritmos aplicados a la misma, se explica en cuanto los problemas que genera tienen matices diferenciales que apuntan a la complejidad propia de la materia, a los particulares vínculos que se establecen entre las partes, al diverso grado de formación técnica de los sujetos que contratan, a la diversa posición económica de los mismos que frecuentemente se traduce en abuso de posición dominante, a la relevancia que adquiere el período precontractual, a las  particularidades de la conformidad por entrega, con incidencia en materia de vicios redhibitorios, a los riesgos que implica el manejo de banco de datos, etc.[i].

Cada vez más decisiones empresariales son adoptadas o puestas en práctica, no por personas físicas, sino por máquinas que ejecutan algoritmos expresados mediante programas informáticos.

Su uso ha proporcionado importantísimos beneficios para la competencia, ha permitido reducir drásticamente los costes de producción y de transacción en numerosos mercados y ha proporcionado nuevos y mejores productos y servicios.

Un algoritmo no es más que una secuencia ordenada y finita de instrucciones que ha de ser aplicada de manera precisa a un número finito de datos para proporcionar un resultado. Puede ser expresado de distintas formas, como son el lenguaje natural, la notación matemática o los diagramas de flujo.

Pero su enorme impacto en la economía no se debe tanto a los avances relacionados con el diseño de los propios algoritmos como al desarrollo de las tecnologías de la información.

n particular, la digitalización de la economía ha permitido que los algoritmos sean también expresados mediante lenguajes de programación que pueden ser leídos por una máquina (por una computadora, primero; por variados dispositivos móviles, después) y sean aplicados a una inmensa cantidad y variedad de datos que son previamente buscados, recolectados, almacenados y analizados a gran velocidad (lo que se conoce comobig data)[ii].

ALGORITMOS

En las matemáticas, en la lógica, en las ciencias de la computación y en las disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmusy este del griego arithmos, que significa «número», quizá también con influencia del nombre del matemático persa Al-Juarismi)​ es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permiten llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad.​Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución.

Los algoritmos son el objeto de estudio de la algoritmia[iii].

Esta palabra define un conjunto de instrucciones que se dan a una computadora para que, a partir de unos datos de entrada, construya unos datos de salida.

Así, como antes se indicó, se puede afirmar que un algoritmo es un software con una secuencia de instrucciones para ejecutar una determinada tarea[iv] y son muy importantes en nuestras vidas, toda vez que son los responsables de la elaboración de perfiles que evalúan nuestros aspectos personales (rendimiento en el trabajo, situación económica, salud, preferencias o intereses, fiabilidad y en general la situación de un individuo y de su familia) y de la toma de decisiones basadas en esa información.

El problema radica en que los algoritmos como tales, no siempre funcionan como deberían, lo que puede ser debido a que los datos de los que los mismos se alimentan o la forma en la que éstos se procesan o valoran no son correctos, o no tienen la calidad suficiente o necesaria para el desempeño de la función concreta que se pretende llevar a cabo.

En este sentido, cabe indicar que una de las grandes preguntas que habitualmente se formulan sobre los algoritmos, consiste en la determinación sobre el hecho de que parte de ellos es consciente/humana, y, por el contrario, que parte es automática/robótica, lo cual constituye también un problema a la hora de determinar las responsabilidades que se derivan o que cabe achacar con relación a los mismos.

Además, debe tenerse en cuenta que, a los efectos de determinar o concretar dicha responsabilidad,  que existen múltiples factores que la van a condicionar, que oscilan desde la forma en que se han recabado los datos, a aspectos de cómo se configura el proceso por el que se enseña a los sistema de “machine learning”, o que reglas han de dictar al algoritmo para medir otros múltiples factores, como pueden ser: (i) “la similaridad”; o por ejemplo, (ii) el concepto relativo a  “la importancia”, entre otros muchos factores condicionantes[v].

Para concienciar de la gravedad esta la situación, debe tenerse presente que las normas que sancionan la responsabilidad por la existencia de una actividad que presente riesgos, no contemplan la peligrosidad como un elemento esencialmente accidental, sino que contemplan a la misma, sobre la base de conductas características de la actividad desarrollada.

SIETE PRINCIPIOS PARA LOS ALGORITMOS

Por ello, dada la trascendencia que tienen estos conceptos de responsabilidad, en la elaboración y posterior aplicación de los algoritmos, la estadounidense Association for Computing Machinery(“ACM”)  ha propuesto unas reglas basadas en la existencia de siete principios, que tienen por objeto la determinación y la exigencia de transparencia y de la responsabilidad en los algoritmos[vi].

Estos principios o reglas en los que se concretan tales aspectos, son los que se detallan a continuación:

1. – LA CONCIENCIA

Los propietarios, los diseñadores, los programadores y usuarios de algoritmos tienen, que ser conscientes de las posibles consecuencias de su uso y los posibles sesgos en qué pueden incurrir.

2.- EL ACCESO Y LA CORRECCIÓN

Las agencias reguladoras tienen que tener los mecanismos para corregir los perjuicios individuales, debido a los sesgos detectados en los algoritmos.

3.- LA RESPONSABILIDAD

Las instituciones son responsables de las decisiones tomadas por sus algoritmos, aunque no sean capaces de explicar el cómo se ha llegado a tomar esas decisiones.

4.- LA EXPLICACIÓN

Especialmente cuando afectan a políticas públicas, las instituciones que utilizan algoritmos para la toma de decisiones deben explicar los procedimientos seguidos por los algoritmos y las decisiones que sobre los mismos se toman.

5.- LA PROCEDENCIA DE DATOS

Los programadores del algoritmo tienen que explicar las características de los datos de entrenamiento, es decir, de dónde los obtuvieron los mismos, cómo dichos datos se obtuvieron, etc., así como la realización de una exploración de los posibles sesgos que pudiera contener dicho algoritmo, debido principalmente al uso de tales datos.

Consecuentemente con ello, y para poder evitar problemas derivados de la privacidad o de la existencia de secretos de naturaleza comercial, se puede llegar a restringir el acceso a estos datos de entrenamiento, a las personas no autorizadas explícitamente para acceder a los mismos.

6.- LA AUDITORÍA

Debe tenerse en cuenta que se hace necesario guardar los modelos, los algoritmos, los datos y las decisiones en que los mismos se fundamenten, por si hiciera falta hacer una auditoría con relación a ellos en el futuro.

7.-. LA VALIDACIÓN Y EL TESTEO

Las instituciones deben instaurar métodos rigurosos para la validación de los modelos, y además proceder a documentar dichos procesos.

También, deben elaborar test de carácter específicos para detectar posibles sesgos del algoritmo.

En todo caso, los resultados de estas pruebas, o test, deberían ser también hechos públicos, a los efectos de su general conocimiento.

Todo ello nos conduce a reflexionar, tal como se señala desde Telefónica, si los algoritmos como base de la inteligencia artificial, serán capaces de dar adecuadas respuestas a los riesgos que se avecinan de estas nuevas tecnologías de carácter emergentes.

Se puede afirmar que los algoritmos hoy en día son los motores de las plataformas y un factor clave que determina la experiencia digital de los usuarios.

Estos algoritmos deciden el contenido que se presenta a los usuarios de las redes sociales, qué van a encontrar al buscar en Internet y en las tiendas de aplicaciones, así como qué productos y contenido se les recomienda en las plataformas de vídeo y de comercio electrónico.

Esta situación está atrayendo cada vez más atención de reguladores y responsables políticos.

CLAVES EN LA INTELIGENCIA ARTIFICIAL Y EL APRENDIZAJE DE MÁQUINAS

Los algoritmos también son clave en los procesos de Inteligencia Artificial (IA) y «Machine Learning» (aprendizaje de máquinas).  Máxime si se tiene en cuenta que las tecnologías de Inteligencia Artificial, entrenadas mediante enormes cantidades de datos, son capaces de reconocer patrones y pueden llegar a tomar decisiones de manera autónoma.

El desarrollo de sistemas de Inteligencia Artificial avanzada no sería posible sin acceso a cantidades ingentes de datos (como imágenes, grabaciones de voz, etc.).

Por ello, y a los efectos de controlar y mitigar el impacto que el uso de los algoritmos tiene para la sociedad, cabe plantearse desde el ámbito de las empresas y los desarrolladores, si esta materia está dentro del ámbito de la responsabilidad social corporativa y empresarial, y los valores y los principios que informan esta materia, deben ser contemplados sobre esta óptica, en primer término, y no como una simple responsabilidad civil, o en su caso de Compliance.

COMO PUEDEN LAS EMPRESAS HACER FRENTE A ESTA SITUACIÓN

En este sentido, se señala que las empresas podrían hacer frente a esta situación:

a). Implementando comités internos de ética de Inteligencia Artificial para proporcionar supervisión y orientación a las iniciativas de Inteligencia Artificial de la compañía.

b). O bien, desarrollando colaboraciones sectoriales para formular y compartir mejores prácticas, concienciar al público y discutir abiertamente los beneficios y los retos derivados de la inteligencia Artificial[vii].

Por todo ello, cabe preguntarse si las mismas¿serán capaces de atribuir la capacidad de proceder a la creación de robots u otros tipos de ingenios que sean capaces de pensar solos?, ¿y de decidir?, ¿tendrán sentimientos?, ¿y capacidad de improvisar?, ¿sustituirán a los humanos?, ¿podrán causar daños?, ¿quién será el responsable?

El empleo de Inteligencia Artificial y los algoritmos debería estar guiado por principios éticos y procurar evitar la discriminación indebida y los resultados anticompetitivos.

El objetivo común debe ser fomentar que el desarrollo de la Inteligencia Artificial sea ético, responsable y transparente.

Sin duda, todas estas cuestiones son ciertamente complejas, pero a las que ya nos hemos de enfrentar, y a las que habrá que habrá que dar una adecuada respuesta, porque ya son una realidad entre nosotros.

[i]Cfr.: BERGEL, Salvador Darío. “Responsabilidad civil derivada de la Informática”. Informática y Derecho. Argentina.

[ii]En este sentido, ROBLES MARTIN-LABORDA, Antonio. “Cuando el cartelista es un robot: Colusión mediante algoritmos de precios”. Almacén de Derecho. 11 de diciembre de 2018

[iii]Cfr.: WIKIPEDIA. “Concepto de Algoritmo”.

[iv]Cfr.: “El sesgo de los Algoritmos”. Replicante legal. 10 de julio de 2016.

[v]Cfr.: VILLAREAL, Antonio. “Los algoritmos de Google o la policía manejan tu vida: ¿Cómo retomar el control? El Confidencial. 11 de julio de 2017.

[vi]Dichos Principios son citados por CABOT, Jordi, en su artículo “7 principios para la transparencia y responsabilidad de los algoritmos”. Ingeniería de Software. 8 de mayo de 2017.

 [vii]Cfr.: TELEFONICA. “04. Desarrollar plataformas más equitativas y algoritmos responsables”

 

Otras Columnas por Javier Puyol Montero:
Últimas Firmas
  • Opinión | Caso Luis Pineda y Ausbanc: No todo calvario acaba en crucifixión (y II)
    Opinión | Caso Luis Pineda y Ausbanc: No todo calvario acaba en crucifixión (y II)
  • Opinión | Cosas que pasan desapercibidas con Fiscalía y la Agencia Tributaria y me preocupan
    Opinión | Cosas que pasan desapercibidas con Fiscalía y la Agencia Tributaria y me preocupan
  • Opinión | «La cortina de humo”, una recurrente estrategia política
    Opinión | «La cortina de humo”, una recurrente estrategia política
  • Opinión | Caso Luis Pineda y Ausbanc: No todo calvario acaba en crucifixión (I)
    Opinión | Caso Luis Pineda y Ausbanc: No todo calvario acaba en crucifixión (I)
  • Opinión | Sin respeto al derecho de defensa no hay justicia
    Opinión | Sin respeto al derecho de defensa no hay justicia