Firmas

El verdadero reto en la aplicación de la ética a la Inteligencia Artificial

El verdadero reto en la aplicación de la ética a la Inteligencia Artificial
Desde su punto de vista, el verdadero reto para la IA no está en la enunciación de unos buenos principios sino en su aplicación.
25/7/2019 06:15
|
Actualizado: 25/7/2019 01:47
|

Si eres de los que les interesa la inteligencia artificial (IA), has debido acercarte también ya a la ética.

Las relaciones entre la ética y la IA ocupan ahora páginas en los medios e invaden con su música los estrados de muchos foros.

Pero, aunque hablar de ética es fácil, aplicarla no lo es y, en consecuencia, conviene reflexionar sobre los retos que surgen a la hora de aplicar la ética a la IA y revisar las experiencias empresariales que han transcendido en relación con su aplicación práctica.

En mayo del pasado año, Google sufrió una crisis reputacional cuando transcendió la noticia de que 3,100 de sus empleados habían remitido una carta al director general de la compañía, Sundar Pichai, pidiendo a la empresa el abandono del llamado proyecto Maven, contratado por el Ministerio de Defensa de EE.UU.

Antes de conocerse esta noticia, varios de sus empleados, pertenecientes a la división Algorithmic Warfare Cross-Function Team, habían decidido no trabajar en el proyecto.

Maven es un programa utilizado por las fuerzas armadas de ese país, que aprovecha la inteligencia artificial para mejorar la orientación de los drones y que tiene entre otros, el propósito desarrollar e integrar “algoritmos de visión artificial”, necesarios para ayudar a los analistas militares y civiles con el volumen total de datos de video en movimiento recopilados todos los días, en apoyo a operaciones de contrainsurgencia y antiterrorism”.

Las razones que llevaron a los empleados de Google a renunciar a sus puestos y firmar la carta tienen que ver con la ética y con la posibilidad de que la dedicación de su empresa a determinados proyectos de IA, podría acabar erosionando la confianza de sus usuarios.

Por otra parte, a principios de abril de este año, Google volvía a ser noticia cuando comunicaba la disolución de su recién creado consejo ético, ATEAC (Advanced Technology External Advisory Council), integrado por expertos, cuyo rol era asesorar a esta empresa sobre la aplicación de la ética a su IA.

En esta ocasión, de nuevo los empleados de Google han cuestionado la adecuación al puesto de consejero de algunos de los elegidos.

CONCLUSIONES 

Los hechos descritos nos llevan a dos conclusiones: la primera, es que los empleados y sus sindicatos, pueden y van a jugar un rol crítico en el control del respeto a los principios éticos por parte de las empresas.

La segunda, es que una cosa es enunciar principios y otra muy diferente hacerlos realidad.

En el reciente encuentro de los Legal Hackers EMEA 2019, celebrado en Madrid, tuve ocasión de charlar un rato con Gabriel López, director de Asuntos Regulatorios de Microsoft Ibérica, y que tiene más experiencia práctica en ética aplicada a la IA, me explicaba la complejidad de su trabajo, que le está exigiendo colaborar estrechamente con los tecnólogos.

Entre sus logros está la identificación de hasta 16 criterios de medición del respeto de la IA en las aplicaciones de su empresa.

En el marco de las I Jornadas sobre Ética e Inteligencia Artificial: en busca de un algoritmo ético sobre ética de la IA, tuve ocasión de conversar con un directivo de Telefónica que me explicó también el reto que su empresa tenía ante sí para lograr la aplicación de sus principios éticos y que estaban trabajando en varios tipos de acciones, entre otras, algunas formativas; otras dirigidas al desarrollo de software; otras consultivas e informativas.

En conclusión, en nuestra experiencia el verdadero reto para la IA, no está en la enunciación de unos buenos principios (tarea que aunque no es sencilla y en la que creo que hay aún también mucho campo de mejora para las empresas…la verdad es que este tema daría para otra tribuna y no quiero desviarme del objeto de esta), sino en su aplicación.

Y es que no es fácil, pasar de los principios a los hechos.

Y, sin embargo, está claro que el vertiginoso desarrollo que está teniendo la IA debe venir acompañado no sólo de enunciaciones de principios, nombramientos de consejeros y buenas palabras, sino, y sobre todo, de realidades.

Esta labor no es sencilla y en esa línea, el intercambio de buenas y malas prácticas, esto es la conversación sincera y el debate abierto sobre las medidas reales que las empresas están adoptando para lograr que la IA sea “buena”, es posiblemente una de las formas más efectivas para lograr diseñar un futuro donde la IA integrada por las empresas en su cadena de valor, responda de verdad a los más elevados estándares éticos universales y siempre, respetuosos con los Derechos Humanos.

Otras Columnas por María Jesús González Espejo:
Últimas Firmas
  • Opinión | CDL: El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (V)
    Opinión | CDL: El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (V)
  • Opinión | Entidades especializadas en las ejecuciones civiles: la eficiencia de exportar un modelo de éxito
    Opinión | Entidades especializadas en las ejecuciones civiles: la eficiencia de exportar un modelo de éxito
  • Opinión | Un abogado civil en la corte militar: el caso de Cerro Muriano
    Opinión | Un abogado civil en la corte militar: el caso de Cerro Muriano
  • Opinión | ¿La Justicia es una lotería?
    Opinión | ¿La Justicia es una lotería?
  • Opinión | El reconocimiento «utilitarista» del delito durante el cumplimiento de la condena
    Opinión | El reconocimiento «utilitarista» del delito durante el cumplimiento de la condena