Firmas
Opinión | El sesgo y la discriminación en el uso de la Inteligencia Artificial
19/8/2024 05:30
|
Actualizado: 20/8/2024 00:38
|
La inteligencia artificial (IA) se está convirtiendo en una herramienta esencial en muchos aspectos de la vida cotidiana, desde la salud y la educación hasta la justicia y el empleo.
Se puede afirmar sin el temor a equivocarnos, que está teniendo un efecto expansivo en todas las relaciones sociales, profesionales, personales, económicas y culturales sin parangón con otros fenómenos que han afectado a la colectividad humana, y eso que nos encontramos en los albores de una época de cambio, y que todavía no hemos visualizado el potencial que este tipo de herramientas va a tener de una manera decisiva en nuestras vidas.
Sin embargo, como toda tecnología, la IA no es inherentemente neutral.
Los sesgos y la discriminación pueden infiltrarse en los sistemas de IA de diversas formas, lo que puede tener consecuencias significativas.
El sesgo en la inteligencia artificial implica y representa un valor ético determinante porque pone en riesgo principios fundamentales de equidad, justicia y al mismo tiempo, el respeto por la diversidad humana.
En este sentido, el sesgo en la IA puede llevar a provocar situaciones injustas que favorecen a unos grupos sobre otros.
Desde una perspectiva ética, es esencial que las tecnologías de IA se diseñen y se implementen de manera que aseguren una distribución equitativa de beneficios y perjuicios, teniendo presente que la justicia implica tratar a todas las personas con imparcialidad y objetividad, y la presencia de sesgos, en este caso en los algoritmos de la IA, o en los sistemas de entrenamientos vinculados a la misma, puede contradecir este principio de una manera directa.
Por todo ello, debe ponderarse el hecho, de que los operadores jurídicos que intervienen en la conformación de la IA, como por ejemplo lo son sus desarrolladores y las organizaciones que implementan IA, tienen la responsabilidad de asegurar que sus sistemas no perpetúen ni amplifiquen sesgos.
Esto incluye la obligación ética de revisar y mitigar los sesgos en los datos de entrenamiento, los algoritmos y también los resultados obtenidos.
La responsabilidad también se extiende a la transparencia como hecho representativo de la forma en la que se toman las decisiones, pero también en la capacidad de rendir cuentas si ocurren errores.
«PRINCIPIO DE NO MALEFICENCIA»
En este orden de cosas, debe ser tenido en consideración el llamado “principio de no maleficencia”, que constituye un valor fundamental desde la perspectiva ética, y más en la IA, el cual requiere de manera directa que los sistemas de IA no causen daño.
Al hilo de ello, es más que evidente que el sesgo en la IA puede llevar a resultados perjudiciales, como la discriminación en el acceso a servicios, oportunidades de empleo y justicia, y consecuentemente con ello, se puede afirmar que es éticamente imperativo diseñar sistemas de esta índole que se caractericen por minimizar el riesgo de daño que los sistemas de IA pueden llegar a producir a las personas.
Así, es evidente, que las personas tienen el derecho a ser informadas sobre cómo se utilizan sus datos y cómo las decisiones algorítmicas pueden afectarlas.
El sesgo en la IA puede socavar la autonomía de los individuos al influir en decisiones sin que medie su conocimiento o su consentimiento.
De esta manera, cada vez es más importante que los sistemas de IA sean transparentes, y que, de manera correlativa, las personas comprendan y consientan sobre la manera y la forma en cómo se van a utilizar sus datos personales
Erradicar los sesgos que atenten contra la diversidad, implica y lleva consigo reconocer y valorar las diferencias entre individuos y grupos.
Los sistemas de IA deben ser diseñados de manera que respeten y reflejen esta diversidad, evitando la homogeneización y el refuerzo de estereotipos negativos.
Por todo ello, hoy en día la ética de la IA requiere que los desarrolladores y todos los operadores jurídicos que se vean inmersos en la tarea de la conformación de los sistemas de IA, deben tener una participación ciertamente activa en el hecho de cómo sus sistemas, pueden afectar a diferentes poblaciones de manera diversa, pero especialmente, si ellos influyen de manera negativa afectando a sus característica culturales y sociales, entre otras circunstancias contra que los sesgos pueden impactar.
PRINCIPIO DE BENEFICIENCIA
A contrario sensu debe tenerse presente que el principio de beneficencia se refiere a la obligación de promover el bienestar de las personas.
Un sistema de IA justo y equitativo debe mejorar la vida de todos los individuos, no solo de unos pocos.
Ello lleva consigo la exigencia de asegurar que los beneficios de la IA se distribuyan de manera equitativa, y que simultáneamente se lleven a cabo aquellos esfuerzos que sean necesarios con la finalidad de mitigar cualquier impacto negativo que pueda surgir del sesgo.
Por todo ello, hay que tener presente que el sesgo en la IA, en los términos indicados representa básicamente un problema ético significativo que desafía los principios de justicia, de responsabilidad, de no maleficencia, de autonomía, y de la necesidad del respeto a la diversidad y beneficencia.
Afrontar el problema suscitado por estos sesgos, cada vez es más determinante desarrollar y desplegar tecnologías de IA que sean justas, equitativas y beneficiosas para toda la sociedad.
La ética en la IA no es solo mera cuestión de diseño técnico, sino también de compromiso y de asunción de los valores humanos fundamentales,
Cuando se aborda la relación entre el sesgo y la IA, debe hacerse una especial referencia a una serie de condicionantes que influyen de manera decisiva en la existencia, precisamente, de la existencia de tales sesgos en la creación de herramientas de IA.
CIRCUNSTANCIAS QUE PROVOCAN LA EXISTENCIA DE LOS SESGOS
A tales efectos, es procedente distinguir a un conjunto circunstancias que provocan la existencia de tales sesgos, que son las que se indican seguidamente:
a). El origen del sesgo en la IA.
Como causa inmediata de su existencia se suelen distinguir una serie de factores latentes que los provocan:
a.1). Con relación a los datos de entrenamiento.
La IA aprende a partir de grandes volúmenes de datos.
Si estos datos contienen sesgos históricos o discriminación, la IA aprenderá y replicará esos mismos patrones.
En este sentido, por ejemplo, si un conjunto de datos de contratación contiene menos mujeres en roles técnicos, una IA entrenada con esos datos podría perpetuar este sesgo.
a.2). En relación con los algoritmos que la integran.
Los algoritmos utilizados para procesar datos pueden estar diseñados o seleccionados de manera que favorezcan ciertos resultados.
Esto puede ser un fenómeno de carácter involuntario, pero el impacto es cada vez más significativo, y al mismo tiempo, conlleva unas mayores consecuencias que se deben tener en consideración.
a.3.) La llamada interacción humana.
Los sesgos también pueden introducirse a través de las decisiones y acciones de los desarrolladores y usuarios.
En este orden de cosas, deben ser ponderadas las decisiones subjetivas tomadas durante el diseño y la implementación de las herramientas de IA, que pueden reflejar y traer consigo sesgos de carácter inconsciente, pero constituyen sesgos, al fin y al cabo.
b). El impacto que provoca la discriminación en el uso de la IA
Así, debe valorarse las consecuencias que estos sesgos llevan consigo en aspectos vinculados con la justicia y la equidad en el uso estas herramientas.
La discriminación en la IA puede reforzar desigualdades existentes.
Por ejemplo, se puede mencionar el hecho consistente en que un sistema de IA utilizado podría llevar consigo que las sentencias judiciales pudieran imponer penas más severas a ciertos grupos étnicos, en el caso de que los datos de entrenamiento utilizados reflejen sesgos raciales históricos, que discriminen a determinados colectivos.
Este factor de discriminación puede materializarse en muchos aspectos, siendo un buen reflejo de ello, el acceso a oportunidades, de lo que constituye un buen ejemplo el acceso al empleo.
La discriminación algorítmica puede llevar consigo una exclusión de determinados candidatos considerados como pertenecientes a grupos subrepresentados.
Ello no solo afectaría a los individuos que integran dicho subgrupo, sino que también privaría a las empresas de su participación como tales candidatos, sino quizás lo que es más importante, de su participación y de su talento.
Del mismo modo, debe considerarse dicha influencia del sesgo, en lo que atañe a los Servicios Públicos.
Así, puede considerarse que, en áreas como la salud, los sesgos en los sistemas de IA pueden llevar a diagnósticos y tratamientos inadecuados o incluso erróneos para ciertos grupos de pacientes, afectando de una manera negativa a su salud y también a su bienestar.
c). La mitigación de sesgos y de la discriminación
Representa un papel de singular importancia, que de manera efectiva se garantice la existencia de la diversidad en el desarrollo.
En este sentido, es cada vez más determinante que los equipos de desarrollo sean diversos, a los efectos de poder garantizar de manera adecuada que las diferentes perspectivas en las que se basa precisamente la diversidad, sean consideradas durante el diseño y la implementación de sistemas y las herramientas de IA.
En este mismo sentido, y en lo que atañe a la realización de auditorías y de evaluaciones, debe tenerse en cuenta la necesidad de la realización periódica y regular de las mismas en los sistemas de IA, con la finalidad y el propósito de poder identificar adecuadamente dichos sesgos, y poder corregirlos.
Esto incluye sin lugar a duda, el análisis de los datos de entrenamiento utilizados, y los resultados producidos por el uso de la IA.
Asimismo, debe prevaler el principio de transparencia en la conformación de tales herramientas de IA, y con ello, tratar de fomentar la transparencia en los algoritmos y los datos utilizados.
Esta actuación permite y posibilita que por parte de terceros se revise y detecte la existencia de posibles sesgos y con ello, la producción de interpretaciones que lleven consigo la existencia de posibles discriminaciones.
En lo que atañe a la regulación y a las normativas, cada vez se hace más necesario desarrollar y aplicar regulaciones que desde una perspectiva imperativa, obliguen a las empresas a garantizar la equidad, y la no discriminación en sus sistemas y herramientas de IA.
d). La necesidad, en todo momento, de llevar a cabo el desarrollo de prácticas, que garanticen la existencia y la prevalencia de la responsabilidad social.
Probablemente en este campo, el primer factor a tener en consideración es el que hace referencia a la necesidad de la conciencia y de la educación.
Así, se hace preciso educar a los desarrolladores, a los tomadores de decisiones, y al público en general sobre la existencia y el impacto de los sesgos en la IA.
LA CONCIENCIA, EL PRIMER PASO
De este modo, puede afirmarse que la conciencia representa el primer paso hacia la mitigación de la producción de los sesgos, y, por ende, de la existencia de supuestos de discriminación.
Al lado de ello se ha de tener muy presente la llamada “participación comunitaria”, que consiste básicamente en la posibilidad de involucrar a las comunidades afectadas en el desarrollo y la implementación de sistemas de IA.
De este modo, se pretende asegurar que tanto sus necesidades, como sus preocupaciones sean consideradas de manera efectiva en el desarrollo de los algoritmos y demás herramientas utilizadas en los sistemas de IA.
De manera consecuente, la presencia de sesgos y discriminación en la IA es un desafío significativo que requiere atención continua y esfuerzos coordinados para mitigar sus efectos.
Y en este sentido, a medida que la IA se integra más en las vidas de los seres humanos, y en las prácticas sociales y culturales de nuestras organizaciones, es fundamental abordar estos problemas para asegurar que la tecnología sea justa y beneficie a todos por igual.
Los algoritmos de IA pueden perpetuar o incluso amplificar sesgos existentes en los datos de entrenamiento.
La normativa en materia de protección de datos personales y de privacidad como el Reglamento General de Protección de Datos ya incluyen provisiones cuya pretensión no es otra que pretender combatir la discriminación y promover la equidad en toda su extensión, exigiendo que las decisiones automatizadas sean justas y transparentes.
Además, se va generalizando el hecho de requerir que las organizaciones realicen evaluaciones de impacto en la protección de datos personales cuando se utilizan tecnologías de IA, a los efectos, de que puedan presentar altos riesgos para los derechos de los individuos.
Por todo ello, la relación entre el sesgo, la discriminación y la inteligencia artificial (IA) es un tema complejo y profundamente relevante en el campo de la tecnología, que exige cada vez unas reflexiones más profundas y continuadas a los efectos de combatir este fenómeno, que no hay que olvidar que a veces se puede llegar a producir de manera inconsciente.
LOS SISTEMAS DE IA PUEDEN PERPETUAR O AMPLIFICAR SESGOS EXISTENTES
Los sistemas de IA, que a menudo son vistos como objetivos o neutrales, pueden de hecho perpetuar o incluso amplificar sesgos preexistentes que llevan a resultados discriminatorios.
Este problema surge de varias fuentes y tiene implicaciones significativas para el desarrollo y la implementación de la tecnología de IA, siendo procedente analizar esta relación en profundidad, tal y como a continuación se lleva a cabo.
a). Con relación al origen de los sesgos en las herramientas de IA.
El primer problema que se planeta hace referencia a la utilización de datos, que puedan ser constitutivos de sesgos.
En este sentido, no hay que olvidar que los algoritmos de IA aprenden y generan nueva información a partir de datos históricos que pueden reflejar prejuicios humanos previos o desequilibrios sociales.
A título de ejemplo se puede traer a colación, un sistema de IA destinado a la contratación, el cual puede desarrollar sesgos contra ciertos grupos si los datos de entrenamiento reflejan, aunque sea inadvertidamente, preferencias de contratación pasadas que eran discriminatorias.
También en lo que hace referencia al propio diseño de los algoritmos, debe ser valorado el hecho consistente en que los sesgos también pueden introducirse durante el diseño y la implementación del algoritmo.
Así, las decisiones sobre qué variables incluir, cómo ponderar ciertas entradas y cómo se define el «éxito» en un modelo pueden todas influir en resultados sesgados.
En este orden de cosas, deben ser considerado la llamada “interacción con el entorno”, ya que a veces, los sesgos emergen cuando un sistema de IA interactúa con un entorno cambiante o cuando se usa en contextos diferentes a aquellos para los que fue diseñado originalmente.
b). La manifestación del sesgo, y consecuencia de ello de la discriminación.
En algunas ocasiones se produce una discriminación de carácter directo
Ello ocurre cuando los sistemas de IA llevan a cabo distinciones entre individuos basándose en características protegidas, tales como: la raza, el género, la edad, etc., derivándose de ello un resultado que conlleva un tratamiento desfavorable o injusto para determinados grupos sociales.
Del mismo modo, también es posible que exista una discriminación de tipo indirecto, que habitualmente puede suceder cuando de la utilización de políticas o de prácticas aparentemente neutrales resultan desventajas para ciertos grupos sin que exista una justificación objetiva y necesaria.
c). Las consecuencias más habituales de la presencia de los sesgos en la implementación de herramientas de IA.
Lo primero que ha de valorarse es el impacto que dichos supuestos de sesgos y discriminaciones tienen en la Sociedad.
Debe tenerse muy presente que, los sesgos en la IA pueden tener efectos perjudiciales y duraderos en la sociedad, exacerbando desigualdades existentes y afectando la equidad en áreas críticas como el empleo, la justicia penal, la atención médica y el acceso al crédito.
Al mismo tiempo, la utilización de dichos sesgos, y el consecuente efecto de la discriminación, suele traer consigo la pérdida de la confianza, ya que, si los sistemas de IA muestran de manera efectiva sesgos, esto puede erosionar la confianza del público en las tecnologías de IA y en las organizaciones que las utilizan.
d). Por último, debe hacerse especial referencia a la posibilidad de la mitigación de los sesgos y a la discriminación que con ello puede producirse en las herramientas derivadas del uso de la IA.
En este ámbito debe hacerse referencia a la diversificación de los datos de entrenamiento, y con ello, a la posibilidad de asegurar que los conjuntos de datos utilizados en dichos entrenamientos sean lo más representativos y diversos, lo que, sin lugar a duda, puede ayudar mucho en la labor de tratar de reducir o eliminar la producción de dichos sesgos.
AUDITORÍAS
Esto incluye tomar en consideración la posibilidad de utilizar, por ejemplo, datos de diversas poblaciones, de diferentes escenarios, y de valorar comportamientos, que sean desiguales, a los efectos de proporcionar una información que trate de ser lo más equilibrada posible.
Dentro de las actividades encaminadas a mitigar o reducir los sesgos en los entrenamientos y el funcionamiento de las herramientas de IA, se encuentra la realización de auditorías, y de pruebas rigurosas encaminadas al desarrollo de actividades de evaluación y control, que tienen como objetivo fundamental, precisamente la detección y la corrección de los sesgos, que a consecuencia de la realización de las mismas haya podido ser detectados.
La realización de este tipo de pruebas puede incluir el hecho de llevar a cabo auditorías realizadas por terceros, o incluso el uso de herramientas de análisis de equidad.
Otros elementos que considerar hacen referencia a la exigencia de la existencia de transparencia y la exigencia de las explicaciones oportunas en el funcionamiento de los algoritmos que conforman las herramientas de IA, con la finalidad de poder fomentar la transparencia en cómo funcionan los algoritmos y cómo se toman las decisiones, lo que implica desarrollar sistemas que los usuarios puedan entender y evaluar críticamente.
También constituye un factor muy relevante la participación de los «stakeholders» en el proceso de desarrollo y decisión para IA, incluyendo grupos a menudo subrepresentados o con una menor presencia, pero que puede proporcionar perspectivas importantes y, al mismo tiempo, ayudar a identificar problemas potenciales de sesgo de manera temprana.
La existencia de estos factores a los que se ha hecho alusión, no libera a los responsables del desarrollo de las herramientas de IA de dar un puntual cumplimiento a las leyes existentes sobre cualquier clase de discriminación, y, simultáneamente, considerar la creación de nuevas regulaciones específicas para que todo tratamiento de información en la IA se aborde siempre desde la perspectiva de la equidad y de la inclusión.
Por todo ello, puede afirmarse que la relación entre sesgo, la discriminación y la IA representa en la actualidad un área de significativa preocupación tanto ética, como de carácter técnico, y, por ello, se requiere un enfoque proactivo y consciente en todas las etapas de su desarrollo, y la aplicación de la IA para garantizar que estas tecnologías avanzadas beneficien a la sociedad cada vez de manera justa y equitativa.
Otras Columnas por Rafael Chelala Riva: