Firmas

Opinión | Ética y regulación: pilares del futuro de la Inteligencia Artificial

Opinión | Ética y regulación: pilares del futuro de la Inteligencia Artificial
Franco Blanco es abogado experto en "blockchain" y criptomonedas; trabaja como consultor y formador en Tecnologías de la Información y Comunicación (TIC). Foto: Confilegal.
18/7/2024 06:32
|
Actualizado: 17/7/2024 23:02
|

La gobernanza de la inteligencia artificial (IA) ha pasado de ser un tema exclusivo de los laboratorios de investigación a convertirse en una realidad accesible para la sociedad y las economías modernas.

La tecnología de IA, si se maneja adecuadamente, tiene el potencial de ofrecer grandes beneficios económicos y sociales. Sin embargo, alcanzar este potencial supone un significativo esfuerzo en su desarrollo y uso, incluyendo la consideración de cómo debe ser gobernada y qué grado de supervisión legal y ética es necesario, por parte de quién y cuándo.

Hasta ahora, los enfoques de autorregulación y corregulación, informados por la normativa legal y las perspectivas empresariales, académicas y técnicas asociadas, han sido en gran medida efectivos para limitar el uso inadecuado de la IA.

No obstante, esto no significa que no haya necesidad de acción por parte de Estados, empresas y grupos de la sociedad civil en todo el mundo para que contribuyan de manera sustantiva a la discusión sobre la gobernanza de la IA.

5 ÁREAS CLAVE EN LAS QUE LOS ESTADOS JUEGAN UN PAPEL CLAVE

Identificamos cinco áreas clave donde los Estados, en colaboración con la sociedad civil y los profesionales de la IA, tienen un papel crucial en la clarificación de expectativas sobre la aplicación de la IA en contextos específicos: estándares de explicabilidad, enfoques para evaluar la equidad, consideraciones de seguridad, colaboración humano-IA y marcos de responsabilidad.

LA EXPLICABILIDAD

En primer lugar, la explicabilidad en los sistemas de inteligencia artificial supone generar confianza y asegurar la responsabilidad en sus predicciones y decisiones. Un estándar de explicabilidad eficaz implica proporcionar razones comprensibles y verificables sobre por qué un sistema de IA llegó a una conclusión específica.

De este modo se fomenta la confianza de los usuarios en la precisión y la adecuación de los resultados del sistema, además de garantizar la rendición de cuentas, permitiendo que las decisiones automatizadas sean revisables y contestables.

Para lograrlo, es necesario desarrollar explicaciones que sean comprensibles para diferentes audiencias, desde usuarios finales hasta auditores y reguladores. Por ejemplo, mientras un usuario común podría necesitar una explicación en términos simples y no técnicos, un auditor podría requerir un análisis más detallado y técnico sobre el funcionamiento del sistema.

Asimismo, se requiere equilibrar la necesidad de explicabilidad con las limitaciones técnicas y económicas de los sistemas complejos de IA.

La implementación de estándares de explicabilidad debe considerar el contexto y el impacto potencial de los errores. En aplicaciones donde las decisiones tienen consecuencias significativas, como en la medicina o el sistema judicial, se requiere un alto nivel de explicabilidad y justificación detallada de los riesgos.

Sin embargo, en casos de menor impacto, una explicación más simplificada podría ser suficiente.

La creación de una colección de mejores prácticas en explicabilidad, así como guías específicas para distintos sectores, ayudaría a la industria a encontrar un equilibrio entre la complejidad de los sistemas de IA y la necesidad de explicaciones claras y útiles.

Además, la introducción de mecanismos alternativos como la auditoría externa y la posibilidad de oponerse decisiones automatizadas en los términos de la normativa de protección de datos, puede complementar los esfuerzos para garantizar la transparencia y la confianza en los sistemas de IA por parte de los usuarios.

LA EVALUACIÓN DE LA EQUIDAD

La evaluación de la equidad en los sistemas de inteligencia artificial consiste en evitar la perpetuación y amplificación de sesgos y desigualdades existentes en la sociedad.

La equidad en la IA se refiere a la capacidad de los sistemas para tomar decisiones justas y no discriminatorias, independientemente de las características demográficas como raza, género, edad, o condición socioeconómica. La dificultad radica en que existen múltiples definiciones de equidad que pueden entrar en conflicto entre sí.

Por ejemplo, una definición puede centrarse en la equidad demográfica, donde un sistema debería tratar a todos los grupos demográficos de manera igualitaria, mientras que otra puede enfocarse en la equidad individual, garantizando que cada decisión sea justa según los méritos individuales.

ENFOQUE PARA EVALUAR LA EQUIDAD

Para abordar esta complejidad, es crucial que los desarrolladores y los responsables de políticas articulen claramente qué definición de equidad están utilizando y por qué, y que ajusten sus modelos en consecuencia para reflejar esos principios éticos.

Además, la ya referida colaboración entre Estados, empresas, y la sociedad civil es esencial para desarrollar marcos normativos que guíen la implementación de la equidad en la IA.

Los gobiernos pueden desempeñar un papel vital proporcionando directrices sobre cómo balancear diferentes objetivos de equidad en contextos específicos y cómo priorizar estos objetivos en situaciones hipotéticas comunes.

Esto podría implicar establecer regulaciones que obliguen a las organizaciones a realizar evaluaciones de impacto de equidad antes de desplegar sistemas de IA, así como fomentar la transparencia y la rendición de cuentas a través de auditorías regulares.

Herramientas como las tarjetas de datos y modelos que detallan el rendimiento y los sesgos detectados pueden ayudar a las organizaciones a identificar y mitigar prejuicios en sus sistemas.

Al promover una comprensión compartida de los impactos de las decisiones algorítmicas y establecer señales de orientación, se puede avanzar hacia una utilización más justa y equitativa de la inteligencia artificial.

CONSIDERACIONES DE SEGURIDAD

No debemos olvidar la importancia de las consideraciones de seguridad en los sistemas de inteligencia artificial cuyo objetivo consiste fundamentalmente en prevenir tanto el uso indebido accidental como el malintencionado que podría causar daños significativos.

La seguridad en IA se refiere a la capacidad de un sistema para resistir ataques, malfuncionamientos y comportamientos imprevistos que puedan poner en riesgo la integridad de las personas y las infraestructuras.

Uno de los principales desafíos es anticipar y mitigar comportamientos no intencionados del sistema que pueden surgir debido a la complejidad y la naturaleza autónoma de la IA.

Esto incluye asegurar que los modelos estén entrenados adecuadamente con datos de alta calidad y que los objetivos de optimización reflejen fielmente las metas deseadas sin inducir efectos secundarios negativos.

Además, es esencial implementar mecanismos de monitoreo continuo y pruebas rigurosas para detectar y corregir posibles vulnerabilidades antes de que puedan ser explotadas.

Otra consideración importante es la defensa contra amenazas externas y la manipulación de los sistemas de IA lo que implica desarrollar estrategias robustas para proteger los datos y los modelos contra ataques como la inyección de datos maliciosos o la manipulación adversarial, donde los atacantes intentan engañar al sistema alterando sus entradas.

La colaboración entre sectores públicos, privados y académicos puede ayudar a establecer estándares y mejores prácticas para la seguridad de la IA, tales como certificaciones de seguridad y procesos de documentación exhaustiva que demuestren la diligencia debida en la implementación de medidas de seguridad.

Además, la transparencia en el diseño y las operaciones de los sistemas de IA, así como la posibilidad de intervención humana en situaciones críticas, son componentes esenciales para garantizar que estos sistemas operen de manera segura y fiable.

En última instancia, una combinación de enfoques técnicos, regulatorios y organizacionales es necesaria para crear un entorno seguro y de confianza para el despliegue de tecnologías de inteligencia artificial.

Por otro lado, la colaboración entre humanos e inteligencia artificial (IA) se basa en la premisa de combinar las fortalezas de ambos para lograr resultados superiores a los que podrían alcanzar individualmente.

Los sistemas de IA pueden procesar grandes volúmenes de datos, realizar cálculos complejos y detectar patrones con rapidez y precisión, mientras que los humanos aportan juicio, creatividad y la capacidad de comprender contextos sutiles y emociones.

COLABORACIÓN HUMANO-IA

Diseñar sistemas de colaboración humano-IA implica identificar claramente los roles que cada parte debe desempeñar, asegurando que las decisiones automatizadas sean supervisadas adecuadamente por humanos, especialmente en contextos críticos como la medicina, la justicia o la seguridad.

Un modelo efectivo de colaboración podría incluir mecanismos para que los humanos proporcionen retroalimentación y ajusten los parámetros del sistema de IA, así como interfaces de usuario intuitivas que faciliten la comprensión de las recomendaciones generadas por la IA.

Además, debe considerarse desde el diseño de procesos colaborativos las limitaciones y las capacidades únicas tanto de los humanos como de las máquinas.

Por ejemplo, en tareas donde la toma de decisiones se basa en datos complejos, la IA puede ofrecer análisis detallados y predicciones, mientras que los humanos pueden evaluar estos resultados dentro de un contexto más amplio y hacer ajustes basados en factores no cuantificables.

Para maximizar los beneficios de esta colaboración, es necesario desarrollar sistemas que permitan una comunicación fluida y transparente entre humanos y máquinas lo que debe incluir la capacidad de la IA para explicar sus decisiones y proporcionar niveles de confianza en sus recomendaciones, así como la capacidad de los humanos para intervenir y modificar las decisiones de la IA cuando sea necesario.

La colaboración humano-IA también debe diseñarse teniendo en cuenta factores psicológicos y sociales, como la confianza, la aceptación y la capacitación continua de los usuarios para asegurar que la integración de la IA sea efectiva y beneficiosa.

MARCOS DE RESPONSABILIDAD

Los marcos de responsabilidad en los sistemas de inteligencia artificial (IA) son esenciales para asegurar que las organizaciones y las personas rindan cuentas por las decisiones y acciones derivadas del uso de la IA.

La responsabilidad en este contexto se refiere a la atribución clara de obligaciones y consecuencias legales y éticas relacionadas con el desarrollo, implementación y uso de sistemas de IA.

Un desafío central es determinar cómo asignar responsabilidad en sistemas complejos donde múltiples actores pueden estar involucrados, desde los desarrolladores de algoritmos y proveedores de datos hasta los usuarios finales.

Esto debe implicar la implementación de regulaciones que obliguen a las organizaciones a realizar auditorías de impacto y mantener registros detallados de sus procesos de desarrollo y decisiones operativas.

Además, la creación de marcos de responsabilidad efectivos requiere una actualización y adaptación de las leyes existentes para abordar los nuevos desafíos presentados por la IA.

Esto incluye la consideración de la responsabilidad estricta para ciertos tipos de aplicaciones de alto riesgo, como aquellas en la atención médica o en vehículos autónomos, donde los errores pueden tener consecuencias graves.

A su vez, también es importante establecer mecanismos de compensación y remedios legales para los afectados por decisiones de IA defectuosas o perjudiciales.

Los Estados y las autoridades reguladoras deben trabajar en colaboración con expertos en IA, empresas y la sociedad civil para desarrollar normativas que equilibren la innovación con la protección de los derechos y la seguridad pública.

CONCLUSIÓN

En conclusión, la integración de la Inteligencia Artificial en diversos aspectos de la vida moderna plantea desafíos complejos en términos de gobernanza, equidad, seguridad, colaboración humano-IA y responsabilidad, que requieren la intervención de profesionales especializados en protección de datos, compliance y derecho tecnológico.

Estos expertos son esenciales para desarrollar y aplicar marcos regulatorios robustos que aseguren un uso ético y seguro de la IA, proporcionando la claridad y responsabilidad necesarias para mitigar riesgos y maximizar beneficios.

La colaboración interdisciplinaria entre tecnólogos, juristas, reguladores y la sociedad civil es fundamental para abordar los retos emergentes y garantizar que la evolución tecnológica se alinee con los valores y derechos humanos, asegurando una implementación de la IA que beneficie al conjunto de la sociedad.[1]


[1] Cfr. GOOGLE, Perspectives on Issues in AI Governance, 2024.

Otras Columnas por Carlos Franco:
Últimas Firmas
  • Opinión | Sobre el móvil del fiscal general del Estado: Cuando quien debe guardar la ley es señalado por quebrantarla
    Opinión | Sobre el móvil del fiscal general del Estado: Cuando quien debe guardar la ley es señalado por quebrantarla
  • Opinión | La reciente doctrina del Tribunal Supremo sobre las notificaciones tributarias
    Opinión | La reciente doctrina del Tribunal Supremo sobre las notificaciones tributarias
  • Opinión | La educación en ciberseguridad clave en el uso de una Internet segura entre los adolescentes
    Opinión | La educación en ciberseguridad clave en el uso de una Internet segura entre los adolescentes
  • Opinión | CDL: Confidencialidad y “Without Prejudice” en la jurisdicción de Inglaterra y Gales (I)
    Opinión | CDL: Confidencialidad y “Without Prejudice” en la jurisdicción de Inglaterra y Gales (I)
  • La política arancelaria de Trump y su impacto en el equilibrio económico de los contratos de obra pública
    La política arancelaria de Trump y su impacto en el equilibrio económico de los contratos de obra pública