«El uso de la IA no es una opción, debemos prepararnos»: Idoia Salazar y Richard Benjamins sobre el Reglamento Europeo de IA
Idoia Salazar y Richard Benjamins abordan el estado actual de la implementación del RIA en los distintos estados miembros de la UE y su implementación gradual, la importancia de que las empresas se preparen adecuadamente para adaptarse a esta normativa o las implicaciones éticas para la sociedad y las empresas, entre otros temas.

«El uso de la IA no es una opción, debemos prepararnos»: Idoia Salazar y Richard Benjamins sobre el Reglamento Europeo de IA

|
04/7/2024 06:30
|
Actualizado: 03/7/2024 19:55
|

En un mundo donde la inteligencia artificial (IA) está transformando rápidamente todos los sectores, la regulación y la ética juegan un papel crucial para asegurar su desarrollo responsable y sostenible.

Con el objetivo de abordar estos temas tan relevantes, Wolters Kluwer organiza el webinar «Claves prácticas del Reglamento Europeo de Inteligencia Artificial», que contará con la participación de dos renombrados expertos: Idoia Salazar y Richard Benjamins, quienes compartirán sus conocimientos y perspectivas sobre la implementación y las implicaciones del nuevo Reglamento Europeo de Inteligencia Artificial (RIA).

El evento tendrá lugar el próximo 11 de julio a las 16h. Puedes inscribirte gratis aquí.

Con motivo del webinar hemos realizado una breve entrevista conjunta con Salazar y Benjamins, donde abordan el estado actual de la implementación del RIA en los distintos estados miembros de la UE y su implementación gradual, la importancia de que las empresas se preparen adecuadamente para adaptarse a esta normativa o las implicaciones éticas para la sociedad y las empresas, entre otros temas.

El Reglamento Europeo de Inteligencia Artificial lleva apenas tres meses con nosotros. ¿En qué estado se encuentra su implementación en los distintos estados miembro?

    Tras ser firmado por los presidentes del Parlamento Europeo en marzo y del Consejo de Europa en mayo, el acto legislativo se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor veinte días después de esta publicación. Tras su entrada en vigor, la Ley de IA estará sujeta a una transición y un período de implementación gradual y faseado durante el cual será plenamente aplicable 24 meses después de su entrada en vigor. Las fases son:

    • Sistemas de IA prohibidas: 6 meses después desde la entrada en vigor
    • Códigos de buenas prácticas: 9 meses
    • Normas para la IA generativa: 12 meses
    • Sistemas de alto riesgo (anexo III): 24 meses
    • Todos los sistemas, incluidos los en Anexo II: 36 meses

    Todos los estados miembros deben estar preparándose, designando la autoridad competente para gestionar el RIA, definiendo los procesos y su interacción con el “AI Office” de la Comisión, entre otros.

    ¿Van «tarde» las empresas que no se estén preparando para su adaptación a nuestro país?

    La adaptación al reglamento europeo de inteligencia artificial es un proceso que requiere su tiempo. Las empresas deben, entre otros, registrar todos sus sistemas AI, evaluar sus riesgos según el reglamento, aplicar los requisitos para sistemas de alto y medio riesgo. Todo esto implica la definición e implantación de un modelo de gobernanza que, aunque no muy difícil, requiere su tiempo también por el cambio cultural que implica.

    Dos años para prepararse es lo justo para empresas grandes. Para las empresas más pequeñas puede ser más rápido siempre cuando sepan qué hacer y cómo hacerlo. Actualmente, muchas de las grandes empresas ya lo tienen puesto en su radar.

    ¿Cómo veis, en calidad de expertos en la materia, la aplicación que tendrá del Reglamento? ¿Podríais destacarnos tres aspectos fundamentales?

    Tres aspectos fundamentales del RIA son:

    • Se basa en riesgo: poco riesgo implica pocos requisitos, alto riesgo implica varios requisitos;
    • Se basa en el uso de la tecnología, y no en la tecnología en sí;
    • El RIA es adaptable a futuros desarrollos de la AI que actualmente no están contemplados.

    Las implicaciones éticas para la sociedad y las empresas es, sin duda, uno de los debates cruciales acerca del desarrollo de la Inteligencia Artificial. ¿Qué recomendaciones daríais a las empresas para asegurar que sus implementaciones de IA sean éticamente responsables y alineadas con el AI Act?

      Recomendamos que las empresas diseñen e implementen una metodología para el uso ético y responsable de la IA. Esta metodología consiste en la definición de unos principios éticos de inteligencia artificial, formación y concienciación del personal, un cuestionario para estimar el riesgo de cada aplicación y para evaluar el cumplimiento con los principios éticos anteriormente mencionados, herramientas técnicas, y un modelo de gobernanza que define las expulsa, habilidades y roles de los distintos actores involucrados.

      ¿Qué beneficios específicos ofrece el sandbox regulatorio en IA y cómo puede una empresa participar en este piloto?

      Actualmente no tenemos claro que vaya a desarrollarse el piloto para aterrizar la regulación europea en IA que había anunciado el Gobierno. OdiseIA ha participado en el contrato para ayudar a la SEDIA a la preparación de unas Guías prácticas para cada uno de los artículos de la regulación europea, sencillas para que cualquier persona que no sea jurista pueda adecuarse a los requerimientos del AI act. Sobre todo las Pymes y Starups.

      Sin embargo, estamos a la espera de decisión del Gobierno al respecto.

      Lo que sí està claro es que, en el plazo de dos años, tiene que estar habilitado en España un Sandbox regulatorio y de innovación que permita participar, a todas las empresas que lo requieran, para que puedan probar los algoritmos de alto riesgo en el entorno controlado de pruebas antes de su salida al mercado.

      ¿Cómo se prevé que funcione la Agencia de Supervisión de Algoritmos (AESIA) y qué impacto tendrá en la operativa diaria de las empresas?

      La Agencia será el organismo responsable de vigilar el mercado, principalmente a la empresas o instituciones públicas o privadas que usen o desarrollen sistemas de IA de alto riesgo.

      Actualmente se están preparando sus procesos internos, sus atribuciones y sus responsabilidades. Es un organismo importante en un momento importante del desarrollo e impacto de esta tecnología. Todos esperamos que sea eficiente. Dicho organismo va a tener también su propio Think tank, para estudiar el impacto social de esta tecnología y anticiparse a los posibles riesgos.

      Ya para acabar, ¿qué escenarios futuros vislumbráis con el progresivo desarrollo de la IA a nivel social y también para las empresas? ¿Algún mensaje para los «tecnopesimistas»?

        Les diría que el uso de la IA no es una opción. La vamos a usar sí o sí, de manera perceptible e imperceptible. Debemos prepararnos. Aprender continuamente y comprender sus implicaciones reales.

        Probablemente tendrán problemas laborales aquellas personas que se nieguen a usar la IA como herramienta de ayuda en su día.a día. Y en este escenario será también muy importante el papel de los distintos gobiernos e instituciones públicas – nacionales e internacionales- que deberán ayudar a dar garantías a la sociedad (y a las empresas) que el empleo de esta tecnología no supone un riesgo para nuestros derechos fundamentales.

        Recuerda que puedes inscribirte el webinar del próximo 11 de julio haciendo clic aquí.

        Noticias Relacionadas:
        Lo último en Áreas y sectores