Inteligencia Artificial: Los conflictos por su causa crecerán exponencialmente en el futuro inmediato en el sector abogacía
Más de la mitad (56 %) de los encuestados espera ver un aumento de los conflictos relacionados con la IA, mientras que la mitad (50 %) cree que el uso de tecnologías de IA dará lugar a riesgos y disputas que no pueden preverse actualmente, según el informe de CMS.

Inteligencia Artificial: Los conflictos por su causa crecerán exponencialmente en el futuro inmediato en el sector abogacía

De acuerdo con el informe "Technology Transformation: Managing Risks in a Changing Landscape"
|
27/7/2022 01:00
|
Actualizado: 27/7/2022 01:20
|

Casi siete de cada diez abogados de empresa y gestores de riesgos (el 69 %) afirman que su organización utilizará más nuevas tecnologías como la Inteligencia Artificial (IA) en los próximos años.

Esta es una de las conclusiones más importantes de una encuesta realizada entre más de 500 abogados de empresa y gestores de riesgos de múltiples sectores de todo el mundo. Ha sido publicada con el nombre de “Technology Transformation: Managing Risks in a Changing Landscape” (Transformación tecnológica: Gestionar los riesgos en un paisaje cambiante).

Y es un informe nuevo  sobre tecnología del despacho internacional de CMS.

No obstante, el uso de las nuevas tecnologías también implica riesgos. Más de la mitad (56 %) de los encuestados espera ver un aumento de los conflictos relacionados con la IA, mientras que la mitad (50 %) cree que el uso de tecnologías de IA dará lugar a riesgos y disputas que no pueden preverse actualmente.

Para Javier Torre de Silva, quien dirige el grupo de telecomunicaciones de CMS a nivel global y el departamento de TMC de CMS en España, “el estudio demuestra que la mayor parte de las empresas prevén que la propiedad intelectual, los secretos empresariales, la Inteligencia Artificial y los contratos inteligentes seran una fuente fundamental de litigiosidad para ellas en los próximos tres años”.

Con la excepción de la propiedad intelectual, “se trata de realidades nuevas, que hace pocos años ni siquiera existían en la forma en la que hoy las conocemos”.

Torre de Silva señala que “las nuevas tecnologías (y de modo muy específico, los datos personales y no personales) se han convertido en el activo más relevante y valioso de las empresas. Más allá de los activos materiales que aparecen en el balance. Por eso, es el activo que hay que proteger y cuya lesión causará la mayor litigiosidad”.

Otra cuestión que llama la atención es que “un 46% de las empresas no tienen un plan para gestionar un posible ciberataque”.

Javier Torre de Silva dirige el grupo de telecomunicaciones de CMS a nivel global.

Y subraya que los conflictos derivados de la Inteligencia Artificial han comenzado a aparecer ya, como revela el estudio, pero crecerán exponencialmente en el futuro inmediato.

La IA es ubicua. Está en más sistemas de los que normalmente pensamos, y constituye un foco de riesgos y de responsabilidad. Multiplica los recursos de la empresa, pero también su capacidad de generar conflictos con terceros”.

El abogado explica a Confilegal que con la aprobación del futuro Reglamento comunitario de IA se establecerña un régimen de control para los llamados sistemas de alto riesgo.

“En ese caso la empresa tendrá que hacer un sistema de gestión de riesgos para identificar evaluar y adoptar las medidas de control”, señala.

Se trata de prevenir y evitar el riesgo, antes de tener que gestionar el siniestro, comenta este jurista.

También afirma que “este nuevo régimen legal será el punto de partida para cualquier conflicto entre empresas (B2B), dado que el incumplimiento de las obligaciones de la futura Ley de Inteligencia Artificial podrá ser utilizado en acciones de responsabilidad contractual o extracontractual entre empresas. Otro tanto sucederá en los conflictos con consumidores en el ámbito B2C”.

Los encuestados señalan el cumplimiento de la normativa (65 %), el rendimiento o los niveles de servicio de los proveedores de Tecnologías de la Información y la subcontratación de socios (61 %); así como la propiedad intelectual (PI) y los secretos comerciales (52 %) como las principales fuentes de disputas en los últimos tres años

Desde CMS se insiste en que además de estas nuevas obligaciones y prohibiciones, seguirán existiendo los conflictos basados en otras leyes sectoriales: disponibilidad de los ‘data sets’ (problemas de base legitimadora para el uso de datos de carácter personal, de anonimización, de acceso legítimo a datos no personales, etc.),

Junto a ello “la calidad de los mismos ‘data sets’ (lucha contra la discriminación o el sesgo en la captación o el etiquetado de los datos relevantes), autoría o licencia de uso del algoritmo (con los problemas de transparencia y de control de la legalidad del tratamiento) y condiciones de utilización y protección de los resultados ofrecidos por el sistema de IA”.

Desde el punto de vista de la empresa usuaria de tales sistemas, “resultará clave conocer y ser capaces de transmitir, en su caso, cuál es el entorno operacional de uso del sistema (en qué circunstancias puede o no puede operar el sistema), cuál es su finalidad y las prestaciones (qué puede o no puede esperarse del sistema de IA, y cómo interpretar sus resultados), etc”, aclara.

También considera que “cualquier fallo en alguno de estos aspectos dará lugar sin duda a responsabilidad, y a los correspondientes litigios”.

Con la excepción de la propiedad intelectual, la IA trae realidades nuevas, que hace pocos años ni siquiera existían en la forma en la que hoy las conocemos.

Los próximos tres años veremos otros tipos de conflictos

Las fuentes de conflicto previstas para los próximos tres años son distintas de los tres anteriores y reflejan desarrollos tecnológicos y, en concreto, en el sector jurídico.

“Este informe es una herramienta extraordinariamente útil para las compañías de cualquier sector cuyo negocio se apoya en la tecnología. Ofrece el resultado del ejercicio que debieran hacer, una visión completa de la gestión del riesgo tecnológico”; comenta María González, socia responsable del departamento de Propiedad Industrial, Intelectual y Negocio Digital de CMS Albiñana & Suárez de Lezo.

Describe los principales riesgos del uso de tecnología critica; también hace un evaluación comparativa de la capacidad de las distintas industrias para controlar y enfrentarse a esos riesgos;  identifica los conflictos y procedimientos judiciales tecnológicos que van a llegar en los próximos meses y años; y sugiere actuaciones para adaptarse y mitigar esos conflictos.

“Este informe -creado por empresas y para empresas- se adelanta y resuelve el ejercicio que toda organización debiera hacer y ofrece la visión completa de la gestión legal y judicial del riesgo tecnológico”, apunta González.

Los encuestados señalan el cumplimiento de la normativa (65 %), el rendimiento o los niveles de servicio de los proveedores de Tecnologías de la Información y la subcontratación de socios (61 %); así como la propiedad intelectual (PI) y los secretos comerciales (52 %) como las principales fuentes de disputas en los últimos tres años.

María González es socia responsable del departamento de Propiedad Industrial, Intelectual y Negocio Digital de CMS Albiñana & Suárez de Lezo.

Sin embargo, durante los próximos tres años, los encuestados prevén que las disputas surjan por cuestiones derivadas de la propiedad intelectual y los secretos comerciales (62 %); cuestiones derivadas del uso de la IA (56 %), los contratos inteligentes (55 %) y las criptomonedas (52 %); y, por último, los servicios en la nube (51 %).

A este respecto, Torre de Silva explica que “el riesgo no solo está en posibles conflictos comerciales con terceros (en relación con los cuales valga lo dicho más arriba), sino también con las Administraciones Públicas, como por ejemplo en materia de protección de datos de carácter personal”.

“No es infrecuente que ambos problemas se mezclen: un conflicto comercial puede poner de manifiesto un insuficiente cumplimiento de normativa sectorial y dar lugar a la incoación de un procedimiento sancionador por una Administración Pública. Los datos personales que nutren al sistema de IA han de tener una base legitimadora adecuada, y el sujeto titular de los datos ha de ver respetados sus derechos, incluido el derecho a la supresión de sus datos”.

Al mismo tiempo destaca que “en ocasiones será difícil aplicar la legislación de protección de datos a esta nueva realidad, pero es imperativo hacerlo (en ocasiones no puede obligarse a un sistema de IA a desaprender” lo que ha aprendido con carácter general gracias a la interacción de un individuo, pese a que los datos personales de ese individuo se hayan cancelado).

Otra cuestión que revela es que “la Agencia Española de Protección de Datos es, con gran diferencia, la autoridad europea de protección de datos que más sanciones pecuniarias impone en toda la Unión Europea. No solo hay que prevenir el riesgo de multa, sino muy principalmente el riesgo de suspensión de la actividad no conforme por orden del regulador”.

Se necesitan formas nuevas de resolución de conflictos

Más de la mitad (57 %) de los encuestados está de acuerdo en que deberían utilizarse nuevas formas de resolución de conflictos para resolver las disputas derivadas de las nuevas tecnologías, mientras que solo un tercio (34 %) espera que los conflictos derivados de las tecnologías de IA sigan los mismos principios que los no relacionados con la misma. 

Esto pone de manifiesto una posible insatisfacción con los métodos actuales de resolución de conflictos y la cuestión de si “cumplen los fines” de los futuros conflictos tecnológicos, en los que es probable que las transacciones de múltiples proveedores, tanto en la nube como en la plataforma, se vuelvan más comunes, donde podría preferirse un método de resolución de conflictos «en la plataforma», posiblemente impulsado por la IA. 

Desde CMS se insiste en que Los riesgos derivados del uso de la IA van a suponer un verdadero reto para los operadores jurídicos, pues la capacidad de autoaprendizaje y la autonomía potencial de los sistemas de IA, así como la multitud de agentes intervinientes, podrían imposibilitar la imputabilidad a una concreta intervención humana o decisiones de diseño, lo que puede derivar en la responsabilidad de varios de los agentes intervinientes.

Noticias Relacionadas:
Lo último en Áreas y sectores