El uso de datos personales en Inteligencia Artificial genera inquietud entre los consumidores europeos
Así se desprende de un estudio que acaba de publicar la Oficina de la Unión Europea de Consumidores (BEUC), a la que pertenece Asufin.

El uso de datos personales en Inteligencia Artificial genera inquietud entre los consumidores europeos

|
08/9/2020 06:50
|
Actualizado: 07/9/2020 22:09
|

El tratamiento de datos personales realizado por las herramientas de Inteligencia Artificial (IA) genera inquietud entre los consumidores europeos. En particular, no confían en que los asistentes virtuales o de voz respeten su privacidad.

Así se desprende de un estudio que acaba de publicar la Oficina de la Unión Europea de Consumidores (BEUC, por sus siglas en francés), a la que pertenece la Asociación de Usuarios Financieros (Asufin), sobre el conocimiento y la percepción de la Inteligencia Artificial de consumidores de nueve países de la Unión Europa.

El estudio, realizado entre noviembre y diciembre de 2019 en Bélgica, Dinamarca, Francia, Alemania, Italia, Polonia, Portugal, España y Suecia, revela que los consumidores consideran que la Inteligencia Artificial puede ser útil y creen que jugará un papel importante en muchas áreas de sus vidas.

Sin embargo, se muestran preocupados por cuestiones como el tratamiento abusivo de sus datos personales y el uso de la Inteligencia Artificial para manipulas sus decisiones.

De hecho, cuando se trata de tecnologías particularmente intrusivas, como el reconocimiento de voz, muchos consumidores –hasta el 68% en Alemania y el 71% en Bélgica- tienen poca confianza en que su privacidad esté protegida.

En Bélgica, Italia, Portugal y España, la mayoría de encuestados (64%) coinciden en que las empresas están utilizando la IA para manipular las decisiones de los consumidores.

La normativa no es eficiente en materia de Inteligencia Artificial

En este sentido, no creen que la actual normativa regule y supervise eficientemente la Inteligencia Artificial.

Solo una quinta parte de los encuestados dice que las normas actuales los protegen del posible daño que supone la Inteligencia Artificial.

La encuesta muestra que los consumidores confían en el potencial de la IA, pero quieren mantener el control. Más de dos tercios de los encuestados dicen que los usuarios deberían tener derecho a decir “no” a la toma de decisiones automatizada.

Este número es significativamente superior en Italia y Portugal, donde se eleva al 78%, y en España, donde asciende al 80%.

Además, el estudio muestra que el conocimiento de la IA es todavía relativamente bajo, con el 21% de los consumidores europeos que no han oído hablar de ello o que no perciben su presencia.

Los consumidores esperan que los servicios que se prestan en base a los cálculos de inteligencia artificial puedan ayudar a prevenir los accidentes de tráfico (91%), a prevenir cuestiones relativas a la salud (87%) o ayudar en sus problemas financieros (81%).

A pesar de esta visión, hasta cinco de cada diez declara que la IA conducirá a una discriminación injusta, debido al sesgo que introduce la automatización intensa de los procesos.

El papel de las organizaciones de consumidores

Concluye que los consumidores creen que la IA traerá beneficios, pero aún no los está ofreciendo. Asimismo, según recoge en las conclusiones, «muestra la necesidad de concienciar y educar a los consumidores sobre qué es la IA, cuándo y cómo se usa, cuáles son los riesgos y qué hacer si algo sale mal».

En este escenario, agrega, «las organizaciones de consumidores pueden desempeñar un papel importante en esto al informar a los consumidores sobre aplicaciones útiles, seguras y que cumplen con la ley y cuál es la mejor forma de utilizarlas».

Apunta también que aunque las aplicaciones de IA están sujetas a la legislación europea, como en materia de protección de datos, privacidad, no discriminación, protección del consumidor, seguridad de los productos y responsabilidad, las reglas existentes no son adecuadas para abordar los riesgos que plantea la IA y se necesitan medidas adicionales.

Desde BEUC se considera “preocupante” que la mayoría de los consumidores no confíen en que su privacidad esté protegida cuando utilizan herramientas de IA como relojes inteligentes o asistentes de voz.

“Los consumidores nos dicen que les preocupa el riesgo de que las empresas y los gobiernos puedan desplegar la IA para manipular sus decisiones y que la IA conduzca a una discriminación injusta. Los legisladores de la UE deben tomarse en serio estas preocupaciones y asegurarse de que los consumidores están protegidos y pueden confiar en esta tecnología”.

Monique Goyens, directora general de BEUC, apunta que «las actuales normas de protección del consumidor, la privacidad y la responsabilidad simplemente no son adecuadas para proteger a los consumidores de las consecuencias negativas de la IA. La UE tiene previsto proponer normas sobre la IA, se necesitan con urgencia. Los consumidores deben ser protegidos de riesgos como la discriminación o la manipulación”.

Los datos recabados por BEUC están en línea con el I Estudio sobre hábitos y uso de las Fintech elaborado por Asufin a finales del pasado año, según señala en un comunicado la asociación presidida por Patricia Suárez.

En aquella encuesta realizada a consumidores españoles se concluía que existe un grado de desconfianza muy alto en las grandes tecnológicas que tratan datos personales, mayor si cabe con respecto a otras instituciones y organismos públicos como la Agencia Tributaria, la Seguridad Social o los tribunales.

Suárez señala que “para los consumidores siempre es mejor elegir. Lo que tenemos que conseguir es usuarios informados para que la elección sea nuestra y no nos la impongan. Las grandes tecnológicas disponen de numerosos datos personales, sin que muchas veces seamos conscientes. Los reguladores deberán estar vigilantes porque el riesgo radica en cómo se utilicen nuestros datos”.