
La Inteligencia Artificial supone un importante reto para el sector bancario; especialmente, en la protección de sus clientes. Foto: Confilegal
La Inteligencia Artificial llega a la banca, pero los usuarios tienen derecho a ser atendidos por un «humano»
En esta noticia se habla de:
La Inteligencia Artificial ha llegado para quedarse en todos los ámbitos; también en el sector de la banca. Una realidad que, sin embargo, sigue suponiendo un gran reto. No solo para las empresas a la hora de incorporar esta tecnología, sino también para los usuarios. Y es que aún son muchos los que dudan de la fiabilidad de este tipo de productos. Más aún, en relación a sus cuentas bancarias.
Una realidad que tienen muy presente las entidades bancarias, que no dudan en explicar todas las ventajas que puede tener el uso de la IA de cara a sus clientes. Por ejemplo, en la predicción de gastos, la reducción de costes de gestión, o la valoración de préstamos.
Del mismo modo, en esta incorporación de Inteligencia Artificial, son los propios bancos los que tienen que garantizar, no sólo la protección de los datos de sus clientes, sino también de la estructura financiera frente a los sistemas de IA. Un reto en el que el cliente está en el centro de la estructura.
Los retos legales de la banca ante la IA
«Cuando las entidades bancarias utilicen sistemas de IA para tomar decisiones que afecten a una persona física (como puede ser la concesión de un préstamo), deberán garantizar el derecho del usuario, si lo solicita, a recibir intervención humana, expresar su opinión y recurrir la decisión», explica a Confilegal Carlos Martín Pérez, abogado especialista en derecho mercantil y datos personales de Next Abogados.
Una cuestión que, para Pilar Gomar, especialista en Derecho mercantil y digital de Ruiz Ballesteros Abogados y Economistas, plantea «un desafío en el uso de sistemas plenamente automatizados».
«Otro reto es la minimización de datos, ya que los sistemas de IA requieren grandes volúmenes de información, lo que puede entrar en conflicto con la obligación de recopilar únicamente datos estrictamente necesarios», destaca la abogada.
Del mismo modo, ambos expertos coinciden en que la transferencia internacional de datos también será un punto destacable entre los retos de aplicación de la Inteligencia Artificial.
Retos de cara al cumplimiento normativo de los sistemas de IA en el sector bancario ante los que la información al usuario se convierte en un elemento clave. «Los bancos deberían informar en todo momento a sus clientes del uso de herramientas IA para sus operaciones en las que manejen los datos personales de los clientes», destaca Gomar. Una información de los posibles riesgos del uso de la IA que debe ir acompañada de transparencia por parte de la firma en todos los procedimientos bancarios relacionados con la Inteligencia Artificial.
Algo que, sin embargo, podría no ser suficiente. «Igualmente, siempre es más que recomendable contratar un seguro de responsabilidad civil que cumpla los eventuales riesgos ante brechas de seguridad, en los que el banco sería responsable», recomienda la experta.
Y es que, tal y como recuerda Carlos Martín, «la responsabilidad de las entidades bancarias en el caso de que un sistema de IA genere decisiones erróneas no tiene tanto que ver con el hecho de que se produzcan, sino, más bien, con el hecho de que la entidad bancaria haya cumplido con todas las obligaciones y haya implantado las medidas adecuadas al nivel de riesgo que le exige el Reglamento».
Medidas que, de no cumplirse, puede suponer sanciones que pueden alcanzar los 15.000.000 de euros o hasta el 3 % de su volumen de negocios mundial total. Y, en relación a medidas discriminatorias, derivar en una sanción aún más grave de 35.000.000 de euros o hasta el 7 % de su volumen de negocios mundial total».
Los derechos de los clientes bancarios con la Inteligencia Artificial
Implementación de la Inteligencia Artificial en la que los derechos de los usuarios son claros. Y deben protegerse, en busca de unas decisiones bancarias «justas, transparentes y supervisadas».
«Primero, las personas tienen derecho a saber que están siendo evaluadas por un sistema automatizado. Esto significa que la entidad debe explicarles claramente cómo funciona el sistema y por qué se tomó esa decisión. Por ejemplo, si un préstamo es rechazado, el cliente tiene derecho a entender cuáles fueron los criterios utilizados«, explica la abogada, coincidiendo con Carlos Martín.
Del mismo modo, el cliente «tiene el derecho a cuestionar la decisión. No basta con aceptar el «no» de una máquina; el cliente puede pedir que una persona revise su caso y evalúe si el sistema automatizado actuó correctamente», valora.
«Por último, las decisiones automatizadas deben ser justas y transparentes. Esto significa que los sistemas de IA deben evitar discriminaciones o sesgos y garantizar que sus procesos sean explicables. Todo esto está respaldado por normativas europeas, como el Reglamento General de Protección de Datos (RGPD) y la Carta de Derechos Digitales».
En resumen, los clientes no solo tienen derecho a entender lo que está ocurriendo, sino también a ser tratados con justicia y a contar con una supervisión humana si lo necesitan. Esto garantiza que la tecnología sea una herramienta que ayude, y no una que complique sus vidas.
Noticias Relacionadas:
Lo último en Profesionales