PUBLICIDAD
PUBLICIDAD

Configurar un chatbot supone ya aplicar para la empresa creadora los nuevos principios de privacidad que exige RGPD

El despacho Ecija y la consultora Chatbot Chocolate analizan los aspectos jurídicos a tener en cuenta antes de crear esta herramienta tecnológica
|

Dar vida a un chatbot -programa que simula mantener una conversación con una persona- de atención al cliente no es tarea fácil. Plantea una serie de retos y desafíos tan complejos como que sea capaz de entender un amplio abanico de preguntas y tenga habilidad para generar la respuesta en cuestión de segundos.

Desde la entrada en vigor del Reglamento Europeo de Protección de Datos (RGPD) el pasado 25 de mayo, los creadores de chatbots, empresas radicadas en Europa o con intereses en países europeos, tienen que asumir los nuevos principios de este texto en cuanto a privacidad por diseño o por defecto.

PUBLICIDAD

Eso significa, en definitiva, que lo primero que habrá que tener en cuenta es la protección de la privacidad y datos personales de terceros.

PUBLICIDAD

No hacerlo podría hacer a esa empresa incurrir en una sanción importante que según el RGPD podrían ascender hasta los 20 millones de euros o el 4% del volumen de negocio global anual del ejercicio financiero anterior de la compañía infractora.

“Cada chatbot requiere un tratamiento de datos personal”, explica la abogada de ECIJA Cristina Villasante. “Lo primero que tenemos que hacer es evaluar el riesgo de ese tratamiento. Qué datos se pueden tratar en ese chatbot, porque estamos hablando de software, y ver qué tratamiento le damos. Analizar las medidas de seguridad que implementaremos y cómo trataremos esos datos”.

PUBLICIDAD

En cuanto a la implantación de estas herramientas en los despachos, antiguos asistentes virtuales en las webs, ahora más sofisticados, “es una cuestión que se irá implementado progresivamente. Requerirá tiempo. Habrá que confiar en un sistema donde el asesoramiento te lo va a dar un robot”.

Para Villasante, “hay un cambio cultural que hay que asumir también por los clientes. No es lo mismo que te asesore un abogado que un chatbot. Todavía es algo que no va a pasar a corto plazo. De momento está apareciendo en el sector turístico de consulta para los clientes».

PUBLICIDAD

De momento, la UE está debatiendo lo que es la Inteligencia Artificial (IA) y cómo regularlo, lo que también influiría en estas herramientas robotizadas. “Ahora se trabaja en los Códigos de Buenas prácticas para los desarrolladores de estas herramientas. Todos ellos tendrán una caja negra, similar a la de los aviones, que se podrá analizar cuando tomen una decisión importante», explica.

Como consejo a la hora de implantar este tipo de herramientas, Cristina Villasante señala “que es necesario contar con un proveedor solvente en estos temas. Hay que hacer una auditoria de software y hacer una evaluación del tratamiento de los datos y entender que el servicio que se puede prestar se va a llevar desde chatbot. No hay que tenerlo de forma forzada sino que realmente de un valor añadido. Es una decisión empresarial importante”, aclara.

PUBLICIDAD

En este contexto, la empresa ChatBot Chocolate y el despacho EICJA han creado la Guía Legal Chatbots, coordinada por la propia Villasante, que responde a diferentes cuestiones jurídicas, algunas de las cuales reproducimos a continuación.

¿Pueden los chatbots dañar la imagen de la propia empresa? 

Para disminuir al máximo la posibilidad de que un daño de este tipo suceda, se desarrollan chatbots cuyas respuestas son siempre programadas por la propia empresa, minimizando al máximo todo riesgo reputacional y velando por su imagen de marca.

No obstante, en aquellos casos en los que se programe para recoger respuestas de manera automática de otras fuentes, se valoraría la necesidad de implementar mecanismos de prevención y monitorización del aprendizaje autónomo del chatbot y procesos de validación, para no incidir en casos como el de Tay, un chatbot que aprendía de respuestas en Twitter y comenzó a dar contestaciones no apropiadas.

¿Qué sucedería si un chatbot da una respuesta errónea provocando que el usuario tome una mala decisión? 

PUBLICIDAD

En materia de responsabilidad por daños contractuales y extracontractuales hay que tener en cuenta que, como ocurre en otros entornos, dar respuestas erróneas puede derivar en responsabilidades legales.

Para evitar estos errores, Ángel Hernández, socio director de la agencia especializada en el desarrollo de chatbots, Chatbot Chocolate, asegura que “en líneas generales, tanto por imagen de marca como por dilución de responsabilidades, durante la primera fase de creación de un chatbot, se aborda con las empresas el diseño de las respuestas y los diálogos que éste debe mantener, para evitar así sufrir problemas legales”. De todos modos, en estos casos los derechos de los usuarios estarán siempre protegidos.

¿Qué debemos tener en cuenta si el chatbot solicita nombre, email o teléfono, con el objetivo de que nuestro equipo del call center los contacte para conseguir nuevos clientes? ¿Deben respetar los chatbots el RGPD?

Están diseñados para ofrecer una gran variedad de servicios, para algunos de ellos es necesaria la obtención de determinada información por parte de los usuarios. En estos casos, la ley obliga a informar debidamente al usuario y ceñirse conforme a una serie de principios contemplados en el RGPD.

Alejandro Touriño, socio director de ECIJA y responsable del área de Information Technology, explica que “para evitar responsabilidades legales debemos contar con el consentimiento expreso del usuario, además de informarles de la identidad de la empresa y del periodo durante el que se conservará dicha información”.

¿Qué ocurre si el chatbot no almacena información, sino que solo redirige hacia la web?

En este caso no sería necesario cumplir con las obligaciones expuestas en el RGPD.

Si contratamos a una empresa de desarrollo de chatbots que utiliza librerías de código o plataformas de terceros para su creación, ¿quién ostenta los derechos sobre el mismo?

En lo que a propiedad intelectual se refiere, es necesario proteger los derechos tanto de sus creadores como de terceros. Habrá que realizar un análisis jurídico en profundidad de la naturaleza del código e implementar las medidas oportunas para que el chatbot no infrinja la propiedad intelectual o industrial ajena.

Tal y como puntualiza Hernández, “en el mercado nos encontramos servicios de terceras que en ocasiones son útiles para cuestiones como el entendimiento del lenguaje, analizar el sentimiento de quién nos escribe o para convertir la voz en texto”.

Y añade que son “servicios que se comercializan en un modelo SaaS, donde la empresa tiene la posibilidad de uso a cambio de un coste. Sin embargo, no pasan a ser de su propiedad. La empresa no posee la propiedad intelectual sobre dichos motores o tecnología”.