La Neurorights Foundation advierte sobre los peligros ocultos de la neurotecnología en un novedoso informe
El informe de la Fundación de los Neuroderechos advierte contra una tecnología que, mal empleada que afecta de forma directa a los derechos humanos. Foto: Confilegal.

La Neurorights Foundation advierte sobre los peligros ocultos de la neurotecnología en un novedoso informe

|
21/4/2024 00:45
|
Actualizado: 20/4/2024 21:48
|

En un mundo fascinado por los avances tecnológicos, la neurotecnología promete revoluciones desde la medicina hasta el entretenimiento.

Sin embargo, un informe reciente de la Neurorights Foundation, titulado «Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies« (Salvaguardar los datos cerebrales: Evaluación de las prácticas de privacidad de las empresas de neurotecnología de consumo), arroja luz sobre las sombras que se ciernen sobre este mercado emergente y expone brechas significativas en las prácticas de privacidad y en los riesgos inherentes a la recolección y el manejo de datos neuronales.

La Neurorights Foundation (Fundación de Neuroderechos), que preside el neurobiólogo español de la Columbia University (Nueva York), Rafael Yuste, ha jugado un papel decisivo en la forja de la nueva ley del estado de Colorado, Estados Unidos, que acaba de ser aprobada.

Es una ley que protege los neurodatos y, por lo tanto, la privacidad de las ondas cerebrales de los seres humanos y que, con toda seguridad, será replicada en diversos países del mundo.

Este documento pionero, del que son autores el doctor Yuste y Jared Genser, consejero general externo de la Fundación, no solo examina con lupa las prácticas de privacidad de 30 empresas líderes en el sector, sino que también identifica los vacíos fundamentales en cinco áreas temáticas críticas.

A través de este prisma, el informe ilumina la opacidad que envuelve al acceso y manejo de información tan íntima como los datos neuronales, evidenciando una desconcertante falta de transparencia y salvaguardias.

Rafael yuste
Rafael Yuste, a la derecha, prueba un aparato neurotecnológico en el documental ‘Theater of Thought’.

La primera alarma suena en torno al acceso a la información. El informe destaca una alarmante escasez de políticas de privacidad claras y accesibles para los consumidores, socavando la capacidad de estos para tomar decisiones informadas sobre el uso de sus datos más personales.

«De las 30 empresas de neurotecnología encuestadas, 22 (el 73.33 %) tienen políticas de privacidad en sus sitios web que rigen el uso de sus productos neurotecnológicos. Ocho de las empresas (el 26.67 %) no tienen una política de privacidad pública disponible relevante para los productos neurotecnológicos que se pueda consultar antes de una compra. De las 30 empresas solo 10 (el 33.33 %) se comprometen a notificar significativamente a los consumidores si hay cambios en las prácticas de datos y privacidad de la empresa», dice el informe.

NEUROTECNOLOGÍA: CAPACIDAD PARA COMPARTIR DATOS CON TERCEROS

A esto se suma la ambigüedad en las prácticas de recolección y almacenamiento de datos, donde pocas empresas demuestran un esfuerzo genuino por minimizar la cantidad de información recopilada, dejando a los usuarios en un limbo de incertidumbre sobre la seguridad de su información más privada.

«29 de las 30 empresas (el 96.67 %) parecen tener acceso a los datos neuronales del consumidor y no proporcionan limitaciones significativas a este acceso», ,precisa.

Más inquietante aún es la capacidad casi universal de las compañías para compartir datos con terceros. Esta revelación plantea preguntas sobre el verdadero control que los individuos tienen sobre su información, en un contexto donde el consentimiento informado parece ser más una ilusión que una realidad.

«Más del 50% de las empresas tienen disposiciones explícitas en sus políticas que permiten compartir datos. 20 de las 30 empresas (el 66.67%) mencionan en sus políticas que pueden, bajo ciertas circunstancias, compartir información personal con terceros. Una empresa (el 3.33 %) dice que no puede compartir datos, mientras que otras nueve empresas (el 30 %) no son claras al respecto. Esto significa que, en la práctica, 29 de las 30 empresas (96.67 %) pueden y podrían transferir datos a terceros», relata el informe.

El informe no solo se limita a dibujar un panorama desolador, sino que también insta a la acción, resaltando la urgencia de desarrollar marcos reguladores y éticos que armonicen el potencial de la neurotecnología con la protección de los derechos humanos fundamentales

A medida que se avanza en la lectura, emergen también preocupaciones sobre los derechos de los usuarios, particularmente en cuanto a la retirada del consentimiento y la eliminación de datos, derechos fundamentales que parecen diluirse en el entorno digital.

A este respecto, el informe dice: «Solo 16 de las empresas (el 53.33 %) en este informe mencionan explícitamente que los consumidores pueden, bajo ciertas circunstancias, retirar su consentimiento al procesamiento de datos. Solo 14 de las empresas (46.67 %) extienden explícitamente a los consumidores el derecho a eliminar datos. De las 30 empresas, solo 12 (40 %) parecen extender a los consumidores tanto el derecho a retirar el consentimiento como el derecho a solicitar la eliminación de datos. Además, los derechos del usuario frecuentemente son específicos para la ubicación geográfica del consumidor en lugar de ser extendidos a todos los usuarios (por ejemplo, solo se aplican a personas en la Unión Europea)».

DEFICIENCIA EN LA SALVAGUARDA DE LOS DATOS

El informe de la Neurorights Foundation también llama la atención sobre la deficiencia existente en la mayor parte de las 30 empresas consultadas en la salvaguarda de los datos: «17 de las 30 empresas (el 56.67 %) mencionan la práctica de desidentificar información, aunque ninguna de las empresas explica a los consumidores los desafíos de desidentificar de manera significativa los datos neuronales».

«Solo 6 de las empresas (el 20 %) mencionan el cifrado de datos en sus políticas, y solo cinco (el 16.67 %) se comprometen a notificar a los clientes en caso de una brecha de seguridad. De las 30 empresas, solo tres (e 10 %) declaran que participan en todas estas medidas de seguridad y protección de datos. Las 27 restantes (el 90 %) de las empresas no delinean medidas adecuadas para proteger los datos neuronales en sus documentos de política. Lo más común en los documentos de política es el uso de un lenguaje vago que menciona medidas de protección pero no describe exactamente cuáles son esas medidas».

Sin embargo, son los peligros intrínsecos a la neurotecnología los que se perfilan como los más ominosos. La invasión de la privacidad mental, la pérdida de autonomía, y las vías abiertas hacia la desigualdad y la discriminación, se presentan como desafíos monumentales.

¿UNA TECNOLOGÍA SOLO PARA RICOS?

La tecnología avanzada de neurotecnología, incluidos los dispositivos de mejora cognitiva, podría convertirse en un lujo solo disponible para aquellos con los medios económicos para permitírselos.

Esto podría crear una brecha entre los «mejorados» neurotecnológicamente y aquellos sin acceso a tales tecnologías, exacerbando las desigualdades sociales y económicas existentes.

La idea de que los pensamientos y emociones humanas puedan ser objeto de escrutinio y manipulación externa no es solo una violación de la privacidad en su forma más íntima, sino también un ataque a la esencia misma de lo que significa ser libre, señala la Neurorights Foundation.

La neurotecnología podría crear una brecha entre los «mejorados» neurotecnológicamente y aquellos sin acceso a tales tecnologías, exacerbando las desigualdades sociales y económicas existentes

El informe no solo se limita a dibujar un panorama desolador, sino que también insta a la acción, resaltando la urgencia de desarrollar marcos reguladores y éticos que armonicen el potencial de la neurotecnología con la protección de los derechos humanos fundamentales.

Por otra parte, la Neurorights Foundation considera que el uso indebido de datos neurales podría conducir a formas de discriminación.

Por ejemplo, si los datos neuronales revelan predisposiciones a ciertas enfermedades o condiciones mentales, las personas podrían enfrentarse a estigmatización o exclusión en contextos como el empleo, el seguro o la educación, basándose en características inferidas de sus datos neurales.

También existe el peligrode que las minorías y otros grupos marginados sean particularmente vulnerables a los abusos de la neurotecnología, ya sea a través de la falta de acceso a las tecnologías que podrían beneficiarlos o por ser desproporcionadamente afectados por la recolección y el uso indebido de datos neuronales.

INFORME DE LA NEURORIGHTS FOUNDATION: «Salvaguardar los datos cerebrales: Evaluación de las prácticas de privacidad de las empresas de neurotecnología de consumo»

Noticias Relacionadas:
Lo último en Política