El futuro hipervigilado hacia el que nos dirigimos pone en peligro la privacidad y puede prestarse al abuso
Sobre estas líneas una fotografía de la serie de televisión estadounidense, "Person of interest", que relata como será el futuro en un mundo hipervigilado. Foto: CBS.

El futuro hipervigilado hacia el que nos dirigimos pone en peligro la privacidad y puede prestarse al abuso

Gemma Galdón investigadora en políticas y tecnologías de seguridad: “La sociedad está cada día más controlada, y cabe preguntarse para qué y si verdaderamente sirve para algo”
|
08/9/2019 01:00
|
Actualizado: 07/9/2019 22:14
|

«Big Brother», hermano mayor o gran hermano, es el nombre que el novelista inglés, George Orwell dio al líder del «Partido» que gobierna un superestado, formado por muchos países, entre ellos Gran Bretaña, llamado Oceanía, en su novela distópica «1984».

La historia, publicada en 1949, tenía lugar en un futuro «lejano», el año 1984.

Un futuro en el que la mayor parte del mundo había caído víctima de la vigilancia omnipresente del gobierno, en un mundo hipervigilado por el «Big Brother» (nombre que tomó «prestado» el famoso programa de Tele 5 en su traducción española), en el que la historia se manipula y se reescribe de acuerdo con los intereses políticos del «Partido», el partido único.

La verdad hace tiempo que ha caído víctima de la propaganda.

Aquella novela distópica tenía mucho de profética.

Porque en el mundo hacia el que nos dirigimos, la hipervigilancia es uno de sus rasgos más identificativos, lo cual plantea una vez más la disyuntiva seguridad versus libertades individuales y sociales.

La serie de televisión estadounidense «Person of interest», que vio la luz en 2012, ya abordó, precisamente, como será ese mundo que nos espera. Es una buena ventana a un futuro cuyo origen hunde sus raíces en los atentados de 11 de septiembre de 2001 de Nueva York y Washington.

Cuenta la historia de Harold Finch, un ingeniero informático que había construido para el gobierno una máquina (la Máquina) capaz de vigilar y recolectar millones de datos de ciudadanos anónimos y predecir cuáles de ellos iban a estar involucrados en un acto violento, quizás hasta un atentado.

Ese escenario ya está implementado. Cada día crece y se extiende. Dentro de una década viviremos entre cámaras y programas de inteligencia artificial que, posiblemente puedan realizar búsquedas más rápidas que las de ahora en inmensas bases de datos faciales, analizando datos de comportamiento, color de vestimenta, raciales, por edades, por clase social, en una minucioso y detallado vigilancia en el que los expertos no se ponen de acuerdo sobre su efectividad real.

UNA SOCIEDAD CADA VEZ MÁS CONTROLADA Y ESPIADA

Gemma Galdón, investigadora en políticas y tecnologías de seguridad, lo resume así para Confilegal: “La sociedad está cada día más controlada, y cabe preguntarse para qué y si verdaderamente sirve para algo”.

El Centro de Análisis y Prospectiva de la Guardia Civil preveía ya en 2014 una vigilancia en aumento por parte de las instituciones públicas en un proceso imparable, según estudios sobre tendencias sociales, políticas y de seguridad elaborados por el cuerpo que abarcan hasta 2030.

España no llega al nivel de otros países como China –con una tecnología de vigilancia masiva por reconocimiento facial que el régimen está utilizando contra la minoría étnica uigur–, EE.UU., India, Gran Bretaña o Emiratos Árabes –donde hay una cámara en cada esquina–.

Cámaras de vigilancia bajo la mirada del Big Beng, en Londres; Gran Bretaña es uno de los países más hipervigilados del mundo.

En nuestro país hay un amplio margen de crecimiento en los próximos años.

No sólo las cámaras, sino también los sensores electrónicos destinados a alertar a las fuerzas de seguridad en caso de manifestaciones o situaciones conflictivas, permitirán el seguimiento en tiempo real de ciudadanos sobre todo en las grandes ciudades.

Ello reducirá su derecho a la privacidad y al anonimato, influyendo, según los expertos, en el comportamiento habitual de las personas, al saberse observados en una especie de gran hermano colectivo y permanente.

El uso ¿indiscriminado? de las cámaras de videovigilancia nos acompaña ya en nuestra vida diaria, planteando no sólo diversos problemas éticos y jurídicos, sino también la necesidad de crear una ética de la videovigilancia,  tanto en el espacio público, como en el ámbito de la seguridad privada y en el laboral.

Sin olvidar la protección de los derechos afectados por la misma.

EL 11-S MARCÓ EL INICIO

Casos como el de Wikileaks o Snowden, que han puesto al descubierto el espionaje masivo que departamentos del Gobierno estadounidense y algunos de sus aliados, realizaban sobre “países amigos, enemigos y ciudadanía”, son un claro ejemplo del giro de la sociedad occidental hacia las tecnologías de control y hacia una militarización de la seguridad pública para poder vigilar a todo el mundo.

Gracias a las nuevas tecnologías se ha registrado un cambio de modelo por el desarrollo tecnológico que puede desestabilizar un país con un ataque, por ejemplo, a los sistemas de comunicación de grandes infraestructuras.

Esta ampliación del ámbito de seguridad comienza, según señala Gemma Galdón, profesora de la Universidad de Barcelona e investigadora en políticas y tecnologías de seguridad, tras los atentados del 11-s en Estados Unidos.

La especialista Gemma Galdón durante una conferencia en Alemania. Foto: Jan Zappner.

Momento a partir del cual  los gobiernos realizan una gran inversión en nuevas tecnologías y una tecnificación de la seguridad que ha generado una importante paradoja.

“De hecho – declaró la experta a Confilegal– se ha producido la paradoja de que al mismo tiempo que se ha incrementado la seguridad objetiva, ha aumentado la percepción de la ciudadanía respecto a la inseguridad, lo cual es completamente subjetivo.

Por ejemplo, en Estados Unidos los padres tienen verdadero pánico a que sus hijos sean secuestrados y sin embargo no se lo piensan dos veces cuando les meten en el coche donde tienen muchas más posibilidades de sufrir un accidente”.

RECONOCIMIENTO FACIAL

“El hecho objetivo- añade la experta, es que tras veinte años de debate sobre la videovigilancia, resulta que su efectividad es mínima, el impacto sobre la delincuencia apenas perceptible y la percepción de seguridad por parte de las personas no registra cambios significativos”.

Actualmente, y ante la falta de resultados significativos, hay países que han optado por reducir las cámaras en sus calles y otros que han decidido ir un paso más allá y vincularlas al reconocimiento facial a través de la inteligencia artificial. Y aquí surge de nuevo el debate.

“En teoría la Inteligencia artificial puede interpretar esas imágenes sin necesidad de un humano, y la industria dice que puede reconocer las caras, aunque los estudios existentes dicen lo contrario, que hay muchos condicionantes que lo impiden, como la falta de bases de datos para comparar, la mala calidad de las imágenes, los ángulos de las cámaras, entre otros” dice Gemma Galdón.

En Gran Bretaña, uno de los países más videovigilados del mundo, la propia policía reconoce una tasa de error del 98% en los sistemas de reconocimiento facial.

Incluso en condiciones óptimas, como pueden ser los sistemas automatizados de seguridad de los aeropuertos, la tasa es del 30%, según los datos que facilita la experta a Confilegal.

Pero en el futuro “los sistemas mejorarán y afectarán a mucha gente en todos los ámbitos. Al fin y al cabo estamos hablando de datos biométricos, de brazos, piernas, cara, pelo. ¿Y esos datos van a estar lo suficientemente protegidos o alguien va a poder “robar” mi cara?”, añade.

Y por eso, “es absurdo utilizar el reconocimiento facial para cosas banales, como el pase del gimnasio o de la biblioteca”.

La tecnología de reconocimiento facial es una de las más desarrolladas en China.

LAS LIBERTADES CIVILES, EN JUEGO

Según un estudio de la American Civil Liberties Union (Unión Estadounidense por las Libertades Civiles), en EE.UU. las cámaras de vídeo o circuito cerrado de televisión (CCTV) se están convirtiendo en una característica cada vez más extendida de la vida norteamericana.

El motivo es el miedo al terrorismo y la disponibilidad de cámaras cada vez más baratas.

Aunque la ACLU no tiene objeciones a disponer de cámaras en lugares que son objetivos terroristas potenciales, como el Capitolio, considera que la proliferación de cámaras en las calles no es una buena idea, fundamentalmente por cuatro razones:

Según la ACLU, la vigilancia por vídeo no ha sido probada como efectiva, ya que no disuaden a los atacantes suicidas, quienes incluso pueden sentirse atraídos por la cobertura de televisión que les garantiza publicidad gratuita.

Y si la verdadera causa por la que se implementan las cámaras es para reducir los delitos mucho más pequeños, los sociólogos británicos que estudian el tema han descubierto que no han reducido la delincuencia.

«Una vez que se ajustaron las cifras se observaron reducciones en ciertas categorías, pero no hubo evidencia que sugiriera que las cámaras habían reducido el crimen en general en el centro de la ciudad.»

PROCLIVE AL ABUSO INSTITUCIONAL 

En segundo lugar, la organización señala en problema del abuso. Concretamente de  cinco maneras:

Abuso criminal por parte de la propia policía, abuso institucional durante períodos de agitación social y conflicto intenso sobre las políticas gubernamentales; abuso para fines personales y focalización discriminatoria, ya que los sistemas de cámaras de vídeo son operados por humanos que aportan al trabajo todos sus prejuicios y prejuicios existentes.

Por último, el más personal e íntimo, el voyeurismo.

El problema de la falta de límites o controles en el uso de las cámaras proviene de la velocidad a la que avanza la tecnología, por lo que no hay manera de controlar los abusos señalados. La ACLU aconseja llegar a un consenso sobre los límites para la capacidad de los sistemas públicos de cámaras de vídeo:

¿Cámaras de alta resolución que puedan leer un folleto desde una milla de distancia? ¿Cámaras equipadas para detectar longitudes de onda fuera del espectro visible, permitiendo la visión nocturna o la visión transparente?

¿Cámaras equipadas con reconocimiento facial? ¿Cámaras aumentadas con otras formas de inteligencia artificial?

La ACLU pone muchas objeciones a que la policía hagan uso de las cámaras de vigilancia; la imagen corresponde a una de sus campañas: «Tres razones por las que los policías no deberían espiar en secreto», pone en inglés.

ES NECESARIA UNA LEGISLACIÓN MUY ESTRICTA

Paralelamente la organización reclama legislación sobre estos sistemas que limiten la invasión de la privacidad y protejan contra el abuso:

Se necesitan reglas para establecer una comprensión pública clara de cuestiones la grabación de imágenes, las condiciones y el tiempo que se guardan, los criterios de acceso a los vídeos archivados, aplicación de normas y penas para los infractores.

A nivel ciudadano, la creciente presencia de cámaras traerá cambios profundos al carácter de los espacios públicos, dicen los expertos.

Cuando los ciudadanos son conscientes de que podrían ser vigilados en cualquier momento, son más conscientes de sí mismos y se mueven menos libremente.

Tienen más cuidado con los libros y diarios que leen en público, pueden pensar más en cómo se visten, para que no se les confunda con terroristas, miembros de pandillas, drogadictos o prostitutas.

En general, no estar fuera de lugar, no destacar entre la multitud para ser señalados por una cámara.

“La sociedad está cada día más controlada- afirma Gemma Galdón- y cabe preguntarse para qué y si verdaderamente sirve para algo. No creo que estemos más seguros, y la crisis de seguridad que vive Barcelona ahora mismo lo demuestra».

«La cibervigilancia no nos facilita la vida, no tienen ninguna contrapartida para los ciudadanos. Entregamos nuestros datos y ¿qué recibimos a cambio? Nada, publicidad basura”.

Pelea en plena calle, en Barcelona, a la luz del día; lo nunca visto hasta ahora. Foto: Redes.

EL FUTURO QUE NOS ESPERA

La inteligencia artificial está proporcionando a las cámaras de vigilancia cerebros digitales que les permiten analizar vídeos en vivo sin necesidad de humanos que las manejen.

Pero cabe preguntarse qué va a suceder cuando un gobierno pueda rastrear a un gran número de personas o cuándo las fuerzas de seguridad sean capaces de seguir a una persona por una ciudad sólo con cargar su ficha policial en una base de datos.

Y todo ello sin mencionar el algoritmo sesgado que manda una alarma a la comisaría  porque no le gusta el aspecto de un ciudadano que pasa por allí.

Hoy en día puede parecer ciencia ficción, pero es un futuro temiblemente cercano.

La compañía de seguridad y vigilancia IC Realtime presentó recientemente una aplicación y plataforma web llamada Ella que usa inteligencia artificial para analizar los vídeos.

Puede reconocer cientos de miles de consultas en lenguaje natural, lo que permite a los usuarios buscar imágenes para encontrar clips que muestran animales específicos, personas que usan ropa de un determinado color o incluso marcas y modelos de automóviles individuales.

En la foto, Chris Callaway, director técnico de Integración de Software de IC Realtime, explicando cómo funciona el software de identificación en tiempo real bautizado con el nombre de Ella. Foto: Youtube.

LA TÉCNICA Y LA ÉTICA

Otras compañías no se quedan atrás y están construyendo inteligencia artificial directamente en su hardware. Boulder AI es una de esas startups, que vende «visión como servicio» utilizando sus propias cámaras de inteligencia artificial independientes.

La gran ventaja de integrar AI en el dispositivo es que no requieren una conexión a Internet para funcionar.

Y esto es sólo el principio. De la misma manera que el aprendizaje automático ha logrado rápidos avances en su capacidad para identificar objetos, se espera que la habilidad de analizar escenas, actividades y movimientos mejore rápidamente.

Pero para los expertos en vigilancia e inteligencia artificial, la introducción de este tipo de capacidades está llena de dificultades potenciales, tanto técnicas como éticas. Y, como suele ser el caso con la IA, estas dos categorías están entrelazadas.

La inteligencia artificial jugará un importante papel en ese mundo hipervigilado hacia el que nos dirigimos.

Es un problema técnico que las máquinas no puedan entender el mundo tan bien como los humanos, pero se vuelve ético cuando asumimos que pueden y les permitimos tomar decisiones por nosotros.

“La Inteligencia artificial- afirma Gemma Galdón- es un peligro en término de derechos, eficiencia y coste. Hay mucho mito y mucha ciencia ficción que llevan a gastar mucho dinero en cosas que se cree que funcionan y resulta que, por el momento, no tienen mucha utilidad».

«Como se ha demostrado en Gran Bretaña, no sirve para nada que tu cara quede grabada una media de 300 veces al día”.

 

Noticias Relacionadas:
Lo último en Política