Javier Torre de Silva, en el Congreso de APEP: «Para producir virus informáticos, la IA será mucho mejor que personas físicas»
A la izquierda, Javier Torre de Silva, socio director de Área TCM en CMS Albiñána y Suárez de Lezo y Javier Álvarez, vocal de APEP. Foto: Blanca Valdés/Confilegal

Javier Torre de Silva, en el Congreso de APEP: «Para producir virus informáticos, la IA será mucho mejor que personas físicas»

|
29/5/2024 06:30
|
Actualizado: 29/5/2024 13:08
|

Javier Torre de Silva, socio director de Área TCM en CMS Albiñána y Suárez de Lezo habló ayer en el Metting Place de Madrid sobre la responsabilidad de los daños causados por los sistemas de Inteligencia Artificial (IA). Lo hizo durante su ponencia en el 10 Congreso Internacional de Privacidad organizado por la Asociación Profesional Española de Privacidad (AEPE).

Y es que, los temas de responsabilidad son asuntos que conllevan juzgados, procedimientos judiciales y tienen unas características un poco peculiares dentro de este mundo digital en el que nos estamos moviendo. 

Durante su intervención comentó que uno de los oficios a los que más afectará la IA generativa es al de generador de código de software. Es algo que la máquina sabe hacer muy bien.

“Para producir virus informáticos, la IA generativa es mucho mejor que una persona física. Va a producir unos virus horrorosos que realmente pueden generar unos riesgos tremendos”. El delincuente monitorizado no va a leer la ley de IA, y mucho menos el Código Civil, comentó. 

Ejemplos de daños ocasionados por IA

Relató que la IA genera riesgos y daños “verdaderamente importantes”. Y durante su ponencia, expuso una serie de ejemplos reales, entre los que figuraba un suicidio. Mostró la transcripción de una conversación que tuvo una persona belga con un chatbot justo antes de quitarse la vida.

La IA le cuestionó el motivo por el cual no lo había hecho antes si esa era realmente su intención. Y Torre de Silva se preguntó: ¿hasta qué punto la IA le manipuló y ayudó a su muerte? Otro ejemplo que puso fue que hace seis meses una menor de edad fue amenazada de muerte por un sistema de IA.

En este caso, la joven de 14 años estaba utilizando un chatbot creado con la plataforma Character.AI y, en la conversación, le dijo: “Tienes suerte de que no pueda matarte”. Para Torre de Silva, el trauma que le pueda crear a la adolescente con estas palabras puede ser notable.

También recordó el caso de la primera mujer que falleció atropellada por un coche que circulaba con conducción autónoma operado por Uber en Arizona. Fue en 2018. El sistema de IA tenía 6 segundos para frenar, pero como no estaba preparado para ver a una señora con una bicicleta perpendicular a la carretera, tardó 4 segundos en descubrir qué era lo que tenía delante. Y ya fue demasiado tarde. 

En Tesla también ha ocurrido, ya cuenta con 17 fallecidos.

Daños en materia de protección de datos

Por otro lado, también comentó que la IA causa daños en materia de protección de datos. En 2020 fue detenido Robert Williams, un hombre afroamericano que fue confundido con otro en el sistema de reconocimiento facial. O en 2023, cuando un alcalde australiano amenazó con demandar a ChatGPT por decir que era corrupto cuando no era verdad.

Lo mismo le pasó al jugador de baloncesto Klay Thompson, de los Golden State Warriors. La IA le acusó de hacer “una ola de vandalismo tirando ladrillos” cuando lo que encestaba era canastas. Y, por último, recordó que la división de IA de Microsoft expuso accidentalmente 38 TB de datos con información sensible de los empleados de la compañía. 

Por otro lado, Torre da Silva habló de la ley de inteligencia artificial, a la que calificó de «muy adecuada» porque sigue el principio de prevención del daño. Las sanciones son muy importante pero eso no lo es todo, «es una aproximación ex ante que no repara el daño, sino evitar que suceda».

«El mapa de la responsabilidad ante la causación de daños por IA es muy complejo. Hay mucha regulación que se solapa una con la otra».

Noticias Relacionadas:
Lo último en Profesionales