Fiscal Elvira Tejada, sobre el uso de IA para simular la identidad: «No tiene una respuesta adecuada en el Código Penal»
La fiscal de Sala del Tribunal Supremo de Delitos Informáticos hizo estas declaraciones en la VI Jornada de la Asociación Profesional Española de Privacidad Habeas Data e Inteligencia Artificial (IA). Foto: Blanca Valdés/Confilegal.

Fiscal Elvira Tejada, sobre el uso de IA para simular la identidad: «No tiene una respuesta adecuada en el Código Penal»

|
09/2/2024 00:45
|
Actualizado: 09/2/2024 00:51
|

La Fiscalía está muy preocupada con la aparición de la inteligencia artificial (IA) y los desafíos que conlleva ya que, hasta el momento, su experiencia en la lucha contra la ciberdelincuencia cometida con este tipo de mecanismos tecnológicos es escasa.

Así lo explicó ayer la fiscal de Sala del Tribunal Supremo de Delitos Informáticos, Elvira Tejada, en su intervención en la VI Jornada de la Asociación Profesional Española de Privacidad Habeas Data e Inteligencia Artificial (IA) que tuvo lugar en Distrito Telefónica. 

Y es, tal y como comentó, de la IA se puede aprovechar tanto su capacidad como su potencial, pero también puede alterar «el sistema de valores sobre el que se asienta nuestro modelo de convivencia» y afectar a «nuestros derechos recogidos en la Constitución».

Tejada comentó que uno de los comportamientos que están viendo actualmente es el uso de la IA para simular la identidad de una persona utilizando su cara. Es decir, se hacen pasar por una persona real, con su rostro y sus gestos y le atribuyen opiniones o puntos de vista que no son los suyos y que les puede suponer un descrédito a nivel social. Y esto les preocupa muchísimo.

«Llevamos años denunciando que este tipo de simulaciones de identidad en la red no tienen una respuesta adecuada en el Código Penal. Algunas de ellas, y en determinadas circunstancias, podrían encajarse en algunos tipos penales, pero la mayoría quedan impunes«. Simulaciones de identidad que también se usan para defraudar. 

Material pornográfico artificial

Por otro lado, la fiscal de Sala del Supremo destacó la elaboración del material pornográfico infantil elaborado de forma artificial.

Un tipo de contenido que se considera ilícito desde que el legislador lo introdujo en 2015 en el Código Penal siguiendo las directrices de la Directiva Europea del 2011 sobre abuso sexual infantil y la Convención de Budapest del Consejo de Europa de 2001.

Define la pornografía artificial como imágenes realistas de menores participando en actos sexuales explícitos o imágenes de los órganos sexuales de los niños con fines predominantes.

Porque aunque no se haya utilizado a ningún menor para hacer ese material, «se ataca otro bien jurídico, que es el derecho que tiene la infancia a evolucionar con normalidad. Estas actuaciones cosifican, atentan contra su dignidad y generan el riesgo de que ante una mayor oferta, haya una mayor demanda, que es lo que se está viendo».

Por otro lado también resaltó que están elaborando pornografía infantil con IA basándose en imágenes de niños reales que se ponen en circulación sin su consentimiento y en la que aparece en posturas humillantes o degradantes. Algo que también está ocurriendo en adultos. «En esta materia, en principio, tenemos respuestas legales», dictaminó.

Eloy Velasco y los tres focos sobre la IA

En la mesa redonda también participó Eloy Velasco, magistrado Sala de Apelación Audiencia Nacional, el cual explicó que la delincuencia informática a se basa en los datos y los sistemas.

Eloy Velasco durante su intervención. Foto: Confilegal
Eloy Velasco, magistrado de la Sala de lo Penal de la Audiencia Nacional, durante su intervención. Foto: Confilegal.

Para él, la IA es una especie de constelación de tecnologías, una rueda más que ha creado el ser humano para hacer mal, o no. «Generan información de salida, predicciones, recomendaciones, decisiones e influyen en entornos físicos y virtuales» que, a diferencia del mundo informático, incide y afecta en el mundo exterior.

E incidió en tres focos en los que los juristas se iban a tener que apoyar. «Está alimentada con bígaros data; tiene capacidad computacional superior a la biológica con técnicas de aprendizaje que permite cambiar el comportamiento programado y, por último, la adopción automatizada de decisiones sobre el entorno físico».

Y el uso que se hará de ella dependerá del ser humano, de modo que no se puede culpar a la máquina de los delitos cometidos porque no tienen sentimiento de culpa, no entienden, tampoco tiene empatía o reprochabilidad.

«Ahora hay nuevas víctimas, porque se pueden mandar en un nanosegundo 60.000 reclamos de estafa, lo que hace que el criminal no tenga empatía porque no sabe quienes son».

Destacó que los delitos más cometidos con IA era el de estafa, desnudos digitales y suplantación de personalidad.

Noticias Relacionadas:
Lo último en Mundo Judicial