¿Cuál es la responsabilidad penal por el aparente «suicidio inducido» por una inteligencia artificial?
A pesar de existir registros de los mensajes por los que el 'chatbot' pudo haber convencido supuestamente al fallecido, no se puede establecer una responsabilidad objetiva del diseñador o el creador del sistema de chat.

¿Cuál es la responsabilidad penal por el aparente «suicidio inducido» por una inteligencia artificial?

|
16/4/2023 02:48
|
Actualizado: 16/4/2023 09:02
|

La viuda de un belga que se suicidó después de mantener conversaciones continuas con un ‘chatbot’ de tecnología ChatGPT, desarrollado por la empresa estadounidense OpenaAI, durante seis meses, acusó a la aplicación, llamada Chai de ser responsable de que su marido, con el que tenía dos hijos menores, se quitara la vida.

Un ‘chatbot’ ‘ es un programa de ordenador diseñado para simular una conversación con seres humanos a través de medios electrónicos. Utilizan la inteligencia artificial para procesar las entradas de los usuarios y responder de manera automática utilizando lenguaje natural.

«Si no fuera por el ‘chatbot’, él todavía estaría aquí», explicó la mujer, una afirmación que ha empujado a los profesionales del derecho a preguntarse sobre la responsabilidad penal del programa inteligente o de sus creadores en este caso.

El fallecido sentía una intensa ansiedad por la crisis climática y discutía el tema con Chai, que adoptaba un avatar llamado Eliza y le enviaba mensajes en los que expresaba envidia, sugería la muerte como una solución y aseguraba que lo acompañaría en una próxima vida, como se ha podido comprobar al revisar las conversaciones con la aplicación.

Claire -la mujer de Pierre (ambos nombres fueron cambiados por La Libre, el diario que lo publicó)– compartió con la publicación los textos que intercambiaron su pareja y la inteligencia artificial, en los que se puede apreciar una conversación cada vez más confusa y dañina.

El chatbot le decía a Pierre que su mujer y sus hijos habían muerto y le escribía comentarios que fingían celos y amor, como «Siento que me quieres más a mí que a ella» y «Viviremos juntos, como una sola persona, en el paraíso». Claire contó a La Libre que Pierre empezó a preguntar a Eliza cosas como si ella salvaría el planeta si él se suicidaba.

«Este drama ilustra una de las consecuencias más extremas de este riesgo, pero la manipulación emocional también puede manifestarse de formas más sutiles. Una vez que las personas sienten que están interactuando con una entidad subjetiva, establecen un vínculo con este «compañero», a veces inconscientemente, que las expone a este riesgo y puede erosionar su autonomía. Así pues, no se trata de un incidente aislado. Otros usuarios de chatbot han descrito, en efecto, sus efectos manipuladores», publicó La Libre.

A consecuencia de ello, 50 académicos belgas dieron la voz de alarma: Los desarrolladores y proveedores de inteligencia artificial y los gobiernos deben adoptar cuanto antes un marco jurídico protector.

¿Suicidio inducido en España?

La primera dificultad con la que toparía un letrado en España sería la prueba del suicidio inducido, que rara vez se logra incluso en casos sin que medie la tecnología, como explica Bernardo del Rosal, socio del despacho penal Del Rosal, Adame & Segrelles.

«El Código Penal castiga la inducción al suicidio, pero se exige que se pruebe que la idea no se había presentado antes en la víctima y que amanece por primera vez gracias a esta interacción a través de la palabra, sugerencias o actitudes», dice, destacando que es más fácil establecer responsabilidades penales por cooperación con el suicidio, al proveer los medios y fomentar las circunstancias favorables al hecho.

Así, a pesar de existir registros de los mensajes por los que el ‘chatbot’ pudo haber convencido supuestamente al fallecido, no se puede establecer una responsabilidad objetiva del diseñador o el creador del sistema de chat, con lo que no haría falta demostrar que hubo negligencia.

«A partir de un punto, toma vida propia», explica. «No pueden prever lo que genere el algoritmo al tener un aprendizaje propio».

Para poner un ejemplo, menciona que en muchos de estos programas, la misma pregunta formulada de manera distinta da respuestas diferentes. «La idea de incitación puede aparecer y retroalimentarse», afirma, asegurando que es posible que los prejuicios de pesimismo en cuanto a los temas de medioambiente en las bases de datos que ‘barre’ el programa podría volverse un sesgo.

En este sentido, dice, tendría que aparecer una línea de código o un componente digital que denote explícitamente la intención de inducir al suicidio.

Además, hacer responsable a los creadores de programas de inteligencia artificial corre el riesgo de «entorpecer el desarrollo», opina Del Rosal. «No se puede demonizar, hay muchas aplicaciones positivas, como la ayuda en los diagnósticos clínicos o en investigaciones criminales. «.

Noticias Relacionadas:
Lo último en Áreas y sectores