«No se puede dirigir una reclamación contra la IA»: Las demandas por difamación contra ChatGPT no prosperarían en España
"Dada la naturaleza probabilística del aprendizaje automático, el uso de nuestros servicios puede dar lugar en algunas situaciones a resultados incorrectos que no reflejen con exactitud personas, lugares o hechos reales", según Belen Álvarez, directora del área de Cultura de Gabeiras & Asociados.

«No se puede dirigir una reclamación contra la IA»: Las demandas por difamación contra ChatGPT no prosperarían en España

|
14/6/2023 06:30
|
Actualizado: 13/6/2023 23:32
|

Las limitaciones de Chat GPT siguen dando de qué hablar, especialmente en cuanto a lo que presenta como hechos, que ya han generado dos posibles demandas por difamación, una del presentador de radio estadounidense Mark Walters y otra del alcalde australiano Brian Hood. En ambos casos, el ‘bot’ implicó a los afectados en casos reales de fraude, lo cual podría atentar, al menos según la legislación española, contra el derecho al honor de estos individuos.

Según las transcripciones de Chat GPT, Walters fue condenado por malversación de fondos en calidad de tesorero de una fundación de activistas a favor del porte de armas, mientras que Hood habría sido condenado por una trama de sobornos en el Banco de la Reserva de Australia. Afirmaciones falsas en ambos casos, por lo que ambos buscarían iniciar procedimientos judiciales contra el ‘chatbot’.

En conversación con Confilegal, Belén Álvarez, directora del área de Cultura de Gabeiras & Asociados, desgrana la normativa que regiría los casos hipotéticos de esta naturaleza que pudieran ocurrir en territorio español.

¿Qué se puede esperar si un caso similar se diera en España? ¿Se puede volver una tendencia?

Con la aparición de sistemas de inteligencia artificial (IA), se detecta que la normativa de la que disponemos con relación a la responsabilidad frente a los daños es insuficiente cuando estos daños se provocan con la participación de los mencionados sistemas de IA. 

En este sentido, en el ámbito de la Unión Europea se está trabajando con la finalidad de establecer un marco jurídico para regular la IA y poder determinar quien es el responsable ante un daño causado en un contexto en el que se utilice IA. Así, en este momento se encuentran en tramitación tres disposiciones con relación a esta materia.

Estas son la Propuesta de Reglamento de 21 de abril de 2021 por el que se establecen normas armonizadas en materia de IA (conocida como la Ley de IA) con el objetivo de establecer mecanismos que garanticen que la IA se desarrolla e implementa en condiciones de seguridad; la Propuesta de Directiva de 28 de septiembre de 2022 relativa a la adaptación de las normas de responsabilidad civil extracontractual a la IA con el objetivo de facilitar el acceso a medios de prueba o de aliviar la carga de prueba, y la Propuesta de Directiva de 28 de septiembre de 2022 sobre responsabilidad por los daños causados por productos defectuosos.

En tanto en cuanto no se desarrolle esta normativa, la realidad es que la vigente no tiene una aplicación clara y la responsabilidad, dependiendo del caso, puede ser, por ejemplo, del desarrollador o proveedor del sistema de IA o incluso del usuario.

En lo que se refiere al ordenamiento jurídico español, por lo general la atribución de responsabilidad civil se basa en la culpa del causante del daño. De este modo, para el nacimiento de responsabilidad es necesario que concurra una conducta negligente o culposa, que se produzca un daño y que exista una relación de causalidad entre la conducta y el daño.

Así pues, para que el desarrollador o proveedor de un sistema de IA responda de un daño es necesario demostrar su culpa o negligencia, el daño y la relación de causalidad entre la conducta y el daño.

En el entorno de modelos de IA generativa puede llegar a ser una tarea compleja detectar el origen del daño.

¿Se puede demandar a una inteligencia artificial por difamación o vulneración del derecho al honor y a la propia imagen en España?

No, la IA no tiene personalidad jurídica y, por tanto, no se puede dirigir una reclamación contra la misma.

Como hemos anticipado, el responsable del daño puede ser, por ejemplo y atendiendo al caso concreto, el desarrollador o proveedor del sistema de IA, o el usuario.

Belen Álvarez, directora del área de Cultura de Gabeiras & Asociados.

Belén Álvarez, directora del área de Cultura de Gabeiras & Asociados.

¿Se puede responsabilizar al periodista que publique esta información a partir de esta fuente? ¿Cómo se procedería en este caso?

 A la hora de analizar la responsabilidad por daños provocados con la participación de un sistema de IA, es importante analizar todas las circunstancias concurrentes. 

Por una parte, podemos mencionar el hecho de que todos conocemos el margen de error de los modelos generativos de IA y, por ello, debemos tener en cuenta este factor a la hora de utilizarlo. Asimismo, es importante atender a las condiciones de uso de estos sistemas. Así, por ejemplo, en las condiciones de uso establecidas por Open AI se establece lo siguiente:

«d) Precisión. La inteligencia artificial y el aprendizaje automático son campos de estudio en rápida evolución. Trabajamos constantemente para mejorar nuestros Servicios y hacerlos más precisos, fiables, seguros y beneficiosos».

Dada la naturaleza probabilística del aprendizaje automático, el uso de nuestros servicios puede dar lugar en algunas situaciones a resultados incorrectos que no reflejen con exactitud personas, lugares o hechos reales. Deberá evaluar la precisión de cualquier resultado según corresponda a su caso de uso, incluso mediante la revisión humana del resultado. Es decir, se advierte a los usuarios de la posibilidad de que los resultados contengan inexactitudes.

Por otra parte, también es interesante tener en cuenta las obligaciones de los proveedores de sistemas IA, contempladas en lo que aún es una propuesta de Reglamento de 21 de abril de 2021 por el que se establecen normas armonizadas en materia de IA.

Si bien se trata de una propuesta, que aun no ha sido aprobada ni resulta, por tanto, vinculante, es ilustrativo comprobar que contempla, entre otras obligaciones del proveedor de un sistema de IA de alto riesgo, la de evaluar y mitigar los riesgos e, incluso, establecer un sistema de vigilancia humana para prevenir o reducir al mínimo los riesgos para los derechos fundamentales.

¿Quién se responsabiliza, en última instancia, de los daños que pudiera reclamar la persona afectada por la supuesta información falsa proporcionada por  la IA?

 Como he comentado, la normativa en este momento no se encuentra adaptada a esta realidad y habría que analizar todas las circunstancias concurrentes para determinar quien es el responsable del daño.

¿Qué consideraciones debe tener una persona que trata temas legales y judiciales al usar estas herramientas de IA? ¿Y qué debe tomar en cuenta un abogado al enfrentar casos que involucren este uso?

 Es muy importante tener en cuenta el margen de error que hoy por hoy presentan los modelos generativos de IA. También es muy importante que el usuario advierta sobre el hecho de que el contenido ha sido generado por IA.

Noticias Relacionadas:
Lo último en Profesionales