Un abogado de EE.UU se enfrenta a una posible sanción por utilizar en un juicio citas falsas creadas por ChatGPT sin comprobar su veracidad
|
30/5/2023 12:08
|
Actualizado: 30/5/2023 12:15
|
El abogado estadounidense Steven Schwartz, del bufete Levidow, Levidow & Oberman se enfrenta a una posible sanción por redactar un escrito con ChatGPT con contenidos falsos en un juicio llevado a cabo por un tribunal de Nueva York. No comprobó la información aportada por la inteligencia artificial y acudió con precedentes legales inventados.
Según publicó el periódico New York Times el pasado sábado, el letrado estaba defendiendo a un pasajero que aseguró haber sufrido una lesión con un carro durante un vuelo en la aerolínea Avianca, compañía a la que había demandado.
Steven Schwartz utilizó la aplicación creada por OpenAI para crear una batería de argumentos a lo largo de 10 páginas para oponerse a una solicitud de la defensa para que el caso fuese desestimado.
Sin embargo, el juez Kevin Castel se quedó atónito cuando comprobó que el escrito estaba lleno de casos inexistentes.
«La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar el caso está repleta de citas de casos inexistentes. Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas», manifestó el juez.
El letrado le explicó que no tenía intención de engañar ni al tribunal ni a la aerolínea, sino que nunca había utilizado ChatGPT y que no era consciente de la posibilidad de que su contenido pudiese ser falso. Por lo que “lamentó enormemente” haber confiado en él y aseguró no usarlo más en un futuro”.
Pero Schwartz todavía tiene una oportunidad para librarse de la sanción. El juez ha emitido una orden para que el próximo 8 de junio pueda tratar de explicar por qué no debería ser sancionado tras tratar supuestos falsos.
El ChatGPT miente y se inventa sentencias
Este periódico ya ha comentado en diversas ocasiones que este programa no es fiable y miente. Por ejemplo, la letrada toledana Ana I. Rodríguez comentó que se inventaba sentencias. Quiso buscar jurisprudencia, en concreto las 10 últimas sentencias del Tribunal Supremo español relacionadas con familia y el ChatGPT se las ofreció con los correspondientes números de recurso.
Sin embargo, esas sentencias no existían y, a pesar de que ella le reiteró en diversas ocasiones que no las encontraba en el CENDOJ, la máquina insistía en que sí eran reales. Finalmente el robot reconoció que estaba mintiendo.
Por este motivo el magistrado presidente de la Sala de lo Penal del Tribunal Supremo Manuel Marchena reivindicó a principios de marzo en el Colegio de Abogados de Valencia (ICAV) que aunque la inteligencia artificial ya está cambiando muchas cosas, “al final de la cadena debe haber un juez” ya que «no todo es digitalizable». Argmentos que ha defendido en reiteradas ocasiones.
Noticias Relacionadas: