La abogada Ana I. Rodríguez afirma que el ChatGPT «miente como un bellaco» y ofrece sentencias que no existen
La letrada Ana I. Rodríguez reconoce que la información que ofrece ChatGPT es sesgada, desactualizada e incierta porque recoge datos de internet hasta el año 2021.

La abogada Ana I. Rodríguez afirma que el ChatGPT «miente como un bellaco» y ofrece sentencias que no existen

|
10/5/2023 00:50
|
Actualizado: 10/5/2023 00:03
|

Que el programa de inteligencia artificial ChatGPT ha llegado para quedarse es un hecho, pero que todavía tiene carencias es otro. Muchos abogados ya han comenzado a trastear con él y la mayoría coinciden en lo mismo: está desactualizada, «miente como un bellaco» y le queda mucho por avanzar.

Una de las letradas que utiliza este tipo de inteligencia artificial (IA) es la toledana Ana I. Rodríguez. Utiliza el ChatGPT versión 3 porque la 4 es de pago y es una beta. Sin embargo, afirma que la información que ofrece es sesgada, desactualizada e incierta porque recoge datos de internet hasta el año 2021.

Y no estar a la última es difícil para un abogado porque siempre debe estar al tanto de la última jurisprudencia o de la última sentencia.

Como se ha comentado, el ChatGPT miente, y la letrada lo ha comprobado de primera mano.

Por ejemplo, solicitó al robot que le redactase un contrato de arrendamiento. Pero descubrió que aplicó artículos que no venían al caso, utilizaba términos coloquiales o empleaba jurisprudencia de otros países.

Por lo que por el sinfín de errores que tiene, nunca pondría delante de un cliente un contrato realizado por inteligencia artificial. Además, «la máquina no tiene ningún tipo de alma, de personalidad o de empatía, todo lo que ofrece es genérico», por ello cree que por esos motivos el robot nunca sustituirá al letrado.

Sentencias inexistentes

Pero este programa de inteligencia artificial también se inventa sentencias. Por ejemplo, quiso buscar jurisprudencia, las 10 últimas sentencias del Tribunal Supremo español relacionadas con familia, y el ChatGPT le ofreció los correspondientes números de recurso. 

Posteriormente le pidió un resumen de una de las sentencias que le había aportado, y la máquina se lo concedió.

A continuación Ana I. Rodríguez le solicitó el ECLI de la sentencia, por lo que el programa, muy obedientemente se lo otorgó. 

Sin embargo el problema llegó cuando Ana I. Rodríguez acudió al CENDOJ para buscar la sentencia íntegra. Para su sorpresa, no aparecía por ningún sitio. 

Tras decirle al ChatGPT que no encontraba dicho documento, la máquina le respondió que “quizá era posible que aún no estuviese disponible en el CENDOJ, pero la sentencia era de 2020, por lo que está subida”.

En ese instante, le volvió a decir al robot que no existía.

En este caso la respuesta fue que “consultase con otros colegas en el Consejo General del Poder Judicial o que buscase en otras bases de datos jurídicas”, por lo que sintió que el ChatGPT le estaba “troleando”. 

Conversación real de Ana I. Rodríguez con el ChatGPT.

Al rato le confesó que le había mentido. La máquina le dijo que “como modelo de lenguaje de inteligencia artificial cabía la posibilidad de que cometiese errores”, por lo que finalmente reconoció que “lamentablemente la sentencia, en realidad, no existía”.

El robot le pidió disculpas por los problemas e inconvenientes causados. 

“Yo solamente comprobé una sentencia, pero mucho me temo que esto pasa con casi todas, porque el ECLI de esa sentencia correspondía con otra del juzgado de lo contencioso administrativo, pero no con la de familia del Tribunal Supremo que yo le había pedido”. 

Útil para otras funciones

A su modo de ver, la inteligencia artificial no puede sustituir las funciones de un abogado porque se necesitan otra serie de valores personales como pueden ser la empatía o “el estar ahí”.

La IA «simplemente procesa datos».

Cree que es útil para otras funciones como, por ejemplo, extractar la fundamentación jurídica de una sentencia o hacer resúmenes. Pero eso sí, copiando y pegando el texto en el interior chat, no introduciendo el enlace de internet porque, si no, no vale. 

Y como resultado sí ofrece un texto veraz porque previamente ha introducido a conciencia información veraz.

“Lo estoy trasteando mucho, esa es la realidad, puede ser una buena herramienta y no hay que apartarse de las nuevas tecnologías, porque eso puede ser un error”.

Sin embargo, le preocupa la protección de datos.

En Italia, como bien es sabido, durante más de un mes este programa estuvo bloqueado al considerar que la inteligencia artificial creado por OpenAI no brindaba un tratamiento adecuado de datos de usuarios.

«Al fin y al cabo se le facilitan estos datos y no hay una seguridad absoluta de que no se vaya a utilizar esa información de una forma incorrecta».

Noticias Relacionadas:
Lo último en Profesionales