Firmas

El uso del ChatGPT por el abogado y el estándar Strickland: el peligro de un abogado ineficaz

El uso del ChatGPT por el abogado y el estándar Strickland: el peligro de un abogado ineficaz
Los abogados Marcos García Montes y Fernando Ibáñez López-Pozas abordan el peligro de poner toda la confianza en el ChatGPT para elaborar escritos jurídicos.
12/6/2023 06:30
|
Actualizado: 11/6/2023 23:30
|

Desde Estados Unidos nos llegan a los abogados dos cuestiones que son de gran importancia para nuestra profesión y que además no van a ser flor de un día, muy al contrario día a día surgirán más casos en el mundo y en España que harán que los Tribunales tengan que pronunciarse sobre esta problemática.

El día 8 de junio se celebró una audiencia para determinar si un abogado que creó un informe lleno de opiniones judiciales falsas y citaciones legales, todas generadas por ChatGPT, debía ser sancionado.

El origen de este problema fue expuesto el 29 de mayo en su edición en papel por el New York Times que publicaba una noticia sobre el uso del ChatGPT por Steven A. Schwartz de la firma Levidow, Levidow & Oberman con más de tres décadas de ejercicio de la abogacía en Nueva York para realizar una demanda contra una compañía aérea.

El abogado para fundamentar su escrito utilizó ChatGPT el cual le facilitó como antecedentes de su postura jurídica referencias y citas de otras decisiones judiciales como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines.

El problema surge cuando los abogados de la compañía advierten al Juez Castel que no eran capaces de encontrar dichas resoluciones por lo que ordenó al abogado que entregara copias de los dictámenes referidos en su escrito y el mismo presentó un compendio de ocho; en la mayoría de los casos, enumeraban el tribunal y los jueces que los emitieron, los números de expediente y las fechas, pero todas esas referencias según la investigación del Juez eran falsas por lo que le citó para ese día 8 de junio.

En dicha audiencia el abogado manifestó “Simplemente no tenía idea de que ChatGPT era capaz de fabricar citas de casos u opiniones judiciales completas, especialmente de una manera que pareciera auténtica” y no es ese el problema principal sino que cuando el abogado le preguntó a ChatGPT si los datos eran ciertos, el mismo le afirmó que si lo eran.

Este hecho que ha sido recogido en España tiene sorprendido al mundo de la tecnología, pero sobre todo al mundo del derecho, donde existe un debate cada vez mayor sobre los peligros, incluso una posible amenaza existencial para la humanidad, que plantea la inteligencia artificial.

EL ESTÁNDAR STRICKLAND

La otra cuestión también con origen en Estados Unidos es mucho más antigua, en concreto, el asunto Strickland contra Washington (Nº 82-1554) decidido el 14 de mayo de 1984.

En breves líneas el estándar Strickland determina que ha existido una defensa ineficaz cuando el abogado defensor haya sido objetivamente deficiente y que haya una probabilidad razonable de que un abogado competente hubiera llevado a un resultado diferente, si el abogado hubiera actuado correctamente el resultado hubiera sido diferente.

La Corte Suprema de Estados Unidos estableció en esta sentencia que el propósito del derecho a la asistencia efectiva de un abogado está ligado al derecho a un juicio justo, y la declaración de que un abogado es ineficaz solo surgirá si los errores fueran tan objetivamente serios que violaron el derecho del acusado a un juicio justo al causar una ruptura en el proceso contradictorio.

La actuación del abogado consistió únicamente en hablar con el acusado de sus antecedentes, pero no buscó testigos, ni solicitó un examen pericial psiquiátrico del mismo.

Su línea de defensa era que bastaba con la confesión del acusado y con esto evitaría que la acusación interrogara al acusado, pidiera un examen psiquiátrico y obtuviera pruebas de cargo.

El resultado final de la estrategia fue la condena a muerte y aunque en los Tribunales superiores el acusado alegó la ineficacia de la asistencia del abogado no pudo demostrar que la actuación del abogado estuvo por debajo de un estándar objetivo de razonabilidad y la condena se mantuvo.

Y EN ESPAÑA, TAMBIÉN

En cuanto a la aplicación del estándar Strickland en nuestra jurisprudencia es cierto que existen algunas resoluciones que se han pronunciado sobre el mismo, así las sentencias de la Audiencia Provincial número 415/2021 de 7 Junio 2021, de la de León, número 409/2022 de 20 Julio 2022 (entre otras), y de la Sala de lo Penal del Tribunal Supremo, números 47/2021 de 21 Enero 2021 y 383/2021, de 5 Mayo 2021.

En las mismas, y como no podía ser de otra manera, establece la carga de la prueba a la persona acusada sobre la deficiente actuación del letrado y sobre la «probabilidad razonable» de que el resultado del proceso hubiera sido diferente y beneficioso para sus intereses.

Resaltando que no se exige una probabilidad altísimamente prevalente de un curso decisional distinto, pero sí que la probabilidad sea razonable y permita establecer un resultado diferente.

Y aquí nos debemos preguntar si, ¿el uso por parte de los abogados de una Inteligencia Artificial generativa, sin ningún tipo de control no estará provocando una defensa ineficaz?

Si, el caso con el que empezábamos estas líneas, ¿no será un supuesto de defensa ineficaz que provoque por un lado la posibilidad de revocar el fallo dictado en el asunto y, por otro lado, la responsabilidad deontológica y civil del abogado?

La respuesta no es fácil aunque es cierto que ya en Estados Unidos se empieza a exigir que “cualquier parte que utilice cualquier herramienta de IA generativa en la preparación o redacción de documentos para presentar ante el Tribunal debe revelar en la presentación que se utilizó IA y la herramienta de IA específica que se utilizó para realizar investigaciones legales y/o para redactar el documento” («Standing Order for Civil Cases Before Magistrate Judge Fuentes», orden permanente para asuntos civiles ante el Juez de Primera Instancia Fuentes).

No podemos negar que la utilización de la inteligencia artificial en nuestra profesión supone un gran avance y que abre innumerables opciones en el desarrollo de la profesión, pero tampoco pueden pasarse por alto los posibles peligros que también se abren a nuestro paso y que siempre será necesario el control último y comprobación por parte del ser humano si no queremos acabar diciendo como Schwartz, en la vista judicial para adoptar medidas contra él, que había cometido un “error profundamente lamentable”.

Marcos García-Montes​​​​​Fernando Ibáñez López-Pozas
Abogado​​​​​​Profesor Derecho Procesal

Otras Columnas por Marcos García Montes - Fernando Ibáñez López-Pozas:
Últimas Firmas
  • Opinión | ¿Qué ocurriría si el presidente, Pedro Sánchez, anuncia su dimisión el lunes?
    Opinión | ¿Qué ocurriría si el presidente, Pedro Sánchez, anuncia su dimisión el lunes?
  • Opinión | Sostenibilidad: un suma y sigue para las empresas
    Opinión | Sostenibilidad: un suma y sigue para las empresas
  • Opinión | Mocro Maffia y micro justicia
    Opinión | Mocro Maffia y micro justicia
  • Opinión | CDL: El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (V)
    Opinión | CDL: El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (V)
  • Opinión | Entidades especializadas en las ejecuciones civiles: la eficiencia de exportar un modelo de éxito
    Opinión | Entidades especializadas en las ejecuciones civiles: la eficiencia de exportar un modelo de éxito