El TSJ de Navarra decide no sancionar a un abogado que presentó una querella con la ley colombiana al usar ChatGPT
|
15/11/2024 05:35
|
Actualizado: 14/11/2024 23:49
|
Usar inteligencia artificial sin revisar el contenido puede jugar malas pasadas. Puede hacer que te juegues una sanción o directamente pasar vergüenza ante los magistrados.
Por ejemplo, en Estados Unidos, un juez condenó a dos abogados a pagar una multa de 5.000 dólares por presentar un escrito judicial con precedentes judiciales inexistentes. Utilizaron ChatGPT.
Sin embargo, en este caso, el Tribunal Superior de Justicia de Navarra (TSJN) ha decidido no «castigar» a un letrado que presentó una querella utilizando esta herramienta digital. En ella, tal y como adelanta Diario de Navarra, citaba un artículo del Código Penal colombiano.
Cuando el TSJN se dio cuenta decidió abrir una pieza separada para estudiar si había existido abuso de derecho o mala fe procesal.
Y es que, hay que recordar, que el artículo 247 de la Ley de Enjuiciamiento Civil impone el respeto a las reglas de buena fe procesal con apercibimiento de sanción o multa en caso de incumplimiento. En concreto, en el apartado 3 se explica que se le puede imponer una multa de 180 y 6.000 euros sin que en ningún caso pueda superar la tercera parte de la cuantía del litigio.
Pero los magistrados José Manuel Sánchez (ponente), Joaquín Cristóbal Galve y José Manuel Fernández han decidido en un auto dictado el pasado 4 de septiembre que no se le debía imponer sanción alguna porque el abogado había pedido perdón y el asunto era muy novedoso.
«Error material grosero e involuntario»
En concreto, el letrado presentó un escrito solicitando la subsanación «de error material grosero e involuntario padecido en la redacción de la página 36 del escrito rector de la querella» al no corresponder con el Código Penal español.
Reconoció que dicho fallo se debía a un manejo inadecuado por parte del despacho del sistema de inteligencia artificial ChatGPT.
Expresó sus «más sinceras excusas».
Por su parte, el tribunal apuntó que el uso de las tecnologías emergentes y de los materiales generados por IA en los procedimientos judiciales no están exentos de «importantes consideraciones éticas y legales para garantizar un uso responsable».
De modo que explicaron que la revisión de los documentos legales sigue siendo «responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo». Recordaron que el Consejo de la Abogacía Europea (CCBE) abordó la regulación de la IA en esta profesión donde abogaban por la supervisión humana.
A los magistrados no les cabía duda de que el uso descuidado de estas tecnologías en procedimientos judiciales plantea importantes implicaciones deontológicas. «Desde luego, es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso».
Pero decidieron no amonestarle al estar ante una materia novedosa y porque pidió perdón de forma prácticamente de forma inmediata.
Los abogados no están lo suficientemente preparados
Por su parte, José Manuel Raya, socio de DMS Intelligence, ha explicado a Confilegal que los abogados, por regla general, no están lo suficientemente preparados para utilizar herramientas de IA de manera adecuada y sin riegos.
«Hay un desconocimiento generalizado de cómo funciona la herramienta y para qué sirve y para qué no. Si bien es cierto que desde los Colegios Profesionales se está haciendo un esfuerzo, el sector sigue, en general, o bien contrario al uso de tecnologías o haciendo un uso inconsciente de sus limitaciones».
«La IA tipo GPT es una maquinita de ahorrar tiempo en infinidad de materias, una calculadora potente de palabras, no un buscador de jurisprudencia, ni de legislación, mucho menos las versiones gratuitas y anticuadas de los modelos».
Con respecto a este auto del TSJ de Navarra, cree que el argumento empleado por los magistrados es muy benevolente. Es «casi un primer aviso a navegantes, seguramente provocado por la rápida acción del propio letrado en reconocer su error. Pero es importante que tenga repercusión y que el colectivo tenga interés en conocer la maquinita antes de usarla».
En su caso, hace uso masivo de IA desde hace tiempo, pero detalla que no hay referencia legal o jurisprudencial que no revise al momento teniendo abierta la plataforma de IA y la base de datos del CENDOJ o el BOE electrónico. Una «mínima» prudencia que ya es más que suficiente.
«Si además ya utilizamos IAs especializadas el error en la referencia se minimiza muchísimo. Por tanto, hay que ser conscientes de esta limitación, utilizar la IA como maquinita de ahorrar tiempo en mil cosas más que no son la búsqueda de sentencias y en su caso revisar siempre la referencia legal o jurisprudencial que crea el modelo», concluye.
Noticias Relacionadas: