La Inteligencia Artificial puede mandarte a los tribunales: un juez federal de Nueva York considera que las conversaciones con ‘chatbots’ están fuera del secreto profesional.
Un juez federal del Distrito Sur de Nueva York, en el marco de un procedimiento penal por fraude, ha delimitado por primera vez de forma expresa el alcance del secreto profesional frente al uso de inteligencia artificial.
En un reciente pronunciamiento, el juez Jed Rakoff concluye que lo que un usuario que conversa con una herramienta de IA, incluyendo entre los datos el asesoramiento y estrategia legal por parte de un abogado, no está protegido por el derecho de confidencialidad que emana de la relación abogado-cliente.
La decisión llega tras resolver una petición formal de la Fiscalía del Distrito Sur de Nueva York, que solicitó al tribunal que utilizara como prueba una serie de documentos generados mediante IA.
El juez da la razón al órgano que lidera Jay Clayton y afirma que estas conversaciones no son jurídicamente confidenciales.
Con ello, se lanza un mensaje contundente a abogados y ciudadanos: consultar la estrategia legal con una IA puede convertir tus propias palabras en prueba judicial.
Una conversación con la IA como salvoconducto legal para protegerse
El empresario Bradley Heppner recurrió a la IA Claude (desarrollada por Anthropic) para consultar su situación legal mientras era investigado por cinco delitos (fraude de valores, fraude electrónico, conspiración por fraude de valores y fraude electrónico, además de hacer declaraciones falsas a auditores y falsificación de registros).
Estas interacciones generaron hasta 31 documentos que Heppner remitió a su abogado de Heppner antes de que el empresario fuese arrestado por el FBI.
La defensa alegó que la conversación mantenida entre su cliente y el ‘chatbot’ debería estar protegida por el derecho de confidencialidad abogado-cliente, porque si bien no fue utilizada para elaborar estrategia legal sí que contenía táctica y datos procesales.
Sin embargo, desde la Fiscalía desestiman sus pretensiones: «Ese acto de transmisión no transforma el uso no privilegiado de una herramienta de IA por parte del acusado en una comunicación privilegiada protegida de la divulgación. Los documentos de IA no cumplen los estrictos requisitos del privilegio», señala el informe
Las tres razones por las que el juez rechaza la defensa del empresario
El tribunal sostiene que los documentos generados mediante IA incumplen todos los elementos necesarios para activar el privilegio abogado-cliente por tres motivos fundamentales.
El primero de ellos se centra en el origen de la conversación. En este caso, estas comunicaciones no se realizan entre el acusado y su abogado, pues la IA no cuenta con el título de Derecho, no es miembro del colegio de abogados ni tiene deberes de lealtad y confidencialidad: «El equilibrio normativo que encarna el privilegio abogado-cliente no puede trasladarse a una máquina que proporciona lo que podría parecerse a un asesoramiento jurídico».
En estos casos, las conversaciones encajan más en los supuestos en los que el presunto actor comenta los hechos con un tercero: «El uso de la herramienta de IA por parte del acusado en este caso no es diferente a si hubiera pedido a sus amigos su opinión sobre su situación legal. Pero está bien establecido que discutir asuntos legales con personas que no son abogados no confiere a esas comunicaciones el privilegio abogado-cliente»
El segundo se encuentra en las bases legales de la herramienta. En ellas se dejan constancia que estos sistemas no pueden prestar asesoramiento jurídico, y remiten a un abogado cualificado: «En estas circunstancias, el demandado no puede alegar de forma creíble que utilizó una herramienta de IA con el fin de obtener asesoramiento jurídico cuando la propia herramienta rechaza explícitamente ese uso»
El tercer elemento, clave para el tribunal, es la ausencia de confidencialidad en las conversaciones entre usuario y ‘chatbot’. Sobre este aspecto, el magistrado subraya que el demandado decidió compartir sus indicaciones con una herramienta de IA creada por una empresa externa que es de acceso público.
La empresa de IA Claude avisa de que puede revelar esos datos a autoridades reguladoras gubernamentales
Anthropic informa explícitamente a sus usuarios en su Política de privacidad que recopila datos sobre las «indicaciones» introducidas y los «resultados» generados y que, puede revelar estos datos a «autoridades reguladoras gubernamentales» y «terceros».
Esto implica que el usuario asume conscientemente el riesgo de divulgación y pierde cualquier expectativa razonable de secreto.
Finalmente, Rakoff desmonta el principal argumento de la defensa: el hecho de que el acusado transmitiera posteriormente los documentos de la IA a su abogado no crea un «escudo privilegiado abogado-cliente» para los documentos creados por este sistema.
Además, el juez descarta que los textos puedan considerarse ‘work product’, ya que no fueron elaborados por el abogado ni a su instancia, sino por iniciativa exclusiva del acusado. La protección del trabajo preparatorio de defensa solo opera cuando existe dirección letrada, algo inexistente en este caso.
El pronunciamiento tiene consecuencias inmediatas para la práctica profesional: cualquier dato compartido con herramientas como ChatGPT (de OpenAI) o Claude puede ser reclamado judicialmente; los despachos deberán advertir expresamente a sus clientes de este riesgo; y el uso informal de IA puede provocar una renuncia involuntaria al privilegio.
Penal económico, familia, laboral o mercantil: ningún ámbito queda al margen.