Tus Chats de IA Pueden ser Usados en tu Contra en la Corte: Bufetes de Abogados Están en Apuros

Dos meses después de que un juez federal dictaminara que las conversaciones con IA pueden ser incautadas, más de una docena de importantes firmas legales están actualizando sus contratos.

Por Jose Antonio Lanz

5 min lectura

Hace dos meses, un juez federal en Nueva York dictaminó que las conversaciones privadas de un acusado por fraude con Claude de Anthropic podían ser utilizadas por los fiscales. Ahora, la industria legal sigue procesando qué significa eso, y lo hace rápidamente.

Desde entonces, más de una docena de importantes firmas legales en Estados Unidos han emitido avisos a sus clientes advirtiendo que las conversaciones con chatbots de IA como Claude y ChatGPT no cuentan con ninguna protección legal cuando abordan asuntos jurídicos. Algunas han ido más lejos: las firmas están incorporando esa advertencia directamente en los contratos que firman con los clientes antes incluso de iniciar la representación.

Según Reuters, la firma neoyorquina Sher Tremonte —que representa habitualmente a acusados en casos penales de cuello blanco— añadió lenguaje a un acuerdo de representación de marzo que establece que "la divulgación de comunicaciones privilegiadas a una plataforma de IA de terceros puede constituir una renuncia al privilegio abogado-cliente". Se cree que es una de las primeras firmas en traducir un fallo judicial en una obligación contractual formal para los clientes.

"Estamos diciéndoles a nuestros clientes: deben proceder con cautela", señaló Alexandria Gutiérrez Swette, abogada de la firma neoyorquina Kobre & Kim, a Reuters.

Otras firmas se apresuran ahora a establecer límites. Reuters reporta que O'Melveny & Myers y otras han indicado a sus clientes que utilicen únicamente sistemas de IA "cerrados" de nivel empresarial, reconociendo que incluso la IA corporativa sigue siendo en gran medida un terreno inexplorado ante los tribunales en esta materia.

Debevoise & Plimpton fue un paso más allá con asesoramiento táctico: si un abogado le indica específicamente a un cliente que use una herramienta de IA, el cliente debería mencionarlo dentro del propio prompt del chatbot. La firma sugirió escribir "Estoy realizando esta investigación por instrucción de mi abogado para el litigio X". La idea parece ser sentar las condiciones para invocar la doctrina Kovel, que puede extender el privilegio abogado-cliente a personas que no son abogados pero que actúan como agentes de uno.

El fallo que sacudió a la profesión

La urgencia se remonta a Estados Unidos v. Heppner, resuelto en febrero por el juez Jed Rakoff del Distrito Sur de Nueva York. Bradley Heppner, ex presidente de la empresa de servicios financieros en quiebra GWG Holdings, había sido acusado de cinco cargos federales, entre ellos fraude de valores y fraude electrónico. Tras recibir una citación del gran jurado, utilizó el Claude de Anthropic por su cuenta para trazar su defensa, generando 31 documentos que el FBI luego incautó de su hogar.

El juez Rakoff dictaminó que esos documentos no podían estar protegidos por tres razones: Claude no es un abogado, la propia política de privacidad de Anthropic se reserva el derecho de compartir datos de usuarios con terceros, incluidos reguladores gubernamentales, y Heppner actuó de forma independiente y no por instrucción de sus abogados. Ninguna relación abogado-cliente "podría existir", escribió el juez, "entre un usuario de IA y una plataforma como Claude".

El fallo fue la primera opinión escrita de su tipo sobre IA y privilegio abogado-cliente en Estados Unidos. También fue un llamado de atención para una profesión que había estado observando en silencio cómo los clientes recurrían a los chatbots en busca de orientación legal sin considerar qué ocurre cuando esas conversaciones terminan en un tribunal.

El propio Rakoff dejó esa puerta abierta. Durante la audiencia del caso Heppner señaló que, si el abogado defensor le hubiera indicado al acusado que usara Claude, la IA "podría argumentarse que funcionó de manera similar a un profesional altamente capacitado que puede actuar como agente de un abogado bajo la protección del privilegio abogado-cliente". Esa frase es ahora una especie de salvavidas para las firmas que diseñan nuevos protocolos de IA.

El panorama judicial no está del todo definido. Por ejemplo, en Warner v. Gilbarco, un tribunal dictaminó que las conversaciones de ChatGPT de un demandante sin representación legal estaban protegidas como producto del trabajo, ya que las herramientas de IA son "herramientas, no personas" y compartir información con un software no equivale a divulgarla a un adversario.

Un tribunal de Colorado reforzó esa lógica el 30 de marzo en Morgan v. V2X, también protegiendo el producto de trabajo en IA de un litigante pro se, aunque fue más lejos al ordenarle al demandante que revelara qué herramienta de IA utilizó y prohibiendo que materiales confidenciales del proceso fueran introducidos en plataformas que permiten el entrenamiento con datos de los usuarios.

El patrón va tomando forma: si eres una parte representada que decidió por cuenta propia usar un chatbot de IA de consumo masivo, estás expuesto. Si te representas a ti mismo en un caso civil, puedes tener mayor cobertura. La diferencia entre esos dos escenarios es ahora una de las líneas divisorias más marcadas en el derecho probatorio de Estados Unidos.

Justin Ellis, de MoloLamken, afirmó a Reuters que más fallos eventualmente aclararán cuándo los chats de IA pueden usarse como evidencia. Mientras tanto, la versión de esa claridad para la profesión legal está apareciendo en cartas de contratación y correos a clientes, y en consejos que habrían parecido extraños hace dos años: piensa bien lo que escribes en un chatbot, porque alguien más podría leerlo.

El Tribunal Superior de Los Ángeles está pilotando herramientas de IA para jueces para gestionar resúmenes de casos y redactar fallos —la misma tecnología que entra a los flujos de trabajo legales desde el estrado mientras los abogados se apresuran a gestionarla desde el lado del cliente—. Decrypt también ha cubierto anteriormente alternativas de IA centradas en la privacidad que evitan centralizar los datos de las conversaciones, una categoría de productos cuya propuesta acaba de recibir un caso de prueba real de gran relevancia.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados