Juez Critica a Abogado Sorprendido Usando ChatGPT en Corte de Divorcio y Ordena Que Tome Clases de Derecho Remedial

La inteligencia artificial está aquí, y está causando estragos en las salas de juicio a lo largo de Estados Unidos.

El último error legal relacionado con la inteligencia artificial viene del tribunal de apelaciones de Maryland, donde se descubrió que un abogado familiar representando a una madre en una batalla de custodia presentó escritos judiciales elaborados con ChatGPT.

The Daily Record, que publica resúmenes de opiniones de tribunales de Maryland, informó que el abogado de la madre presentó una demanda de divorcio repleta de citas legales alucinadas por la IA que llegaron a formar parte de los expedientes del tribunal.

Como otros errores legales relacionados con ChatGPT, muchas de las citas hacían referencia a jurisprudencia que simplemente no existía. La presentación también contenía citas legales existentes que contradecían los argumentos presentados en el escrito.

En su defensa, el abogado, Adam Hyman, dijo que «no estuvo involucrado directamente en la investigación de las citas ofensivas». En cambio, culpó a un secretario judicial que, según dice, utilizó ChatGPT para encontrar las citas, así como para editar el escrito antes de enviarlo.

En una presentación posterior, Hyman escribió que el secretario no estaba consciente de los riesgos de las alucinaciones de IA, el fenómeno en el que los chatbots inventan información falsa para satisfacer las consultas de los usuarios. Cuando el secretario envió un borrador del escrito erróneo, el abogado dijo que no verificó los casos referenciados, y agregó que «hace muy poco trabajo de apelación».

Por supuesto, esa es una excusa terrible; como abogado, es su trabajo revisar la exactitud de lo que escriben los secretarios y trabajar con ellos para comprender los flujos de trabajo adecuados y los estándares para la escritura legal. En una opinión presentada después del hecho, la jueza de apelaciones de Maryland, Kathryn Grill Graeff, escribió que «es indiscutiblemente inapropiado que un abogado presente un escrito con casos falsos generados por IA».

«[E]l abogado admitió que no leyó los casos citados. En cambio, confió en su secretario jurídico, un no abogado, quien claramente tampoco leyó los casos, los cuales eran ficticios», criticó la jueza. «En nuestra opinión, esto no satisface el requisito de representación competente. Un abogado competente lee la autoridad legal citada en las presentaciones judiciales para asegurarse de que respaldan la proposición por la que son citadas.»

Grill Graeff notó que un error como este normalmente no requeriría una opinión —que establece un precedente legal—, pero que quería «abordar un problema que se está repitiendo en tribunales de todo el país»: la IA en la sala de juicio.

Como parte del proceso, Hyman tuvo que admitir la responsabilidad por las citas de casos inapropiadas, ya que era el único abogado con licencia en el caso. Tanto el abogado como el secretario tuvieron que completar «cursos de educación legal sobre el uso ético de la IA», así como implementar protocolos en todo el despacho para la verificación de citas. Hyman también fue remitido a la Comisión de Quejas de Abogados para una disciplina adicional.

Grill Graeff señaló que esta fue la primera vez que los tribunales de apelación de Maryland tuvieron que abordar el problema, aunque si las tendencias recientes son una indicación, ciertamente no será la última.

Más sobre ChatGPT: Juez Impone Humillante Castigo a Abogados Sorprendidos Usando IA en el Tribunal.

Con información de https://futurism.com/artificial-intelligence/judge-lawyer-divorce-chatgpt

Previous Post
Next Post
Advertisement