Sistema judicial afirma que el sistema de IA está listo para ser implementado tras un periodo de pruebas desastroso.

Aquí tienes el contenido traducido y reescrito:

El sistema judicial de Alaska ha trabajado durante más de un año en un asistente virtual de IA, el cual parece estar casi listo para su implementación.

Ilustración de Tag Hartman-Simkins / Futurism. Fuente: Getty Images

El uso de la IA en el ámbito legal es un regalo que sigue dando.

En esta ocasión, es la decepción palpable que surgió después de que un equipo que desarrollaba un chatbot de IA para el sistema judicial de Alaska lo probara y descubriera que era un desastre alucinante, informa NBC News.

El chatbot, conocido como Asistente Virtual de Alaska, fue diseñado para ayudar a las personas a manejar formularios y otros procedimientos relacionados con la legalidad sobre la herencia, el proceso legal para transferir los bienes de una persona tras su fallecimiento.

En un giro predecible, en lugar de simplificar un proceso ya difícil para personas que probablemente están de luto, la IA cometió errores en preguntas simples, dejando a la mayoría de los usuarios frustrados en lugar de apoyados.

Demostrando un fallo común en todos los modelos de lenguaje grandes, el aclamado asistente virtual seguía alucinando, creando datos falsos y compartiendo información exagerada, según las personas involucradas en su desarrollo.

“Tuvimos problemas con las alucinaciones, sin importar el modelo, donde el chatbot no debía usar nada fuera de su base de conocimientos”, dijo Aubrie Souza, consultora del Centro Nacional de Tribunales Estatales (NCSC), a NBC News. “Por ejemplo, cuando le preguntamos: ‘¿Dónde puedo obtener ayuda legal?’, él contestaría: ‘Hay una facultad de derecho en Alaska, así que consulta la red de exalumnos’. Pero no hay ninguna facultad de derecho en Alaska.”

Y en lugar de ser útil, la mayoría de las personas que lo probaron lo encontraron sumamente molesto. El bot, sin sorpresa, sufría del mismo defecto que la mayoría de los chatbots: ser excesivamente adulador y empalagoso, simulando empatía y llenando a los usuarios de cordialidades en lugar de ir al grano.

“A través de nuestras pruebas de usuario, todos decían: ‘Estoy cansado de que todos en mi vida me digan que lo sienten por mi pérdida”, comentó Souza. “Así que básicamente eliminamos esos tipos de condolencias, porque de un chatbot de IA no necesitas una más.”

Desarrollado en colaboración con Tom Martin, un abogado que dirige una empresa llamada LawDroid que fabrica herramientas legales de IA, el AVA AI ha estado atrapado en un infierno de desarrollo durante más de un año, cuando se suponía que sería un proyecto de tres meses, según Souza. Después de bajar las expectativas —y seguramente corregir sus horrendos fallos— el equipo de AVA dice que finalmente está listo para un lanzamiento público a finales de enero.

“Hemos ajustado un poco nuestros objetivos para este proyecto”, dijo Stacey Marz, directora administrativa del sistema judicial de Alaska y líder del proyecto AVA, a NBC News. “Queríamos replicar lo que nuestros facilitadores humanos en el centro de autoayuda pueden compartir con las personas. Pero no estamos seguros de que los bots puedan trabajar de esa manera, debido a problemas de inexactitudes y falta de información.”

“Simplemente fue muy laborioso hacer esto”, añadió Marz, a pesar de “todo el revuelo sobre la IA generativa, y que todos dicen que esto revolucionará la autoayuda y democratizará el acceso a los tribunales.”

Más sobre IA: Juez horrorizado al ver que abogados presentan pruebas en tribunal que fueron falsificadas con IA

Con información de https://futurism.com/artificial-intelligence/court-hallucinating-ai-ready-deployed

Previous Post
Next Post
Advertisement