Han pasado un par de semanas para historias sobre IA en la sala del tribunal. Es posible que haya oído hablar de la víctima fallecida de un incidente de ira en la carretera cuya familia creó un AI AVATAR de él para mostrar como una declaración de impacto (posiblemente la primera vez que esto se ha hecho en los Estados Unidos). Pero hay una controversia más grande y mucho más consecuente, dicen los expertos legales. Las alucinaciones de IA están surgiendo cada vez más en presentaciones legales. Y está empezando a enfurecer a los jueces. Solo considere estos tres casos, cada uno de los cuales da una thought de lo que podemos esperar ver más a medida que los abogados abrazan la IA.
Hace unas semanas, un juez de California, Michael Wilner, se intrigó por un conjunto de argumentos que algunos abogados hicieron en una presentación. Fue a aprender más sobre esos argumentos siguiendo los artículos que citaron. Pero los artículos no existían. Le pidió más detalles a la firma de los abogados, y respondieron con un nuevo informe que contenía aún más errores que el primero. Wilner ordenó a los abogados que dieran testimonios jurados que explicaban los errores, en los que aprendió que uno de ellos, de la firma de élite Ellis George, usó Google Gemini, así como modelos de IA específicos de la ley para ayudar a escribir el documento, que generaba información falsa. Como se detalla en un presentación El 6 de mayo, el juez multó a la empresa $ 31,000.
La semana pasada, otro juez con sede en California atrapó otra alucinación en una presentación judicial, esta vez presentada por la compañía de IA Anthrope en la demanda que los sellos registrados lo han presentado sobre cuestiones de derechos de autor. Uno de los abogados de Anthrope había pedido al modelo de IA de la compañía Claude que creara una cita para un artículo authorized, pero Claude incluyó el título y el autor incorrectos. El abogado de Anthrope admitió que el error no fue capturado por nadie que revisara el documento.
Por último, y quizás lo más preocupante, es un caso que se desarrolla en Israel. Después de que la policía arrestó a un individuo por cargos de lavado de dinero, los fiscales israelíes presentaron una solicitud pidiendo a un juez permiso para mantener el teléfono del individuo como evidencia. Pero citaron leyes que no existen, lo que llevó al abogado del acusado a acusarlas de incluir alucinaciones de IA a su solicitud. Los fiscales, según israelí medios de comunicaciónadmitió que este period el caso, recibiendo un reglas del juez.
En conjunto, estos casos apuntan a un problema grave. Los tribunales confían en documentos precisos y respaldados con citas, dos rasgos que los modelos de IA, a pesar de ser adoptados por abogados ansiosos por ahorrar tiempo, a menudo fallan miserablemente para entregar.
Esos errores están siendo atrapados (por ahora), pero no es difícil imaginar que en algún momento pronto, la decisión de un juez estará influenciada por algo que está totalmente compuesto por AI, y nadie lo atrapará.
Hablé con Maura Grossman, quien enseña en la Escuela de Ciencias de la Computación de la Universidad de Waterloo, así como en la Facultad de Derecho de Osgoode Corridor, y ha sido un crítico temprano vocal de los problemas que la IA generativa plantea para los tribunales. Ella escribió sobre el problema en 2023, cuando comenzaron a aparecer los primeros casos de alucinaciones. Ella dijo que pensaba que las reglas existentes de los tribunales que requirieron que los abogados examinaran lo que someten a los tribunales, combinados con la mala publicidad que atrajeron esos casos, detendrían el problema. Eso no ha salido.
Las alucinaciones “no parecen haber disminuido”, cube ella. “En todo caso, se han acelerado”. Y estos no son casos únicos con empresas locales oscuras, cube ella. Estos son abogados a lo grande que cometen errores significativos y vergonzosos con la IA. Le preocupa que tales errores también estén más en documentos no escritos por los propios abogados, como los informes de expertos (en diciembre, un profesor de Stanford y experto en IA. aceptado incluir errores generados por la IA en su testimonio).
Le dije a Grossman que me parece un poco sorprendente. Los abogados, más que la mayoría, están obsesionados con la dicción. Eligen sus palabras con precisión. ¿Por qué se atrapan tantos cometiendo estos errores?
“Los abogados caen en dos campos”, cube ella. “Los primeros tienen miedo hasta la muerte y no quieren usarlo en absoluto”. Pero luego están los primeros usuarios. Estos son abogados apretados a tiempo o sin un cuadro de otros abogados para ayudar con un breve. Están ansiosos por la tecnología que puede ayudarlos a escribir documentos bajo plazos ajustados. Y sus controles en el trabajo de la IA no siempre son minuciosos.
El hecho de que los abogados de alta potencia, cuya profesión sea para analizar el lenguaje, sigan siendo atrapados cometiendo errores introducidos por AI dicen algo sobre cómo la mayoría de nosotros tratamos la tecnología en este momento. Nos dicen repetidamente que la IA comete errores, pero los modelos de idiomas también se sienten un poco como la magia. Hacemos una pregunta complicada y recibimos lo que suena como una respuesta reflexiva e inteligente. Con el tiempo, los modelos de IA desarrollan una apariencia de autoridad. Confiamos en ellos.
“Suponemos que debido a que estos modelos de lenguaje grande son tan fluidos, también significa que son precisos”, cube Grossman. “Todos nos deslizamos en ese modo de confianza porque suena autorizado”. Los abogados están acostumbrados a verificar el trabajo de abogados y pasantes junior, pero por alguna razón, cube Grossman, no aplique este escepticismo a la IA.
Hemos sabido sobre este problema desde que se lanzó ChatGPT hace casi tres años, pero la solución recomendada no ha evolucionado mucho desde entonces: no confíe en todo lo que lee y study lo que un modelo de IA le cube. A medida que los modelos de IA se empujan a tantas herramientas diferentes que utilizamos, cada vez más considero que esto es un contador insatisfactorio para uno de los defectos más fundamentales de la IA.
Las alucinaciones son inherentes a la forma en que funcionan los modelos de idiomas grandes. A pesar de eso, las empresas están vendiendo herramientas generativas de IA hechas para abogados que afirman ser confiablemente precisos. “Siéntase seguro de que su investigación es precisa y completa”, cube el sitio net para Precisión Westlawy el sitio net para Cocounsel promete que su IA está “respaldada por contenido autorizado”. Eso no impidió que su cliente, Ellis George, fuera multado con $ 31,000.
Cada vez más, simpatizo con las personas que confían en la IA más de lo que deberían. Después de todo, vivimos en un momento en que las personas que construyen esta tecnología nos dicen que la IA es tan poderosa que debe tratarse como armas nucleares. Los modelos han aprendido de casi todas las palabras que la humanidad ha escrito y se están infiltrando en nuestra vida en línea. Si las personas no confiaran en todo lo que dicen los modelos de IA, probablemente merezcan que las compañías que los construyan un poco más a menudo se les recuerde un poco más a menudo.
Esta historia apareció originalmente en El algoritmonuestro boletín semanal en AI. Para obtener historias como esta en su bandeja de entrada primero, Regístrese aquí.