Inteligencia artificial

Un abogado usa ChatGPT en una demanda, la IA se inventa los precedentes y el juez lo descubre

El letrado se ha justificado diciendo que era la primera vez que usaba la inteligencia artificial y no sabía que podía dar informaciones falsas

La Inteligencia Artificial juzga delitos en China
Un abogado usa CHatGPT en una demanda, la IA se inventa los precedentes y el juez lo descubre.La RazónLa Razón

El abogado Steven A. Schwartz ha descubierto por las malas lo que supone confiar demasiado en inteligencias artificiales generativas como ChatGPT. Schwartz, que ha ejercido su profesión por más de tres décadas en Nueva York recurrió a la IA de OpenAIpara redactar una demanda y ésta le proporcionó más de media docena de casos precedentes para justificarla que no existían. ChatGPT se los había inventado, algo que se reveló después de que ni los abogados de la parte demandada ni el juez pudieran localizar los precedentes que Schwartz había citado.

Según ha publicado The New York Times, el caso que llevó al abogado de la firma Levidow, Levidow & Oberman a recurrir a ChatGPT es el de Roberto Mata contra la aerolínea Avianca. El 27 de agosto de 2019, Mata volaba a bordo de un avión de la compañía y su rodilla se vio dañada tras sufrir un golpe con un carrito metálico que llevaba una azafata. Mata demandó a la aerolínea por este percance y los abogados de Avianca pidieron al juez que desestimara la demanda porque el plazo de prescripción había expirado.

Mata remitió al juez un escrito de diez páginas en el que citaba más de media docena de precedentes judiciales que justificaban que la demanda siguiera adelante a pesar de haber prescrito. Allí estaban Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines o Varghese contra China Southern Airlines, entre otros. Ninguno de ellos era auténtico, sino fabulaciones de ChatGPT que Schwartz dio por buenas.

La capacidad de ChatGPT, o de Bing Chat o el Bard de Google, para fabular es bien conocida por cualquier usuario que se tome la molestia de contrastar la información que proporcionan. Schwartz no lo hizo, sino que se limitó a preguntarle a ChatGPT si las referencias proporcionadas eran auténticas, a lo que la IA le respondió que sí.

ChatGPT, “una fuente que se ha revelado como poco fiable”

Cuando ni los abogados de Avianca ni el juez pudieron dar con los casos alegados por Schwartz, solicitaron la información al abogado, que descubrió entonces los peligros de fiarse demasiado de las inteligencias artificiales generativas.

En una declaración jurada al juez P. Kevin Castel, Schwartz le aseguró que en ningún momento tuvo la intención de engañar al juez o a los abogados de la parte demandada y se justificó alegando que nunca había utilizado la inteligencia artificial ChatGPT. Lo hizo en esta ocasión para que le ayudara con la investigación legal del caso, pero desconocía “la posibilidad de que su contenido pudiera ser falso”.

Schwartz ha expresado también que “lamenta mucho” haber recurrido a ChatGPT, “una fuente que se ha revelado como poco fiable”, y que “nunca lo hará en el futuro sin la verificación absoluta de su autenticidad”.

El juez Castel ha señalado por su parte que ésta es “una circunstancia sin precedentes” en la que una demanda está repleta de “decisiones judiciales falsas, con citas falsas y citaciones internas falsas”. En una audiencia el próximo día 8, Castel decidirá la sanción que recibirá Schwartz por las falsedades inventadas por ChatGPT que incluyó en su demanda.