Abogado usó ChatGPT en demanda a una aerolínea y enfrenta posibles sanciones por error de la inteligencia artificial

La inteligencia artificial de OpenAI inventó supuestos precedentes legales, que el letrado presentó en un tribunal de Nueva York, Estados Unidos.

Compartir esta noticia
La herramienta ChatGPT no está libre de fallas.
La herramienta ChatGPT no está libre de fallas.

EFE
Un abogado usó ChatGPT para redactar un escrito, pero la inteligencia artificial (IA) se inventó una serie de precedentes legales, por lo que se enfrenta a posibles sanciones.

Se trata del letrado Steven Schwartz, que trabaja en una demanda contra la aerolínea Avianca, presentada por un pasajero que asegura haber sufrido una lesión cuando fue golpeado por un carrito de servicio durante un vuelo. El caso se dirime en un tribunal de Nueva York, Estados Unidos.

Schwartz representa al demandante y utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.

En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.

"La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes", escribió el juez Kevin Castel este mes.

Castel convocó a una audiencia para el próximo 8 de junio, en la que Schwartz deberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.

El propio abogado presentó una declaración jurada el día anterior, en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.

Schwartz se justificó asegurando que nunca antes había usado una herramienta de IA y que, por tanto, "no era consciente de la posibilidad de que su contenido pudiese ser falso".

El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.

El documento, visto por EFE, se cierra con una disculpa en la que Schwartz lamenta profundamente haber usado inteligencia artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.

¿Encontraste un error?

Reportar

Temas relacionados

inteligencia artificial

Te puede interesar