Abogado enfrenta sanciones por citar casos falsos de ChatGPT

[ad_1]

Martillo de juez digital en una computadora portátil

Un viejo adagio de abogado: si tiene los hechos de su parte, aplaste los hechos; si tenéis la ley de vuestro lado, machacad la ley; si no tiene ni los hechos ni la ley, golpee la mesa”. Pero un abogado de lesiones personales de Nueva York está trazando un cuarto camino: cuando nada parece ir bien, recurra a ChatGPT.

Estarás familiarizado con esto herramienta de inteligencia synthetic se utiliza para imitar la conversación humana al generar respuestas a las preguntas. Pero ahora, Steven Schwartz ha intentado usarlo para crear casos imaginarios. Como abogado del demandante, presentó un escrito ante un tribunal federal que contenía seis casos falsos. El ahora se enfrenta a la posibilidad de sanciones.

ChatGPT genera seis casos falsos

Los problemas de Schwartz comenzaron cuando el acusado decidió desestimar el caso de su cliente por extemporáneo. En respuesta, Schwartz citó el “caso” de Varghese contra China Southern Airways Co., Ltd. Según la respuesta de Schwartz, este caso fue emitido por la Corte de Apelaciones del Undécimo Circuito de los Estados Unidos en 2019. Pero Schwartz no solo hizo referencia al caso, sino que citó el lenguaje de la opinión. Y agregando leña al fuego, el abogado citó varios otros casos que la corte en Varghese había utilizado para llegar a su opinión.

El único problema: nada de esto period actual. El Undécimo Circuito nunca emitió Varghese. Las citas fueron completamente inventadas. Y los casos citados por Vargheses? Sí, esos también eran falsos. El juez descrito sucintamente la situación como “decisiones judiciales falsas con citas falsas y citaciones internas falsas”.

El problema salió a la luz por primera vez cuando el demandado presentó una respuesta indicando que no podía localizar estos casos falsos usando una herramienta de investigación authorized. En este punto, el tribunal ordenó a Schwartz y al abogado adjunto que presentaran una declaración jurada adjuntando los casos. Así lo hicieron, adjuntando lo que parecían ser opiniones de casos completas.

Después de que el acusado aún no pudiera ubicar estos casos, el tribunal emitió una orden que requería que Schwartz, su co-abogado y su firma demostraran causa o explicaran por qué no deberían ser sancionados. Schwartz explicó que había usado ChatGPT por primera vez en un entorno profesional para ayudar con la investigación authorized y encontrar casos relevantes. Después de que se le hiciera una serie de preguntas, ChatGPT generó un extenso análisis sobre si el caso del cliente de Schwartz fue inoportuno, así como un conjunto completo de citas de apoyo. Y cuando se le pidió que presentara el texto completo de las opiniones, Schwartz solicitó que ChatGPT proporcionara el caso completo, lo que hizo mediante la fabricación. Pero lo más importante: en ningún momento Schwartz verificó de forma independiente que los casos fueran reales.

Según las diversas normas de sanción disponibles para el juez, se puede exigir a las partes infractoras que paguen una multa en el tribunal o que paguen los honorarios y costos del abogado del acusado. Es posible que incluso se les revoque su derecho a practicar frente a todo el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York. Una audiencia está programada para el 8 de junio para tratar esta situación sin precedentes.

Si bien Schwartz puede ser el primero en enfrentar la posibilidad de sanciones por confiar en casos generados por IA, ChatGPT ha enfrentado problemas legales anteriores.

Mientras el asunto de Schwartz estaba pendiente, Mark Walters, un locutor de radio, presentó una demanda contra OpenAI, LLC, la empresa que creó ChatGPT. Walters alega que un periodista interactuó con ChatGPT y solicitó un resumen de una demanda pendiente en un tribunal federal en el Distrito Oeste de Washington. Durante esa interacción, ChatGPT identificó a Walters como uno de los acusados, afirmando que fue acusado de defraudar y malversar fondos de la Fundación Segunda Enmienda.

Nuevamente, el mismo problema: esta acusación, junto con una serie de otros actos escandalosos, fueron completamente inventados, según Walters. Walters nunca fue acusado de defraudar y malversar fondos de la fundación. De hecho, ni siquiera fue nombrado como parte de la demanda.

Aún no se ha determinado si el caso de Walters resulta ser otro ejemplo de fabricación. Pero tanto su historia como la de Schwartz deberían servir como advertencias para todos los que usan ChatGPT para hacer su tarea, ya sea en la universidad o en la corte.

Recursos

No tiene que resolver esto por su cuenta: obtenga la ayuda de un abogado

Reunirse con un abogado puede ayudarlo a comprender sus opciones y cómo proteger mejor sus derechos. Visita nuestro directorio de abogados para encontrar un abogado cerca de usted que pueda ayudar.

[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *