El juez contempla si sancionará a los abogados que usaron ChatGPT después de escucharlos

[ad_1]

inteligencia-artificial-4111582_1920Todos los abogados con conexión a Web ya han oído hablar de Steven Schwartz, el abogado que presentó un informe preparado por ChatGPT que contenía jurisprudencia falsa.

Schwartz y su socio, Peter LoDuca, presentaron una oposición a una moción para desestimar el caso de su cliente. El abogado de la parte contraria presentó una respuesta afirmando que no podían localizar ni verificar los casos citados en la moción. Cuando el juez presidente Kevin Castel se dio cuenta, no estaba contento. El jueves pasado, Schwartz y LoDuca, representados por un abogado, comparecieron ante el juez para argumentar por qué no deben ser sancionados. Ahora todos esperan a ver qué castigo dictará el juez, si es que lo hace.

Con base en informes del New York Instances, Noticias diarias, Reutersy el Servicio de noticias del juzgado, tanto Schwartz como DoLuca tenían poco que decir aparte de que cometieron un error al confiar en ChatGPT, que inicialmente pensaron que period un motor de búsqueda diferente. No pensaron que period posible que ChatGPT pudiera inventar un caso.

Después de escuchar sus argumentos y sus disculpas, Castel dijo que emitiría un fallo por escrito en el futuro. Pero dijo que el uso de ChatGPT por parte del abogado fue “el comienzo de la narrativa, no el ultimate” y fue solo una parte del problema.

Que quiso decir con eso? El 11 de abril, Castel emitió un orden a LoDuca exigiendo una declaración jurada que incluya los casos inexistentes citados en su oposición a la moción de sobreseimiento de la demandada. El no hacerlo dará lugar a la desestimación del caso. Dos semanas después, LoDuca presentó la declaración jurada afirmando que ha anexado copias de ocho casos y admitiendo que no pudo localizar los demás. Y un caso fue una opinión inédita.

Entonces, parecería que Schwartz y LoDuca estaban al tanto de los casos inexistentes debido a la orden del 11 de abril, pero continuaron usándolos en la declaración jurada de LoDuca del 25 de abril, llegando incluso a incluir copias o extractos de las opiniones falsas. Esto no solo podría resultar en sanciones sustanciales, sino que también podrían tener que responder ante el colegio de abogados estatal y sus licencias podrían estar en peligro.

Argumentan que los casos de ChatGPT no fueron sospechosos de inmediato, ya que incluían términos que parecían oficiales, como una citación, un título del caso, un número de expediente, citaciones internas y una lista de los jueces que emitieron la opinión. Schwartz le preguntó a ChatGPT si uno de los casos period actual. Respondió que el caso period actual y puede verificarse en bases de datos de investigación authorized como Lexis y Westlaw. Entonces, Schwartz continuó usando ChatGPT a pesar de las sospechas de que los casos pueden ser falsos y la orden judicial.

Sus abogados argumentaron que si bien Schwartz y LoDuca ejercieron un mal juicio al no verificar los casos de forma independiente, no es suficiente para justificar sanciones. Además, Schwartz ha declarado que ha sufrido profesionalmente debido a la publicidad generalizada y, por lo tanto, las sanciones serían innecesariamente punitivas.

Hay pocos antecedentes sobre por qué Schwartz, un abogado que ejerció durante 30 años, usó y confió tanto en ChatGPT, especialmente considerando su novedad. Afirma que se enteró a través de sus hijos y de numerosos artículos sobre las herramientas de inteligencia synthetic que se utilizan en entornos profesionales, incluidos los bufetes de abogados. El concepto de herramientas de investigación authorized basadas en IA no es nuevo. Algunos conceptos se han mostrado a lo largo de los años, aunque ninguno ha despegado realmente.

Pero probablemente sea mejor que digan lo menos posible, ya que el público escudriñará y criticará cualquier excusa que presenten.

Como un lado positivo, hicieron un servicio público indirecto a la profesión. Esto prueba que lo único que la inteligencia synthetic puede producir es jurisprudencia synthetic. Los abogados de todo el mundo pueden respirar aliviados porque sus trabajos no estarán en peligro en el corto plazo.

Además, esto ha llevado a un juez en Texas requiriendo todos los abogados para certificar que su trabajo no ha sido producido por inteligencia synthetic sin que un ser humano verifique su precisión.

Entonces, ¿están justificadas las sanciones para Schwartz y LoDuca? Si hubieran reconocido su error inmediatamente después de la orden del juez del 11 de abril, lo más possible es que simplemente hubieran recibido un bocado del juez y tal vez una multa modesta. Pero su respuesta a la orden es lo que podría causarles problemas si el juez cree que intentaron encubrir una mentira con otra intencionalmente.


Steven Chung es abogado fiscal en Los Ángeles, California. Ayuda a las personas con la planificación fiscal básica y resuelve disputas fiscales. También simpatiza con las personas con grandes préstamos estudiantiles. Se le puede contactar por correo electrónico a stevenchungatl@gmail.com. O puedes conectarte con él en Twitter (@stevenchung) y conéctate con él en LinkedIn.



[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *