Abogados que usaron ChatGPT para embaucar casos se arrojan a la merced de la corte


niña joven, delante de, computadora, con, bolsa marrón, fruncir el ceñoMañana al mediodía los desventurados abogados que ChatGPT-ed ellos mismos en la portada del New York Instances comparecerán ante el juez federal de distrito Kevin Castel para explicar por qué no deben ser sancionados.

El caso de dos abogados OK Boomer-ing ellos mismos en la sopa ha sido un punto clave durante dos semanas, brindándonos a todos un descanso muy necesario de la política y la interminable guerra cultural que domina cada ciclo de noticias. ¿Son estos tipos Trumpers? ¿Verdaderos de covid? ¡No sé, no me importa!

Sabemos que confiaron en un chatbot de IA para investigar si el estatuto de limitaciones de dos años en un tratado internacional podría ser superado por la disposición estatal de tres años o, alternativamente, si podría verse afectado por la bancarrota. Sabemos que respondieron a una moción de desestimación citando múltiples casos inexistentes. Y sabemos que, cuando el abogado contrario les llamó la atención sobre esto, produjeron opiniones falsas generadas por ChatGPT y las adjuntaron en una declaración jurada ante el tribunal.

Según sus propios documentos, Steven Schwartz es un abogado con experiencia en lesiones personales en el bufete de abogados Levidow, Levidow & Oberman de Nueva York. Cuando su caso de responsabilidad civil contra Avianca Airways derivado de un incidente en un vuelo internacional en 2019 fue remitido a un tribunal federal, se lo entregó a su colega Peter LoDuca quien, a diferencia de Schwartz, fue admitido para ejercer en el Distrito Sur de Nueva York. Pero Schwartz continuó haciendo el trabajo, incluida la redacción de su respuesta a la moción de Avianca para desestimar el vencimiento del plazo de prescripción.

En un 23 de mayo declaración jurada y un 6 de junio declaración, Schwartz asumió la responsabilidad de los archivos falsos y prometió que LoDuca no sabía que los documentos eran inexactos. Levidow, que ha contratado a un abogado externo, presentó una larga respuesta a la orden de demostración de causa en la que afirma que los errores fueron completamente involuntarios y, por lo tanto, ni él ni sus abogados pueden ser sancionados según la Regla 11 (c) 3, que requiere no solo incompetencia, sino mala fe actual.

“La ley en este Circuito es clara: imponer sanciones sua sponte bajo la Regla 11 requiere una determinación de mala fe subjetiva, no solo que la conducta fue objetivamente irrazonable”, escriben.

En apoyo de esto, adjuntan un registro de chat replicando el indicaciones utilizado por Schwartz para generar la investigación que sustenta su oposición a la moción de desestimación de Avianca. Argumentan que fue una solución de buena fe para una pequeña empresa que no puede pagar Lexis o Westlaw, y cuyo acceso a las decisiones federales había sido cortado por Fastcase. Y de todos modos han sido tan profundamente humillados que las sanciones profesionales y/o monetarias son innecesarias.

El abogado, el Sr. Schwartz, no tenía concept de que esto estaba sucediendo, incluso cuando el abogado contrario le señaló su incapacidad para localizar los casos. ChatGPT incluso le aseguró que los casos eran reales y que se podían encontrar en Westlaw y LexisNexis, y continuó proporcionando extractos extensos y citas favorables. Ahora que el Sr. Schwartz y la firma saben que ChatGPT simplemente estaba inventando casos, están verdaderamente mortificados; no tenían intención de defraudar a la Corte, y la mera acusación, repetida en cientos (si no miles) de artículos y publicaciones en línea, ha dañado irreparablemente su reputación. Se han disculpado ante el Tribunal en presentaciones anteriores y lo hacen nuevamente aquí.

Lo que ellos no lo que debe hacer es adjuntar los registros de chat que muestran cómo Schwartz consiguió que ChatGPT generara las opiniones falsas que hizo que LoDuca presentara ante el tribunal el 25 de abril después de que el abogado contrario dijera que no existían y el juez Castel les ordenara que las descartaran. De hecho, el resumen es bastante guide sobre esta parte del proceso, que aparentemente fue tan onerosa que requirió una semana adicional para que LoDuca regresara de las “vacaciones”.

“Señor. Schwartz imprimió dos de los ocho casos de Fastcase y regresó a ChatGPT para los seis casos restantes”, escriben, eludiendo cuidadosamente la admisión de que Fastcase period perfectamente capaz de producir los dos. actual Las decisiones del Circuito de EE. UU. citadas, que habrían advertido a cualquier profesional honesto que las dos decisiones del Undécimo Circuito citadas no estaban disponibles en Fastcase porque ellos no existió. ¡Sobre todo porque a Schwartz ya se lo habían dicho los abogados de Avianca y el tribunal!

En resumen, mientras que LoDuca, Schwartz y Levidow quieren crédito por “reconocer rápidamente[ing] sus errores”, todavía hay un gran agujero en medio de este caso donde el chatbot, que anteriormente solo escupía extractos de tres párrafos de las opiniones inventadas, de repente cambió de dirección y comenzó a producir opiniones de tres páginas.

Supongo que lo averiguaremos mañana si el juez Castel también lo notó.

Mata contra Avianca [Docket via Court Listener]


Liz tinte vive en Baltimore donde escribe sobre derecho y política y aparece en el Argumentos de apertura podcast.


Banner de CRM



Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *