Una fuente “confiable” | Justicia sencilla

[ad_1]

Durante años, décadas en realidad, he explicado y argumentado por qué la mayoría de las “grandes cosas nuevas” en la tecnología authorized no van a funcionar o satisfacen una necesidad que no existe. Los técnicos legales realmente me odiaban por decir tonterías a su bebé. Algunos de los que me pagaron para “consultar” pensaron que su dinero compraría mi respaldo a su chucho. Ellos aprendieron. Me acusaban regularmente de odiar la tecnología, pero como Keith Lee explicó sucintamenteNo es que los abogados estén en contra de la tecnología, es que están en contra de la mierda.

La IA está de moda en este momento. ¿Recuerdas la cadena de bloques? ¿Recuerdas las NFT? ¿Recuerdas los coches autónomos? ¿Recuerdas las gafas de Google? El nuevo bebé de mil millones de dólares es ChatGPT. Como es que trabajando para abogados?

La Corte se encuentra ante una circunstancia inédita. Una presentación presentada por el abogado del demandante en oposición a una moción de desestimación está repleta de citas de casos inexistentes. Cuando el abogado de la parte contraria llamó la atención del tribunal sobre la circunstancia, el tribunal emitió órdenes que requerían que el abogado del demandante proporcionara una declaración jurada adjuntando copias de ciertas opiniones judiciales de los tribunales de registro citados en su presentación, y él cumplió. Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas. A continuación se establece una Orden para demostrar la causa por la cual el abogado del demandante no debe ser sancionado.

Eso fue del juez Kevin Castel, SDNY. No le hizo gracia este paso en falso tecnológico. El abogado del caso explicó que contó con el trabajo de otro abogado con 30 años de experiencia. El otro abogado explicó que confió en ChatGPT.

[7.] Fue en consulta con el sitio net de inteligencia synthetic generativa Chat GPT, que su declarante sí localizó y citó los siguientes casos en la afirmación en oposición presentada, que este Tribunal ha encontrado inexistentes: …

[8.] Que las citas y opiniones en cuestión fueron proporcionadas por Chat GPT que también proporcionó su fuente authorized y aseguró la confiabilidad de su contenido. Se adjuntan extractos de las consultas presentadas y las respuestas proporcionadas.

[9.] Que su declarante se basó en las opiniones legales que le proporcionó una fuente que se ha revelado como poco confiable.

[10.] Que su declarante nunca ha utilizado Chat GPT como fuente para realizar una investigación authorized antes de este hecho y, por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso.

[11.] Eso es culpa del declarante, al no confirmar las fuentes proporcionadas por Chat GPT de las opiniones legales que brindó.

Esto no fue suficiente para calmar la irritación del juez Castel por haber recibido documentos con nombres y citas de casos falsos, y hay una orden para mostrar motivos pendientes que explica por qué no se debe sancionar al abogado. Es posible que el abogado no haya tenido la intención de engañar a la corte, pero como admite, no demostró ninguna diligencia como abogado antes de presentar los documentos, y eso es completamente culpa suya. El hecho de que no supiera que esta nueva y brillante “solución” de tecnología mágica fue un fracaso masivo y que simplemente inventó una mierda no disminuye su deber, tanto para con la corte como con su cliente.

Para los aficionados a la tecnología authorized que pueden encontrar una excusa para cualquier falla, el problema es que la IA sufre delirios deliciosamente llamados “alucinaciones”, porque llamarlos grandes errores sería malo para los negocios. Hasta entonces, saber que la IA no es confiable y solo inventa cosas es lo suficientemente bueno, lo que transfiere la carga a los usuarios para verificar que todo lo que hace ChatGPT es preciso. El argumento es que es menos esfuerzo verificar sus citas que encontrar las citas en primer lugar, lo que justifica el uso de ChatGPT a pesar de sus fallas.

Mierda.

Inicialmente, la mayoría de la gente, y esto es particularmente cierto en el caso de los abogados, no lo hará. No se molestarán. Pocos abogados se preocupan por algo más que poner las palabras en papel y presentarlas a tiempo ante el tribunal. Ya sea un buen trabajo, un mal trabajo o un trabajo falso, simplemente no es el issue crítico para un abogado que tiene una fecha límite próxima y nada que mostrar. No comprobarán. No se molestarán en comprobarlo. Entonces, ¿qué pasa si el trabajo de ChatGPT es, en el mejor de los casos, pedestre, poco imaginativo y casi seguro que ineficaz? Son palabras en papel enviadas a tiempo, y eso es todo lo que les importa.

Claro, algunos abogados son perezosos y pueden facturar 20 horas por una oposición a una moción de juicio sumario que les tomó menos de una hora con ChatGPT. Los incentivos son obvios. Las presiones son claras. El resultado es, bueno, espero que no merezca sanción, o al menos no sea imperdonable. Acidez estercus, ¿verdad?

En segundo lugar, incluso si las citas fueran legítimas y comprobadas, y el abogado se tomara el tiempo de pasarlas por Lexis para asegurarse, al menos, de que existieran, el producto del trabajo será una mierda. Claro, puede ser mejor basura que la que puede producir el abogado, no porque ChatGPT sea bueno en la abogacía, sino porque el abogado que confía en él es incluso peor que ChatGPT.

Hay una razón por la que saltamos aros en el camino para que se nos confíen como abogados la vida y la fortuna de otras personas. Se supone que somos abogados competentes. Se supone que debemos pensar largo y tendido cómo representar celosamente a nuestros clientes. Se supone que debemos poner el tiempo, el esfuerzo, el pensamiento y la imaginación necesarios para ganar casos, o al menos dar a nuestros clientes todas las posibilidades posibles de ganar.

ChatGPT no lo es. Es solo un programa que genera palabras, unidas para crear la apariencia de un pensamiento authorized legítimo sin la chispa que distingue a un abogado de, bueno, un programa de computadora. ¿Recurriría a un ingeniero informático para que lo represente? Entonces, ¿por qué recurrir al producto de un ingeniero informático para que le asesore?

Tal vez haya un lugar para la IA en la ley, llenando el modelo que nadie lee y menos aún se preocupa, pero no será un sustituto de un buen abogado. Nunca será un sustituto de un gran abogado. Podría ser un sustituto de un abogado de mierda, pero eso no es realmente un respaldo a la IA sino una condena de los abogados incompetentes.

[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *