Juez federal combate el uso de inteligencia synthetic en su sala de audiencias

[ad_1]

Robot en una sala de audiencias

El surgimiento de la inteligencia synthetic y modelos de lenguaje sofisticados como ChatGPT ha creado casi tantos dolores de cabeza como oportunidades. Los educadores desde la escuela intermedia hasta los posgrados se han visto repentinamente obligados a lidiar con un mar de trabajo generado por IA, gran parte de él casi indistinguible del artículo genuino. Escritores de todas las tendencias se han enfrentado a la posibilidad de que sus ya tenues fuentes de ingresos se agoten de la noche a la mañana. Incluso los músicos están preocupados por lo que depara el futuro con artistas de IA en la mezcla, con preguntas dando vueltas Productos y contenido producidos por IA.

Y ahora, con IA cada vez más inteligente, es lógico que la profesión authorized se deje llevar por toda la emoción. Un juez federal ya está tomando medidas activas.

El juez prohíbe la IA en la sala del tribunal

Juez de Distrito de EE. UU. Brantley Starr del Distrito Norte de Texas emitido posiblemente el primero, pero probablemente no el último, requisito relacionado con la uso de la IA en la sala del tribunal. A partir de la semana pasada, todos los abogados que ingresen a la sala del tribunal del juez de primera instancia deberán certificar que no utilizaron inteligencia synthetic para redactar sus presentaciones, a menos que humanos reales verificaran la precisión del trabajo. Starr estaba preocupado por el mal hábito de ChatGPT y sus pares de inventar detalles, citas e incluso casos completos.

“Estas plataformas en su estado precise son propensas a las alucinaciones y los sesgos. Sobre las alucinaciones, inventan cosas, incluso citas y citas”. dijo el juez Starr en un comunicado publicado en el sitio internet de la corte de Dallas. Los abogados juran respetar la ley y representar a sus clientes, dijo Starr, pero las plataformas de IA no hacen tales promesas.

El juez comenzó a redactar su mandato mientras asistía a un panel sobre inteligencia synthetic organizado por el 5el Circuito de la Corte de Apelaciones de los Estados Unidos. Inicialmente consideró prohibir la IA en su sala del tribunal después de ver a los panelistas demostrar cómo ChatGPT y compañía inventan casos falsos para respaldar sus argumentos, aunque adoptó una forma de pensar más matizada después de hablar con algunas de las mejores mentes legales del país. En lugar de prohibir la IA por completo, el juez optó por prohibir su uso en sesiones informativas legales, o al menos en los casos en los que los abogados no verificaron los hechos por sí mismos antes de presentar los documentos ante el tribunal.

¿Un patrón creciente?

El juez Starr y su private han renunciado a la tecnología por el momento, pero la utilidad potencial de las plataformas de IA en la profesión authorized no puede ignorarse tan fácilmente. Las medidas del juez son probablemente sabias, considerando que los abogados ya han sido atrapados citando casos falsos de ChatGPTy sancionado por ello.

Si la corte del juez Starr es una indicación, la profesión authorized sufre la misma incertidumbre sobre los riesgos y beneficios de la inteligencia synthetic que muchas otras industrias. Eventualmente se encontrará un equilibrio, aunque nadie sabe cómo se verá eso o cómo se verá la profesión authorized cuando el polvo finalmente se haya asentado.

No tiene que resolver esto por su cuenta: obtenga la ayuda de un abogado

Reunirse con un abogado puede ayudarlo a comprender sus opciones y cómo proteger mejor sus derechos. Visita nuestro directorio de abogados para encontrar un abogado cerca de usted que pueda ayudar.

[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *