ChatGPT acusó al alcalde de condena por soborno y enfrenta una posible demanda por difamación

[ad_1]

El robot funciona con una computadora portátil.Todo period diversión y juegos cuando ChatGPT proclamó a Clarence Thomas el héroe de la igualdad entre personas del mismo sexo o estropear memorandos de investigación authorized por inventando leyes falsaspero ahora la afición de la herramienta de IA de cara al público por las alucinaciones ha ganado a sus creadores una demanda amenazada.

El alcalde regional australiano, Brian Hood, trabajó una vez para una subsidiaria del Banco de la Reserva de Australia y denunció un plan de soborno. Pero dado que herramientas como ChatGPT no han dominado los matices contextuales, los abogados de Hood afirman que el sistema escupió la afirmación de que Hood fue a prisión por soborno en lugar de ser el tipo que notificó a las autoridades. El equipo de Hood le dio a OpenAI un mes para solucionar el problema o enfrentar una demanda.

Ars Technica ha intentado replicar el error, pero hasta ahora los resultados de sus pruebas han sido correctos:

Sin embargo, Ars intentó replicar el error usando ChatGPT, y parece posible que OpenAI haya corregido los errores como lo indicó el equipo authorized de Hood. Cuando Ars le preguntó a ChatGPT si Hood cumplió condena en prisión por soborno, ChatGPT respondió que Hood “no ha cumplido ninguna condena en prisión” y aclaró que “no hay información disponible en línea que sugiera que haya sido condenado por algún delito penal”. Luego, Ars preguntó si Hood alguna vez había sido acusado de soborno, y ChatGPT respondió: “No tengo ninguna información que indique que Brian Hood, el precise alcalde de Hepburn Shire en Victoria, Australia, haya sido acusado de soborno”.

Pero incluso si todo realmente funcionó para Hood, es solo cuestión de tiempo antes de que el sistema vuelva a hacer esto. En los Estados Unidos, las divagaciones robóticas sobre figuras políticas carecerían de malicia actual y la Sección 230 se aplicaría en la medida en que solo muestre declaraciones de terceros, ambos obstáculos durante al menos unos meses más antes de que esta Corte Suprema haga algo loco, pero no hay mucho para evitar que un algoritmo alucine por completo con información errónea sobre figuras no públicas con el visto bueno de la autoridad.

Es fácil descartar los esfuerzos de las herramientas de nivel de entretenimiento como ChatGPT. A partir de 2023, es difícil imaginar que un jurado respalde la thought de que alguien tome la producción de GPT sin una bolsa de sal de 50 libras. Pero cuando la IA se presenta a sí misma como transmisora ​​del conocimiento acumulado y luego se equivoca o repite imprudentemente información errónea, la gente buscará a su alrededor para exigir una libra de carne de alguna parte y las demandas son costosas incluso si no terminan yendo a ninguna parte.

Es possible que una herramienta independiente se cubra a sí misma con descargos de responsabilidad que desvíen incluso el indicio de responsabilidad a cualquier persona lo suficientemente tonta como para usar sus resultados sin verificación. Pero estos modelos no se detendrán con productos independientes y se integrarán en otros sistemas donde el descargo de responsabilidad se vuelve más borroso. ¿Qué sucede si el algoritmo ayuda a un motor de búsqueda y promueve afirmaciones dudosas de terceros sobre las precisas? ¿Ha tomado el algoritmo un acto afirmativo para aumentar la publicidad de la afirmación falsa?

todo vuelve a la importancia de dar a los usuarios una thought del razonamiento de un algoritmo. Todavía estamos en la etapa de “muestra tu trabajo” de la educación de GPT y la principal tarea tecnológica de los próximos años será evitar que estos modelos de lenguaje arruinen todo sin darse cuenta. Y eso va a requerir juicio humano y eso es requerirá interfaces de usuario que brinden una transparencia genuina. Porque los descargos de responsabilidad para no tomar los resultados al pie de la letra no significan mucho sin la fácil capacidad de verificar el sistema.

OpenAI amenazó con una histórica demanda por difamación por reclamos falsos de ChatGPT [Ars Technica]


Disparo a la cabezajoe patricio es editor senior de Above the Legislation y coanfitrión de Pensando como un abogado. No dude en correo electrónico cualquier consejo, pregunta o comentario. Síguelo en Gorjeo si le interesan las leyes, la política y una buena dosis de noticias deportivas universitarias. Joe también sirve como Director Common en RPN Govt Search.


Banner de CRM



[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *