Jonathan Turley encuentra una manera de hacer que ChatGPT sea todo sobre él

[ad_1]

jonathan turley

(Foto de Chip Somodevilla/Getty Photographs)

Insatisfecho por la oportunidad de ofrecer largas diatribas sobre la acusación de Trump e hiperventilar sobre Estudiantes de la facultad de derecho utilizan las redes sociales para expresar sus opiniones., Jonathan Turley de George Washington Regulation logró colarse en el discurso en curso de ChatGPT. Después de todo, había una sección del periódico que no tenía motivos para mencionar a Turley por su nombre y no se podía permitir que esta injusticia se mantuviera.

Así sucedió que Jonathan Turley se inserta en el discurso de ChatGPT. Del Washington Put up:

El chatbot, creado por OpenAI, dijo que Turley había hecho comentarios sexualmente sugestivos e intentó tocar a un estudiante durante un viaje escolar a Alaska, citando un artículo de marzo de 2018 en The Washington Put up como la fuente de la información. El problema: no existía tal artículo. Nunca había habido un viaje de estudios a Alaska. Y Turley dijo que nunca lo habían acusado de acosar a un estudiante.

Esta historia obviamente no tenía sentido desde el principio. Turley tendría que tomarse un tiempo de su apretada agenda escribiendo trampas de sed ideológicas para los productores de Fox Information y realmente interactuar con los estudiantes para acosarlos. Y aunque la comunidad authorized de Alaska es genuinamente fascinante, ¡considere los obstáculos logísticos verdaderamente épicos que tienen que superar! — es alucinante por qué un curso de derecho constitucional de George Washington Regulation consideraría adecuado volar a Anchorage por unos días.

O, para el caso, un curso de derecho de Georgetown, ya que el bot también identificó incorrectamente la escuela de Turley.

Es dudoso que el Washington Put up cubriera esto si no fuera por el hecho de que la búsqueda inicial implicó al Put up como la fuente de la acusación falsa. Sin ese detalle, esta historia fácilmente podría haber vivido y muerto con la columna de Turley en USA Right this moment, el “McNewspaper” que vagamente recuerdas que los hoteles daban free of charge en los años 90 y que estabas bastante seguro de que ya no funcionaba.

Tal como está, el Washington Put up ofrece una inmersión profunda en los problemas de alucinaciones con algoritmos de lenguaje respaldados por un par de párrafos sobre Turley.

¡Secuestro de noticias completo!

Ya hemos discutido los crecientes riesgos de difamación que rodean a la IA en el caso de un alcalde australiano. incorrectamente vinculado al lado equivocado de un plan de soborno en el que actuó como denunciante. En ese caso, la IA arruinó los detalles críticos de un evento actual en la biografía de alguien. Sin embargo, el incidente de Turley está inventando cosas de la nada.

Lo que realmente te hace preguntarte: ¿qué llevó a ChatGPT a comenzar por este camino? El artículo de WaPo comienza identificando a “un colega abogado en California” ¿quién podría ser?

Eugene Volokh, profesor de derecho de la Universidad de California en Los Ángeles, realizó el estudio que nombró a Turley.

De. Rey de mierda. Curso.

La semana pasada, Volokh preguntó a ChatGPT si el acoso sexual por parte de los profesores ha sido un problema en las facultades de derecho estadounidenses. “Incluya al menos cinco ejemplos, junto con citas de artículos periodísticos relevantes”, solicitó.

Nadie discute que el algoritmo produjo resultados falsos aquí, pero ¿qué pasa con esta ingeniería rápida? Como Volokh describe las consultas que lanzó en ChatGPT, todas parecen diseñadas con el propósito expreso de desencadenar una alucinación.

Estos modelos de lenguaje son ostentosos pero absolutamente no está listo para el horario estelar. Funcionan, fundamentalmente, adivinando lo que el usuario quiere escuchar en respuesta a la consulta. Algunas de las consultas de Volokh, según su artículo inicial, fueron abiertos, mientras que otros buscaron un número determinado de ejemplos. Cuando pide cinco ejemplos, obtendrá cinco, incluso si uno de ellos está inventado.

Entonces… ¿cuántas búsquedas realizó antes de obtener la respuesta incorrecta que aparentemente esperaba encontrar? Si este no hubiera señalado a Turley, ¿habría pedido 10 ejemplos con la esperanza de equivocarse? 20? En cierto punto, ¿el error de difamación del sistema está ubicado entre la silla y el teclado?

Esto no pretende restar importancia a los riesgos inherentes a un modelo de lenguaje grande que brota sin guardarraíles cuidadosamente construidos: estas herramientas solo funcionarán bien cuando estén diseñadas para saber lo que ellos no saben — pero cuando ingresa al experimento con la intención de encontrar resultados falsos, no es necesariamente sorprendente cuando termina encontrando resultados falsos.

Volviendo al Washington Put up:

Volokh dijo que es fácil imaginar un mundo en el que los motores de búsqueda impulsados ​​por chatbots causen caos en la vida privada de las personas.

Sería dañino, dijo, si la gente buscara a otros en un motor de búsqueda mejorado antes de una entrevista de trabajo o una cita y generara información falsa respaldada por evidencia creíble, pero creada falsamente.

“Este va a ser el nuevo motor de búsqueda”, dijo Volokh. “El peligro es que la gente vea algo, supuestamente una cita de una fuente confiable… [and] la gente lo cree”.

Eso… sucede ahora. Mucho antes de algo tan avanzado como GPT-4, la combinación de trolls de Web y algoritmos de redes sociales ha elevado las afirmaciones falsas y engañosas. Volokh tiene criticó los esfuerzos anteriores para common Fb y Google por exaltar el sinsentido, afirmando que la difamación es la cura suficiente y única. Y aunque el resultado que logró producir con respecto a Turley sería ciertamente difamación, si el dañar es “la gente ve algo, supuestamente una cita de una fuente confiable… [and] la gente lo cree”, entonces eso no se cura limitando a la sociedad a probar la difamación. Puede afirmar que las declaraciones difamatorias son excepcionalmente peores, pero hay mucho caos en la vida privada creado al privilegiar la caracterización errónea y las insinuaciones que no llegan a la difamación con las que la gente trata.

¿ChatGPT es realmente peor que el algoritmo “tonto” de una empresa de redes sociales que convence a sus padres de albergar indignación hacia un trabajador electoral específico porque Fox Information “solo estaba haciendo preguntas” y ¿A todos sus amigos les gustó?

Nuevamente, este es un problema serio con estos modelos que deberán ser resueltos por aquellos que integren la herramienta en productos viables. Pero antes de sentirse pesimista sobre los “peligros únicos de la IA”, tómese un segundo para considerar que parte de esta pomposa cobertura negativa podría provenir de actores de poca fe que trabajan horas extras para asegurarse de obtener su parte del centro de atención de GPT. .

ChatGPT inventó un escándalo de acoso sexual y nombró a un verdadero profesor de derecho como el acusado [Washington Post]
ChatGPT me acusó falsamente de acosar sexualmente a mis estudiantes. ¿Podemos realmente confiar en la IA? [USA Today]
Grandes modelos de difamación: ¿ChatGPT-3.5 informa erróneamente de supuestas declaraciones de delitos graves, con citas de medios inventadas? [Volokh Conspiracy]

Más temprano: ChatGPT acusó al alcalde de condena por soborno y enfrenta una posible demanda por difamación


Disparo a la cabezajoe patricio es editor senior de Above the Regulation y coanfitrión de Pensando como un abogado. No dude en correo electrónico cualquier consejo, pregunta o comentario. Síguelo en Gorjeo si le interesan las leyes, la política y una buena dosis de noticias deportivas universitarias. Joe también sirve como Director Normal en RPN Govt Search.


Banner de CRM



[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *