Los líderes de atención médica deben unirse para mitigar los riesgos de ChatGPT, instan los expertos


De derecha a izquierda: Andrew Moore, director ejecutivo de Lovelace AI; Peter Lee, vicepresidente corporativo de investigación e incubación de Microsoft; Kay Firth-Butterfield, directora ejecutiva del Centro de Tecnología Confiable; Reid Blackman, director ejecutivo de Advantage Consultants; Christopher Ross, director de información de Mayo Clinic

Chat-GPT ha ganado más de 100 millones usuarios desde microsoftOpenAI, respaldado por OpenAI, lanzó el servicio de IA hace cinco meses. Personas de todo el mundo están utilizando la tecnología por una multitud de razones, incluso para escribir ensayos de secundariachatea con gente en aplicaciones de citas y producir cartas de presentación.

El sector de la salud ha sido notoriamente lento para adoptar nuevas tecnologías en el pasado, pero Chat-GPT ya ha comenzado a ingresar al campo. Por ejemplo, el gigante del software program sanitario Épico anunció recientemente que integrará GPT-4la última versión del modelo de IA, en su historia clínica electrónica.

Entonces, ¿cómo deberían sentirse los líderes de atención médica acerca de ChatGPT y su entrada en el sector? Durante una sesión de apertura del martes en el HIMSS conferencia en Chicago, los expertos en tecnología acordaron que el modelo de IA es emocionante pero definitivamente necesita medidas de seguridad a medida que se implementa en entornos de atención médica.

Los líderes de atención médica ya están comenzando a explorar posibles casos de uso para ChatGPT, como ayudar con la toma de notas clínicas y generar preguntas hipotéticas de pacientes a las que los estudiantes de medicina pueden responder.

El panelista Peter Lee, vicepresidente corporativo de investigación e incubación de Microsoft, dijo que su empresa no esperaba ver este nivel de adopción tan rápido. Pensaron que la herramienta tendría alrededor de 1 millón de usuarios, dijo.

Lee instó a los líderes de atención médica en la sala a familiarizarse con ChatGPT para que puedan tomar decisiones informadas sobre “si esta tecnología es apropiada para su uso y, si lo es, en qué circunstancias”.

Agregó que hay “enormes oportunidades aquí, pero también hay riesgos significativos, y riesgos que probablemente ni siquiera conoceremos todavía”.

El panelista Reid Blackman — CEO de Consultores de virtudque brinda servicios de asesoramiento para la ética de la IA, señaló que la comprensión del público en basic sobre cómo funciona ChatGPT es bastante pobre.

La mayoría de la gente piensa que está usando un modelo de IA que puede realizar la deliberación, dijo Blackman. Esto significa que la mayoría de los usuarios piensan que ChatGPT está produciendo contenido preciso y que la herramienta puede proporcionar un razonamiento sobre cómo llegó a sus conclusiones. Pero ChatGPT no fue diseñado para tener un concepto de verdad o corrección: su función objetivo es ser convincente. está destinado a sonido correcto, no ser correcto.

“Es un predictor de palabras, no un deliberador”, declaró Blackman.

Los riesgos de la IA por lo basic no son genéricos, sino que se usan en casos específicos, señaló. Blackman alentó a los líderes de atención médica a desarrollar una forma de identificar sistemáticamente los riesgos éticos para casos de uso particulares, así como a comenzar a evaluar las estrategias adecuadas de mitigación de riesgos lo antes posible.

Blackman no estaba solo en su cautela. Uno de los panelistas, Kay Firth-Butterfield, CEO de la Centro de Tecnología Confiable — estuvo entre los más de 27.500 líderes que firmaron un carta abierta el mes pasado pidió una pausa inmediata durante al menos seis meses en el entrenamiento de sistemas de IA más potentes que GPT-4. Elon Musk y Steve Wozniak se encontraban entre algunos de los otros líderes tecnológicos que firmaron la carta.

Firth-Butterfield planteó algunas preguntas éticas y legales: ¿Son inclusivos los datos en los que ChatGPT está capacitado? ¿Este avance no deja fuera a los tres mil millones de personas en todo el mundo sin acceso a Web? ¿Quién es demandado si algo sale mal?

Los panelistas acordaron que todas estas son preguntas importantes que en realidad no tienen respuestas concluyentes en este momento. A medida que la IA continúa evolucionando a un ritmo rápido, dijeron que el sector de la salud debe establecer un marco de responsabilidad sobre cómo abordará los riesgos de las nuevas tecnologías como ChatGPT en el futuro.

Foto: HIMSS

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *