Los expertos en inteligencia synthetic instan a una pausa de seis meses en la capacitación en inteligencia synthetic, ¿y dónde diablos está el Congreso?


ed. nota: Este es el último de la serie de artículos, Ciberseguridad: consejos desde las trincheras, por nuestros amigos de Empresas Senseiun proveedor boutique de servicios de TI, ciberseguridad y análisis forense digital.

Los abogados están muy interesados ​​en la IA y en adoptar su uso en masa

Sabemos que los abogados están interesados ​​en la IA (inteligencia synthetic) porque recientemente recibimos (¡en un solo día!) siete solicitudes de CLE tituladas “El ascenso de la IA en la profesión authorized: los abogados se preparan para el impacto”. Hemos dado varias CLE de este tipo: las preguntas de la audiencia son indicativas de una enorme oleada de interés en utilizar el potencial de la IA para mejorar sus prácticas.

Si bien tomamos nota respetuosamente de la encuesta LexisNexis de marzo de 2023 que encontró que la mayoría de los abogados no tienen planes inmediatos para usar IA generativa, nuestros propios hallazgos no científicos indican que el tema de la IA está “candente” entre los abogados, algunos de ellos preocupados por ser reemplazados. por IA, pero muchos más buscan comprender cómo sus prácticas podrían beneficiarse del uso de IA. Sabemos que una gran cantidad de abogados ya están utilizando IA, especialmente ChatGPT de OpenAI.

Lo usan para redactar o, a veces, corregir correos electrónicos y cartas. Lo usan para ayudar a escribir resúmenes, contratos u otros documentos legales. Lo utilizan en su advertising and marketing, análisis de descubrimiento electrónico, para investigación authorized y revisión de documentos. La lista es muy larga de sus funciones útiles, que se han mejorado mucho con la introducción de ChatGPT, que es la IA elegida por los abogados por el momento.

Los mejores tecnólogos exigen una pausa inmediata de los sistemas avanzados de IA

En medio de todo el entusiasmo de los abogados, recientemente se puso una llave inglesa en su entusiasmo cuando, en marzo, más de 3900 tecnólogos, ingenieros y expertos en ética de IA firmaron una carta pidiendo a los laboratorios de IA que pausen de inmediato todo el entrenamiento en cualquier sistema de IA más potente que ChatGPT-4 de OpenAI durante al menos seis meses.

Como se señaló en la carta, “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”.

La carta habla de que la IA nos inunda con propaganda, quita muchos trabajos y corre el riesgo de perder el management de nuestra civilización. Señala que los sistemas de IA poderosos deben desarrollarse solo cuando estamos seguros de que sus efectos serán positivos y sus riesgos manejables. Las decisiones sobre IA avanzada, cube la carta, “no deben delegarse en líderes tecnológicos no elegidos”.

La “pausa” que buscan, según la carta, “debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.

Es una postura de línea dura, sin duda.

¿Qué cube ChatGPT?

Hemos hablado con ChatGPT sobre si la IA podría conducir a un futuro distópico en múltiples ocasiones. Su posición nunca ha vacilado. Ha señalado que “la IA podría conducir a un futuro distópico si no se desarrolla y utiliza de manera responsable”.

Ha enfatizado constantemente que la IA debe ser regulada. Afirma inequívocamente que la Unión Europea ha estado a la vanguardia de la regulación de la IA porque la UE reconoce los riesgos y desafíos de la IA. La UE tiene directrices éticas para garantizar que la IA se desarrolle y utilice de forma segura, ética y respetuosa de los derechos fundamentales. Como ejemplo reciente, Italia ha prohibido temporalmente ChatGPT por motivos de privacidad.

¿Dónde diablos está el Congreso?

Hicimos esa pregunta (un poco más formal) de ChatGPT. Sin incluir sus muchos pensamientos, esta oración parecía resumir la esencia de su respuesta: “EE. common las tecnologías emergentes y la influencia de la industria tecnológica en la formulación de políticas”.

Como han señalado muchos bromistas, algunas empresas tecnológicas ahora son tan poderosas como los estados-nación.

ChatGPT probablemente fue demasiado cortés para señalar que el Congreso actualmente no puede ponerse de acuerdo sobre la hora del día y se considera en gran medida disfuncional. No importa qué tan fantástico sea el modelo que nos pueda dar la UE, probablemente será ignorado por un Congreso díscolo.

¿Puede la Comisión Federal de Comercio venir al rescate?

No estamos del todo seguros. Esta concept ha recibido mucha publicidad recientemente. El 30 de marzo, el Centro de IA y Política Digital (CAIDP) presentó una queja ante la FTC alegando que OpenAI está violando las reglas de protección al consumidor a través de sus lanzamientos de modelos de IA de lenguaje grande como ChatGPT-4. El CAIDP cube que ese modelo es sesgado y engañoso, y amenaza tanto la privacidad como la seguridad pública. También alegó que no cumple con las pautas de la FTC que requieren que la IA sea transparente, justa y fácil de explicar.

El CAIDP quiere que la FTC investigue OpenAI y suspenda futuras versiones, hasta que cumplan con las pautas de la FTC. También quieren que se exija a OpenAI tener revisiones independientes de los productos y servicios de GPT antes de que se hagan públicos. Además, están buscando un sistema de notificación de incidentes y estándares formales para ser adoptados por los generadores de IA.

¿Dónde deja toda esta lucha interna a la profesión authorized?

Suponemos que la mejor respuesta es: “En un estado de confusión”. Hemos tratado de responder a fondo todas las muchas preguntas de CLE que recibimos con respecto a los deberes éticos de los abogados cuando trabajan con IA. Las preguntas indicaron claramente que muchos abogados están usando IA ahora o planean usarla en un futuro cercano. Es gratificante ver a tantos abogados tratando de modernizar sus prácticas sin dejar de ser conscientes de las implicaciones éticas. Esas son las firmas de abogados que prosperarán porque la IA puede ser un asistente private fenomenalmente bueno (sí, ChatGPT usó esas palabras exactas para describir cómo los abogados podrían usarla en sus prácticas).

Ultimas palabras
“La codicia de los titanes tecnológicos puede allanar el camino hacia SkyNet”. (Cita de la autora Sharon Nelson.)

“Nunca extrañas tener un Congreso funcional hasta que lo necesitas”. (¡Cita de un amigo abogado que nos hizo prometer que no lo nombraríamos!)


sharon d nelson (snelson@senseient.com) es abogada en ejercicio y presidenta de Sensei Enterprises, Inc. Fue presidenta del Colegio de Abogados del Estado de Virginia, el Colegio de Abogados de Fairfax y la Fundación Authorized de Fairfax. Es coautora de 18 libros publicados por la ABA.

John W Simek (jsimek@senseient.com) es vicepresidente de Sensei Enterprises, Inc. Es profesional certificado en seguridad de sistemas de información (CISSP), hacker ético certificado (CEH) y un experto reconocido a nivel nacional en el área de análisis forense digital. Él y Sharon brindan tecnología authorized, seguridad cibernética y servicios forenses digitales desde su firma de Fairfax, Virginia.

Michael C. Maschke (mmaschke@senseient.com) es el CEO/Director de ciberseguridad y análisis forense digital de Sensei Enterprises, Inc. Es examinador certificado de EnCase, examinador informático certificado (CCE n.° 744), hacker ético certificado y examinador certificado de AccessData . También es un profesional certificado en seguridad de sistemas de información.


Banner de CRM

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *