Riesgos legales y de cumplimiento que ChatGPT presenta a las organizaciones, según Gartner

Riesgos legales y de cumplimiento que ChatGPT presenta a las organizaciones, según Gartner

Noticias IBL | Nueva York

Los resultados generados por ChatGPT y otros LLM presentan riesgos legales y de cumplimiento que cada organización tiene que enfrentar o enfrentar consecuencias nefastas, según la consultora Gartner, Inc, que ha identificado seis áreas.

“No hacerlo podría exponer a las empresas a consecuencias legales, financieras y de reputación”, afirmó Ron Friedmann, director analista sénior de Gartner Legal & Práctica de Cumplimiento.

  • Riesgo 1: respuestas fabricadas e inexactas

ChatGPT también es propenso a ‘alucinaciones’, incluidas respuestas fabricadas que son incorrectas y citas legales o científicas inexistentes”, dijo Friedmann.

Sólo un entrenamiento preciso del robot con fuentes limitadas mitigará esta tendencia a proporcionar información incorrecta.

  •  Riesgo 2. Privacidad y confidencialidad de los datos

La información sensible, patentada o confidencial utilizada en las indicaciones puede convertirse en parte de su conjunto de datos de capacitación e incorporarse a las respuestas de los usuarios fuera de la empresa si el historial de chat no está deshabilitado.

“El ámbito jurídico y de cumplimiento debe establecer un marco de cumplimiento y prohibir claramente la introducción de datos personales o organizacionales confidenciales en herramientas públicas de LLM”, dijo Friedmann.

  • Riesgo 3. Modelo y sesgo de producción

“La eliminación completa del sesgo es probablemente imposible, pero la legalidad y el cumplimiento deben estar al tanto de las leyes que rigen el sesgo de la IA y garantizar que sus directrices sean conformes”, dijo Friedmann.

“Esto puede implicar trabajar con expertos en la materia para garantizar que los resultados sean confiables y con funciones de auditoría y tecnología para establecer controles de calidad de los datos”, añadió.

  • Riesgo 4. Riesgos de propiedad intelectual (PI) y derechos de autor

Como ChatGPT se basa en una gran cantidad de datos de Internet que probablemente incluyan material protegido por derechos de autor, sus resultados, que no ofrecen referencias de fuentes, tienen el potencial de violar los derechos de autor o la protección de la propiedad intelectual.

“Los líderes legales y de cumplimiento deben estar atentos a cualquier cambio en la ley de derechos de autor que se aplique a los resultados de ChatGPT y exigir a los usuarios que examinen cualquier resultado que generen para asegurarse de que no infrinja los derechos de autor o de propiedad intelectual”.

  • Riesgo 5. Riesgos de fraude cibernético

Los malos actores ya están utilizando ChatGPT para generar información falsa a gran escala, como reseñas falsas, por ejemplo.

Además, las aplicaciones que utilizan modelos LLM, incluido ChatGPT, también son susceptibles a la inyección rápida, una técnica de piratería en la que

Una técnica de piratería conocida como “inyección rápida” lleva a los delincuentes a escribir códigos de malware o desarrollar sitios de phishing que se parecen a sitios conocidos.

“Los líderes legales y de cumplimiento deben coordinarse con los propietarios de los riesgos cibernéticos para explorar si deben emitir memorandos al personal de ciberseguridad de la empresa sobre este tema”, dijo Friedmann.

  • Riesgo 6. Riesgos para la protección del consumidor

Las empresas que no revelan que están utilizando ChatGPT como chatbot de atención al cliente corren el riesgo de ser acusadas de prácticas desleales según diversas leyes y corren el riesgo de perder la confianza de sus clientes.

Por ejemplo, la ley de chatbots de California exige que en determinadas interacciones con los consumidores, las organizaciones deben revelar que un consumidor se está comunicando con un bot.

Los líderes legales y de cumplimiento deben garantizar que el uso de su organización cumpla con las regulaciones y leyes.
.