Riesgos legales y de cumplimiento que presenta ChatGPT para las organizaciones, según Gartner

Riesgos legales y de cumplimiento que presenta ChatGPT para las organizaciones, según Gartner

Noticias IBL | Nueva York

El resultado generado por ChatGPT y otros LLM presenta riesgos legales y de cumplimiento que toda organización debe enfrentar o enfrentar consecuencias nefastas, según la consultora Gartner, Inc, que identificó seis áreas.

“No hacerlo podría exponer a las empresas a consecuencias legales, de reputación y financieras”, dijo Ron Friedmann, director analista sénior de Gartner Legal & Práctica de Cumplimiento.

  • Riesgo 1: Respuestas fabricadas e inexactas

ChatGPT también es propenso a las “alucinaciones”, incluidas respuestas inventadas que son incorrectas y citas legales o científicas inexistentes”, dijo Friedmann.

Solo el entrenamiento preciso del robot con fuentes limitadas mitigará esta tendencia a proporcionar información incorrecta.

  •  Riesgo 2. Privacidad y confidencialidad de los datos

La información delicada, patentada o confidencial utilizada en las indicaciones puede convertirse en parte de su conjunto de datos de capacitación e incorporarse en las respuestas para los usuarios fuera de la empresa si el historial de chat no está deshabilitado.

“El departamento legal y de cumplimiento debe establecer un marco de cumplimiento y prohibir claramente el ingreso de datos confidenciales de la organización o personales en las herramientas públicas de LLM”, dijo Friedmann.

  • Riesgo 3. Modelo y sesgo de resultados

“Es probable que la eliminación completa del sesgo sea imposible, pero los aspectos legales y de cumplimiento deben estar al tanto de las leyes que rigen el sesgo de la IA y asegurarse de que su guía cumpla”, dijo Friedmann.

“Esto puede implicar trabajar con expertos en la materia para garantizar que los resultados sean confiables y con funciones de auditoría y tecnología para establecer controles de calidad de datos”, agregó.

  • Riesgo 4.  Riesgos de propiedad intelectual (PI) y derechos de autor

Dado que ChatGPT está capacitado en una gran cantidad de datos de Internet que probablemente incluyen material protegido por derechos de autor, sus salidas, que no ofrecen referencias de fuentes, tienen el potencial de violar los derechos de autor o la protección de la propiedad intelectual.

“Los líderes legales y de cumplimiento deben estar atentos a cualquier cambio en la ley de derechos de autor que se aplique a la salida de ChatGPT y exigir a los usuarios que analicen cualquier salida que generen para asegurarse de que no infrinja los derechos de autor o los derechos de propiedad intelectual”. >

  • Riesgo 5. Riesgos de fraude cibernético

Los malos actores ya están usando ChatGPT para generar información falsa a gran escala, como reseñas falsas, por ejemplo.

Además, las aplicaciones que usan modelos LLM, incluido ChatGPT, también son susceptibles de inyección inmediata, una técnica de piratería en la que

Una técnica de piratería conocida como “inyección rápida” hace que los delincuentes escriban códigos de malware o desarrollen sitios de phishing que se asemejan a sitios conocidos.

“Los líderes legales y de cumplimiento deben coordinarse con los propietarios de riesgos cibernéticos para explorar si deben emitir memorandos al personal de seguridad cibernética de la empresa sobre este tema”, dijo Friedmann.

  • Riesgo 6. Riesgos de protección al consumidor

Las empresas que no revelan que están utilizando ChatGPT como un chatbot de atención al cliente corren el riesgo de ser acusadas de prácticas desleales según varias leyes y enfrentan el riesgo de perder la confianza de sus clientes.

Por ejemplo, la ley de bots conversacionales de California exige que en ciertas interacciones con los consumidores, las organizaciones deben revelar que un consumidor se está comunicando con un bot.

Los líderes legales y de cumplimiento deben asegurarse de que el uso de su organización cumpla con las regulaciones y leyes.
.