Riesgos legales y de cumplimiento que ChatGPT presenta a las organizaciones, seg√ļn Gartner

Riesgos legales y de cumplimiento que ChatGPT presenta a las organizaciones, seg√ļn Gartner

Noticias IBL | Nueva York

Los resultados generados por ChatGPT y otros LLM presentan riesgos legales y de cumplimiento que cada organizaci√≥n tiene que enfrentar o enfrentar consecuencias nefastas, seg√ļn la consultora Gartner, Inc, que ha identificado seis √°reas.

“No hacerlo podr√≠a exponer a las empresas a consecuencias legales, financieras y de reputaci√≥n”, afirm√≥ Ron Friedmann, director analista s√©nior de Gartner Legal & Pr√°ctica de Cumplimiento.

  • Riesgo 1: respuestas fabricadas e inexactas

ChatGPT tambi√©n es propenso a ‘alucinaciones’, incluidas respuestas fabricadas que son incorrectas y citas legales o cient√≠ficas inexistentes”, dijo Friedmann.

Sólo un entrenamiento preciso del robot con fuentes limitadas mitigará esta tendencia a proporcionar información incorrecta.

  • ¬†Riesgo 2. Privacidad y confidencialidad de los datos

La información sensible, patentada o confidencial utilizada en las indicaciones puede convertirse en parte de su conjunto de datos de capacitación e incorporarse a las respuestas de los usuarios fuera de la empresa si el historial de chat no está deshabilitado.

“El √°mbito jur√≠dico y de cumplimiento debe establecer un marco de cumplimiento y prohibir claramente la introducci√≥n de datos personales o organizacionales confidenciales en herramientas p√ļblicas de LLM”, dijo Friedmann.

  • Riesgo 3. Modelo y sesgo de producci√≥n

“La eliminaci√≥n completa del sesgo es probablemente imposible, pero la legalidad y el cumplimiento deben estar al tanto de las leyes que rigen el sesgo de la IA y garantizar que sus directrices sean conformes”, dijo Friedmann.

“Esto puede implicar trabajar con expertos en la materia para garantizar que los resultados sean confiables y con funciones de auditor√≠a y tecnolog√≠a para establecer controles de calidad de los datos”, a√Īadi√≥.

  • Riesgo 4. Riesgos de propiedad intelectual (PI) y derechos de autor

Como ChatGPT se basa en una gran cantidad de datos de Internet que probablemente incluyan material protegido por derechos de autor, sus resultados, que no ofrecen referencias de fuentes, tienen el potencial de violar los derechos de autor o la protección de la propiedad intelectual.

“Los l√≠deres legales y de cumplimiento deben estar atentos a cualquier cambio en la ley de derechos de autor que se aplique a los resultados de ChatGPT y exigir a los usuarios que examinen cualquier resultado que generen para asegurarse de que no infrinja los derechos de autor o de propiedad intelectual”.

  • Riesgo 5. Riesgos de fraude cibern√©tico

Los malos actores ya est√°n utilizando ChatGPT para generar informaci√≥n falsa a gran escala, como rese√Īas falsas, por ejemplo.

Además, las aplicaciones que utilizan modelos LLM, incluido ChatGPT, también son susceptibles a la inyección rápida, una técnica de piratería en la que

Una t√©cnica de pirater√≠a conocida como “inyecci√≥n r√°pida” lleva a los delincuentes a escribir c√≥digos de malware o desarrollar sitios de phishing que se parecen a sitios conocidos.

“Los l√≠deres legales y de cumplimiento deben coordinarse con los propietarios de los riesgos cibern√©ticos para explorar si deben emitir memorandos al personal de ciberseguridad de la empresa sobre este tema”, dijo Friedmann.

  • Riesgo 6. Riesgos para la protecci√≥n del consumidor

Las empresas que no revelan que est√°n utilizando ChatGPT como chatbot de atenci√≥n al cliente corren el riesgo de ser acusadas de pr√°cticas desleales seg√ļn diversas leyes y corren el riesgo de perder la confianza de sus clientes.

Por ejemplo, la ley de chatbots de California exige que en determinadas interacciones con los consumidores, las organizaciones deben revelar que un consumidor se est√° comunicando con un bot.

Los líderes legales y de cumplimiento deben garantizar que el uso de su organización cumpla con las regulaciones y leyes.
.