法律和合规负责人面临的六大ChatGPT风险

Gartner法律与合规实践部门高级主管分析师Ron Friedmann表示 ,法律T风“ChatGPT和其他大型语言模型(LLM)工具生成的和合输出容易存在一些风险。法律和合规领导者应该评估这些问题是规负否对企业构成重大风险 ,以及在企业内部及其扩展的责人第三方企业中需要采取哪些控制措施 。如果不这样做 ,面临企业可能会面临法律 、法律T风声誉和财务方面的和合后果 。”

法律和合规负责人应该评估的规负六个ChatGPT风险包括 :

1 、捏造的责人和不准确的答案

也许ChatGPT和其他LLM工具最常见的问题是云计算倾向于提供不正确的信息(尽管表面上看似合理)。

Friedmann称,面临“ChatGPT也容易产生‘幻觉’,法律T风包括捏造错误的和合答案,以及不存在的规负法律或科学引用。法律和合规领导者应该发布指导,责人要求员工在接受ChatGPT生成的面临任何输出之前 ,审查其准确性、适当性和有效性 。”

2、数据隐私及保密

法律和合规负责人应该意识到  ,如果聊天历史没有被禁用 ,建站模板输入ChatGPT的任何信息都可能成为其训练数据集的一部分 。

Friedmann解释称,“在提示中使用的敏感 、专有或机密信息都可能会被纳入企业外用户的回复中。法律和合规部门需要为ChatGPT的使用建立一个合规框架 ,并明确禁止将敏感的企业或个人数据输入公共LLM工具。”

3  、模型和输出偏见

尽管OpenAI努力减少ChatGPT中的偏见和歧视 ,但已知的免费模板这些问题已经发生,并且可能会持续存在 ,尽管OpenAI和其他企业正在积极努力地将这些风险降到最低 。

Friedmann认为  ,“完全消除偏见几乎是不可能的,法律和合规需要凌驾于管理人工智能偏见的法律之上 ,并确保他们的指导是合规的。这可能涉及与主题专家合作,以确保输出的可靠性 ,源码下载并与审计和技术部门合作 ,以设置数据质量控制。”

4 、知识产权(IP)和版权风险

考虑到ChatGPT是在大量的互联网数据上训练的 ,这些数据可能包括受版权保护的信息 。因此  ,它的输出有可能违反版权或知识产权保护法案。

Friedmann称,“ChatGPT不提供源代码参考或解释其输出是如何生成的 。模板下载法律和合规负责人应该密切关注适用于ChatGPT输出的版权法的任何变化 ,并要求用户仔细检查他们生成的任何输出,以确保它不侵犯版权或知识产权  。”

5 、网络欺诈风险

恶意行为者已经在大规模地滥用ChatGPT来生成虚假信息 ,例如,虚假评论。

此外 ,使用LLM模型的应用程序,包括ChatGPT  ,也容易受到提示注入的影响 ,亿华云这是一种黑客技术,使用恶意的对抗性提示来欺骗模型执行它不打算执行的任务,例如编写恶意软件代码或开发假冒知名网站的网络钓鱼网站  。

Friedmann补充道,“法律和合规负责人应与网络风险所有者协调,探讨是否或何时就这一问题向公司网络安全人员发出备忘录 。他们还应该对尽职调查来源进行审计,以核实其信息的质量 。”

6 、消费者保护风险

未能向消费者披露ChatGPT使用情况的企业(例如,以客户支持聊天机器人的形式)可能面临失去客户信任的风险 ,并在不同法律下被指控为“不公平”的做法 。

例如,加州的聊天机器人法规定 ,在某些消费者互动中 ,企业必须清楚而明显地披露消费者正在与机器人进行交流。

Friedmann总结道 ,“法律和合规负责人需要确保他们企业的ChatGPT使用符合所有相关法规和法律,并向客户进行适当的披露 。”

网络安全
上一篇:CISO正在努力争取网络安全预算
下一篇:五种容易被忽视的网络安全“软”能力