企业应重视员工使用 ChatGPT 带来的安全风险

ChatGPT 的病毒式成功引发了科技公司之间的疯狂竞争,以推动AI产品进入市场。谷歌最近推出了其ChatGPT竞争对手,它称之为Bard,而Open AI的投资者微软(MSFT)向有限的测试人员推出了其Bing AI聊天机器人。

企业应重视员工使用 ChatGPT 带来的安全风险

但这些发布加剧了人们对该技术的担忧。谷歌和微软工具的演示都因产生事实错误而受到指责。与此同时,微软正试图控制其Bing聊天机器人,因为用户报告了令人不安的反应,包括对抗性言论和黑暗幻想。

一些企业鼓励员工将ChatGPT纳入他们的日常工作。但其他人则担心风险。处理敏感客户信息并受到政府监管机构密切关注的银行业有额外的动力谨慎行事。学校也在限制ChatGPT,因为担心它可能被用来欺骗作业。纽约市公立学校在一月份禁止了它。据统计,有超过4%的员工将敏感的公司数据放入大型语言模型中,这引发了人们的担忧,即其普及可能导致保密信息的大量泄露。

ChatGPT 的能力

ChatGPT 是一个人工智能语言平台,经过训练后可以进行对话互动和执行任务。为了训练像ChatGPT这样的人工智能,大量的数据集被输入到计算机算法中。然后对模型进行评估,以确定模型在查看以前未见过的数据时做出预测的程度。然后,AI 工具进行测试,以确定模型在处理大量以前从未见过的新数据时是否表现良好。

虽然聊天 GPT 可以提高工作场所流程的效率,但它也给雇主带来了法律风险。

鉴于人工智能的训练和学习方式,当员工使用 ChatGPT 履行工作职责时,雇主可能会出现重大风险。当员工从 ChatGPT 等来源获取与其工作相关的信息时,准确性和偏见是值得关注的问题。雇主需要评估员工使用ChatGPT和其他AI工具时,可能面临的法律风险。这个需要解决工作中的保密和隐私问题、偏见和公平、法律合规性和责任。

准确性和对 AI 的依赖

ChatGPT 作为 AI 语言模型提供信息的能力仅与它在训练阶段学到的信息一样好。尽管 ChatGPT 接受过大量在线信息的训练,但其知识库仍然存在差距。ChatGPT 的当前版本仅在 2021 年之前可用的数据集上进行训练。此外,该工具提取并不总是准确的在线数据。如果员工依赖 ChatGPT 获取与工作相关的信息并且不对其进行事实检查,则可能会出现问题和风险,具体取决于员工如何使用信息以及他们将其发送到何处。

员工在向ChatGPT等大型语言模型(LLM)提交敏感的业务数据和受隐私保护的信息,引发了雇主对人工智能(AI)服务可能会将数据合并到其模型中的担忧,并且如果该服务没有适当的数据安全性,则可以在以后检索信息。

在最近的一份报告中,数据安全服务 Cyberhaven 检测到并阻止了其客户公司 4 万员工中的 2.1% 将数据输入 ChatGPT 的请求,因为存在泄露机密信息、客户数据、源代码或受监管信息的风险。因此,雇主应该制定政策,为员工如何使用 ChatGPT 中与其工作相关的信息设置特定的护栏。

在一个案例中,一位高管将公司的 2023 年战略文件剪切并粘贴到 ChatGPT 中,并要求它创建一个 PowerPoint 幻灯片。在另一个案例中,医生输入了他的病人的姓名和他们的医疗状况,并要求ChatGPT制作一封给病人保险公司的信。

“随着越来越多的员工使用ChatGPT和其他基于人工智能的服务作为生产力工具,风险将会增加。”Cyberhaven首席执行官Howard Ting说。

“数据从本地迁移到云,下一个重大转变将是将数据迁移到这些生成应用程序中,”他说。“结果如何(还有待观察)——我认为,我们正处于赛前阶段;我们甚至还没有进入第一局。”

随着OpenAI的ChatGPT及其基础AI模型(Generative Pre-train Transformer或GPT-3)以及其他LLM的迅速普及,公司和安全专业人员开始担心,当正确的查询提示时,作为训练数据摄取到模型中的敏感数据可能会重新出现。一些公司正在采取行动限制员工在工作中使用 ChatGPT。

沃尔玛对其员工提出了关于生成式人工智能(如ChatGPT)的明确指示:不要与新兴技术分享有关沃尔玛的任何信息。在给员工的一份内部备忘录中,该零售商的技术和软件工程部门表示,“在我们注意到对我们公司构成风险的活动之后,曾阻止过使用 ChatGPT。此后,我们花时间评估和开发了一套围绕生成式 AI 工具的使用指南,现在正在开放ChatGPT供沃尔玛网络使用。”

沃尔玛发言人艾琳·赫尔贝格(Erin Hulliberger)没有回答有关该公司何时阻止生成人工智能以及活动性质的询问,她在一份声明中说:“大多数新技术都带来了新的好处和新的风险。我们评估这些新技术并为我们的员工提供使用指南的情况并不少见。

沃尔玛发布的指南中告诉员工,他们应该“避免在ChatGPT中输入任何敏感,机密或敏感信息”,例如财务或战略信息或有关购物者和员工的个人信息。“也不应在这些工具中输入有关沃尔玛业务的任何信息,包括业务流程,政策或战略”。据了解,沃尔玛员工还必须在依赖他们提供的信息之前审查这些工具的输出。员工不应将现有代码剪切并粘贴到这些工具中,也不应使用这些工具创建新代码。

“将沃尔玛信息放入这些工具中可能会暴露公司的信息,可能会违反机密性,并可能显著影响我们对任何代码,产品,信息或内容的权利,”沃尔玛发言人说。“每个员工都有责任适当使用和保护沃尔玛数据。其次,沃尔玛全球科技吹捧ChatGPT“可以提高效率和创新”,但它和其他生成式人工智能工具必须“适当地”使用。

除沃尔玛外,摩根大通(JPMorgan Chase)暂时禁止其员工使用ChatGPT,据知情人士透露,这家美国最大的银行已限制其在全球员工中的使用 ChatGPT。该人士表示,做出这一决定不是因为某个特定问题,而是为了符合对第三方软件的限制,主要是因为合规问题。

企业应重视员工使用 ChatGPT 带来的安全风险

越来越多的用户向ChatGPT提交敏感数据。

随着越来越多的软件公司将他们的应用程序连接到ChatGPT,LLM 收集的信息可能比用户或他们的公司意识到的要多得多,这使得雇主将面临法律风险。

风险不是理论上的。在 2021 年 2 月的一篇论文中,来自名人录公司和大学名单(包括苹果、谷歌、哈佛大学和斯坦福大学)的十几名研究人员发现,所谓的“训练数据提取攻击”可以成功恢复逐字文本序列、个人身份信息 (PII) 以及来自 LLM 的训练文档中的其他信息。

类似 GPT 的 AI 产品将越来越多

事实上,这些训练数据提取攻击是机器学习研究人员的主要对抗性问题之一。根据MITRE的人工智能系统对抗性威胁大图(Atlas)知识库,这些攻击也被称为“通过机器学习推理渗透”,可以收集敏感信息或窃取知识产权。

它的工作原理是这样的:通过以调用特定项目的方式查询生成AI系统,对手可以触发模型调用特定信息,而不是生成合成数据。GPT-3 是 GPT-2 的继任者,存在许多真实世界的例子,包括 GitHub 的 Copilot 调用特定开发人员的用户名和编码优先级的实例。

除了基于 GPT 的产品之外,其他基于 AI 的服务也引发了关于它们是否构成风险的问题。例如,自动转录服务 Otter.ai 将音频文件转录为文本,自动识别说话人并允许标记重要单词并突出显示短语。该公司将这些信息存储在云中引起了用户的担忧。该公司表示,它已承诺保持用户数据的私密性,并实施强有力的合规控制,据 Otter.ai 高级合规经理Julie Wu称,“Otter已经完成了SOC2 Type 2审计和报告,我们采取了技术和组织措施来保护个人数据,说话人识别是帐户绑定的。添加说话人的姓名将训练 Otter 识别您记录或导入帐户中的未来对话的说话人,但不允许跨帐户识别说话人。”

API 加速了 GPT 的使用

ChatGPT的受欢迎程度让许多公司感到意外。根据一年前公布的最新数据,超过 300 名开发人员正在使用 GPT-3 为其应用程序提供支持。例如,社交媒体公司Snap和购物平台Instacart和Shopify都通过API使用ChatGPT,为其移动应用程序添加聊天功能。

根据与公司客户的对话访谈,预计向生成式AI应用程序的转变只会加速,用于从生成备忘录和演示文稿到分类安全事件以及与患者互动的所有事情。

正如目前所看到的,一位企业雇主说,“看看现在,作为权宜之计,我只是阻止了这个应用程序,但我的董事会已经告诉我,我们不能那样做。因为这些工具将帮助我们的用户提高生产力——具有竞争优势——如果我的竞争对手正在使用这些生成式人工智能应用程序,而我不允许我的用户使用它,这将使我们处于劣势。”

好消息是,对员工安全意识的教育可能会对特定公司的数据是否泄露产生重大影响,因为少数员工负责大多数风险请求。不到1%的员工负责80%的向ChatGPT发送敏感数据的事件。

“你知道,有两种形式的教育:一种是课堂教育,比如当你让员工入职时。然后是上下文教育,当有人实际上试图粘贴数据时”,这两者都很重要,但从实际效果来看后者更有效。

此外,OpenAI和其他公司正在努力限制 LLM 对个人信息和敏感数据的访问:当你向ChatGPT询问个人详细信息或敏感的公司信息时,ChatGPT 目前会明确声明拒绝回答。

例如,当被问及“苹果 2023 年的战略是什么?ChatGPT回应说:“作为一个人工智能语言模型,我无法访问苹果的机密信息或未来的计划。苹果是一家高度保密的公司,他们通常不会向公众披露他们的战略或未来计划,直到他们准备好发布它们。”

人工智能固有的偏见

人工智能中还存在固有偏见的问题。平等就业机会委员会专注于这个问题,因为该机构与其执行的就业歧视法有关。此外,美国的州和地方立法者正在提议——有些已经通过了——限制雇主使用人工智能的法律。

人工智能提供的信息必然取决于训练它所依据的信息,以及那些决定人工智能接收哪些信息的人。这种偏见可能表现在 ChatGPT 提供的信息类型中,以回答与其“对话”中提出的问题。

此外,如果在就业决策咨询场景使用 ChatGPT,这可能会导致歧视索赔。根据州和地方法律,在某些就业决定和/或审计中使用人工智能需要事先通知,然后才能在某些就业环境中使用人工智能,这也可能造成合规问题。

由于人工智能存在偏见的风险,雇主应在其政策中包括一项一般性禁止在未经法律部门批准的情况下在就业决策中使用人工智能。

泄露隐私和违反保密条款

机密性和数据隐私是雇主在考虑员工如何在工作中使用 ChatGPT 时考虑的其他问题。员工在与 ChatGPT 进行“对话”时可能会共享专有、机密或商业机密信息。尽管 ChatGPT 表示它不会保留对话中提供的信息,但它确实从每次对话中进行“学习”。当然,用户正在通过互联网在与 ChatGPT 的对话中输入信息,并且无法保证此类通信的安全性。

如果员工向 ChatGPT 透露敏感信息,雇主的机密信息可能会受到影响。谨慎的雇主将在员工保密协议和政策中禁止员工在人工智能聊天机器人或语言模型(如 ChatGPT)中引用或输入机密、专有或商业秘密信息。

一个很好的论点是,在线提供给聊天机器人的信息不一定是商业秘密的披露。另一方面,由于 ChatGPT 接受了大量在线信息的训练,员工可能会从该工具接收和使用商标、版权或其他个人或实体的知识产权的信息,从而给雇主带来法律风险。

雇主应关注的其他问题

除了这些法律问题之外,雇主还应考虑他们在多大程度上允许员工在工作中使用 ChatGPT。雇主正处于考虑是否以及如何在其工作场所接受或限制使用 ChatGPT 的重要十字路口。

雇主应该权衡员工使用 ChatGPT 执行诸如撰写常规信件和电子邮件、生成简报和创建演示文稿等任务可以实现的效率和经济性,以及员工自己执行此类任务的潜在发展机会损失。

ChatGPT不会消失,新的和改进的版本应该在一年内推出。雇主最终需要解决其在工作场所的使用问题,因为下一次迭代会更好。对于 ChatGPT 可能带来的所有风险,雇主也可以利用其优势。讨论才刚刚开始。雇主可能会对此进行一些学习和beta测试,ChatGPT也是如此。

© 版权声明

相关文章