OpenAI公司发布构建GPT-4等人工智能模型时使用的安全措施
OpenAI公司日前宣布将在其人工智能工具中构建安全措施。该公司是功能强大的GPT-4大型语言人工智能模型的开发者,该模型是其ChatGPT聊天机器人和其他人工智能系统的核心。随着越来越多的人要求对生成式人工智能系统的开发采取更多控制措施,该公司为此不得不披露了这一信息。
OpenAI公司在一篇博客文章中详细介绍正在采取的措施,以阻止其人工智能系统生成有害内容,避免违反数据隐私法规。虽然该公司开发的人工智能工具在全球范围内引领了一场生成式人工智能热潮,但在最近几周,监管机构开始对这种人工智能系统的安全性产生兴趣,意大利以潜在违反GDPR法规为由禁止使用ChatGPT。
包括马斯克和苹果联合创始人沃兹尼亚克在内的人工智能专家近日在一封公开信上呼吁,暂时停止大型语言模型(LLM)的开发,美国总统拜登也加入了这一讨论,他告诉媒体记者,人工智能公司必须把安全放在首位。
OpenAI公司如何在考虑安全的情况下构建GPT-4
OpenAI公司表示,在上个月发布其迄今为止最先进的GPT-4之前,该公司花了六个月的时间来完善该系统,使其尽可能难以被用于邪恶目的。
安全研究人员此前曾证明,通过“欺骗”聊天机器人,使其模仿糟糕的人工智能系统生成仇恨言论或恶意软件代码,从而绕过ChatGPT的安全控制是可能的。OpenAI公司表示,与GPT-3.5模型相比,GPT-4不太可能出现这种情况。
该公司的工程师表示:“与GPT-3.5相比,GPT-4对不允许内容的请求做出回应的可能性降低了82%,我们已经建立了一个强大的系统来监控人工智能系统的滥用。我们还在开发一些功能,能够使开发人员为模型输出设置更严格的标准,以更好地支持需要此类功能的开发人员和用户。”
OpenAI公司的人工智能系统会泄露互联网用户的个人数据吗?
该公司还借此机会回应了数据监管机构对其模型从互联网上收集数据用于培训目的的方式的担忧。在意大利禁止ChatGPT之后,加拿大对这种聊天机器人的安全性展开了调查,欧洲其他国家正在考虑是否效仿意大利的做法。
OpenAI公司表示:“我们的大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开可用的内容、授权内容以及人工审稿人生成的内容。我们不会将数据用于销售服务、发布广告或建立用户档案。”
该公司还对如何确保个人数据在培训期间不被泄露进行了详细说明。该公司表示:“虽然我们的一些训练数据包括在公共互联网上可以获得的个人信息,但我们希望我们的大型语言模型了解世界,而不是个人。
因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对个人信息的请求,并响应个人从人工智能系统中删除个人信息的请求。这些步骤最大限度地降低了我们的模型产生包含个人信息的响应的可能性。”
美国总统拜登加入了人工智能反对者的行列
在OpenAI公司发表这一声明之前,美国总统拜登对媒体记者表示,人工智能开发者有责任确保他们的产品在公开之前是安全的。
拜登在与他的科学技术顾问委员会讨论人工智能的发展后发表了讲话。他表示,美国政府致力于推进去年10月推出的《人工智能权利法案》,以保护个人免受先进自动化系统的负面影响。
拜登说:“我们在去年10月提议了一项权利法案,以确保重要的保护措施从一开始就内置在人工智能系统中,这样我们就不必回头去做了。我期待我们的讨论能够以确保负责任的创新和适当的护栏,以保护美国民众的权利和安全,保护他们的隐私,并解决可能存在的偏见和虚假信息等问题。”