如今,像ChatGPT这样的生成型AI已经彻底改变了我们与AI互动的方式。写作、编码和求职等活动变得更容易、更快。然而,有了所有的积极因素,也存在一些相当严重的风险。
人工智能的一个主要问题是信任和安全,这甚至导致一些国家全面禁止ChatGPT,或重新考虑围绕人工智能的政策,以保护用户免受伤害。
Gartner分析师Avivah Litan表示,生成人工智能的一些最大风险涉及信任和安全,包括幻觉、深度伪造、数据隐私、版权问题和网络安全问题。
1、幻觉
幻觉是指AI模型容易犯的错误,因为尽管它们是先进的,但它们仍然不是人类的,并且依赖训练和数据来回复答案。
Litan表示,训练数据可能会导致有偏见或事实上不正确的反应,当人们依赖这些机器人获取信息时,这可能是一个严重的问题。“训练数据可能会导致有偏见、偏离基础或错误的反应,但这些反应可能很难发现,尤其是在解决方案越来越可信和可靠的情况下。”
2、深度伪造(Deepfake)
使用生成式AI来创建伪造的视频、照片和录音,但会拍摄另一个人的图像和肖像。
Litan指出,这些虚假的图像、视频和录音被用来制造和传播误导性信息,甚至制造虚假账户,或者接管和侵入现有的合法账户。
3、数据隐私
隐私也是生成式AI的一个主要风险,因为用户数据通常被存储用于模型训练。
“员工在与生成式AI聊天机器人解决方案交互时,可以很容易地暴露敏感和专有的企业数据,”Litan表示,“这些应用程序可能会无限期地存储通过用户输入捕获的信息,甚至使用信息来训练其他模型,这进一步损害了机密性。”
4、网络安全
生成式AI模型的高级功能,如编码,也可能落入坏人之手,引发网络安全问题。
Litan认为,除了更先进的社会工程和网络钓鱼威胁外,攻击者还可以使用这些工具来更容易地生成恶意代码。
5、版权问题
版权是一个很大的问题,因为生成人工智能模型是在用于生成输出的大量互联网数据上训练的。这种训练过程意味着,原始源未明确共享的作品可以用于生成新内容。为了根据提示创建图像,DALL-E等人工智能生成工具将参考他们训练过的大型照片数据库。这一过程的结果是,最终产品可能包括艺术家作品或风格中不属于他们的方面。