开发ChatGPT的OpenAI公司在网站展示了摩根士丹利进行的一个案例研究。其主题是“摩根士丹利财富管理部署GPT-4来组织其庞大的知识库。”该案例研究援引摩根士丹利分析、数据与创新主管Jeff McMillan的话说,“该模型将为一个面向内部的聊天机器人提供动力,该机器人将对财富管理内容进行全面搜索,并有效地解锁摩根士丹利财富管理的累积知识”。
McMillan进一步强调说:“采用GPT-4,你基本上立刻就拥有了财富管理领域最博学的人的知识……可以把它想象成我们的首席投资策略师、首席全球经济学家、全球股票策略师,以及全球其他每一位分析师,并且每天都在待命。我们相信,这对我们公司来说是一种变革能力。”
这是知识管理的终极目标——将企业的知识和专长体现在与客户交互的系统、过程和工具中的能力。
那么真的达到这个目标了吗?生成式人工智能是知识访问、检索和应用的答案吗?在宣布战胜信息混乱之前,考虑一些基本元素和注意事项是很重要的。
首先,生成式人工智能可以克服知识管理挑战的认知背后有一个假设,即知识以明确的、记录的形式存在。然而,在大多数企业中,知识被锁定在员工的头脑中,如果以数字形式存储,它就会分散在部门、技术和存储库的生态系统中的孤岛中。OpenAI公司在其网站进一步指出,摩根士丹利每年发表数千篇论文,其内容涉及资本市场、资产类别、行业分析和全球经济区域……这些知识财富为摩根士丹利公司创建了一个独特的内部内容库,可以使用GPT-4进行处理和解析,同时也可以进行内部控制。摩根士丹利拥有的知识可以构成使用ChatGPT大型语言模型的基础。如果企业内容和知识资源不可获取,质量很差,或者与客户和员工的需求不一致,ChatGPT将无法访问响应这些需求的特定知识。
第二,生成式人工智能创造内容。它不是一个检索机制。那么原始知识库是如何使用的呢?这是一个棘手的领域。ChatGPT正在寻找内容和概念关系中的模式,以便它可以根据提示预测应该显示哪些文本。提示符是一种信号,就像搜索词是一种信号一样。搜索引擎不仅根据术语,而且还根据与查询场景相关的其他信号(例如,行业或搜索者的角色)预测应该显示哪些信息。可以在提示中以事实或文档的形式向ChatGPT提供场景,也可以通过指向作为响应基础的特定信息以编程方式提供场景。
大型语言模型——同义词库
大型语言模型是包含在信息体中的术语、概念和关系的数学表示。大型语言模型的强大之处在于它们能够理解用户的意图——无论请求是如何表达的,用户都在寻找什么内容,以及预测最有可能响应用户意图的单词模式。该模型“理解”用户的请求,并对应该返回的内容做出预测。搜索引擎也会根据用户的查询做出预测,尽管是通过不同的机制。搜索引擎可以用于生成人工智能场景中的检索。使用语义搜索或神经搜索引擎检索内容,并使用大型语言模型为用户格式化响应。
同义词库将非首选术语映射为首选术语(例如,“SOW”和“Statement of Work”映射为“Proposal”,即标记文档的首选术语)。把大型语言模型的一个方面看作是“同义词库”,但不仅仅是单词,而且是短语和概念。用户可以用许多不同的方式提出相同的问题。这种意图分类并不新鲜,它是将短语变化解析为特定动作的聊天机器人的基础。语言模型是意图解析和分类功能的基础。
大型语言模型还能理解提示符后面的单词模式。这就是启用ChatGPT会话流畅性的方式。使它们对企业具有实用性的关键是根据特定的内容或知识体来调整模型(摩根士丹利在实施ChatGPT时就是这样做的),并吸收企业独有的术语。
有许多带有示例代码的教程说明了如何使用具有特定内容的大型语言模型。例如,其视频引导开发人员完成使用语言模型(如GPT-4)并将聊天机器人指向特定知识和内容的过程。
面向企业的知识专用机器人
在回顾了这些教程之后,有一些观察结果:
定制的、特定于知识的聊天机器人可以使用大型语言模型来理解用户的要求,然后从指定的知识来源返回结果。开发人员指出,需要将内容“分块”成“语义上有意义”的部分。为回答特定问题而设计的组件化内容需要完整且符合场景。重要的是要注意,知识通常不存在于这种状态。要进行组件化,必须将大型文档和文本主体分解成块。例如,用户手册可以按章、节、段和句子分成若干部分。在技术文档领域,这已经做到了——DITA (达尔文信息类分类架构)等标准使用了基于主题的方法,非常适合回答问题。
开发人员谈论“语义”以及语义的重要性。这是什么意思?语义学是关于意义的。语义丰富的内容用元数据标记,元数据有助于精确检索所需的信息和信息的场景。例如,如果用户使用特定型号的路由器,并且该路由器发出错误代码,那么当请求支持机器人帮助时,可以检索标有这些标识符的内容。这个过程在聊天机器人领域也被称为“插播”。
自定义内容被摄取到所谓的“向量空间”中,这是另一种信息数学模型,它将文档放在多维空间中(这是一种数学构造),允许对类似的文档进行聚类和检索。这被称为“嵌入”。嵌入可以包含元数据和标识符(例如参考源),这些元数据和标识符有助于记录向用户提供特定答案的原因。这对于法律责任和监管目的以及向用户提供正确、最权威信息的保证都很重要。
训练人工智能的定义
关于“训练”有几个观点。ChatGPT和大型语言模型在大量内容上进行了训练,使它们能够理解用户的查询,并以格式良好且具有会话性的最佳答案进行响应。训练该工具的一种方法是在提示符中包含内容,“根据以下信息回答这个问题……”
但在这里有两个问题:
首先,ChatGPT在其提示符中只能处理一定数量的内容,这种提问方式将非常有限。可以将内容摄取到工具中,这将支持额外的训练。然而,将内容添加到ChatGPT中也会将该内容合并到公共模型中。因此,企业的知识产权将受到损害。这种风险导致许多企业禁止使用ChatGPT和其他因无意中上传企业机密而丢失知识产权的人工智能工具。
另外,还有另一种训练内容的方法。大型语言模型可以使用企业特定知识作为训练语料库的一部分,但这需要提供一个防火墙后面的版本。幸运的是,大型语言模型正在迅速实现商品化,有些甚至可以在笔记本电脑上本地运行。这种类型的训练在计算上也很昂贵。另一种机制是使用大型语言模型来解释用户的目标(他们的意图),然后使用向量嵌入以编程方式提供来自特定数据或内容源的场景。
然后,语言模型对响应进行处理和格式化,使其具有对话性和完整性。通过这种方式,知识与大型语言模型分开,使企业的商业秘密和知识产权不会受到损害。
所有这些因素都表明需要知识管理和知识架构,将信息组织成组件,以便用户可以获得特定问题的答案。大型语言模型和ChatGPT的革命性本质可以提供所需的会话流畅性,以近乎人类的互动水平来支持积极的客户体验。关键因素是获得企业中结构良好的知识。ChatGPT看起来很神奇,但它是基于信息的统计处理和模式预测。如果正确地组织和整合信息,将会成为企业数字化转型的重要组成部分。