在客户服务领域,和ChatGPT有关的变革已经开始
多年来,越来越多的企业已经利用人工智能通过联络中心自动化来解决数百万客户的电话、聊天和短信。现在,ChatGPT强大的沟通技巧正与集成到内部知识库和CRM等业务特定系统的关键能力相结合。
使用大型语言模型(LLM)增强自动化的联络中心已经看到了好处,可以像人工客服一样端到端解决客户请求。另一方面,随着越来越多的客户意识到ChatGPT的类人的功能,可以想象他们会开始对传统系统感到更加沮丧,这些传统系统往往需要他们等待45分钟才能更新其信用卡信息。
但不要害怕。虽然对早期采用者来说,使用人工智能来解决客户问题似乎已经过时了,但实际上,时机刚刚好。
LLM可以阻止客户满意度下跌
由于座席短缺和需求上升,客户服务行业目前的满意度已降至几十年来的最低水平。自然,LLM的崛起将使人工智能成为每个试图赢回客户忠诚度的董事会的中心话题。
那些转向昂贵的外包选择、或完全取消联络中心的企业突然间看到了一条可持续发展的道路。
蓝图已经画好。人工智能可以帮助实现呼叫中心的三个主要目标:在第一个环上解决客户问题,降低总体成本,减少座席的负担(并通过这样做增加座席的保留率)。
在过去几年里,企业级联络中心已经部署了人工智能来处理他们最常见的请求(例如,计费、账户管理,甚至呼出呼叫),而且这一趋势似乎将在2023年继续下去。
通过这样做,他们已经能够减少等待时间,使他们的座席能够专注于创收或增值电话,并从旨在使客户远离座席和解决方案的过时策略中解脱出来。
所有这些都可以节省成本,Gartner预测称,到2026年,人工智能的部署将使联络中心的成本降低800多亿美元。
LLM使自动化比以往任何时候都更容易、更好
LLM是在大量的公共数据集上训练的。这种对世界的广泛了解非常适合客户服务。无论来电者如何说话或表达他们的问题,他们都能以前所未有的准确性了解客户的实际要求。
LLM已经集成到现有的自动化平台中,并提高了它们理解非结构化人类对话的能力,同时减少了错误。这将带来更好的解决率、更少的对话步骤、更短的呼叫时间和更少的座席需求。
顾客可以问任意数量的问题,用自然的句子说话,甚至要求机器等待或通过文本发送信息。最重要的是,LLM改进了呼叫解决方案,让更多的客户得到他们需要的答案,而无需与座席交谈。
LLM还大大减少了定制和部署人工智能所需的时间。有了合适的API,一个人手不足的联络中心可以在几周内启动并运行一个解决方案,而不必手动训练人工智能来了解客户可能提出的各种请求。
联络中心面临着巨大的压力,要满足严格的SLA并将呼叫时间保持在最低水平。有了LLM,他们不仅能接听更多的电话,还能端到端解决问题。
呼叫中心自动化减少了ChatGPT风险
虽然LLM给人留下了深刻的印象,但也有很多记录在案的不恰当的回答和“幻觉”案例——在机器不知道该说什么的情况下,它会编造答案。
对于企业来说,这就是为什么像ChatGPT这样的LLM不能直接与客户连接的首要原因,更不用说将其与特定的业务系统、规则和平台集成。
现有的人工智能平台,如Dialpad、Replicant和Five9,正在为联络中心提供防护机制,以更好地利用LLM的力量,同时降低风险。这些解决方案符合SOC2、HIPAA和PCI标准,从而能够确保客户的个人信息得到充分保护。
而且,由于对话是针对每个用例专门配置的,联络中心可以控制他们的机器所说或写的每个单词,从而消除了由于提示输入(即用户试图“欺骗”LLM的情况)而导致的不可预测的风险。
在快速变化的人工智能世界中,联络中心比以往任何时候都有更多的技术解决方案需要评估。
是的,客户的期望正在提高,ChatGPT 级别的服务将很快成为标准。但对于一个在过去的技术革命中一直被忽视的行业来说,所有迹象都表明,这一次客户服务将成为最大的赢家。