如何解决人工智能的“常识”问题

人工智能1年前发布 10100
50 00

​译者 | 李睿

审校 | 孙淑娟

近年来,深度学习在人工智能的一些最具挑战性的领域取得了长足的进步,其中包括计算机视觉、语音识别和自然语言处理。  

如何解决人工智能的“常识”问题

然而,深度学习系统仍然没有解决一些问题。因为深度学习系统不擅长处理新情况,它们需要大量数据进行训练,有时还会犯一些奇怪的错误,甚至连它们的创造者都会感到困惑。

一些科学家认为,这些问题要以通过创建越来越大的神经网络并在越来越大的数据集上进行训练来解决。也有人认为,人工智能领域需要的是人类的一些“常识”。  

计算机科学家Ronald J.Brachman和Hector J.Levesque在他们出版的新书《像我们这样的机器》中,提出他们对人工智能难题这一缺失部分的看法和可能的解决方案,而“常识“这一难题已经困扰了研究人员几十年的时间。在接受行业媒体的采访时,Brachman讨论了什么是常识,什么不是常识,为什么机器没有常识,以及“知识表示”这一概念是如何引导人工智能社区朝着正确的方向发展的。“知识表示”这个概念已经存在了几十年,但在深度学习热潮中被搁置了。

尽管仍停留在假设领域,但《像我们这样的机器》这本书为潜在的研究领域提供了一个新的视角,这得益于这两位自从上世纪70年代以来一直深入研究人工智能的科学家。

优秀人工智能系统会犯奇怪错误

Brachman说,“在过去的10到12年,随着人们对深度学习表现出非凡的热情,有很多关于基于深度学习的系统能够完成我们最初希望人工智能系统所做的一切的讨论。”

在人工智能的发展早期,其愿景是创建一个自给自足的自主系统,并且可能以机器人的形式出现,它可以在几乎不需要或根本不需要人工干预的情况下独立做事。

Brachman说,“如今,由于许多人对深度学习所能取得的成就感到兴奋,研究的范围已经缩小了很多。特别是在工业领域,大量资金和人才招聘推动了对基于经验或经过实例训练的系统的高度关注,许多人声称已经接近通用人工智能,或者说‘有效的老式人工智能’(GOFAI)或象征性方法完全过时或没有必要。”

显而易见的是,尽管令人印象深刻,但深度学习系统正面临着尚未解决的令人困惑的问题。神经网络容易受到对抗性攻击,其中对输入值的特制修改会导致机器学习模型对其输出进行突然的错误更改。深度学习也在努力理解简单的因果关系,而且在构思概念和将它们组合在一起方面的表现非常糟糕。大型语言模型最近成为了一个特别关注的领域,但有时会在生成连贯且令人印象深刻的文本时犯下非常愚蠢的错误。

Brachman说,“人们对人工智能犯的这些错误的看法是,它们看起来很愚蠢、很无知,人类很少犯这种错误。但是重要的是,导致这些错误的原因有些难以解释。”

这些错误导致Brachman和Levesque反思当今人工智能技术中缺少什么,以及需要什么来补充或取代示例驱动的训练神经网络系统。  

Brachman说,“如果仔细想想,这些系统显然缺少的是人类所称的常识,即能够看到对许多人来说显而易见的事情,并快速得出简单和明显的结论,并能够在决定做一些立即意识到是荒谬或错误选择的事情时阻止自己。”

什么是常识?

人工智能社区从早期开始就一直在谈论常识。事实上,John McCarthy于1958年撰写的最早的人工智能论文之一的名称为《具有常识的程序》。  

Brachman说,“这不是什么新鲜事,也不是我们发明的名称,但这一领域已经忽视了人工智能先驱者所说的核心意义。如果进一步了解什么是常识以及拥有它的意义,对我们来说更重要的是,它是如何工作的以及将如何实施它,人们在心理学文献中几乎找不到指导。”

在《像我们这样的机器》一书中,Brachman和Levesque将常识描述为“有效利用普通、日常、经验知识来实现普通、日常、实际目标的能力”。  

常识对生存至关重要。人类和高等动物已经进化到通过经验学习,发展常规和自动驾驶技能,可以处理他们每天面临的大多数情况。但日常生活不仅仅是人们反复看到的例行公事。人们经常面临从未见过的新情况。它们中的一些可能与正常情况有很大不同,但大多数时候,人们看到的事物与已经习惯的有些不同。在人工智能讨论中,这有时被称为“长尾”。

Brachman说,“在我们看来,当这些例行公事被打断时,常识实际是第一个被激活的事物,能让人们快速了解新情况,记住之前所做的事情,快速调整记忆,并将其应用于新情况,并继续前进。”  

在某种程度上,常识与心理学家、诺贝尔奖获得者Daniel Kahneman推广的双系统思维范式有些不同。常识并不是快速、自动驾驶的系统1思维,它执行人们可以在没有特意集中精力的情况下完成的大多数日常任务(例如,刷牙、系鞋带、扣扣子、在熟悉的区域开车)。它需要积极思考来来打破目前的常规。

与此同时,常识也不是系统2思维,系统2思维是一种缓慢的思维模式,是需要全神贯注、循序渐进的思维(例如,规划为期六周的旅行、设计软件、解决复杂的数学方程)。  

Brachman说,“人们可以深思熟虑,以应对挑战。这种思考会让人们的大脑感到疲乏,而且速度很慢。常识让人们在几乎任何日常生活中都能避开这种情况,因为不需要深入思考下一步该做什么。”

Brachman和Levesque在他们出版的著作中强调,常识是一种“肤浅的认知现象”,与深思熟虑、有条不紊的分析相比,它运行速度更快。  

他们写道,“如果需要大量思考才能弄清楚,这不是常识。我们可以将其视为‘反思性思维’,‘反思性’与‘思考’一样重要,”

没有常识的人工智能面临的危险  

常识需要可预测性、信任、可解释性和问责制。  

Brachman说,“大多数人并不会犯一些奇怪的错误。虽然人们可能会做一些傻事,但在反思之后可能会避免这样的错误。虽然人类并不完美,但有些错误在一定程度上是可以预测的。”  

没有常识的人工智能系统面临的挑战是,当它们达到训练的极限时可能会犯错。Brachman说,这些错误是完全不可预测和无法解释的。  

Brachman说,“没有常识的人工智能系统没有这种观点,没有阻止自己做奇怪事情的退路,而且会变得脆弱。当它们犯错时,错误对它们来说根本没有任何意义。”  

这些错误可能是无害的,例如给图片贴错标签;也可能是极其有害的,例如导致自动驾驶汽车驶入错误的车道。  

Brachman和Levesque在书中写道,“如果一个人工智能系统遇到的问题是下棋,而它所考虑就是赢得比赛,那么常识对它们来说不会发挥作用,而当人们玩国际象棋游戏时,常识将发挥作用。”  

因此,随着人工智能系统进入开放领域的敏感应用,例如驾驶汽车或与人类合作,甚至参与开放式对话,常识将发挥非常关键的作用。这些领域总是会发生新奇的事情。

Brachman和Levesque在《像我们这样的机器》书中写道,“如果我们希望人工智能系统能够以合理的方式处理现实世界中普遍发生的事情,我们需要的不仅仅是通过对已经发生的事情进行采样而得出的专业知识。仅仅基于看到和内化过去发生的事情来预测未来是行不通的。我们需要常识。”

重新审视符号人工智能  

大多数科学家都认为当前的人工智能系统缺乏常识。然而,涉及解决方案时通常出现一些分歧意见。一个流行的趋势是继续使神经网络的规模变得越来越大。有证据表明,更大的神经网络继续进行渐进式改进。在某些情况下,大型神经网络表现出零样本学习技能,它们执行未经训练的任务。

然而,也有大量的研究和实验表明,更多的数据和计算并不能解决人工智能系统没有常识的问题,而只是将它们隐藏在更大、更混乱的数字权重和矩阵运算中。  

Brachman说,“这些系统注意并内化相关性或模式。它们不会形成‘概念’。即使这些系统与语言互动,它们也只是模仿人类行为,而没有人们认为他们拥有的潜在心理和概念机制。”

Brachman和Levesque主张创造一种系统,将常识性知识和对世界的常识性理解编码。

他们在书中写道:“常识知识是关于世界上的事物及其所具有的属性,以我们所谓的概念结构为中介,它是关于可能存在的各种事物以及它们可能拥有的各种属性的一系列想法。知识将通过符号化表示和在这些符号结构上执行计算操作来使用。关于该做什么的常识性决策相当于使用这些表征知识来考虑如何实现目标,以及如何对观察到的情况做出反应。”  

Brachman和Levesque认为,该领域需要回顾并重新审视早期关于符号人工智能的一些工作,以便为计算机带来常识。他们称之为“知识表示”假设。这本书详细介绍了如何构建知识表示(KR)系统,以及如何将不同的知识片段结合起来,形成更复杂的知识和推理形式。

根据知识表示(KR)假设,常识知识的表示将分为两个部分:“一个表示世界状态的世界模型,另一个是表示概念结构的概念模型,而这是一个可用于对世界中的项目进行分类的概括框架。”

Brachman表示“我们的观点是回到早期关于人工智能的一些思考,其中某种符号和符号操作程序(人们过去称之为推理引擎)可以用来编码和使用人们称之为常识的世界基础知识:直观或幼稚的物理学,对人类和其他主体的行为方式以及意图和信念的基本了解,时间和事件如何运作,因果关系等。这些都是我们在初始一两年内获得的所有知识。正式表示的世界知识实际上可以对机器的行为产生因果影响,并且还可以通过操纵符号来做所有事情,例如组合性。并将人们熟悉的事物以新的方式呈现出来。”

Brachman强调,他们在书中提出的假设在未来可以被推翻。  

Brachman说,“从长远来看,到底是预构建、预编码所有这些知识,还是让人工智能系统以不同的方式学习,我不知道。但作为一个假设和实验,我认为人工智能的下一步应该是尝试建立这些知识库,并让系统使用它们来处理日常生活中的意外事件,对如何处理熟悉和不熟悉的情况作出粗略的猜测。”

Brachman和Levesque的假设建立在先前创建大型符号常识知识库(例如Cyc)的基础之上,该项目可以追溯到上世纪80年代,并收集了数百万条关于世界的规则和概念。  

Brachman说,“我认为我们需要走得更远。我们需要关注自主决策机器如何在日常的决策环境中使用这些事物。积累事实知识并能够回答危险类型的问题是一回事;但在这个纷繁嘈杂的世界里工作,并能够理性、及时地应对不可预见的意外,则完全是另一回事。”

机器学习在常识中有作用吗?  

如何解决人工智能的“常识”问题

Brachman表示,基于机器学习的系统将继续在人工智能的感知方面发挥关键作用。  

他说,“我不会推动使用一阶谓词演算来处理人造视网膜上的像素或处理速度信号处理的符号操作系统。这些机器学习系统非常擅长低感官水平的识别任务,目前尚不清楚这些事物在认知链中有多高,但它们并没有走到最后,因为它们不会在人们在场景中看到的事物和自然语言之间形成概念和联系。”

神经网络和符号系统的结合是近年来越来越突出的一个想法。Gary Marcus、Luis Lamb和Joshua Tenenbaum以及其他科学家正在提议开发“神经符号”系统,将最好的符号系统和基于学习的系统结合在一起,以解决人工智能当前面临的挑战。  

尽管Brachman认同该领域正在进行的大部分工作,但他也表示,目前对混合人工智能的看法需要一些调整。

他说:“我认为目前的任何神经符号系统难以解释常识与更有条理、更深入的符号推理之间的差异,而这些符号推理是数学、繁重的规划和深度分析的基础。我希望在这个混合人工智能世界中看到的是真正考虑常识,让机器像人类一样利用常识,让它做与人类所做的相同的事情。”

原文标题:How to solve AI’s “common sense” problem​,作者:Ben Dickson​

© 版权声明

相关文章