苦涩的教训 The Bitter LessonRich —— SuttonMarch 13, 2019
究其根本,是摩尔定律,或者更广义地说,是单位计算成本持续的指数级下降。过去,大多数人工智能研究的开展,都仿佛智能体可用的算力是恒定的(在这种情况下,利用人类知识似乎是提升性能的唯一途径之一)。但是,在一个比典型研究项目稍长的时间尺度上,海量算力必然会涌现。为了在短期内取得成效,研究人员试图利用他们对特定领域的人类知识,但从长远来看,真正起作用的只有对算力的利用。这两者(利用人类知识和利用算力)本不
翻译:
70年的人工智能研究给我们带来的最大教训是:利用计算能力的通用方法终将是最有效的,而且会遥遥领先。
究其根本,是摩尔定律,或者更广义地说,是单位计算成本持续的指数级下降。过去,大多数人工智能研究的开展,都仿佛智能体可用的算力是恒定的(在这种情况下,利用人类知识似乎是提升性能的唯一途径之一)。但是,在一个比典型研究项目稍长的时间尺度上,海量算力必然会涌现。
为了在短期内取得成效,研究人员试图利用他们对特定领域的人类知识,但从长远来看,真正起作用的只有对算力的利用。这两者(利用人类知识和利用算力)本不必相互排斥,但在实践中它们往往如此。花在一种方法上的时间,就不能花在另一种上。研究者会在心理上倾向于自己投入更多的那种方法。而且,基于人类知识的方法往往会使方法变得复杂,导致它们更难从利用算力的通用方法中获益。
人工智能研究者们后知后觉地认识到这一苦涩教训的例子不胜枚举,回顾其中最著名的几个是很有启发的。
在计算机国际象棋领域,1997年击败世界冠军卡斯帕罗夫的方法是基于大规模的深度搜索。当时,大多数计算机国际象棋研究者对此感到沮ci丧,他们长期以来追求的是利用人类对国际象棋特殊结构的理解来构建方法。当一个更简单的、基于搜索的方法,通过特殊的硬件和软件被证明远比人类知识的方法更有效时,那些“基于人类知识”的研究者们并没有坦然认输。他们说,“暴力”搜索这次也许赢了,但这并非一个通用的策略,而且无论如何,人类也不是这样下棋的。这些研究人员希望基于人类输入的方法获胜,当事与愿违时,他们倍感失望。
在计算机围棋领域,我们看到了类似的研究进展模式,只是晚了20年。最初,研究者投入巨大努力,试图利用人类知识或棋局的特殊特征来避免搜索,但一旦搜索被大规模地有效应用,所有这些努力都被证明是无关紧要的,甚至更糟。同样重要的是,通过自我对弈(self play)来学习价值函数(这在许多其他游戏中也是如此,甚至在国际象棋中也是,尽管在1997年首次击败世界冠军的程序中,学习的作用不大)。通过自我对弈进行学习,以及广义上的学习,就像搜索一样,它们都能让海量计算发挥作用。**搜索和学习是在AI研究中利用海量计算的两个最重要的技术类别。**在计算机围棋中,就像在计算机国际象棋中一样,研究人员最初的努力是利用人类的理解(以减少所需的搜索量),直到很晚之后,才通过拥抱搜索和学习取得了大得多的成功。
在语音识别领域,早在1970年代,DARPA就赞助了一场早期的竞赛。参赛者带来了大量利用人类知识的特殊方法——关于词汇、音素、人类声道等的知识。另一边是更新的、本质上更偏向统计学的方法,它们基于隐马尔可夫模型(HMM),并进行了更多的计算。结果,统计方法再次战胜了基于人类知识的方法。这导致了整个自然语言处理领域在接下来的几十年里逐渐发生了重大转变,统计和计算开始主导该领域。最近深度学习在语音识别领域的崛起,是朝着这个确定方向迈出的最新一步。深度学习方法更少地依赖人类知识,并使用更多的计算,再结合海量的训练数据,从而产生了性能大幅提升的语音识别系统。就像在棋类游戏中一样,研究人员总是试图让系统按照他们自己心智的运作方式去工作——他们试图将这些知识放入系统中——但最终这被证明是适得其反的,并且是对研究人员时间的巨大浪费,特别是当摩尔定律带来了海量算力,并且我们找到了驾驭它的方法时。
在计算机视觉领域,也存在类似的模式。早期的方法将视觉视为搜索边缘、广义圆柱体(generalized cylinders)或SIFT特征的过程。但如今这一切都被抛弃了。现代的深度学习神经网络只使用了卷积和某些不变性的概念,并且表现得好得多。
这是一个重大的教训。作为一个领域,我们仍未彻底吸取这个教训,因为我们仍在继续犯同样的错误。为了看清这一点并有效地抵制它,我们必须理解为什么这些错误如此诱人。我们必须吸取这个苦涩的教训:将“我们自认为的思考方式”构建到系统中,从长远来看是行不通的。
这个苦涩的教训基于以下历史观察:
人工智能研究者总想将(人类)知识构建到他们的智能体中;
这在短期内总是有帮助的,并给研究者带来个人满足感;
但从长远来看,这种方法会遇到瓶颈,甚至阻碍进一步的发展;
而突破性的进展最终来自相反的路径——基于搜索和学习来扩展计算能力。
最终的成功带有一丝苦涩,并且常常未被完全消化,因为它是一种超越了备受青睐的、以人为中心的方法所取得的成功。
我们应该从这个苦涩教训中学到的第一点是,通用方法具有的强大力量——这些方法能够随着计算能力的增加而持续扩展,即使在可用算力变得极其庞大时也是如此。目前看来能以这种方式无限扩展的两种方法是:搜索和学习。
应该从这个苦涩教训中学到的第二点是,心智(minds)的实际内容是极其、无可救药地复杂的。我们应该停止寻找简单的方法来思考心智的内容,比如用简单的方式去思考空间、物体、多智能体或对称性。所有这些都是外部世界中那些任意的、本质上复杂的一部分。它们不应该是被内置到系统中的东西,因为它们的复杂性是无穷无尽的;相反,我们应该只内置那些能够发现并捕获这种任意复杂性的**“元方法”(meta-methods)**。这些方法的本质是它们能找到好的近似解,但寻找近似解的过程应该由我们的方法来完成,而不是由我们(人类)来完成。
我们想要的是能像我们一样去发现的AI智能体,而不是那些只包含我们已经发现的东西的智能体。内置我们的发现,只会让我们更难看清发现的过程本身是如何完成的。
原文:
更多推荐



所有评论(0)