第一个真正成功的AI系统是如何复兴的?
发布时间: 2021-04-28

原文:Want to know how the first truly successful AI system is being revived?
作者:Bernardo Pereira(# 作者)
译者:蒋笑
毋庸置疑,现如今 AI 的成功不是一蹴而就的。
与大部分人的认知相反,AI 早已不是一个新的研究领域,用来解释 AI 概念和想法的文章数量早已超过百万。而这一切是如何开始的呢?过去对现在的发展有什么影响?通常情况下,这是一个很难确切描述的话题。
但我们可以确定是,“Artificial Intelligence” 一词是在 1956 年的一次研讨会上第一次被引入的,这次会议也被认为是 AI 领域的发源地。
当时, 29 岁的 Marvin Minsky 刚完成在普林斯顿大学的博士论文,并在哈佛担任讲师。他的博士学位属于数学领域,攻读方向是使用神经网络进行大脑建模。他认为该领域缺乏一个被普遍认同的相关原则。跟有相同想法的是 John McCarthy,他跟 McCarthy 是同校同学位同龄的好友,并且他俩共同组织了一个研讨会。在工作室里,所有参与的研究人员将共同致力于一个叫 “Thinking Machine(思维机器)” 的领域,每个人负责一个分散的领域,其中就包括具有控制论和自动机理论等古老且几乎过时的学科。
在给项目命名时,由于 McCarthy 和 Minsky 不想偏爱任何特定学科,最终项目被命名为 “Dartmouth Summer Research Project on Artificial Intelligence”(达特茅斯人工智能夏季研究项目)。
因为那时候他们都还是初级学者,在研究领域并没有很大的影响力,所以他们选择跟 Rochester 和 Claude Shannon 合作。你可能不知道罗切斯特是谁,但你肯定知道他设计的 IBM 701,他还帮助开发了 LISP(一种编程语言,该语言是许多早期 AI 系统的基础)。Claude Shannon 则被称为信息理论之父。
就这样,哈佛大学的 Minsky,达特茅斯的 McCarthy,贝尔电话公司的 Shannon 和 IBM 的 Rochester 共同编写了一份提案,并在提案里他们为自己的研讨会募集资金。下面是提案的开头:

这份提案主要提出了在 AI 领域所面临的问题,例如如何定义神经网络和使用某种语言对计算机进行编程。同时,为了解决这些问题,需要投入最好和最聪明的人才。
在研讨会的参加者中,确实有一些才华横溢的人,例如《美丽心灵》中的数学家 John Nash 以及已经与 Walter Pitts 提出了第一个用于人工神经网络的体系结构的 Warren McCulloch。在研讨会头两个星期中,Allen Newell 和 Herbert A. Simon 也在场。
当时,Newell 和 Simon 正在从事一个特殊的项目:The Logic Theorist(逻辑理论家),这个项目是为了使用逻辑和推理来证明数学定理,稍后我们将看到他们是怎么工作的。

时间快进到 2006 年,我们到达特茅斯学院人工智能会议:未来五十年。
召开这次会议是为了庆祝 1956 年发生的达特茅斯研究计划,在回顾 AI 所取得成就的同时,预测 AI 在未来将要或应该如何发展。会议中,McCarthy 表示,尽管在 1956 年的时候,他们彼此并没有很好地合作,但大多数参与者都还坚持着自己的研究,并且这些研究仍在进行中。
这些研究就是 Allen Newell 和 Herbert Simon 的 Information Processing Language(IPL,信息处理语言)和 The Logic Theorist(下文简称 “LP”)研究。
第一个真正成功的 AI 程序
在 Allen Newell 刚开始研究的时候,他就给自己定下了让机器理解并效仿人类决策的目标,他对弄清人类解决问题的思维方式怀有浓厚的兴趣,并决心创建一个可以模仿人类问题的系统。
当然,Newell 不是在追求一个完美的系统,而是想要一种既能够模仿人类做出正确决策也能模仿人类做出错误的决定,任何非类人思维的因素都会被他忽略。
最终,他意识到人类的大部分思维是通过对特定符号的操作来完成的。比如说 “我现在正在计算机上写作,是因为我读了一本书引起了我的兴趣”,那么你会立即想到不同的实体(人,计算机,书本)。这些都有自己的属性(人有年龄,国籍,兴趣等),而这些实体之间也有某种关系(人看书,人操作计算机等)。
Herbert Simon 也很喜欢 Allen Newell 的想法,即使用符号系统(即操作符号的机器)来处理决策问题。
在 1954 年相识之后,他们开始了长达 40 年的学术合作。Herbert Simon 当时是卡内基理工学院的工业管理教授,Newell 直接去了匹兹堡在 Simon 的监督下开始攻读博士学位。
他们早期的项目之一是一台象棋游戏机,该机将使用启发式方法做出决策。
简而言之,启发式方法是精神上的捷径,使我们能够做出快速而合理的决策,就比如我们有过的经验和有根据的猜测都是启发式方法。这个项目为进一步开发象棋游戏计算机(如 Deep Thought,它就是 Deep Blue 的前身)打下了基础。
在 1996 年,Deep Blue 击败了世界冠军 Kasparov。这两个系统都是由 Carnegie Mellon Institute 的学生设计的,只不过 Deep Blue 在 IBM 的赞助下成功的创造出来了。
第一个真正成功的 AI 程序 ——LP,它深刻地影响了 AI 领域的发展。

让我们从原始报告中阐明的目标开始,了解它的中心思想之一:

来源:#
为 LT 设定的任务是证明某些表达式是公理,也就是说,它们可以通过应用特定的推理规则从一组原始句子或公理中推导出来。
公理是假设,换句话说是我们认为正确的陈述,而公理则通常被当作进一步推理的起点。翻阅一下牛津词典,我们发现其中对推论的解释是:
1. 可以从已知的内容中间接找到的东西。
2. 由已知的内容形成观点的行为或过程。
因此,推论是结论本身,同时也是得出结论的行为过程。
现在我们考虑以下三个句子:
1. 太阳是一颗恒星。
2. 地球绕太阳公转。
3. 然后,地球绕着恒星旋转。
前两个句子是原始公理,由前面两个句子我们可以推断出第三个句子,也就是结论。

一些逻辑规则,来源:#
LT 为证明定理所做的事情,是探索某种 “树”,其中树的根(起点)就是定理本身。树的第一个分支是我们可以从根中推断出的信息,接着,每当我们根据先前分支的信息推断出新内容时,都可以创建新分支。最终,我们获得了我们想要的结论,并且知道这个结论有着真实的前提(可以证明),即我们是在遵循逻辑规则的前提下得到的结论。
换句话说,我们想要保证第三个句子正确的必要条件,是要先找到前两个句子,然后进入我们的 “公理袋”,评估它们是否是正确的。在专业术语中,公理袋被称为知识库。“推断出所需内容” 的工作由推理引擎执行,推理引擎将逻辑规则应用于知识库并推断出新的知识(然后新的知识也可以添加到知识库中)。
知识库和推理机是 LT 的两个基本组成模块,类似的模块还有很多。
每次进行推断时,我们都会生成多个新前提,即 “树会长出很多分支”。并非所有的分支结构都会引导我们达到目标(即正确的公理),但我们不知道哪个分支结构会成功,所以一般的操作就是搜索所有分支,但这将导致成功的可能性成爆炸式的指数增长,并且在计算时间和资源方面的损耗也令人望而却步。
因此,限制搜索范围是程序必然的需求。那应该限制哪些分支呢?
为了解决这个问题,Simon 和 Newell 使用了启发式方法(heuristics)。
为了更好地理解启发式方法是如何被应用的,让我们想象一下这样一个画面:假如我们是一群蚂蚁,现在所在的位置是树根,但我们想拿到在顶端的树枝上的一个甜的苹果,于是在我们沿着树干往上爬的过程中,出现了三个分支,我们必须要选择去哪个。我们知道,如果一个分支上长有有苹果,那么它应该很粗壮,因此我们选择了三个分支中最粗的一个。
又爬了一段时间后,我们到达了一组新的分支,但现在它们粗细相当,我们又该做何选择呢?
这时候,我们发现有些树枝似乎是干的,但是有些树枝却是水分充沛的,而甜的苹果需要有水才能生长,所以我们选择那些水分充沛的分支。树枝的粗细和水份的多少只是帮助我们选择一条更可能成功的路径,这样的选择可能足够好,但不是绝对的最佳选择。蚂蚁的思维方式可能不是这样的,但我们人类会这么做。
现在,我们必须记住,所有这些都是当时的前沿研究,没有可用的软件包,也没有开源语言,当时甚至没有互联网。
因此,LT 的成功,是以开发一种可以处理符号列表的编程语言为基础的,这个语言就是 Information Processing Language(IPL,信息处理语言)。
开发工作由逻辑理论家团队与 Edward A. Feigenbaum 等研究生合作完成。后来,达特茅斯研讨会的组织者之一 John McCarthy(约翰・麦卡锡)以 IPL 为灵感,设计了 LISP 语言。一经问世,LISP 就成为 AI 领域的标准语言。
磕磕绊绊地前行
尽管 LT 被认为是第一个成功的 AI 程序,也证明了许多数学定理,但它并不是完美的。
在逻辑理论家定义的世界中,规则定义得非常好,与我们在现实世界中面临的情况大不相同。
此外,Herbert A. Simon(赫伯特・A・西蒙)还预测:
丨 1958 年提出 “十年内,数字计算机将成为世界象棋冠军”。
丨 1965 年提出 “机器将在 20 年内完成所有人类可以做的工作”。
可是到 40 年后的 90 年代后期,深蓝才终于击败了 Kasparov(卡斯帕罗夫)。AI 的发展速度远不如人们期盼的那么迅速,直到如今,想让机器完成我们做的所有工作,仍然有很长的路要走。正是因为发展的速度较为缓慢,在 70 年代后半叶,许多批评家就站出来引导舆论走向,于是 AI 领域迎来了第一个冬季。
但幸运的是,科学家和工程师们并没有放弃,他们一直在努力改进算法。因此,尽管 LT 存在一些缺陷,但它仍然为后来的 AI 系统(例如被称为 expert systems 专家系统)的开发作了重要的铺垫。
这些系统在 80 年代初期蓬勃发展,实现了从传染病诊断到未知有机分子的识别等多种功能,说明 AI 系统的应用是无穷无尽的。
那么,又是谁创造了 expert systems(专家系统)这个概念?
Feigenbaum(于 1994 年获得了图灵奖)在 1965 年第一次提出了 “专家系统” 的概念。大多数专家系统的基本组件都是我们之前了解的知识库和 Induction Machine 。当时开发它们的编程语言就是 LISP。
从 50 年代到 80 年代,符号主义是 AI 发展的主要方向,专家系统是其中最受欢迎的形式,与使用诸如深度学习之类的连接主义方法相比,它获得的投入资金更多。
在 70 年代和 80 年代初,仅在美国,使用 LISP 语言的机器市场就将达到 10 亿美元。这时,Minsky 和其他人发现了其中的一些不正常的现象,该领域再次出现了太多炒作,这是不利于其发展的。
开发者的期望过高,企业也过于乐观,而新闻界则像往常一样加剧了这一恶性循环。
这样的情况一直持续到了 80 年代末和 90 年代初,希望越大失望越大,符号主义 AI 及其专家系统就在这时失去了他们原有的地位, AI 领域也将迎来它的第二个冬天。
一飞冲天
自 90 年代后,尽管 AI 领域的热度出现了下降,但各种形式的发展(例如深蓝)仍在进行。
直到 2012 年,神经网络和深度学习风靡全球,因为它们在用于解决计算机视觉的问题时取得了极高的准确性。从那时起,连接主义就被视为未来发展的方向。
现在,IBM 和 MIT 努力将连接主义与符号主义相结合,目标是用这种方法解决深度学习难以解决的问题,例如以更少的数据和更高的透明度进行学习。我们只需要很少的数据就能学习到需要的信息,因为系统将能够根据它们已经拥有的知识进行预测。这意味着,如果您想检测图像上的某物,则无需向系统输入所有需要识别的事物的细节样本。就像一个小孩,在看到一头粉红色大象的时候,立即能认出来它是大象。
神经网络可能很难直接做到这一点。透明度被包含在符号主义 AI 的本质中,正如我们在蚂蚁寻找苹果的例子中所看到的那样,符号主义 AI 遵循逻辑步骤,而这些逻辑步骤也被记录下来,并且易于追溯。
为了获得理想的效果,许多人正在将致力于将连接主义和符号主义 AI 结合起来,这标志着 AI 领域即将开始一个新的篇章,但这个话题保持低炒作吗?
需要谨记的是,人工智能的发展伴随着许多人的努力,我们在讨论基于人工智能的系统能为人类提供什么样帮助时应该考虑到这一点:过多的承诺和错误的期望只会带来麻烦,甚至是更大失望。
Reference:
1、hhttps:#
2、 #