著名学者、盖茨导师详解:一个简单的大脑模型,提供新的AI研究方向
发布时间: 2021-06-16
原文:A simple model of the brain provides new directions for AI research
作者:Ben Dickson(科技博客 # 负责人)
译者:青苹果
A simple model of the brain provides new directions for AI research
近日,谷歌研究(Google Research)举办了一场关于深度学习概念理解的在线研讨会。该研讨会由屡获殊荣的计算机科学家和神经科学家作了专题演讲,讨论了深度学习和神经科学的新发现如何有助于创建更好的 AI 系统。
虽然所有的演讲和谈论都值得关注,但有一场演讲尤其让人印象深刻:由世界顶尖计算机科学理论学家、哥德尔奖(Gödel Prize)和高德纳奖(Knuth Prize)获得者、哥伦比亚大学计算机科学教授 Christos Papadimitriou 发表的关于 “大脑中的单词表征” 的演讲。

Christos Papadimitriou,比尔・盖茨曾经的导师、著名的计算机科学家。因为复杂性理论、数据库理论和组合优化的贡献,他于 2002 年被任命为美国国家工程院院士,也是美国国家科学院和美国艺术与科学学院的成员。(图片来源:哥伦比亚大学)
随着人类对大脑中信息处理机制理解的日益加深,接下来在理解和参与对话方面,如何有助于创建更加鲁棒的算法是一个值得研讨的问题。据此,Papadimitriou 提出了一个简单而高效的模型,该模型解释了在大脑的不同区域如何相互交流,来解决认知的问题。
Papadimitriou 说,“现在发生的事情或许是世界上最伟大的奇迹之一。” 这里指的是他如何与观众进行交流。
大脑将结构化的知识转换成电波,这些电波通过不同的媒介传到听众的耳朵,然后再由大脑处理并转换成结构化的知识。
“毫无疑问,所有这些都发生在脉冲(spikes)、神经元(neurons)和突触(synapses)上。究竟是如何完成的呢?这是一个庞大的问题。“我相信在未来的 10 年里,我们将对这一切如何发生的细节都会有更好的了解。”
大脑中神经元的集合
认知和神经科学领域正试图弄清楚这个问题,即大脑中的神经活动是如何转化为语言、数学、逻辑、推理、计划和其他功能的。如果科学家们成功地用数学模型来阐述大脑的工作方式,那么他们将为创造能够模仿人类思维的 AI 系统打开一扇新的大门。
许多研究集中在单个神经元水平的活动。
直到几十年前,科学家们还认为单个神经元对应于单个思维。最流行的例子是 “祖母细胞”(“grandmother cell”)理论,该理论认为,当祖母出现时,在一眼望不到边际的亿万神经元里,有一个神经元被点亮激活,那就是祖母细胞。但最近的发现驳斥了这一说法,新研究声称并证明了每个概念都与大量神经元相关,而且连接不同概念的神经元之间可能存在重叠。
这些脑细胞群被称为 “集合”(assemblies),Papadimitriou 将其具体描述为 “一组高度连接、稳定的神经元,它们代表着某种具体的含义:一个词、一个想法、一个物体等等。”
神经科学家 György Buzsáki 形象的将这种集合描述为 “大脑的字母表”(the alphabet of the brain)。
大脑的数学模型
为了更好地理解集合的作用,Papadimitriou 提出了一种名为 “交互循环网络”(interacting recurrent nets)的大脑数学模型。
在这个模型下,大脑被分成有限数量的区域,每个区域包含几百万个神经元。每个区域都存在循环现象,这也就意味着神经元之间的相互作用。而且这些区域中的每一个都与其他几个区域有联系。此外,这些区域间的连接可以被激活或抑制。
该模型具有以下三个特性:随机性、可塑性和抑制性。
具体而言,随机性意味着每个大脑区域的神经元是随机连接的,此外,不同的区域之间随机连接;可塑性使神经元和区域之间的联系能够通过经验和训练进行调整;而抑制性意味着在任何时候,有限数量的神经元将处于兴奋状态。
Papadimitriou 将此描述为一个基于 “生命的三种主要力量” 的非常简单的数学模型。
Papadimitriou 与一组来自不同学术机构的科学家一起,在去年发表在同行评议的科学期刊《美国国家科学院院刊》(PNAS, Proceedings of the National Academy of Sciences)上的一篇论文中详细阐述了这一模型。论文名为 Brain computation by assemblies of neurons。

这篇论文写道:“我们在神经元和突触水平上对大脑的理解不断扩大,而在语言等认知现象的水平上,这两个尺度之间却有着巨大的差距。本文,我们介绍了有望弥合这一差距的计算系统:集合计算。它包括对神经元集合体的操作,这些操作似乎与认知现象有关,并且可以通过分析和模拟证明这种关系在神经元和突触水平上是可以合理实现的。”
集合方式是模型的关键组成部分,并实现了科学家们所谓的 “集合演算”(assembly calculus),这是一组能够处理、存储和检索信息的操作。
“这些操作并非空穴来风。我相信它们是真实的,” Papadimitriou 说道,“我们可以用数学方法证明并通过模拟验证这些操作对应于真实的行为…… 这些操作对应于大脑中观察到的行为。”Papadimitriou 和他的同事们假设集合演算是解释大脑认知功能的正确模型,如推理、计划和语言等。
他在谷歌深度学习会议的演讲中明确表示,“大部分认知能力都符合这一点。”
基于集合演算的自然语言处理
为了测试他们的思维模式,Papadimitriou 和他的同事们尝试实现了一个使用集合演算来解析英语句子的自然语言处理系统。
实际上,他们已经是在尝试创建一个 AI 系统,该系统模拟了大脑的某些区域,而这些区域储存着对应于词汇和语言理解的集合。

Papadimitriou 说:“如果一个单词序列激发了 lex 中的这些集合,这个引擎就会产生一个句子的解析。”
该系统只通过模拟大脑中的脉冲神经元工作,而这些脉冲是由集合演算操作引起的。
这些集合对应于大脑的内侧颞叶(MTL, Medial Temporal Lobe)、韦尼克区(Wernicke’s area)和布洛卡区(Broca’s area)三个区域,而上述的区域高度参与语言处理。该模型接收单词序列并生成语法树。实验表明,就神经元脉冲的速度和频率而言,他们的模型的活动与大脑中发生的事情非常地接近。
Papadimitriou 承认,这个人工智能模型仍然是初步阶段,缺少了语言的许多重要部分。研究人员正在制定计划来填补现有的语言空白。
但他们认为,所有这些部分都可以用集合演算来补充,只不过这个假设需要通过时间的检验。

“这是语言的神经基础吗?我们是不是生来左脑就有这样的东西” ,Papadimitriou 问道。关于语言是如何在人类大脑中运作的,以及如何与其他认知功能联系在一起,仍然有许多问题亟待解决。但 Papadimitriou 认为,集合模型使我们更接近于理解这些功能,并回答剩下的问题。
语言解析只是测试集合演算理论的一种方法。Papadimitriou 和他的合作者正在积极地研究其他的应用,包括儿童在很小的时候学习和规划的方式。
Papadimitriou 说:“假设是,集合演算或者类似的东西填补了访问逻辑的空白。换句话说,这正是对我们大脑计算方式的一种有用的抽象。”
Refrences:
1、#
2、#