文章主题:AI科技评论, 清华大学脑与智能实验室, 学术研讨会, 脑与智能
关注「AI科技评论」(微信ID:aitechtalk),了解更多AI前沿咨询
微信原文:
在12月27日,我国知名学府清华大学脑与智能实验室成功地举办了一场以“从AlphaGo到通用人工智能:脑科学与人工智能”为主题的学术研讨会,这是该实验室自12月15日成立以来首次举办的研讨会。
在最近的研讨会上,来自不同领域的十位专家,分别从脑科学、神经科学、人工智能等多个角度深入探讨了「脑与智能」的主题。在这些报告中,张钹院士的《AI和神经科学》主题尤其引发了我们的深思。
在这份报告中,张钹院士详细地阐述了当前人工智能领域的两种主要类型:符号模型和亚符号模型(即连接主义)。符号模型基础在于知识,而亚符号模型则是建立在数据之上。然而,他明确指出这两种方法并不能代表真正的智能。为了深入探索真正的智能,张院士提出了两条研究路径。第一条是借鉴神经科学的研究方法,深入探讨人类大脑中神经网络的运作机制。第二条则是致力于构建一个能将知识和数据融合在一起的模型。
在他的总结中,他强调了当前人工智能研究领域所处的关键阶段。他认为,教授们不应该仅仅关注AI领域的商业机会和实际应用,而应该更加敏锐地捕捉到AI技术所蕴含的无限可能性。尤其是现在,我们正处于探索真正智能的黄金时期,这是科学研究人员不容错过的机遇。
雷锋网根据张钹院士的演讲内容整理如下:

雷锋网注:张钹院士的报告全程英文,但最后用中文做了点睛之笔。
在她的演讲中,张钹院士首先深入探讨了智能的本质。她认为,智能的实现主要包括三个关键要素:感知环境、理性思考以及采取行动。换言之,只有当一个智能体具备了感知周围环境的能力,能够进行理性的思考,并在此基础上采取有效的行动时,它才能有机会实现自身的目标。
当前的AI模型主要可分为两类:符号模型(Symbolic model)与亚符号模型(Sub-symbolic model),亦即连接主义(Connectionism)。
符号模型
符号模型这一概念的基本理念可追溯至1955年,由J. McCarthy等学者提出。他们主张,人工智能领域的研究建立在一种设想之上,即学习或其他类型的智能特性可以被精确定义。为实现这一目标,他们提出了两个核心假设:
物理符号系统假设:物理符号系统是智能的充分必要条件;
人脑和计算机都是物理符号系统,认知过程就是在符号表示上的运算。
在1976年,Newell和Simon提出了一种符号模型,该模型主要分为两个部分:知识库与推理机。这种人工智能方法更多地依赖于知识以及遵循规则。

在McCarthy 等人提出符号模型之后大约 40 年,1997 年 IBM 推出的基于符号模型的 IBM 深蓝(Deep Blue)在国际象棋比赛中以 2 赢 1 败 3 平打败了当时的世界冠军 Kaspanov。在深蓝的系统中,包含了 700,000 份人类大师的棋谱,这些棋谱分别用 V-value 函数来表示,函数有 8000 多个变量。

IBM 沃森的结构
2011 年,IBM 沃森在综艺节目《危险边缘》中打败了最高奖金得主布拉德·鲁特尔和连胜纪录保持者肯·詹宁斯。同样它也是基于知识的符号型 AI 系统,它的知识来源于百科全书、字典 、词典、新闻、文学作品以及维基百科的全部文本,在其 4TB 的磁盘中包含了 2 亿页结构化和非结构化的信息。
以Watson为代表的新一代的基于知识的符号模型系统相对之前有少许变化。其一是知识库中的知识表示变成多样化;其二是多推理机(Multi-Inference Engines)结构;其三是增加了大众知识(来自互联网)。

但是这种知识驱动的符号模型也有其局限之处,如下:
有很多人类行为(知识)并不能精确描述,例如常识;知识库总是有限的,它不能包含所有的信息;知识是确定的;它只能描述特定的领域;大量知识不能做到定量化(例如质量)。
所以这种模型只能在宏观层面上用来模拟人类的某些行为。
亚符号模型/连接主义
1965 年,在达特茅斯夏季研讨会的提议文件
的问题 2 中说到「怎么安排一组(假设的)神经元来形成概念?……这个问题仍需要更多的理论工作。」
对于神经网络,大致有两个时期。第一个为浅层神经网络(Shallow Neural Network),这个网络只有一层隐藏层。在这种网络中,需要手工特征(Hand-crafted Features)来构建分类器,因此它需要有领域的知识。
另外一种是在 2000-2006 年间,由 Igor Aizenberg 和 Geoff Hinton 完成。这个网络有更多的隐藏层,称为多隐藏层(深度)神经网络。多隐藏层的结构带来了很大的变化。首先是,我们可以用 Raw data 代替手工特征,所以领域知识也就不再是必须的了。以图像为例,我们只需要将图像按照 pixel 的格式输入即可。其次,深度神经网络让亚符号模型的表现有了很大的提高。再次,在 90 年代 AI 研究人员发展了一系列成熟的统计数学工具,这在模型中有很多表现,让模型变得更具可度量和可验证性。另外,这个模型有很清晰的神经科学的解释。
这种 AI 系统主要是基于数据驱动。只要有数据,我们不需要有太多的领域知识就可以在任务中做得很好。基于深度神经网络的例子很多,例如 AlphaGo。相比于人类的神经网络,它仍有一系列的缺点。如下:

以 2014 年 Goodfellow 发表的《Adversarial examples and adversarial training》为例,输入的图片加上一点点的噪声,AI 系统就将一张明显是熊猫的图片以 99.3% 的置信度识别成长臂猿。所以目前的 AI 系统在 robustness 上还是非常弱的。

这种 AI 系统只是一种分类机器,是一个 AI without Understanding,所以仅仅依靠基于数据驱动的深度学习很难产生真正的智能,也远没有触及智能的核心。若想做到真正的智能,就必须

人工智能的核心
前面说道,深度学习并没有触及到人工智能的核心,那么人工智能的核心是什么呢?张钹院士认为主要表现为以下五个方面:
在缺乏知识和数据的情况下依然能够完成任务;在信息不完善(甚至缺乏信息)的情况下依然能够完成任务;能够处理非确定性的任务;能够处理动态任务;能够处理多领域和多任务。
AI 研究的新趋势
基于对上面的讨论,可以看出目前 AI 的研究有两种,基于知识的符号模型和基于数据的亚符号模型(连接主义)。张钹院士认为现在在 AI 研究中渐渐出现了一种新的趋势,即建立一种同时基于知识和数据的 AI 系统。
他认为,处理知识是人类所擅长的,而处理数据是计算机所擅长的。如果能够将二者结合起来,一定能够构建出一个比人类更加智能的系统。如何去做呢?

现在我们有两种基本的 AI 方法。一种是基于语义符号的方法,一般用在处理文本和语言,我们会构建一个语义符号空间(Semantic Symbolic Space)。另一种是基于数据的特性向量的方法,用来处理图像和语音,我们会构建一个特性向量空间(Feature Vector Space)。
因此我们可以构建一个新的空间,叫做语义向量空间(Semantic Vector Space),即将语义符号空间进行 embedding 处理或者将特性向量空间进行 Raising 处理。通过这种方法,我们将可以统一处理 text、language、image 和 speech。
张钹院士认为在这些方面,尤其是在将特性向量空间 raising 到语义空间上,我们应该向神经科学学习。例如脑神经中有 feedback connection、lateral connections、sparse firing、attention mechanism、multi-model、memory 等机制,这些都值得设计 AI 系统的人员去注意和学习。
研究案例
张钹院士介绍了四个案例来说明如何向神经科学学习,以及如何构建同时基于知识和数据的 AI 系统。
一、Sparse Firing + HMAX
论文:Sparsity-Regularized HMAX for Visual Recognition
这项工作的一个创新点在于将神经科学中的发现 Sparse firing 和 HMAX 结合在一起。

HMAX 模型是 Riesenhuber, M. & Poggio, T 等人于 1999 年提出,其理念是模仿人的认知,由点到线到面逐级抽象,还原高级特性。HMAX 是计算机视觉中非常重要的一个模型。
Sparse firing 是神经科学中的一个概念。神经科学的研究表明在人的大脑中,针对一个刺激大多数神经元是沉默的。例如依照大脑内细胞的密度、探针大小以及探针可以测量到的信号距离来估计,一根探针应该可以测到周围十个甚至上百个神经元的信号,但实际情况通常只能测到几个神经元信号,90% 以上的神经元是测不到的。这就是说针对一个刺激,只有少数(稀疏)神经元是被激活的。
大脑神经元的这种 sparse firing 激活方式,或者说 sparse coding 方式有许多优点,一方面可以用少量的神经元对大量的特征进行编码,另一方面也能降低解码误判以及能量损耗等等。
这篇文章的工作正是将 Sparse firing 与 HMAX 模型相结合,应用于图像识别任务当中。工作非常有意思,感兴趣的读者不妨一读。
二、视觉识别验证码
这篇文章于今年 10 月份发表于《Science》期刊,是人工智能向神经科学学习的一个范例。
目前的机器学习模型在图像识别的任务中往往需要大量的训练数据集,而训练的结果往往只能应用于特定的领域内。但人类的视觉智能则可以通过少数样本(甚至不需要样本)来学习并能够很轻易地迁移到完全不同的情景当中。所以向人类的视觉神经机理学习或许是机器学习模型进一步发展的方向。
在这篇文章中,知名的人工智能创业公司 Vicarious 就通过人类视觉一些工作机理的启发,构建了一个层级模型,他们称之为「递归皮层网络」(Recursive Cortical Network, RCN)。在模型中他们引入了视觉概率生成的模型框架,其中基于消息传送(message-passing)的推断,以统一的方式处理图像的识别、分割和推理(Reasoning)。

这个方法表现出了非常优秀的泛化和遮挡推理(occlusion-reasoning)能力,在困难的场景文字识别任务上远优于深度神经网络,且具有 300 倍的数据效率(data efficient)优势。其实验结果如下表

在 reCAPTCHA 的验证码单词识别准确率已经可以达到 66.6%,BotDetect 为 64.4%,雅虎上为 57.4%,PayPal 上为 57.1%。
三、DNN 的可解释性
论文:Improving interpretability of deep neural networks with semantic information (2017)
这篇文章是张钹院士组在 CVPR 2017 上的一篇论文,是「Knowledge+data」的一个典型范例。
在传统的图像识别的 DNN 模型中,我们输入图片,得到描述性结果,但是我们却不知道为什么会得到这样的结果,也不知道隐藏层中都是什么 feature,或者当得到一个错误结果时我们不知道为什么会错。

这篇文章的研究主要方法就是先获得一些人类对图片的描述作为语义信息数据;将这些数据和图片同时送入到 DNN 模型中进行训练;这里每一个神经元都会与一个 topic 进行关联,于是整个网络变得具有可解释性。

四、Zero-shot 视频识别
论文:Recognizing an Action Using Its Name: A Knowledge-Based Approach
这篇文章的工作也是一个典型的「Knowledge+data」范例。
现有的动作识别算法需要一组正面的示例来训练每个动作的分类器。但是,我们知道,动作类的数量非常大,用户的查询变化也很大。预先定义所有可能的行动类别是不切实际的。
在本文中作者提出了一种不需要正面示例的方法,通常这种方法被称为「Zero-shot Learning」。目前的零点学习模式通常训练一系列属性分类器,然后根据属性表示识别目标动作。为了确保特定动作类别的最大覆盖范围,基于属性的方法需要大量可靠且准确的属性分类器,这在现实世界中通常是不可用的。
在这篇论文中,作者提出的方法只需要一个行动名称作为输入来识别感兴趣的行为,没有任何预先训练的属性分类器和正面的示例。

给定一个动作名称后,首先根据外部知识(例如 Wikipedia)建立一个类比池,类比池中的每个动作都会与不同层次的目标动作有关。
从外部知识推断的相关性信息可能是嘈杂的。所以他们又提出一种算法,即自适应多模型秩保持映射(Adaptive multi-model rank-preserving mapping model, AMRM)来训练动作识别的分类器,能够自适应地评估类比池中每个图片的相关性。
~~~~~~~~~~~~~~~~~~~
以上四个例子有两类,一类是向神经科学学习的结果;一类是基于「数据+知识」的结果。
张钹院士介绍说他们工作的一个思路就是:数据+知识=统计学习模型。其中知识包括先验模型、逻辑规则、表示学习、强健的统计约束等。

此外他还提到了的 Bayesian Deep Learning 的概念。

最后他认为我们目前的 AI 系统是在介观层面上模仿了人类,我们还需要向神经科学学习和合作。在 AI 系统的研究中应当将知识驱动和数据驱动结合起来,将理性行为和感性行为结合起来。
总结(划重点)
张钹院士演讲的亮点在最后的 summary,原文整理如下(稍作修改):

鲁迅说到,不同的人对《红楼梦》有不同的看法,经济学家看到《易》,道学家看到淫,才子看到缠绵,革命家看到反满,流言家看到宫闱秘事。
现在的人工智能有点儿像《红楼梦》,不同的人有不同的看法。企业家看到商机,科学家(霍金)看到危险,工程师看到应用前景,老百姓看到 AlphaGo 打败李世石。我现在就说教授们应该看到什么,这也是我今天报告希望大家能够看到的。
看到什么呢?就是——AI 科学的曙光。
大家看待 AI,有两个过程。过去是低看了 AI,觉得 AI 没什么。现在 AlphaGo 出来以后,突然 AI 上天了,大家对它仰视了。我告诉大家,这两个都不对。大家要平视 AI。
为什么过去对 AI 有这个印象呢?确实,过去的 AI 我们没有资格去谈,因为我们只有猜测、假设,只有 case by case。我们没有什么本事。再加上有些人炒作,不靠谱的东西很多。所以过去我们不能给大家谈。
现在我们有希望给大家谈的,就是刚才讲的。现在从深度学习中大家看到的是广泛的应用。但是没有看到深度学习给我们点燃了一个曙光,就是人工智能完全可以用建立数学模型的方法来做。当然它也告诉我们,光用数学的方法来建造人工智能是不行的,例如深度学习获得的结果只是一个机械的分类器,这跟人的认知或感知完全是两码事。
那么我们接下来怎么走向建造人工智能的数学模型这一步呢?只有两条路。一条就是向脑科学学习,看大脑里面是怎么做到智能的。大脑里面也是使用神经网络, 为什么它可以认识「鸟」,而计算机就不行呢?我们很清楚,计算机的这个神经网络和大脑的神经网络不可同日而语。我们必须向大脑学习。
另一条路就是把知识和数据结合起来。大家想一想,人的智能主要不是来自于数据,而是来自于知识。但是为什么大家要把数据看得这么重呢?这是因为数据很多,而且计算机最擅长的就是数据的处理。所以就给大家一个模糊的认识,以为数据决定一切。这是错的。但是这也给我们提了个希望,既然计算机搞数据厉害,人利用知识厉害,如果我们能够让这两个结合起来,我们就有希望做出比人还要好的系统。
问:张老师您好。您最后一个 slice 说在 AI 中商人看到了商机等等。所以我特别想知道您最后问的问题的答案,教授们应该看到的什么?
张钹:教授应当看到的是——去做人工智能的基础问题。我们不能去看那个商机,商机应该让企业家去看。我现在认为人工智能正处在突破的前夜。深度学习不是我们的突破,深度学习只是展示了突破的希望,因为深度学习并没有构造真正的 Intelligence。
现在我们有机会触及到 the core of intelligence。在什么情况下我们才有可能触碰 the core of intelligence 呢?就是刚才我讲那 5 个条件,即
在缺乏知识和数据的情况下依然能够完成任务;在信息不完善(甚至缺乏信息)的情况下依然能够完成任务;能够处理非确定性的任务;能够处理动态任务;能够处理多领域和多任务。
现在的人工智能做的并不是真正的智能。它是选择了那些确定性的、静态的问题,这个本来就是计算机会干的事。计算机不会干的事是随机应变,举一反三,由表及里,这才是智能的本质。我们过去做的系统,没法做到智能的本质,因为我们还不知道。深度学习给了我们一个提示,就是我们已经接触到了智能的本质。那么我们沿着这个去做,才有希望。
大家现在都在消费深度学习。我们都知道,如果用深度学习来做识别,把石头看成人没有关系;但是做决策,把敌人看成朋友是不允许的。深度学习不解决这个问题,它绝对会产生大错。这是它本质造成的。
所以我一直说,到目前为止,在复杂路况下,还很难实现真正的无人车,「无人车」旁边还需要坐一个人。为什么?稍微懂点人工智能的人都知道,目前人工智能还不能解决突发事件。
过去我们没有能力做到真正智能这一点。而今天是科学研究人员的一个机会。希望大家去做。如果大家持续去做,我相信会有新的发现。现在很多人看到了商机,看到了应用,看到了计算机打败李世石,但却很少人有看到这一点。局外人看不清,作为局内人,我提醒大家,教授应当看到——AI 科学的曙光。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!