人大人科创
张江-硅谷创新创业平台

大数据和科技金融行业简报第六期


大数据推动人工智能发展

东京大学工学院的人工智能专家松尾丰(Yutaka Matsuo)在著书《人工智能能够超越人类吗?》[1]中总结了历史上人工智能备受关注的三次浪潮。

第一次人工智能浪潮

1956年达特摩斯会议(DartmouthSummer Research Project on Artificial Intelligence)上约翰·麦肯锡(John McCarthy)最早提出了“人工智能”的概念。在实践中第一次人工智能的浪潮出现在60年代末70年代初,可以称之为“推论、探索的时代”。这一时期人工智能的主题是使计算机程序学会逻辑推理、并有能力制定行动计划。常见的任务包括如何更有效的解决一些数理逻辑问题、如何更高效的移动积木(如汉诺塔问题)、如何下棋等等——某种意义上,最近使人工智能备受关注的Alpha Go所要解决的问题,本身上属于第一次人工智能浪潮的范畴。

这一时期有影响力的研究包括SRI国际[2]的Richard Fikes和Nils Nilsson在1971年开发的自动规划系统STRIPS (Stanford ResearchInstitute Problem Solver),它极大地影响了此后绝大多数的自动规划和调度系统(automatedplanning and scheduling)[3]。另一个重要的研究是Terry Winograd作为MIT的博士论文提交的SHRDLU,它是一个自然语言分析程序,用户可以与程序对话以移动各种虚拟物体(如立方体,锥状体等等)。该程序被认为是早期人工智能的及其成功的范例[4]。而Terry Winograd是Google联合创始人拉里·佩奇在斯坦福大学的导师,并曾在Google成立早期短暂担任其专职的技术顾问。

随着第一次人工智能浪潮的兴起,与人工智能、机器人相关的伦理问题也开始受到前所未有的关注。人们开始讨论机器人可能会面临的道德两难问题,比如最早在1969年由约翰·麦肯锡提出的框架问题(frameproblem[5]),它关注机器人在面临两难局面、或接收到相互矛盾的指令时能否采取合理行动的问题。

第二次人工智能浪潮

第二次人工智能浪潮的核心是“知识”,最主要的研究课题之一是自然语言(也就是我们人类日常所使用的语言)分析。通过将繁杂的知识(医学、法律等)按照逻辑整理出来,出现了很多专家型数据库产品(帮助医生诊断病状或帮助律师搜寻判例等等)。

如1984年启动的Cyc项目是一个致力于将各个领域的主要常识知识综合地集成在一起,并在此基础上实现知识推理的人工智能项目。主导者是Douglas Lenat,现在有免费发布的OpenCyc项目,以及主要面向人工智能研究者开放的ResearchCyc项目。Cyc知识库中表示的知识一般形如“每棵树都是植物”、“植物最终都会死亡”。当提出“树是否会死亡”的问题时,推理引擎可以得到正确的结论,并回答该问题[6]。该知识库中包含了320万条人类定义的断言,涉及30万个概念,15000个谓词。

这种将“知识”纳入计算机系统的项目可以被归类为 “语义网络”(semanticnetwork)。在互联网兴起后,也自然有人尝试将所有网络信息以可理解的形式加以结构化,其结果称之为语义互联网(semantic web)。以知识库所包含的知识内容为基准,可以进一步将类似系统划分两个层次,称之为重概念模型(heavy-weight ontology或formal ontology)和轻概念模型(light-weight ontology),前者要求逻辑与人类知识高度一致,而后者涵盖内容更为广泛,只要与人类知识不相抵触即可。

语义分析方面的开创性项目包括Joseph Weizenbaum在60年代于MIT人工智能研究所ELIZA。这是一个简单的人机文字交互程序,可以通过与患者“对话”,为患者提供类似精神咨询的服务。但是ELIZA的算法非常简单,遇到知识库所没有涵盖的内容就会用一般性的回答搪塞过去。ELIZA被认为是聊天机器人(chatterbot)的鼻祖。很多电子游戏也深受ELIZA的影响(甚至有些早期游戏的会话系统是直接从ELIZA程序派生出来的)。

70年代斯坦福大学开发的Mycin系统是一套实用很强的专家系统,用于辨别患者所感染细菌的种类,并给出相应的抗生素参考处方。主要作者是Edward Shortliffe(Mycin是他的博士论文的课题)以及他的导师Bruce G. Buchanan和Stanley N. Cohen。该系统采用了比较单纯的反向链(backward chaining)算法(后期升级了贝叶斯统计算法,进一步提高了精度),实现了一套具有约600条规则的逻辑判断系统,可以通过提问患者一系列的问题(大多数是关于症状的描述,一般患者只需要回答是或者不是),最终判断患者所感染的细菌的种类。并能够根据患者的基本情况(体重等)给出相应的抗生素处方。作为科研项目,Mycin并未真正在实践中使用(当时的医院里并没有普及电脑,而且从医疗监管和医学伦理方面如何看待计算机的使用也是一个尚未经过充分讨论)。但在斯坦福大学医学院进行的一次研究发现,Mycin在约69%的病例中提出了可接受的治疗方案,这一数值甚至优于使用相同标准评估的传染病专家的表现。

另外值得一提的是1982年日本通产省主导的“第五代计算机研究”[7]国家项目。该项目投入高达数百亿日元,采用了与IBM Watson类似的逻辑算法,最终达到了能够回答初中毕业考试试题的程度。但是作为国家项目,因为投入太过巨大却未能收获有实用价值的成果,引发了日本国内的批判,以致导致其后相当长一段时期日本政府不愿意资助人工智能项目。

对于计算机来说,学习单一科目(如数学)不难,可以由人类专家帮助制定学习规则,但是复数科目的“复合学习”非常困难。而后者的能力代表了“强人工智能”的本质。在这方面“第五代计算机研究”有其可取之处。

因为通过计算机系统分析和理解人类语言是第二次人工智能浪潮的一个重要目标,因此所谓“符号落地问题”(symbol grounding problem)再次受到关注。这个问题的核心是:计算机是否真能“理解”人类语言中隐含在符号(语言学家所说的“能指”,signifier)背后的概念(“所指”,signified)?这个问题早期的较为人熟知的例子是“中文房间”问题。符号落地问题与“强人工智能”(strong AI,也称artificial general intelligence)以及“奇点”(singularity)是否真的会出现等今天人们热议的问题密切相关。

第三次人工智能浪潮

这次浪潮的推动者是大数据和深度学习(deep learning),我们正处于这个阶段。

深度学习所依赖的是我们称之为深度人工神经网络(deep neural network)的计算方式。最适合深度学习算法解决的一类问题是“特征量学习”(或称特征表现学习),有计算机专家主张可以把深度学习等同于特征量学习。

卡内基梅隆大学的计算机学教授Tom Mitchell在其经典教科书《机器学习》中举了一个生产线上如何从众多鱼中识别鲱鱼的例子。我们可以通过传感器获取每条鱼的长度、重量、鳞片的反光程度等特征,然后用简单的统计学的方法评估它是鲱鱼的概率是多少。而当这个概率超过某一个阈值时我们可以判断它就是鲱鱼。这个简单的例子中,采集哪些数据(特征量)由人类专家决定,所以称之为“专家监督型”算法。这种学习模型在机器学习中是相对比较简单的。

而在另外一些领域,从最简单的手写文字识别,到声音、图像识别、视频分析等领域,可能无法通过人类专家指定特征量。这时候就需要通过人工神经网络学习现存的数据,从中判断哪些特征量最为重要、以及这些特征量对最终作出判断有多大的影响。最终根据学习的结果来对新的数据进行分析和判断。

对于这种“无监督型”的深度学习而言,作为“学习”对象的数据集的数量和质量非常关键。以英文手写文字识别为例(这也是机器学习课程最常见的入门案例),最常用的是MNIST数据集。它以美国国家调查局收集的手写样本为主,包含了6000张手写文字图片及其所对应的字母。(这里有一个代码示例,展示了如何使用Google提供的开源深度学习引擎TensorFlow学习该数据集)。同样的,可以使用标记了标签(如汽车、水杯等)的数以万计的图片训练深度学习引擎“理解”这些概念,并判断一张新图片里是否包含了这些事物,甚至描述出一张图片中包含了哪些事物[8]

更高层次的深度学习引擎甚至可以在不做任何标签的情况下“学习”,比如Google的猫脸识别项目,使用16000个CPU(大约并联了1000台电脑)模拟了10亿个节点的人工神经网络,在“观看”了一周YouTube视频之后“理解”了猫的概念(Google官方博客完整论文)。

人工神经网络的早期概念在40年代就出现了,1954年MIT的布莱顿·法利和韦斯利·克拉克首次使用计算机模拟了一个赫布型学习网络[9]。受限于数据和计算能力,人工神经网络的研究在70年代陷入停滞[10]

而深度学习之所以能够在2012年之后进入一次新的爆发期,除了计算能力(特别是图形处理器GPU的技术进步)的提升之外,互联网提供的大量数据是一个关键驱动因素。上面提到的图片识别、视频识别是一个典型的例子(图片、视频都是数亿以万计的网友提供的),而IBM的Watson在算法上与日本80年代的第五代计算机项目区别并不大,但是却能够在知识竞赛节目中战胜人类选手,维基百科(Wikipedia)等互联网用户共同维护的海量信息起到了关键作用。

深度学习最为令世人印象深刻的案例是Google旗下Deep Mind公司的Alpha Go战胜人类围棋冠军李世乭。但Alpha Go所采用的的算法(深度学习网络和蒙特卡洛模拟方法)并不高深,相反对17万盘高水平围棋对局的学习则非常关键。而后者只有在互联网普及、专业棋手也开始日常性的在网上对弈的今天才有可能积累起来。

因此,评估具体人工智能项目的关键在于评估其所依赖的数据。虽然物联网和可穿戴设备的普及会带来数据的爆发式增加,但这些数据(往往是代表了明确特征量的结构化数据)嫁接人工智能能否产生新的、革命性的结果,仍需要具体问题具体分析。

黄 巍2017年3月25日



[1]《人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書)》,角川EPUB選書,2015年3月。

[2] SRI International是位于加利福尼亚的非营利研究机构,由斯坦福大学的多位董事设立于1946年,用于支援当地的创新活动。

[3] https://www.wikiwand.com/en/STRIPS

[4] https://www.wikiwand.com/en/SHRDLU;http://hci.stanford.edu/winograd/shrdlu/

[5] https://www.wikiwand.com/en/Frame_problem

[6] https://www.wikiwand.com/zh-cn/Cyc

[7]这里第一代指的是真空管计算机,第二代是半导体,第三、四代分别是集成电路和超大规模集成电路。

[8]可以参照这一领域的著名科学家李飞飞在TED的演讲

[9]赫布理论(Hebbian theory)解释了脑神经元在学习的过程中发生的变化,即突触前神经元向突触后神经元的持续重复的刺激,可以导致突触传递效能的增加。赫布型学习网络模拟了这种机制。

[10]https://www.wikiwand.com/zh/%E4%BA%BA%E5%B7%A5%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C