现代人工智能涉及计算机科学、数学、神经科学、物理学、语言学、哲学等众多学科,是典型的交叉学科,关于它的定义一直存有不同的观点。例如,诺维格和拉塞尔合著的《人工智能——一种现代方法》中提到,人工智能是“像人一样思考的系统、像人一样行动的系统、理性地思考的系统、理性地行动的系统”。大英百科全书中把人工智能定义为“数字计算机或者数字计算机控制的机器人执行通常与智能生物体相关的任务的能力”。
2018年1月,在国家标准化管理委员会的指导下,由中国电子技术标准化研究院编写并发布了《人工智能标准化白皮书(2018版)》,其中对人工智能做了如下定义。
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
这个定义包含如下几层含义。
第一,人工智能的实现工具是数字计算机或者数字计算机控制的机器。即数字计算机是实现人工智能的核心,通过强大的计算能力和算法,起到类似于“人类大脑”的作用。计算能力和算法都依赖于人类技术进步,这充分体现了“人工”的作用。
第二,人工智能中的“智能”水平具有不同的级别,从模拟、延伸到扩展人的智能,从感知环境、获取知识到使用知识。人工智能的最高级别是可以超越人类智力水平的。
第三,人工智能的具体表现形式包括理论、方法、技术以及应用系统。
现代人工智能被分为弱人工智能和强人工智能。根据《人工智能标准化白皮书(2018版)》的描述,弱人工智能是指不能真正实现推理和解决问题的智能机器,并不真正拥有智能,也不会有自主意识;而强人工智能是指真正能思考的智能机器,并且认为这样的机器是有知觉和自我意识的。强人工智能不仅在哲学和伦理学上存在争议,而且相关技术的研究工作也困难重重,当前的主流观点认为,未来几十年内强人工智能难以实现。
现代人工智能的发展首先得益于对人工智能的认识在思想层面的进步,逐渐从追求“形似”转而思考如何完成“神似”的目标。其中,关于形式推理的研究是这种进化的基础,中国、印度以及希腊等著名的哲学家早在一千多年以前就已经开始了这方面的思考。古希腊伟大的哲学家亚里士多德提出的三段论演绎法至今仍是形式推理的基础,欧几里得的《几何原本》也是早期形式推理的典范作品。与牛顿共同发明了微积分的德国数学家莱布尼茨认为人类的思想可以通过机械计算的方式实现。他从理论上研究了形式符号系统,并且还实际制造了可以计算16位乘法的手摇计算机(图1-7),从这个意义上讲,他堪称现代计算机的先驱。
图1-7
进入20世纪后,随着电子计算机技术的发展,人工智能进入快速发展时期。在人工智能领域对后世产生极大影响的一位人物是英国的数学家、逻辑学家艾伦·图灵(图1-8),他被称为“计算机科学和人工智能之父”。在1936年的一篇题为《论数字计算在决断难题中的应用》的论文中,他提出了“图灵机”的设想,图灵的计算理论还证明了二进制的数字信号可以描述任何形式的数学推理。他的这些理论奠定了现代电子计算机的理论基础。1950年他又发表了论文《计算机器与智能》,在其中提出了判断机器是否具有智能的试验方法,即著名的“图灵测试”。论文中还提到了机器学习、遗传算法、强化学习等在现代人工智能领域仍在研究和使用的概念。图灵的这些思想是人工智能的直接起源之一,也是人工智能领域十分重要的理论分支和研究方法。值得一提的是,为了纪念图灵的巨大贡献,美国计算机协会于1966年设立了“图灵奖”,以表彰在计算机科学中做出突出贡献的研究工作者,这个奖项被誉为“计算机界的诺贝尔奖”。
图1-8
另一位在现代人工智能起源之际做出重要贡献的人物是美国的应用数学家、“控制论之父”诺伯特·维纳(图1-9),他在20世纪40年代开始思考如何使计算机像大脑一样工作。他的一个重要贡献是把计算机看作一个进行信息处理和信息转换的系统,并且从控制论的角度,特别强调了反馈的作用,认为所有智能活动都是反馈机制的结果,从而可以使用机器模拟这些活动,维纳因此被视为人工智能“行动主义”学派的奠基人。
图1-9
历史的车轮滚滚前进,来到1956年。这一年在美国新罕布什尔州的达特茅斯学院召开了在人工智能发展史上具有里程碑意义的会议——达特茅斯会议,这次会议后来被广泛认为是现代人工智能诞生的标志(图1-10)。
图1-10
会议由约翰·麦卡锡、马文·明斯基、克劳德·香农(图1-11)以及内森·罗彻斯特共同发起,他们邀请了志同道合的专家在达特茅斯学院共同探讨人工智能。这次会议之所以被当作现代人工智能诞生的标志,一是因为正是在这次会议中,麦卡锡说服了参会者使用人工智能(Artificial Intelligence)这一术语。二是在会议进程中,与会者从学术角度对人工智能进行了严肃而深入的探讨。会议并非以传统的报告相关研究成果的方式展开,而是热烈地探讨了当时尚未解决甚至尚未开展研究的问题,包括自动化计算机、如何使计算机自我提升、自然语言理解、神经网络、机器学习等经典的人工智能问题。三是会议的组织者与参加者在当时以及随后人工智能的第一个“黄金十年”中,都是举足轻重的人物。他们或者在学界开创了人工智能的重要研究方向,或者在业界引领技术的潮流,都为人工智能的发展做出了巨大的贡献。会议的发起人麦卡锡是人工智能领域中重要的LISP语言的主要发明者;麦卡锡还和明斯基一起在麻省理工学院领导了MAC项目,这个项目后来发展成世界上第一个人工智能实验室——MIT AI Lab;西蒙和纽维尔开创了人工智能的一个学派——符号派;塞弗里奇是模式识别(人工智能的一个重要领域)的奠基人,写出了第一个可工作的人工智能程序;罗彻斯特是IBM第一代通用机701的主设计师;香农单枪匹马开创了信息论这一新的学科,这是整个数字化时代的奠基石,人们日常使用的手机通信、互联网、有线电视等都基于此,现在人工智能领域的很多重要方法同样需要用到香农的关于如何理解信息的想法。参加这次会议的10位正式成员中,有4人(麦卡锡、明斯基、西蒙、纽维尔)获得了计算机界的最高奖项——图灵奖。香农在当时已经是著名的科学家,他没有获得图灵奖不是因为他的成就不够大,而是因为他作为信息论的创始人,当时在科学界的地位已与图灵并驾齐驱,为了纪念他,通信领域的最高奖被命名为“香农奖”。
图1-11
达特茅斯会议之后,人工智能的发展进入第一个黄金时期并持续到1974年。这十多年是一个人工智能大发展的时代,期间,现在使用的主流人工智能方法,如联结主义、专家系统、推理系统等在当时都出现了雏形,计算机已经可以解决简单的代数应用题,证明一些几何定理,进行比较初级的人机对话。
从当时的文献记载可以看出,研究者普遍对人工智能持有乐观的态度。如1958年,西蒙和纽维尔提出:“十年之内,数字计算机将成为国际象棋世界冠军。”“十年之内,数字计算机将发现并证明一个重要的数学定理。”1965年,西蒙又说:“二十年内,机器将能完成人能做到的一切工作。”1967年,明斯基认为:“一代之内……创造‘人工智能’的问题将获得实质上的解决。”1970年,明斯基说道:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”
这一方面展现了第一代学者对人工智能发展趋势的预测能力,因为在某种程度上,他们的预言在今天都已经变成了现实。但是另一方面也显示出当时的学者对人工智能难度的评估是不足的,因为上述预言并未在预言的期限内实现,这令人们对人工智能的乐观期望遭受到严重的打击,并最终导致1974年到1980年,人工智能的发展进入第一次低谷。
低谷的含义是多方面的。首先,由于研究思路的局限性、算法的缺陷、计算能力的不足,使得人工智能的研究工作遇到了瓶颈。人们发现即使是最杰出的人工智能程序,也只能解决非常简单的问题。依据当时的计算机处理速度和内存容量,很多算法的实现几乎需要无限长的时间。例如,对人类来说非常简单的人脸识别任务,在当时实现起来极端困难,几乎未能取得任何实质性的进展。另外,对人工智能提供资助的机构,如英国政府、美国国防高级研究计划局(Defense Advanced Research Projects Agency,DARPA)等,由于研究目标不能实现,逐渐停止了对人工智能项目的资助,使得科研工作难以为继。值得一提的是,当时通过模拟人类神经元结构提出的感知器被发现有严重的缺陷,从而受到强烈批评,联结主义作为人工智能的实现方法之一也受到了忽视,而这恰恰是当今人工智能的主角——深度学习的基础。
进入20世纪80年代,人工智能重新回到人们的视线。1980年卡内基·梅隆大学的麦克达默特为数字设备公司(DEC)设计了名为XCON的专家系统,在1986年以前,这套系统每年可为DEC节省四千万美元的费用,“专家系统”的商用价值被广泛接受,人工智能的研究又开始复苏。1981年,日本经济产业省拨款八亿五千万美元支持第五代计算机项目,目标是造出能与人对话、翻译语言、解释图像,并像人一样进行推理的机器。受到日本的刺激,其他国家也纷纷做出响应。英国开始了耗资三亿五千万英镑的Alvey工程,美国微电子与计算机技术公司(Microelectronics and Computer Technology Corporation,MCC)开始向人工智能和信息技术的大规模项目提供资助,DARPA也增加了人工智能项目的资助,人工智能重新回到了快速发展的轨道。
这次人工智能的热潮以专家系统为主导,它通过从特定学科中推演出的逻辑规则来实现回答或解决特定领域的问题。这种解决方案的应用仅限于某个相对单一的知识领域,具有一定的推理解释功能,还可以避免复杂的常识问题,其简单的设计又使它能够较为容易地进行编程实现和移植,特别是专家系统的可解释性,即使在今天看来,也是深度学习所不能比拟的。这些优点使得专家系统成为20世纪80年代人工智能研究的主要方向,并将其成功应用于地质、医学、数学等领域。
在第二次人工智能热潮期间,基于联结主义的人工智能方法也取得了重要的进展。1982年,物理学家约翰·霍普菲尔德证明一种新型的神经网络(现在被称为“Hopfield网络”)能够用一种全新的方式学习和处理信息。大约在同时,大卫·鲁梅尔哈特推广了神经网络的反向传播算法。到了20世纪90年代,神经网络被应用于字符识别和语音识别,并获得了商业上的成功。这些理论和应用上的进步终于使得20世纪70年代以来一直遭人遗弃的联结主义重获新生。
1987年到1993年,人工智能的研究和行业应用又陷入了第二次低谷。这一方面是由于当时专家系统限制在特定领域的研究思路决定了它的先天局限性。以20世纪80年代出现的第一个试图解决常识问题的程序Cyc为例,它所采用的方法是建立一个容纳普通人知道的所有常识的巨型数据库。发起和领导这一项目的道格拉斯·莱纳特认为让机器理解人类概念的唯一方法是一个一个地教会它们,其规则和数据库的规模可想而知,最终这一工程耗费数十年时间也没有完成。事实上,按照当时的技术路线所制订的一些研究目标。例如,与人展开交谈,直到2010年也没有实现。人工智能历史研究者帕梅拉·麦克达克说道:“不情愿的人工智能研究者们开始怀疑,因为它违背了科学研究中对最简化的追求。智能可能需要建立在对大量知识的多种处理方法之上。”
导致研究工作陷入低谷的另一个更直接的原因是市场的驱动力,它促使人们对人工智能的态度由狂热转向失望。Apple和IBM生产的台式机性能在1987年已超过了Symbolics等厂商生产的智能计算机,价格也远远低于昂贵的智能机。XCON等最初大获成功的专家系统发现了很多问题,如维护费用居高不下,并且使用过程中还有难以升级、出现莫名其妙的错误等。这些都导致了人们转而投向个人计算机的怀抱,政府机构也又一次减少了对人工智能研究工作的资助。
到了20世纪90年代,人们逐渐建立了对人工智能客观理性的认识,人工智能开始进入理性和平稳的发展期。随着计算能力的提升、算法的进步以及数据的积累,各种人工智能技术(未必以人工智能为名)也慢慢渗透到各个行业,人工智能的发展脚步比以往任何一个时期都更加谨慎,却也更加成功。
1997年,IBM的超级计算机“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫(图1-12),这是人工智能重回大众视野的一个标志性事件,当时引发了现象级的讨论。
图1-12
从科学的角度观察,随着理论进步和数据量的增加,20世纪90年代后新一代人工智能研究者开始使用越来越多的复杂的数学工具,使得研究结果更易于评估和证明,取得了巨大的成功。2006年,杰弗里·辛顿在神经网络的深度学习领域取得突破,此后他始终大力推动深度学习的研究和应用。2016年,使用深度神经网络并配合其他人工智能方法,Google开发的AlphaGo击败围棋世界冠军李世石(图1-13),这在学术界、商业领域和公众之中,掀起了人工智能研究和应用的新一轮热潮,深度学习开始大放异彩,并成为人工智能的主流方法。关于深度学习,本书有专门章节讲述,这里不再赘述。
图1-13
进入21世纪后,人工智能领域创新性的突破越来越多,技术发展的速度越来越快。现在的人工智能机器人可以与人类进行互动,棋类程序可以战胜最优秀的人类棋手,人们到异国旅行时能使用机器方便地翻译各国语言,机器医生对特定疾病的诊断能力已经超越了人类医生,甚至“好奇号”火星探测器都在使用人工智能技术完成它的火星探测任务,人们对人工智能取得进一步发展的期待比以往任何一个时期都要强烈,人工智能已经并必将强有力地塑造人类生活的现在和未来。
学习人工智能,满足人类对人工智能领域继续深入探索的好奇心,并使用人工智能去探索更多未知的世界,出发吧!