四、人工智能的浴火重生(1 / 1)

1969年,明斯基和派珀特合作写了一本名为《感知器》(Perceptrons)的书(没错,就是我们刚才提到的,1958年带来巨大轰动的“感知器”),使神经网络走入了低谷,所以全世界都把原来的神经网络项目取消了。明斯基怎么说的呢?他指出,神经网络被认为充满潜力,但实际上无法实现人们期望的功能。在他看来,处理神经网络的计算机存在两点关键问题。首先,单层神经网络无法处理“异或”电路;其次,当时的计算机缺乏足够的计算能力,不能满足大型神经网络长时间运行的需求。听起来好像很难懂,但是我们可以用一个简单的小故事来模拟单层神经网络的困境。

话说有这么一个活泼的幼儿园小朋友小明,一天,老师上课的时候在黑板上画了一张图。

老师问:“小朋友们看好哦!现在这个正方形的四个角上都有图形,有人能告诉我都有哪些图形吗?”

小明踊跃举手,然后回答:“有三个圆形和一个菱形!”

老师又问:“真不错!那么我们现在要画一条线,把菱形与圆形分开,应该怎么画呢?”

小明很聪明,马上就画好了一条线。

老师说:“很好!看来你已经掌握了方法。现在你把剩下的两道题都做一下吧!”

小明依然飞快地把线画完了。

老师继续说:“非常好!明天我们有一个跟这道题相关的小测试,答对的小朋友就能拿到小红花!”

小明信心满满地回家了,他想:今天老师出的题都好简单呀,我分分钟就能做完。明天我肯定能拿到小红花。

第二天,小明又高高兴兴地去了幼儿园。但是当老师在黑板上画出题目的时候,小明突然就蒙了。题目如下:请画一条直线,把下图正方形四个角上的两种图形分开。

小明心理崩溃了,怎么不按套路出牌呢?无论他怎么画,都无法用一根直线把圆形、菱形两种图形分开。

我们将这个故事挪用到“感知器”身上,它的任务就是把不同的东西分类。罗森布拉特所提出的单层神经网络只能处理线性分类,也就是说,只能像小明一样“画一条线”。

如果碰到一个像明斯基那样“刁钻”的老师,小明也无法用一条直线做出分类了。

明斯基正是发现了单层神经网络的弊病,才在《感知器》一书中用详细地证明了感知器的弱点,并对神经网络的发展产生了悲观的态度,他还认为如果是两层神经网络,则计算机的运算量会大大增加,且没有有效的学习算法,据此,他认为研究多层神经网络没什么意思。明斯基作为一个人工智能界的领袖人物,他说神经网络不行,大家都觉得神经网络不行了。神经网络技术迅速陷入低谷,这个时期被称为“AI winter”,即“人工智能的寒冬”。人工智能这一下,就冬眠了将近10年。

但是,总有那么几个不信邪的人,继续努力着研究神经网络。直到1986年斯坦福大学教授鲁梅哈特(Rumelhart)和多伦多大学教授辛顿(Hinton)等人提出了反向传播(Backpropagation,BP)算法,终于解决了两层神经网络所需要的计算量的问题,引领了业界两层神经网络研究的热潮。这时有人要说了:“明斯基这么厉害的大神,也会有预言错误的时候吗?看来他对于人工智能是有功也有过。”但是我们要说,无论明斯基有没有发现单层神经网络的弊病,这一弊病都存在。而正是因为明斯基发现了单层神经网络的弊病,神经网络才能向多层发展。所以,明斯基的这种“过”,也是带着“功”的。

不久,这种反向传播算法又出现问题了。训练一次神经网络的耗时太长,而且要对神经网络进行进一步优化又太困难。再加上20世纪90年代初,政府对人工智能的投入减少了,这无疑是雪上加霜。俗话说,原地踏步就等于退步,本来神经网络就已经遇到了麻烦,又半路杀出个程咬金——20世纪90年代中期,伦敦大学教授万普尼克(Vapnik)等人发明了新的支持向量机(Support Vector Machines,SVM)算法,没有对比就没有伤害,SVM算法处处体现着它的优势,神经网络似乎败下阵来。

和上次一样,还是有一些学者在对神经网络做着不懈的研究。我们刚才提到1997年,IBM的深蓝计算机战胜了国际象棋冠军。到了2006年,辛顿(Hinton)在论文中首次提出了“深度信念网络”的概念。“深度信念网络”创新地采用了“预训练”(pre-training)的过程,可以大幅减少训练多层神经网络的时间。他把多层神经网络的学习方法命名为“深度学习”(这个名词听起来就像期末考试前,学生们的状态)。“深度学习”接二连三地在各个领域崭露头角:先是应用于语音识别领域,接着又于2012年应用于图像识别领域。辛顿与他的学生在ImageNet竞赛中,用多层的卷积神经网络成功地训练了包含一千类别的一百万张图片,获得了分类错误率15%的优异成绩,这个成绩远远超过了第二名,充分证明了多层神经网络识别效果的优越性。

2016年围棋人机大战:李世石Vs谷歌AlphaGo

在这之后,关于深度神经网络的研究与应用不断涌现。目前,深度神经网络在人工智能界依然占据着统治地位。我们之前说,“Snarc”的兄弟AlphaGo,也正是神经网络的“获益者”。2016年击败李世石的是AlphaGo Lee,2017年击败柯洁的是升级版的AlphaGo Master。又在2017年10月18日,AlphaGo再次登上世界顶级科学杂志——《自然》。AlphaGo的开发团队——DeepMind公布了最强版的AlphaGo,代号AlphaGo Zero。它是一个能“自学成才”的“怪物”。

据说,前代AlphaGo是通过学习大量棋谱入手的,就像一个普通人得到了很多武林秘籍,迅速地成为了“盟主”。而AlphaGo Zero它是从一张白纸开始,3天之内,通过数百万盘自我对弈,就走完了人类的千年的围棋历史,还探索出了很多横空出世的招法,这听起来可比前任武林盟主厉害多了!不仅是听起来,AlphaGo Zero确实是世界上最强大的围棋程序,他胜过了以往所有版本的AlphaGo。它击败了曾经战胜李世石的AlphaGo版本,成绩为100比0。据说,AlphaGo Zero采用了一种“强化学习”的新模式,将一个一无所知的神经网络和一个强力搜索算法结合,使AlphaGo Zero进行自我对弈。在对弈过程中,神经网络不断升级,AlphaGo Zero能够预测每一步落子和最终的胜利者。就这样,一次又一次地反复训练,使得神经网络越来越准确,AlphaGo Zero的版本也越来越强,这简直是“熟能生巧”的最佳典范!

在这一章的最后,我们来引用两个人的话,他们的话或许能让我们对人工智能有新的思考。一位是AlphaGo项目的首席研究员大卫·席尔瓦。他说:“对我们来说,打造AlphaGo Zero不是为了打败人类,而是为了探寻研究科学的意义。我们已经看到一个程序可以像在围棋这样复杂并具有挑战性的领域达到很高的水平,这意味着我们能够开始着手为人类解决最困难、最有影响的问题。”另一个则是我们之前提到的“人工智能之父”马文·明斯基,他曾说:“我们人类并不是进化的终点,因此如果我们能制造一个和人一样聪明的机器人,那我们也就可以制造一个比人更聪明的机器人。造一个和人完全一样的机器人意义不大,你也会希望制造一个能干我们人类所不能干的事情的机器人。随着人口出生率的持续下降,但人口总量仍在增长,这样就会有越来越多的老人。我们需要聪明的机器人来帮助他们做家务、保管物品或种蔬菜。还有一些问题是我们不能解决的,比如,如果太阳不再照耀地球,或者地球被毁灭了,我们该怎么办?不妨‘制造’更多更好的物理学家、工程师和数学家。我们必须为我们自己的未来打算。如果不能做到这一点,我们的文明将会消失。”在前一章的末尾,库兹韦尔告诉我们“奇点”的存在与人工智能的威胁,但在这里,科学家们又告诉我们人工智能发展的意义所在。我们不能因为惧怕人工智能的威胁而“因噎废食”。

我们是如何看待“人机大战”的?面对一次又一次人类惨败的消息,我们又当如何思考?或许我们会沉浸在人类逐渐被人工智能超越的恐慌里,但是科学家们的思路却和我们不同,他们挑明了说,人工智能并不只是为人类打打下手的,它们还有更重要的功能——做我们不能做的事情,为我们解决最困难的问题,为我们未知的未来保驾护航。这也正是几十年来,投身于发展人工智能的这些天才科学家们内心的终极目标。而这一目标也支持着科学家们克服重重困难,走过一次又一次人工智能的低谷,一直到近些年,人工智能越来越炙手可热、应用广泛,影响着人们的生活和工作的方方面面。