近年来,计算机对人类的认知能力进行了模拟,这种模拟的心理学和哲学意义是什么呢?为了回答这个问题,我觉得有必要先区分几个不同的概念,它们是“强的”、“弱的”和“谨慎的”人工智能。根据弱人工智能这个概念,计算机在研究心灵方面的主要价值是提供了十分得力的工具。比方说,有了计算机;我们能够更严密、更精确地提出假设,并且对之进行测试。但是,根据强人工智能这个概念,不仅可以说,计算机是研究心灵的工具,而且具备恰当程序的计算机本身就是心灵。因为一旦计算机有了正确的程序,我们就能说,它实际上就有了理解力以及其他的认识状态。在强人工智能里,由于输入了程序的计算机具有认识状态,因此,程序不仅仅只是帮助我们测试心理学解释的工具,程序本身就是解释。
我对弱人工智能的看法并没有反对意见,至少在本文是如此。我的重点将放在属于强人工智能观点的一些看法上,特别是其中的一种意见,即认为,配备适当程序的计算机事实上确有认识状态,并且能借此解释人类的认知。后面当我提到人工智能时,我指的是用上述两种说法表述的强人工智能的概念。
我将研究的是罗杰·香克和他在耶鲁大学的同事们所做的工作(请参阅香克和艾贝尔森1977年的著作),因为比起其他类似的观点来,我更熟悉他们的看法,而且,他们的看法为我要研究的问题提供了十分清晰的例子。但是,问题的讨论又不依赖于香克所设计的程序的细节,同样的论证也适用于威诺格拉德的SHRDLU程序。魏岑鲍姆的ELIZA程序其实适用于任何对人类心灵现象所作的图灵机模拟。
如果省略各种细节,我们可以用三言两语对香克的程序作如下描述:这个程序的目的是为了模拟人类理解故事的能力。人类理解故事的能力有个特点,尽管故事对有些事情并没有加以明确说明,但是,人们还是能够回答与其有关的问题。比方说,你听到这样一个故事:“有人走进一个餐馆,要了一份汉堡牛排。菜上来了,那人一看,只见盘中是一块被炸得黑乎乎的牛排,于是,他大发雷霆,拂袖而去,既没结账也没留下小费。”听完这段故事,如果有人问:“那个人吃没吃那份汉堡牛排?”你也许会回答说:“没有,他没吃。”同样,如果你听到这样一个故事:“有人走进一家餐馆,要了一份汉堡牛排。菜上来了,那人一看,十分高兴。他给了女服务员一笔可观的小费,并结了账,然后离开了这家餐厅。”现在,要是问:“那个人吃没吃那份汉堡牛排?”你可能会说:“是的,他吃了。”香克的计算机也能够以同样方式回答有关餐馆的类似问题。为了做到这一点,计算机应对人类关于餐馆的那种知识,有一种“表象”,以便在听了这样的故事以后,能够回答类似于上面的问题。在计算机听完故事回答问题时,所给出的答案,将与人类听完类似的故事之后所给出的答案应该是一样的。鼓吹强人工智能的人认为,在这个问答过程中,计算机不仅在模拟人类的一种能力,而且,(1)实际上是理解了故事并对问题作出了回答。(2)计算机及其程序所做的一切的确解释了人类理解故事并对有关问题作出回答的能力。
在我看来,香克的研究工作根本没有对这两种看法提供依据,我将在下面进行说明(当然,我并不认为香克本人也持这种看法)。
测试任何心灵理论正确与否的方法之一是问你自己,如果你的心灵真的按照那个理论所说的普遍原则活动的话,那将会是一种什么样的情形?我们用下列的思维实验来这样测试香克的程序。假设我被锁在一间屋子里,有人给我看许多汉字。再假设(实际上也确实如此)我不谙汉语,既不会说,也不会写,甚至吃不准会不会把汉字与日文或没有意义的涂写相混淆。在我看来,汉字就是没有意义的龙飞凤舞的曲线。现在,再让我们假设,在看过这第一批汉字后,有人又给我看第二批汉字,这一次附有一套将第一批汉字与第二批汉字联系起来的规则,这套规则是用英语写的,我同其他母语是英语的人一样,对这些规则的理解没有任何问题。凭着这些规则我能够将一套形式符号与另一套形式符号联系起来,这里的“形式”意思是说我单凭外形就完全能够分辨出这些符号。现在假设,有人给我看了第三批汉字,并附有一些也是用英语写的指令,这些指令使得我能够将第三批汉字与前两批联系起来。这些指令教我如何用具有某些形状的汉字符号对给我看的第三批汉字中某些形状的汉字做出反应。我根本不认识给我看汉字的人,他们把第一批汉字叫做“手迹”,把第二批汉字叫做“故事”,把第三批汉字叫做“问题”。我对第三批汉字做出的符号反应,被称之为“问题的回答”,他们给我的用英语写成的规则则被称之为“程序”。现在,我们稍微把这个故事变得复杂一些。让我们设想这些人给我看的故事是用英语写成的,英语我当然是很熟悉的了,然后,他们用英语向我提问题,我则用英语作出回答。再假定,过不了多久,我已经能够十分熟练地根据那些指令来使用汉字符号了,程序的设计者也能够信手写出程序来,使得从外部的观点看来,即从我的屋外的某个人看来,我作出的回答与母语是汉语的人所作的回答根本就难辨真伪。如果光是看我的回答,根本就无法知道我对汉语一窍不通。再假设,其实事实上也是如此,我对用英语的提问所作的回答与其他母语是英语的人所作的回答丝毫没有两样,原因很简单,因为我的母语也是英语。从外部的观点看来,即从某个只是看见我的“答案”的人的观点看来,对汉语提问与对英语提问的回答一样出色。可是,在回答汉语提问时与回答英语提问时不同,我是通过使用一些未经解释的形式符号来提供答案的。就汉语而言,我的行为纯粹像一台计算机,我只能对规定形式的单元进行计算机运算。如果单从汉语的角度看,我只不过是计算机程序的一个例示。
强人工智能的观点认为,具有程序的计算机能够理解故事,并且,从某种意义上说,这种程序解释了人类的理解能力。现在,我们能够通过我们的思维实验来检验这两种说法是否正确。
(1)关于第一种说法,我认为,通过上面所举的例子,我们可以清楚地看到,我对用汉语写成的故事一个词都不理解,尽管我所有的输入和输出与母语是汉语的人简直难辨真伪,我用什么样的形式程序都可以,但我实际上什么都不懂。出于同样的理由,香克的程序对故事的内容一点也不理解,不管是用汉语写成的,还是用英语写成的,还是用其他语言写成的,都无所谓,因为在这个汉语的例子里,我就是计算机,而在那些我不是计算机的情况下,计算机同我不识汉字的情况一样,什么都不懂。
(2)关于第二种说法,即程序解释了人类理解力,我们可以看到,计算机及其程序并没有提供充足的理解条件,因为计算机只是在操作,并未在理解。但是,计算机是不是提供了一个必要的理解条件,或对理解作出了有意义的贡献?强人工智能的支持者们有这样一种看法,当我理解了一个英语故事时,我所做的一切与我使用汉字符号时所做的一切没有什么两样,或许是相差不多。我懂英语的情形与我不懂汉语的情形区别只在于对形式符号的使用。我并没有论证这种看法是错误的,但毫无疑问,这种看法在上述例子里是不可信的。这种看法的貌似合理性来自这样一个假设:我们能够设计一个程序,这个程序具有像操母语的人一样的输入和输出,另外,我们还假定说话者具有某种描述层次,但在这种层次上,他们仍然是程序的例示。基于这两个假定,我们说,即使香克的程序没有完全解释理解能力,但也许作出了部分的解释。我假定这是一种经验的可能性,但它并没有提供丝毫证据,使我们相信这种可能性。这是因为这个例子表明(尽管肯定没有论证)计算机程序与我对那个故事的理解毫不相关。当我看汉字时,脑袋里的东西都是人工智能通过程序输入的,我对那些汉字根本不理解。当我看英文时什么都理解,这就无须假定我的理解会与计算机程序有什么相关,也就是说,会与对纯规定形式的单元作计算机运算有什么相关。只要程序被定义为是对纯规定形式的单元所进行的计算机运算的话,那么,这个例子说明,这些运算本身与理解根本就没有什么有意思的联系。它们根本就不构成理解的充分条件,也丝毫没有理由假定它们构成了理解的必要条件,甚至说它们对理解作出了重大的贡献。请注意,这个论证的力量不仅在于,根据不同的形式原则进行运算的不同计算机能够具有同样的输入和输出,这根本不是问题的关键。此论点的关键在于,不管你在程序中存入何种纯形式的原则,它们都不能为理解提供充分的条件,因为一个人能够在不理解任何东西的情况下,采用这些形式原则。根本就没有任何理由认为,这些原则是充分的并具有重大贡献的,因为没有任何理由说,当我理解英语时,我其实是在用某种形式程序进行运算。
那么,在我读英语句子与我读汉语句子之间又有什么不同之处呢?显而易见的答案是,我明白英语句子的意思,而我却完全不明白汉语句子的意思。但这个区别又在哪里呢?不管它是什么,我们为什么不把它给计算机呢?这个问题我将留在后面进行讨论,现在我想继续解释这个例子。
我曾有机会将这个例子讲给几位人工智能的研究者听,有趣的是,对什么是对它的恰当回答,他们似乎意见并不一致。各种各样的回答使我感到不胜意外。下面我想举几种最普通的回答(并且,我将注明这些回答的地理位置)。
但是,我想先纠正对“理解”这个概念的一些误解。在许多这样的讨论中,你会发现“理解”这个词有许多相当策略的用法。批评我们的人指出,理解具有各种不同的程度;“理解”并非一个简单的双位谓词;它具有不同的种类和层次,连逻辑中的排中律也常常不能直接适用于像“X理解了Y”这样的陈述;另外,在许多情况下,X是否理解了Y这个问题纯属判断,并非事实就是如此。对于所有这些看法,我只想说:当然,当然。但是,它们与我们正在讨论的问题无关。有些明显的例子说明,“理解”的确适用,也有些明显的例子说明它并不适用。我的这个论证就是需要这两种例子。[2]我完全理解用英语写的故事,但理解用法语写的故事就差一点,用德语就更差,用汉语则一窍不通了。但是,我的汽车和计算器没有丝毫理解可言,它们与此事没有任何关系。我们常常通过比喻与类推,认为汽车、计算器以及其他人工制品也能“理解”和进行其他认知活动,但这种做法什么也没有证明。我们说“这扇门因为装有光电池而知道什么时候开”,“计算器知道如何(懂得如何,能够)做加法和减法,但不会做除法”,还有“恒温器能够感知湿度的变化”。我们说这些话的原因十分有意思,它必然与这样一个事实有关,即我们将自己的目的性延伸到人工制品之中。[3]我们所制造的工具是我们目的的延伸,因此,我们很自然地借助于比喻认为它们具有目的性。
但是,我认为这例子并没有说明什么哲学问题。一扇自动门通过光电池“理解指令”与我们理解英语的意思完全不同。如果认为香克的带程序计算机理解故事就同自动门理解指令一样,而不是同我理解英语一样,那么,这个问题就没有必要再进行讨论了。但是,纽厄尔和西蒙在其著作中写道,计算机的认知与人类的完全一样。我喜欢他们的直率。我要研究的正是这种看法。我想要论证,带程序的计算机理解的实际上就是汽车、计算器理解的东西,也就是说,它们其实谈不上理解了什么。计算机的理解不是部分的或是不完善的(就像我对德语理解一样),而是等于零。
现在让我们看一看各处的人对这个问题的不同回答:
(1)系统回答(伯克利分校)。“一个被锁在房间里的人的确不理解故事的内容;但事实上这个人只是整个系统的一部分,而这个系统确实理解故事的内容。在这个人的面前放着一大张分类表,表上尽是些规则,他还有许多纸和笔,可以进行计算,另外,他还有汉字符号的‘数据库’。现在,理解不是纯粹个人的事,而属于整个系统,个人只是系统的一部分。”
对于这种系统理论,我的回答十分简单:让这个人将该系统的所有部分都内在化。换句话说,让他记住分类表上的规则和汉字符号的数据库,并且,通过心算来代替笔算。这样,个人就体现了整个系统。系统能做的事情,个人也完全能够做到。我们甚至能够抛弃锁在房里的前提,而设想他在户外工作。同样的道理,如果个人不理解汉语,那么,系统就更不理解了,因为系统所有的一切没有不装入他的脑子里的。如果个人不理解,那么系统就更没有办法理解了,因为系统只不过是个人的一部分。
实际上,我对系统理论作出这样的回答,甚至都觉得有点不好意思。因为这个理论在我看来实在是不屑一顾的。那些人认为,个人不理解汉语,然而,个人与若干张纸加在一起居然就能无师自通,这真是咄咄怪事。很难想象,一个不信某种教条的人会认为这种理论是有道理的。然而,我想许多相信强人工智能论的人最终会发表类似这种理论的言论,因此,索性让我们再深入一点。这个理论有这样一种说法,它认为,尽管在内在化系统例子中的那个人不像母语是汉语的人那样理解汉语(因为,比方说,他不知道此故事讲的是餐馆和汉堡牛排等事情),但是,“作为形式符号操作系统的那个人”真的理解汉语。处理汉语形式符号的子系统不该与处理英语形式符号的子系统相混淆。
因而,实际上在这个人身上有两个子系统:一个懂英语;另一个懂汉语,而且,“这两个系统互不相干”。但是,我想指出的是,它们不仅互不相干,而且甚至有天壤之别。懂英语的那个子系统(允许我们暂时用这样的术语来说话)知道那个故事讲的是餐馆和吃汉堡牛排,这个人知道所提的问题与餐馆有关,他也知道他正尽量根据故事的内容作出各种推断来回答问题,如此等等。但那个汉语子系统却不知道这些。英语子系统知道“汉堡牛排”这个词指的是一块美味的肉,而汉语子系统只知道“横直”和“撇捺”。根据这个系统,这个人只知道从一端输入了各种形式符号,然后,按照用英语写成的规则对这些符号进行处理,再从另一端输出另一些符号。原来的那个例子主要是为了论证,这种自动符号处理,不论从何种实际意义上说,都不足以理解汉语,因为,尽管那个人能够在“横直”后面写上“撇捺”。但对汉语还是一字不解。要是假定那个人身上有好几个子系统,也无济于事,因为这些子系统比那个人原来的好不了多少,它们与操英语的人(或子系统)没有丝毫哪怕是最遥远的相似点。事实上,我们从上面的例子可以看出,汉语子系统不过是英语子系统的一部分,它完全是根据用英语写成的规则来对符号作没有意义的处理的。
请让我们自问:首先,是什么动机促成了系统回答?换句话说,认为在那个人身上有一个子系统,此子系统实际上理解用中文写成的故事,这个观点其独立的根据何在?就我们所知,唯一的根据是,在例子里,我有与操汉语的说话者同样的输出和输入,我还有一个来回转换的程序。但是,这些例子总的目的是想说明,这些东西还不足以构成像我理解英语故事那样的理解能力。这是因为,一个人,乃至构成一个人的整套系统,虽然能够具有输入、输出和程序的正确组合,但还不能像我理解英语那样真正理解任何东西。因此,认为在我身上肯定有一个能够理解汉语的子系统的唯一理由就是我有一个程序,而且我能够通过图灵测试,能够以假乱真,使人相信我的母语是汉语。但是,关于图灵测试本身的可靠性,也正是我们所要讨论的问题之一。这个例子说明,有可能存在两个“系统”,这两个系统都能通过图灵测试,但其中只有一个具有理解能力;如果你说既然它们都通过了图灵测试,那它们就都有理解能力,这是站不住脚的,因为这种说法无法证明,我身上的那个理解英语的系统比那个只处理汉语的系统更为优越。一句话,系统回答在没有任何论据的情况下,坚持认为这个系统肯定理解汉语,这无非是在以未经证明的假定作为依据来进行辩论。
不仅如此,系统回答还有可能导致另外的荒诞结论。如果我们认为,根据我有某种输入输出以及位于其中的程序这样一个理由,就肯定我有认知能力,那么,似乎所有不具备认知能力的子系统就会都变得具有认知能力了。比方说,在某一描述层次中,我的胃也能进行信息处理,能够实现任何数量的计算机程序,但是,我相信没有人会说,用来消化食物的胃居然也有理解能力(参见彼里欣1980年的著作)。但是,如果我们接受了系统回答,那么,我们就很难不承认胃、心脏、肝脏等都是具有理解能力的子系统,因为找不到一个根本的方法来区别说汉语子系统能理解与说胃能理解的动机有什么不同。随便提一句,如果说,汉语系统的输入和输出是信息,而胃的输入和输出则是食物和养料,因此两者具有不同之处,这种说法也不在点子上,因为,从行为者的角度以及从我的角度看,不管是食物还是汉字都没有信息,在我看来,汉字只是一些没有意义的横直撇捺。在这个汉字的例子中,只是在程序设计者和翻译的眼中才能有信息。如果他们想把我的消化器官的输入和输出也当做信息的话,谁也阻拦不了他们。
最后一点,与强人工智能论的一些独立的问题有关,有必要先把主题撇开一会儿来解释一下。如果强人工智能论是心理学的一个分支的话,那么它就能够辨别哪些是真正的心理系统,哪些不是,它就能够辨别哪些是心理活动的原则,哪些是非心理系统的原则,否则,它就无法告诉我们究竟什么才算是具体的心理活动。心理的与非心理的区别不能只依据表面的观察,而必须依据系统本身的内在特性,否则,任何人都能够随心所欲地把人说成是非心理的事物,而将飓风说成是心理的事物。然而,在强人工智能论的文献里,这个区别常常模糊不清。长此以往,将给强人工智能是一门认知科学的观点带来灾难性的后果。例如,麦卡锡这样写道:“像恒温器这样简单的机器也被说成是有信仰的,对于大多数能够进行解决问题活动的机器来说,具有信仰是它们的一大特征”(参见麦卡锡1979年的著作)。任何认为强人工智能论有可能成为心灵理论的人必须深思一下这种说法的言外之意。据说应把下述事实作为强人工智能论的新发现:墙上的一块用来测定温度的金属也有信仰,就跟我们、我们的配偶和孩子有信仰毫无两样。而且,房间里的“大部分”其他机器,像电话、录音机、计算器、电灯开关等,实际上也都有信仰。本文并不是为了反驳麦卡锡的观点,因此,我只强调一下结论,而不作具体的论证。心灵研究的出发点是这样一些事实,例如,人有信仰,而恒温器、电话和计算器则没有。如果你有一个否定这一论点的理论,如果你能提出一个驳斥该理论的反例,那么,这个理论就是错误的。我们觉得,那些对这类情况有论述的人工智能的研究者们认为他们能够摆脱将恒温器看做有信仰的论点,因为他们并没有把它当真看待,而且觉得任何人都不会将它当真看待的。但我建议诸位,至少仔细想上1分钟,想想必须具备什么才能使墙上的那块金属有那种真正的信仰;有那种旨在适合命题内容和满足条件的信仰;有那种能成为或强或弱的信仰;有那种盲目的或深思熟虑的信仰以及其他所有的信仰。恒温器当不在其列,胃、肝脏、计算器或电话也不在其列。既然我们把这种观点当真看待,那么,它之为真对于强人工智能论声称是一门心灵科学的论点来说就是致命的。现在心灵无处不有。我们想知道的是心灵与恒温器和肝脏之间究竟有什么区别。假如麦卡锡的观点正确的话,那么,人工智能就没有希望告诉我们这个区别了。
(2)机器人的回答(耶鲁大学)。“假设我们写出一个与香克截然不同的程序。假设我们把一台计算机置入一个机器人的体内,这台计算机不仅将形式符号作为输入而摄入,并将它们作为输出而传出,而且,它会巧妙地操纵机器人,使机器人表现出像感知、行走、移动、敲钉子、进食、饮水等一类行为——想表现什么就表现什么行为。例如,我们可以在这个机器人身上安装一个摄像机,使它有视力,还可以在它身上安装手和腿,使它能够‘活’动,所有这些东西都由它的计算机‘大脑’控制。这样一个机器人将不同于香克的计算机,它具有真正的理解力和其他心理状态。”
关于这个回答,首先值得注意的是它默认了认知不只是形式符号的处理问题,因为它还补充了与外部世界的某些因果关系(参见福多1980年的著作)。对于这种回答,我认为增加一些诸如“知”和“运动”之类的能力具体地说并没有给香克原来的程序增加什么理解能力,泛泛地说,也没有给它增加什么目的性。为了看清楚这一点,请注意上面那个思维实验也适用于机器人例子。假定不是计算机位于机器人体内,而是我被锁在一间屋子里,也像前面那个阅读汉语故事的例子那样,然后你给我更多的汉字和更多的英语指令,我按照指令将汉字符号彼此匹配,并将它们输出。假设我得到的某些汉字符号来自机器人身上的摄像机,而我输出的其他汉字符号则是用来使机器人内部的发动机运转从而使机器人的手脚活动起来。对此,我自己毫无觉察。需要着重指出的是,我不过是在处理形式符号,而对其他事情一无所知。我从机器人的“感知”装置那里接收到“信息”,然后,我把“指令”发给机器人的运动装置,而我自己对这些事情一点也不知道。我是机器人腹中的小矮人,但与传统的小矮人又不一样,因为我并不知道发生的事情。除了处理符号的规则,其他事情我一概不知。根据这种情况,我认为机器人根本没处在目的状态中,它完全是根据线路和程序而四处移动。还有,在我执行程序的过程中,我也没有处在相应的目的状态中。我只不过是在执行对形式符号进行处理的形式指令。
(3)大脑模拟器回答(伯克利分校和马萨诸塞理工学院)。
“假设我们设计了一个程序,这个程序并不表现像香克中文字条那样的关于世界的信息,但是,它却模拟了母语是汉语的人在理解汉语故事并回答汉语问题时大脑突触上神经原激活的实际顺序。计算机将汉语故事和有关问题作为输入而摄入,然后,它模拟真正中国人的大脑在处理这些故事时的形式结构,再将汉语答案作为输出而给出。我们甚至还可以这样设想,这台计算机不只有一串程序,而是有一套程序在同时进行运算,就像人脑在处理自然语言时可能出现的那种实际状况一样。在这种情况下,毫无疑问,我们不得不承认计算机理解了故事。如果我们不承认这一点,那不就否认了中国人能理解这些故事吗?在突触的层次上,计算机程序与中国人大脑程序究竟将有或可能会有什么区别呢?”
在反驳这个观点之前,我想扯开去说一句,任何人工智能(或机能主义,等等)的拥护者都会觉得这个观点十分别扭。我认为,强人工智能论的中心论点是,我们没有必要为了知道心灵如何活动而去了解大脑如何活动。据我所知,强人工智能论的基本假设是这样的;有一个对形式元素作计算处理的心理运算层次,它构成了心理活动的实体,它还可以在各种不同的大脑过程中表现出来,就像任何计算机程序都可以通过不同的计算机硬件来实现一样。根据强人工智能论的假设,心灵之于大脑如同程序之于硬件,因此,我们不研究神经生理学也能了解心灵。如果我们必须在了解大脑之后才能了解人工智能,那我们何必还要研究人工智能?然而,即使我们对大脑活动了解得如此清楚,对理解能力的了解却依然雾霭重重。为了使大家理解这一点,我们想象这样一种情形:思维实验中那个只会一门语言的人手里摆弄的不是语言符号,而是一套带阀门的水管。当他得到汉字符号之后,首先查一下用英语写成的程序,看看他应该打开和关闭哪几个阀门。每一根水管相当于中国人大脑中的一个突触,整个水管系统被配备成这样一种状态:当所有恰当的神经原都激活后,也就是说所有正确的阀门都打开后,汉语答案就会从这一串水管的尽头喷涌而出。
那么,在这样一个系统里,理解能力又在哪里呢?整个系统把汉语作为输入而摄入,并在模拟中国人大脑突触的形式结构之后,又把汉语答案输出来。然而,此人肯定不理解汉语,水管也不会懂汉语,但有人却说这个人加上这些水管便会产生理解能力,我觉得这种说法十分荒唐。如果我们相信这种说法,那么,请记住,从原则上讲,此人能够使水管的形式结构内在化,他也能够凭借想象来进行所有的“神经原激活”活动。大脑模拟器说的一个问题在于模拟了大脑的一些无关痛痒的东西。如果模拟的只是突触上神经原激活顺序的形式结构,那么,就不能模拟大脑的关键,即大脑的因果特性,也就是大脑生产有目的状态的能力。形式特征并不能代表因果特性,这一点已有水管例子证明了:我们可以把形式特征从有关的神经生理的因果特性中删除。
(4)综合回答(伯克利分校和斯坦福大学)。“上述三种回答单独还构不成对中国人小屋反例的反驳以及对思维实验的反证,但如果你将它们综合起来,那将更使人信服、更有力得多。让我们想象一下,如果装在机器人脑袋里的是一个呈大脑形的计算机,如果计算机的顺序具有人类大脑的所有突触,如果机器人的行动酷似人类的行为,那么,这样一个东西就不只是一台具有输入和输出的计算机了,而应该被看做是一个统一的系统。在这种情况下,毫无疑问,我们不得不认为它是有目的的。”
只要我们对这种东西仅仅知道这么多,那么在这种情况下,我们完全有理由接受这个不容反驳的假设,即这个机器人是有目的的,对此我完全表示同意。说真的,除了外表和行为外,综合回答的其他理由离题太远。如果我们能够制造一个机器人,它的行为许多方面都酷似人类的行为,那么,我们就会认为它具有目的,除非另有原因说它没有。如果是这样的话,我们事先就没有必要知道,这个机器人的计算机大脑只是人类大脑的形式模拟。
但我实在不知道,这个论点对于强人工智能论究竟有多大的帮助。为什么呢?请看:根据强人工智能论,用正确的输入和输出来实现一个形式程序是构成目的性的充分条件,其实是构成目的性的组成成分。纽厄尔曾说过:心理的本质是物质符号系统的活动。但是,在上面这个例子中,我们认为机器人具有目的,这与形式程序毫无关系。我们之认为它有目的是根据这样一个假设,如果机器人的外表和行为酷似我们人类,那么,在没有别的可猜测到的证明的情况下,就应该认为,这个机器人肯定具有与我们人类相同的心理状态,这种状态引起了它们的行为,并通过行为获得了表现,而且,机器人肯定还有一个内在机制用来产生这样的心理状态。假如我们不依靠这样的假设而知道怎样独立地去解释机器人的行为的话,特别是假如我们知道它具有一个形式程序的话,那么,我们就不会认为它是有目的的了。这也正是我反驳前面第二种回答的论点。
假设我们知道,机器人的行为已完全由这样一个事实作了解释,即在机器人内部有一个人,他通过机器人的传感器接收到了未经解释的形式符号,然后又向机器人的运动装置发送了未经解释的形式符号,那么这个人是根据一系列的规则来处理这些符号的。再让我们假设,此人对这些事实一概不知,他只知道对那些无意义的符号该作哪些运算,在这种情况下,我们就会认为这个机器人纯属机械傀儡。如果假定这样一个机械傀儡有一个心灵,那就既没有根据,也没有必要。因为现在已不再有什么理由去认为机器人或者它所属的那个系统是有目的的(当然,在机器人腹中处理符号的那个人除外)。形式符号处理过程进行得很正常,输入和输出也很匹配,但是,目的的真正所在则是那个人,而他对有关目的状态却一无所知,比方说,他看不见机器人的眼睛感受到什么,他不打算移动机器人的胳膊,他也不理解机器人摄入的输入和送出的输出。另外,出于前面已经说明的原因,包括了机器人和人在内的整个系统对这些事情也一概不知。
为了说明这一点,让我们将这一情况与另外一些情况加以对比,在另外一些情况下,我们发现,我们非常自然地认为像猿、猴这样的灵长目和像狗这样的家畜是有目的的。为什么我们觉得这样做很自然呢?原因大概有二:首先,如果我们不认为这些动物具有目的,就无法解释它们的行为;其次,我们可以看到,动物和我们人类同样有血有肉,有鼻子有眼,还有一张皮毛。如果说动物的行为与假定它的皮下有着类似于人的因果性组织没什么不一致,那我们就既能断定,这个动物的行为背后一定具有心理状态,又能断定这种心理状态一定是其组织与人类相似的机制引起的。除非另有不容许这样做的原因,我们肯定会对机器人作出类似的假定。但是,当我们得知这种行为是某个形式程序所致,并且生理基质的实际因果特性与此无关时,我们就会放弃这一目的性的假设。
对于我们的思维实验的另外两种意见虽然经常可见(因此值得一提),但实在是离题太远了。
(5)他人心灵回答(耶鲁大学)。“你怎么知道别人理解汉语或其他东西?完全凭他们的行为。既然计算机能够像别人一样(从原则上讲)顺利通过行为测试,那么如果你认为别人具有认知能力,也就必须从原则上认为计算机有认知能力。”
对于这样一种反对意见,实在不必兴师动众,只须三言两语就能解决问题。这里所谈及的问题并不是关于我如何知道别人具有认知状态,而是当认为他们具有认知状态时,他们究竟具有什么样的东西。这个论证的中心在于,他们具有的不仅仅只是计算过程和输出,因为在没有认知状态的情况下,计算过程和输出也能存在。假装麻木不仁不能回答这一论证。在物理科学里,我们不得不假设物体的实在性和可知性,同样,在“认知科学”里,我们也假设了心理状态的实在性和可知性。
(6)多层回答(伯克利分校)。“你的整个论证假定人工智能只与模拟计算机和数字计算机有关。但这仅仅是因为目前科技才发展到这一水平。你认为因果过程是目的性的关键,(假定你的看法是对的)不管它们是什么,最终我们将制造出具有因果过程的东西来,那将是人工智能。因此,你的论证根本不在于探讨人工智能形成和解释认知状态的能力。”
我对此回答并没有异议,但我想提出一点,这个回答通过把人工智能重新定义成人为地产生和解释认知的东西,而使强人工智能这一工程变得琐碎而无意义。强人工智能论的最初目标在于论证人工智能是一个确切的、明确限定的论题,那种心理过程是对形式限定因素的计算过程。我一直想对这一论题提出异议。如果这一说法经过重新定义不再是原来的那个论题,我的异议也就不成立了,因为对我的异议来说,已不再有一个可适用的可检验的假设。
现在让我们回头去看一看那个我曾答应解答的问题:假定在我原来的例子里,我懂英语而不懂汉语,假定因此计算机既不懂英语也不懂汉语,那么,我身上肯定有某种东西使我懂英语,还缺少某种东西使我不懂汉语。既然如此,为什么不能使计算机也获得这种东西(无论它是什么)呢?
从原则上讲,我不明白为什么我们不能让计算机也具有理解英语或汉语的能力,因为从某种重要的意义上讲,我们的身体和大脑也正是这样的机器。但我确实发现我们有充分的理由不能把这个东西给予计算机。计算机的运算只是被确定为对形式确定的因素所进行的计算过程。换句话说,计算机的运算是某一程序的例示。我并不因为是计算机程序的例示,才能够理解英语,并具有其他的目的形式的(我想,我是任何数量的计算机程序的例示),而是据我们所知,是因为我是某种具有某个生物(也就是化学和物理)结构的有机体,在某些条件下,这一结构必定能够产生知觉、行为、理解、学习和其他目的现象。在这个论证中,有一部分理由是说,只有当某样东西具备了这些因果力量之后才有可能获得这种目的性。也许其他的物理和化学过程也能够产生同样的结果。比方说,火星人也能够具有目的性,但他们的大脑完全是用另外一种物质构成的。这是个经验的问题,它有点像另一类问题,比方说,其化学成分与叶绿素不同的某样东西是否也能进行光合作用。
但是,这个论证的中心论点在于,纯形式的模式本身不足以产生目的性,因为形式特征本身不是目的性的构成要素,它们本身没有因果力量,只有一种力量,那就是当计算机在运转时,它们能够产生下一阶段的形式程序。这种形式模式具体实现后所呈现的任何其他因果特征都与此形式模式无关,因为我们能够用完全不同的方式来实现这一形式模式,而前面的因果特征就会**然无存。即使是操汉语的人奇迹般地完全实现了香克的程序,我们还是能够将同一程序给予操英语的人、水管或计算机,尽管他们或它们都不懂汉语,但却懂得程序。
大脑活动的关键并不在于突触顺序的形式影像,而在于此顺序的实际特征。据我所知,强人工智能论的所有论证都旨在给认知的影像画一个轮廓,并声称这影像就是实在。
作为总结,我想把隐匿在此论证中的某些一般的哲学问题阐明一下。为明了起见,我将使用问答的形式,第一个就是大家已经谈腻了的问题。
“机器是否能够思维?”
答案很明显:能够思维。我们人类正是这样的机器。
“好,但是人造的机器是否也能够思维?”
假设我们能够制造一台机器,此机器具有神经系统,里面的神经原具有轴突和树突,其他部分也与人类一样,那么,对此问题的回答还是很明显:能够思维。如果你能够准确无误地复制前因,你也就能够准确无误地复制后果。我们确实也有可能复制出意识、目的性和其他东西。为此,我们将使用与人类不同的化学原理。正如我在前面说过的那样,这是个经验的问题。
“好的,但是一台数字计算机是否能够思维?”
如果你这里所说的“数字计算机”具有一个描述层次,在此层次上,它能够被正确地描述为计算机程序的例示,那么,回答当然是:能够思维。因为我们就是任何数量的计算机程序的例示,我们是能够思维的。
“但是,如果单是计算机加上合适的程序,它是否能够思维,能够理解?单是实现一个程序,当然是正确的程序,是不是产生理解能力的充足条件?”
我认为这个问题提得很好,尽管此问题常常与前面的一个或数个问题混为一谈。对此问题的回答是:不能思维。
“为什么不能?”
因为形式符号的处理过程本身并没有目的性,它们是没有意义的;更严格地讲,它们还不是符号处理,因为这些符号并不代表任何事物。用语言学的术语来说它们只有句法而没有语义。计算机具有的那种目的性只是存在于编程序和操作计算机的人脑中,存在于存入输入和破译输出的人脑中。
前面所举的关在小屋内看汉字的例子旨在说明这个问题,一旦当我们将某种东西给予一个确实有目的的系统(一个人),并用这种形式程序来规定他的活动时,你就会发现,这种形式程序并没有带来额外的目的性。比方说,它丝毫也没有给那个人的理解汉语的能力带来任何帮助。
区分程序与程序的实现是人工智能的一个特点,此特点十分引人注目,但是,对于模拟即等于复制的观点来说,它却是致命的。在计算机硬件里对程序与程序的实现加以区分,就相当于对心理活动层次与大脑活动层次加以区分。如果我们能够将心理活动层次描述成一个形式程序,那么,我们似乎就能够在既不对大脑作内省心理分析也不作神经生理分析的情况下,描述心灵的本质。但是,“心灵之于大脑如同程序之于硬件”这个等式却四处受挫,尤其表现在以下三个方面:
第一,对程序与程序的实现加以区别势必会造成这样的后果,即同一个程序可以有各种各样甚至乱七八糟的程序实现,它们根本就没有目的性。魏岑鲍姆就曾详细地解释过如何用一卷手纸或一堆碎石来构造一台计算机。同样,理解汉语故事的程序也能够输入一套水管、风力机或只讲英语的人脑中,但他们或它们并不因此而能理解汉语。首先,诸如石头、手纸、风和水管这样的东西就不可能具有目的性,只有像大脑这样的具有因果力量的东西才能具有目的性,尽管操英语的人有大脑,并能够有目的性,但光凭熟记程序是得不到更多的目的性的,因为熟记程序不能教会他懂汉语。
第二,程序是纯形式的,但目的状态在此意义上却不是形式的。目的状态是以其内容而不是以其形式而被定义的。比方说,天下雨了这个信念并不以它的某种形式状态而定义的,而是以具有满足条件、适用定向等心理内容而被定义的(参见塞尔1979年的著作)。说实话,在这种句法意义上说这样的信念根本就没有形式状态,因为同一个信念在不同的语言系统内可以通过无数不同的句法形式来表达。
第三,我在前面已经讲过,心理状态和事件实质是大脑活动的一种产物,而程序在此意义上却并非计算机的产物。
“如果程序怎么也不可能构成心理过程的话,那为什么还有那么多的人相信程序能构成心理过程呢?至少必须对此作出某种解释。”
我真不知道该如何回答这个问题才好。有人认为计算机模拟就等于被模拟的对象,这种看法一开始就很值得怀疑,因为计算机绝对不仅限于模拟心理活动。没有人会相信计算机模拟的一场特级火灾会把周围的建筑物烧光,也没有人会相信模拟的暴风雨会将我们淋成落汤鸡。究竟是什么原因使人认为计算机模拟的理解力真的能理解事物?有时你会听到这样的说法,要让计算机感觉疼痛或坠入情网极其困难,但疼痛和恋爱与认知或其他任何事情相比根本不分上下。就模拟而言,你只需正确地输入和输出,中间再加上一个程序,将前者变为后者。计算机的一切活动只需这些东西就足够了。不管是关于疼痛、恋爱、认知、大火还是大风雨方面,其错误都在于将模拟与复制混为一谈了。
但为什么会有这么多人曾经觉得——也许仍然坚持认为——人工智能以某种方式复制并解释了心理现象呢?这里有几个原因。我认为如果不把这些原因弄清楚,我们就无法消除人们的错误观念。
首先,也许还是最重要的是,人们对“信息处理”这个概念的理解存在着一些问题。许多研究认知科学的人认为,人类大脑及其心灵进行着所谓“信息处理”的活动;同样,计算机及其程序也在进行信息处理活动。但是,大火和暴风雨则无什么信息处理可言。因此,尽管计算机能够模拟任何过程的形式特征,但它同心灵和大脑却保持着极为特殊的关系,这是因为,一旦计算机输入适当的程序,最理想的就是像人类大脑这样的程序,那么,大脑和计算机所做的信息处理工作就完全一样,而这种信息处理正是心理活动的本质。但是,这个论证有个问题。它的基础概念“信息”是有歧义的。如果人们在解算术题,或在谈一个故事并回答与此有关的问题时,就是在“处理信息”,那么,从这个意义上讲,程序计算机并没有在进行“信息处理”,它只是在操纵形式符号。程序的设计和输出的破译者用符号来代表世界上的各种事物,这一点计算机是全然没有能力想到的。我再强调一遍,计算机只有句法而没有语义。因此,如果你打入“2+2=?”这个问题,计算机会打出“4”。但是,计算机全然不知道这个“4”的意思是4,或者它代表了某种意义。这并不是说计算机没有某种第二级信息以便用来破译第一级的符号,实际上,就计算机本身而言,它的第一级符号根本就没有解释。计算机除了符号还是符号。因此,将“信息处理”这个概念用于计算机就会陷入困境:或者将“信息处理”这个概念解释成它意味着目的性是信息处理的一部分;或者不作这样的解释。如果是前者,那么,程序计算机并没有在进行信息处理,而只是在操纵形式符号。如果是后者,那么,尽管计算机是在进行信息处理,但这与计算器、打字机、肠胃、恒温器、暴风雨和飓风所进行的信息处理并没有什么两样,也就是说,它们都有一个描述层次,在此层次上,我们能够将它们描写成一头输入、中间转换、另一头输出信息这样的一个过程。但在这种情况下,是不是将这种输入和输出解释为通常的信息,那就完全取决于外部观察者了。并不能根据信息处理中的相似性来确定计算机与大脑的相似性。
其次,在许多人工智能理论中还残存着行为主义或操纵主义的观点。由于带有适当程序的计算机能够具有类似于人类的输入—输出模式,因此,我们不禁认为计算机具有类似于人类的心理状态。但是,当我们发现无论从理论上还是从经验上都可能使一个系统在某些领域内具有人类的能力,同时却可以毫无目的性时,我们就应该能够克服这种冲动了。我的台式计算器具有计算能力,但没有目的性。在本文中我一直想说明这样一个问题,即一个系统能具有输入和输出能力,此能力复制了母语是汉语的人的能力,但不管程序是怎样编制的,它对汉语却还是一窍不通。图灵测试正是这种恬不知耻的行为主义和操作主义传统的典型。我坚信,如果人工智能的研究者抛弃行为主义和操作主义,那么,关于模拟和复制的许多问题就会迎刃而解。
最后,残存的操作主义又同二元论的残存形式相结合。二元论有这样一个假设,即心灵和大脑不可同日而语;实际上,只有在这一假设下,强人工智能论才有意义。在强人工智能论(以及机能主义)里,程序是至关重要的,它与它在计算机里的实现毫不相干。实际上,就人工智能本身而言,同一个程序可以由一台电子计算机来实现,可以由笛卡尔的心灵实体来实现,也可以由黑格尔的世界精神来实现。我在讨论这些问题的过程中一个极为惊人的发现是,许多人工智能的研究人员对我认为人类实在的心理现象也许依赖于人脑实在的物理—化学特征的观点大为吃惊。但是,如果转念一想,你会发现对此并不应该感到吃惊。因为除非你接受了某种形式的二元论,否则强人工智能工程将寸步难行。此工程是通过设计程序来复制和解释心理现象的,但是,除非心灵不但在理论上而且也在经验上独立于大脑,否则,你就无法进行这项工程,因为程序完全独立于任何具体的实现。除非你相信心灵不仅在理论上而且在经验上也能与大脑相分离——这实际上是一种极端的二元论——否则你就无望通过设计和使用程序来复制心理现象,因为程序必然独立于大脑或其他任何具体的程序实现。如果心理活动就是对形式符号的计算活动,那么,它与大脑之间就没有什么有意思的联系;唯一的联系可能就是,大脑也是无数可以用来实现程序的机器之一。这种二元论并不是传统的笛卡尔式的二元论,后者认为世界上存在着两种实体。但是从坚持认为心灵的具体心理现象与大脑的实际特征没有内在的联系这种意义上说,这种二元论又是笛卡尔式的。这种潜在的二元论被蒙上了一层面纱,使我们不易察觉。因为人工智能的文献常常痛斥所谓的“二元论”,但这些作者都没有意识到,他们自己的论点恰恰必须以一种极端的二元论为前提。
“机器是否能够思维?”对此,我个人的看法是:只有一种机器能够思维,一种极为特殊的机器,也就是大脑或者具有和大脑一样的因果力量的机器。正是这个原因,关于思维的本质强人工智能论所谈极少,因为关于机器它几乎无话可说。根据它自己的定义,强人工智能论的研究对象是程序,而程序不是机器。不管目的性会是什么东西,有一点是可以肯定的,它是一种生物现象,像哺乳、光合作用等其他的生物现象一样,它的产生与其特有的生物化学结构有着因果性的依赖关系。如果我们用计算机来模拟哺乳和光合作用的形式顺序,就能生产出奶和糖,对此种说法恐怕没有人会相信吧?但是,一涉及心灵,许多人就愿意相信这样一种不可思议的奇迹,其原因就在于根深蒂固、源远流长的二元论:拥护这种理论的人认为心灵是一种形式过程,它跟奶和糖不一样,它完全独立于特殊的物质原因。
为了替这种二元论辩护,人们常常希望把大脑看成一台数字计算机(顺便说一句,早期的计算机常常被称为“电脑”)。但希望毕竟是希望。当然大脑是一种数字计算机。因为一切都是数字计算机,大脑也不例外。问题的关键在于大脑产生目的性的诱发能力决不可能是单纯地实现一个计算机程序。这是因为,对于任何程序来说,都可能用某样东西来实现它,而依然不具有任何心理状态。不管大脑使用了什么办法来产生目的,它决不可能靠实现某个程序来做到这一点,因为任何一个程序就其本身而言都不足以构成目的性。
(陈鲁明 译)
[1] 选自丹尼特等:《心我论》,上海,上海译文出版社,1999。
[2] 还有,“理解”既暗示了拥有心理(有目的的)状态,又暗示了拥有这些状态的真值(有效性和成功)。出于对本文讨论的考虑,我们只研究拥有这些状态时的情况。
[3] 根据定义,目的性是某些心灵状态的特征,这些心灵状态是针对有关外部世界对象或事态的。因此,信仰、欲望以及目的属于有目的性的状态,而无目标的焦虑和沮丧则不在其列。