我们将如何着手构建通用人工智能?简单地说,我们毫无头绪。当今还不存在AGI;也不存在任何类似的东西。业内大多数人认为,建立AGI是可能的。在我主持的人工智能播客“人工智能之声”(Voices in AI)上,访问过的大约70位嘉宾中,我只记得有六七个人认为不可能建立AGI。

然而,关于我们什么时候会看到它的预测却大相径庭。当我们为狭义AI设定一个相当低的标准,以使其获得“AGI”称号时,这项有抱负的技术必须要展示出人类拥有的各种类型的智能,例如社交商(Social Intelligence)和情商(emotional intelligence),思考过去和未来的能力,以及创造力和真正的独创性。历史学家雅克·巴尔赞(Jacques Barzun)说:“当计算机能给出一个具有讽刺意味的答案时,我们就知道我们拥有了AGI。”他大概还会接着说:“或许计算机还会因为有人说它是人造的而生闷气。”

AGI真的不同于狭义AI的进化版吗?例如,我们能否仅仅通过将越来越多的狭义AI串联在一起,直到这些狭义AI覆盖了人类经验的整个领域,从而实际创造出至少与人一样聪明和多才多艺的AGI?我们能制造出一个真实的弗兰肯斯坦式的AGI怪物吗?例如,我们能否制造出一个给地毯吸尘的机器人,一个筛选股票的机器人,一个开车的机器人,还有其他成千上万个拥有更多不同技能的机器人,然后把它们连接起来,以解决整个人类领域的问题?理论上,你可以编写这样一个冗长无聊的代码,但遗憾的是,这不是通往AGI的路径,甚至和AGI都不沾边。成为“智能机器人”不是有能力做10 000件不同的事情,而是将这10 000件事情组合到新的配置中,或者使用其中之一的知识来完成新的10 001件任务。

从某种程度上来说,与我们目前在狭义AI领域的经历相比,建造AGI的想法似乎有点荒诞。人们目前尚且处在为狭义AI的研究进展感到欢欣鼓舞的地步,狭义AI没有决断力,它无法自主学习没有被编程的事情。但是AGI与狭义AI是完全不同的,把两者相提并论就好像拿爱因斯坦和僵尸相比较。是的,他们都是两足动物,但是僵尸的技能非常有限,而爱因斯坦可以很轻松地学习新事物。僵尸不会去上夜校或者学习编织。它只会呻吟着“脑子!脑子!”整天到处游**觅食。这也是我们现在所拥有的AI——AI僵尸。问题是我们能否建造一个AGI爱因斯坦。如果我们真的建造了一个,我们会如何看待它?我们会认为它是什么?

此刻在我们的叙述中,AGI还没有意识。正因如此,它不能体验世界,也无法经受人间疾苦。因此,AGI本身不会引发存在主义危机(Existentialism)——存在主义是对人类与众不同之处的深刻反思,认为人存在的意义是无法经由理性思考而得到答案的。但这会促使我们提出两个问题:“AGI有生命吗?”“人类是为了什么而存在?”

关于第一个问题,AGI有生命吗,答案并不明晰。意识不是判断生命的先决条件。事实上,有意识的生物比例低得令人难以置信。树是活的,就像你身体里的细胞一样,但是我们通常不认为它们是有意识的。

那么是什么让生命存在呢?什么是生命?我们非但没有一致的定义,其看法可以说是大相径庭。甚至我们对死亡的定义也无定论。尽管对生命的构成还没有达成一致意见,但人们已经提炼出了关于生命的各种特征。AGI很可能会表现出其中的许多特征,包括生长能力和繁殖能力,将性状传递给后代,对刺激做出反应,保持体内平衡,并在死亡前表现出持续的变化。然而,AGI不具备生命的两种属性:由细胞构成和自主呼吸。人们不得不发出疑问,这两者是否仅仅是“地球上所有生命共有的东西”,而不是“所有生命所必需的东西”。我觉得我们会毫不费力地辨认出一个像活人一样和我们交谈的无呼吸、非细胞构成的外星人,那么我们为什么还要让AGI坚持这些特性呢?

以上特性是生命定义的科学性要求还是形而上学的要求呢?同样,我们在这方面也很难达成共识。哲学界并没有投入过多的时间来研究生命的极端案例,例如病毒,科学家对此也众说纷纭。细菌在数百万年的停滞期后于近期苏醒,它这么多年一直是活着的吗?还是它们已经死了,如今又复活了?

几千年来,对于生命的定义一直是一个有争议的话题,这表明我们不会很快在全人类范围内取得一致意见。既然如此,我们可以有把握地得出结论:在AGI是否有生命的问题上,将会有各种各样的观点,由于这种模棱两可,我们与AGI的互动可能会令人尴尬。那些以“我们是机器”答复关于“人类是什么”这一基本问题的人,以及那些认为自己是一元论者的人,很可能会认为AGI是有生命的,但是其他人却在此事上不能下定决心,他们摇摆不定,忐忑地左右观望。

第二个问题,“人类是为了什么而存在?”《连线》的创始编辑凯文·凯利简洁地写道:

我们将在接下来的10年——实际上,也许是下一个世纪中——度过一场永久的身份危机,不停地问自己人类的目的是什么……人工智能到来的最大好处是它将有助于定义人类。我们需要人工智能来告诉我们,我们到底是谁。

在过去的几千年里,人类之所以能保持在这个星球上的卓群地位,就只有一个原因:放眼四顾,我们是最聪明的。我们不是最大的、最快的、最强壮的、寿命最长的,或许也不是其他任何“最”打头的生物,但我们却是最聪明的。我们用这些聪明才智成为了地球无可争议的霸主和统治者。假设我们变成这个星球上第二聪明的生物,而且还是以令人尴尬的大差距位居第二,会发生什么呢?如果机器可以比人类更好地思考,机器人可以比人类更好地操纵物理世界,人类还能做什么呢?我怀疑我们还是会回到意识层面来探讨。我们可以体验这个世界,而机器只能测量它。我们享受这个世界。把它与死亡和生命的宝贵结合起来,你会得到一些对人类有意义的东西。这个想法在禅宗故事《老虎和草莓》中得以体现。在那个故事中,一个人被一只老虎追赶,为了自救,他跳下悬崖,抓住一根藤蔓,挂在那里。追他的老虎在悬崖上守着。而他下面的空地则徘徊着另一只老虎,情势紧迫,让他进退两难。这时候,祸不单行,一只老鼠出现了,开始啃食他抓着的那条救命藤蔓。垂危之际,这个人发现在旁边的峭壁上长了一株草莓。他暂时抛开死亡威胁,摘下草莓吃了起来,觉得自己一辈子都没吃过这么好吃的东西。那一刻,意识和死亡的结合,可能是我们用来定义自我的东西。我们是草莓的品尝者,正因为我们处在生死关头,所以能发自肺腑欣赏它的甘甜与芳香,从中体会到对生命美好的无限眷恋。

AGI可能实现吗

AGI可能实现吗?绝大多数在这一领域工作的人都会响亮地回答“当然”,潜台词是“这简直是废话!”最后。他们甚至可能会认为这个问题本身就有点可笑。但是我却认为这个问题远没有解决。我们从未制造出AGI,也从未制造出与它类似的东西。没有人知道它的制造方法。我们何时能创造出AGI?人们的估计从5年到500年不等,这表明很多人对实现它要花费多少时间看法不一。此外,我们不明白大脑是如何运作的,同样也不知道心灵和意识的运作原理。而这些恰恰可能是制造AGI所需要的。让我们回顾一下那些对创建AGI的可能性持不同立场的案例。认为AGI前途光明的例子非常简单,可以快速浏览,而反对的案例要稍显复杂一点。

AGI的案列

那些相信我们能够建立AGI的人,是从一个单一的核心假设出发的:尽管他们承认没有人理解大脑是如何运作的,但他们坚信大脑是一台机器,因此心灵也必然是一台机器。所以越来越强大的计算机最终将复制大脑的能力,并获得智能。正如史蒂芬·霍金所解释的:

我相信生物大脑能完成的事情和计算机能完成的没有很大区别。因此从理论上讲,计算机可以效仿并超越人类智能。

这句话表明,霍金会以一元论者的身份,回答我们关于宇宙组成的基本问题,那些相信AGI会实现的人也会如此回答。假设宇宙中任何事情都逃不出物理定律的规范,那么任何让我们变得聪明的东西也必须遵守物理定律。如果是这样的话,我们最终可以如法炮制,制造出同样智能的东西。“我们是什么?”霍金大概会用“机器”作答,从而再次佐证了AGI显然是可能实现的。机器可以是智能的吗?当然!你本身就是这样一台机器。

想想以下这个思维实验:如果我们建立一个机械神经元,它的工作原理和有机神经元完全一样,那会怎么样?如果我们也这般机械式地复制大脑的其他部分呢?考虑到我们可以制造其他人造器官,这不算一个突破。然后,如果你有一台拥有超能力的扫描仪,它可以在原子水平上合成你的大脑副本。你究竟要怎么争辩,才能证明这个大脑副本中没有你的智慧呢?

该论点认为,要想证明AGI不可能实现,唯一的方法就是援引大脑的一些神秘的、不可思议的特性,而我们还不能证明这些特性的存在。事实上,我们反倒有大量的证据证明这些特性不存在。每天我们对大脑的了解都会加深,但科学家们从来没有说过:“你猜怎么着!我们发现了大脑中一个神奇的部分,它违背了所有的物理定律,因此,我们得抛弃过去400年来所有基于这个物理定律的科学。”不,没有这样的奇迹发生,大脑的内部运作原理被一个接一个揭示出来。是的,大脑是一个了不起的器官,但它没有什么神奇的。它只是另一种形式的设备。

自迈入计算机时代开始,人们就列出了一系列计算机可能永远无法做到的事情。但计算机逐一做到了。即使大脑中真有一些神奇的部分(实际上没有),也没有理由认为这就是让我们拥有智能的机制。即使你证明了这一神奇的部分是我们智能的秘密武器(事实并非如此),也没有理由去假设我们找不到另一种获得智能的方法。

因此,这个论证得出结论,我们当然可以构建一个AGI。只有神秘主义者(mystics)和唯灵论者(spiritualists)才会否认。

否认AGI实现可能性的案例

现在让我们来探索另一面。如前所述,一个大脑包含1000亿个神经元,它们之间有100万亿的连接。但正如“音乐是音符之间的空白”,你并不存在于那些神经元中,而是存在于它们之间的空隙中。不知何故,你的智能来自各个神经元的链接。

我们不知道心灵是如何形成的,但我们知道计算机根本不像心灵那样操纵事物,甚至在这方面也不像大脑那样运作。它们只是按照程序做事。它们输出的文字对它们来说毫无意义。它们不知道自己谈论的是“咖啡豆”还是“霍乱”。它们什么也不知道,什么也不想,它们是如同炸鸡一样的死物。

计算机只能做一件简单的事情:处理内存中的抽象符号。因此,“支持AGI有可能实现”阵营的一项义不容辞的责任,就是解释这样一种设备——无论其运行速度有多快——实际上是如何进行“思考”的。

我们随意地使用有关计算机的语言,就好像它们是和我们一样的生物。我们会这样说:“当计算机看到有人反复输入错误的密码时,它会理解这是什么意思,并将其解释为有人试图违反安全协议。”

但计算机其实什么也看不见。即使在输入端顶部安装了摄像头,它也无法“看见”。它可以检测到一些东西,就像草坪系统使用传感器检测草坪何时干燥一样。此外,它无法“理解”任何事物。它可以计算一些东西,但它不具备理解力。

我们使用拟人化的通俗语言来描述计算机,好像它是活着的。但我们应该记住,这不是真的。现在做出区分很重要,因为对于AGI,我们讨论的是一台从“能够计算”到“能够理解”的机器。

早期的AI思想家约瑟夫·魏森鲍姆(Joseph Weizenbaum)在1966年创建了一个简单的计算机程序伊莱扎(ELIZA),这是一个自然语言程序,大致反映了心理学家可能会说的话。你说“我很难过”,而伊莱扎会问:“你觉得是什么让你难过?”然后你可能会接着说:“我很难过,因为似乎没有人喜欢我。”伊莱扎可能会回答:“你为什么认为看起来没有人喜欢你?”等等。对于那些花了很多时间和一个四岁的孩子相处的人来说,这种说话方式是很熟悉的。孩子会不停地、递归式地对所有的陈述提问“为什么、为什么”。

当魏森鲍姆看到人们竟然向伊莱扎倾吐心声时,他表示了反对。尽管人们说他们知道这是一个计算机程序,但约瑟夫说,实际上当计算机说“我明白”时,它在说谎。没有“我”,也没有所谓理解。

他的结论不只是对语言的吹毛求疵。AGI的所有问题都取决于对某些事情的理解。要想抓住这一论点的核心,请考虑美国哲学家约翰·塞尔(John Searle)在1980年提出的被称为“中文房间”(Chinese room argument)的思想实验。它的形式很宽泛:

有一个巨大的封闭房间,里面只有一个人。我们叫他图书管理员吧。图书管理员不懂中文。但房间里摆满了成千上万的书籍,让他可以用中文查找任何问题,并用中文给出答案。房间外面有一个说中文的人,用中文写下一个问题,然后把它塞进门底缝。图书管理员捡起那张纸,拿出一卷我们称之为第一册的书。他在其中找到了第一个符号,在这个符号旁边写着“在第1138册书中查找下一个符号”的指示。他跟随指示,在第1138册书中检索到第二个符号。在那个符号旁边,他被指示检索第24 601册书,并查找下一个符号。这样继续下去,当他最终在纸上画出最后一个符号时,最后一本书指示他把刚才查找的一系列符号抄下来。他抄下那些神秘的符号,从门底下传出去。外面的中国人捡起纸读图书管理员给出的问题答案。他发现答案是精巧的、机智的、深刻的和富有洞察力的。事实上,它确实很赞。

再重申一遍,图书管理员不会讲中文。他不知道问题是什么,也不知道答案是什么。他只是按照书的指示,从一本书检索到另一本书,然后照着书的指令抄写符号。

现在,问题来了:图书管理员理解中文吗?

塞尔用这个思想实验来说明,不管一个计算机程序有多复杂,它所做的无非是从一本书转到另一本书。没有任何形式的理解。很难想象没有丝毫理解如何拥有真正的智能。他明确地说:“从字面意义上讲,编程计算机理解的东西和小汽车、计算器理解的并无不同,也就是说,它们什么都不能理解。

一些人试图绕过这个争论,转而说整个房间作为一个系统是懂中文的。虽然乍看似乎可行,但它并没有让我们更进一步。假设图书管理员记住了每本书的内容,并且能够很快地从这些书中得出答案,这样你只要写下一个问题,他就能写出答案。但是,图书管理员仍然不知道他所写的符号是什么意思。他不知道自己写的是“洗碗水”还是“门铃”。那么,图书管理员理解中文吗?

这就是反对AGI可能性的基本论点。首先,计算机只是在内存中操作1和0。不管你做得有多快,这都不会让你产生智能。其次,计算机只是按照为它编写的程序运行,就像“中文房间”一样。所以不管它看起来多么令人称奇,但其实它什么都不懂。这只是一个“派对上的障眼法”。

值得注意的是,在AI领域,许多人很可能会为反对AGI可能性的案件论证大伤脑筋,并发现这一切都相当让人沮丧。他们会说,大脑当然是一台机器——否则还能是什么呢?的确,计算机只能处理抽象的符号,但大脑也只是一堆互相发送电信号和化学信号的神经元。谁能想到这会给我们带来智能?大脑和电脑确实是由不同的材料组成的,但没有理由臆断它们不能做同样精细的事情。他们也许会说:“我们认为大脑不是机器的唯一原因只是因为我们主观上不情愿承认自己只是机器。”而这显然是一种主观情绪,缺乏客观性。

他们也会很快对“中文房间”的说法提出反驳。反驳的理由有几个,但其中与我们的目的最相关的一个是被我称为“像鸭子一样嘎嘎叫”的观点。如果一个东西像鸭子一样走路,像鸭子一样游泳,像鸭子一样嘎嘎叫,我就假定它是一只鸭子。你“认为计算机不具备理解力”的观点真的并不重要,因为如果你能用中文问它问题,它会用中文很好地回答,那么按照鸭子理论,它就算是能理解中文了。如果“中文房间”能表现得好像它能理解,那么它就能理解。故事到此结束。事实上,这是图灵在1950年关于计算机是否会思考的论文中的中心论点。他说:“难道机器无法执行一些应该被描述为思考的事情吗?这些思考与人类的思考有很大区别吗?”图灵认为中文房间可以思考这件事完全没有问题。它当然可以思考。这是显而易见的。“它能用中文回答问题,但却不懂中文”的想法本来就是自相矛盾的。

这一切给我们留下了什么?

既然我们已经探讨了两个阵营的观点,让我们后退一步,看看我们能从所有这些中得出什么结论。

是否存在某种诱因使人类智能与机器智能从本质上不同?我们每个人是否都有某种机器所不具备的生命活力,能够激发我们的推理能力?有没有我们甚至没有意识到的X因素才是人类创造力的源泉?答案并不确切。想想澳大利亚著名机器人学家罗德尼·布鲁克斯(Rodney Brooks)[8]是如何看待类似问题的。他认为生命系统中有一些我们根本不理解却非常重要的生物方面的东西。他称之为“果汁”,并通过讲述一个被困在盒子里的机器人和动物的不同表现来描述它,机器人有条不紊地通过一系列步骤逃跑,相对应地,动物却拼了命地想挣脱。在他看来,机器人对任何事情都缺乏**,而这种**(果汁)是至关重要和有意义的。(顺便说一句,布鲁克斯确信这纯粹是机械的,并断然拒绝将“果汁”视为超出正常物理学范畴的某种属性。)你认为“果汁”是什么呢?

为了解决AGI的可能性问题,我邀请你回答六个是或否的问题。记录你回答“是”的次数。

中文房间会思考吗?

中文房间或图书管理员懂中文吗?

无论你认为“果汁”是什么,机器能得到它吗?(如果你认为它根本不存在,请回答“是”)。

你是否用“机器”回答“我们是什么?”这个基本问题?

你是否用“大脑的把戏”或者“涌现的心灵”来回答“你的‘自我’是什么?”的问题?

你是否用“一元论者”回答“宇宙的组成是什么?”的问题?

你回答“是”的次数越多,你就越有可能相信我们将建造出AGI。在我的AI播客上,大多数嘉宾都会用“是”来回答这六个问题。

这里没有中间地带。AGI要么是可能实现,要么是不可能。这两种观点之间判若鸿沟,因为它与我们对现实本质、自我身份的认同感和人类实质的核心信念有关。在AGI问题上,持不同观点的人之间的差异是没有方法弥合的。但我们至少可以理解为什么观点会如此不同。事实证明,聪明、博学的人得出截然不同的结论,不是因为一方有一些特殊的知识,只是因为人们相信不同的东西。人们对技术的分歧并不像对现实的分歧那么大。