纽约昆市区的一户人家,2058年1月

阿奇啪地一巴掌拍在餐桌上。

“不行!你绝对不能嫁给迈克,没什么好说的!”

“可是爸!”格洛里亚叫道,眼泪都快掉下来了,“从来没有人能让我有这种感觉!迈克让我觉得我是世间最值得珍惜的人。”

“宝贝,你真的很好,”妈妈爱迪丝插了一句,“阿奇,你得给迈克一个机会。”

阿奇从眼前吃了一半的肉排上抬起头来:“我给他机会了。”

“你没有,爸爸,”格洛里亚坚持说道,“你根本没给他机会。从一开始你就对迈克有偏见。”

“我没偏见!”阿奇咬着牙低吼,这指责让他火冒三丈。

爱迪丝望着餐桌对面的丈夫,语气平静地说:“亲爱的,我觉得你可能是带有偏见。”

“我的女儿绝不能嫁给机器人,没有谈的余地!”

这种蔑称让格洛里亚难堪极了,她猛地站起身来:“迈克是网络智能人,和你我有同等的权利!我们就是要结婚,你想阻止也办不到!”说完哭着跑出了房间。

阿奇刚一张嘴,看见爱迪丝沉着脸,想了想还是把嘴闭上了。他低头看了看盘子里的晚餐,发现自己完全没了胃口,于是伸手把盘子推到了一边。

情感技术和人工情绪智能将给社会带来巨大的变化。表现最明显的,莫过于我们的家庭关系。从积极的方面讲,这些技术将给我们带来新的沟通手段,让我们能以过去无法企及的方式交流情感。即便远隔千里,也可以体验爱人内心翻腾的感受。也许有一天,我们能将特别庆典时的感受记录下来,日后回放再次体验,或者在亲人逝去后很久再重新体验。

从另一方面讲,情感是维系家庭单元的重要因素,可是如今这些技术和机器所起的干扰却越来越大。虽然在传统意义上家庭是靠血缘和婚姻维系的小群体,但是我们已经看到有很多的人正向其他模式转移,这些模式包括重组家庭和收养家庭,或者一小群人像核心家庭一样生活在一起。鉴于这些形式的存在,随着情感技术的发展,可以预见我们也将看到越来越多的人愿意去与人工情感交互智能建立长期的情感关系。而这反过来又将最终导致人类家庭本身发生大的变化。

如果你觉得这种情感纽带仅限于人形物,那你就错了。这种情感依赖可以对大大小小的机器人产生,也可以对玩具、设备甚至程序软件和操作系统产生,就像在电影《她》中主人公对智能人工系统OS ONE所产生的依赖一样。随着这些人工情感交互智能发展得越来越精密,它们触发我们某些本能反应,也就是雪莱·特寇博士所称的达尔文按钮的概率也会越来越高。不管信号的发出者是婴儿、小狗、玩具,还是机器人,类似眼神交流、面部表情和特定姿势,还有发音等,都会触发人们的情绪反应。这些按钮会启动一些身体反应,而这些反应最终将触发抗利尿素和催产素等激素的分泌,引**感联系与依附行为的发生。这样的反应在亲子情感联系中无疑是极为必要的,它能保证后代的长期生存。鉴于人类从婴儿到成熟到可以完全自立,要经过漫长的过程,人类的这种联系和依附过程必须维系很多年,比其他所有动物所需的时间都要长得多。

在这个漫长的发展过程中,孩子不仅仅是身体长大了,他们的认知和社会能力也在不断增长。这是这些幼小心灵最先接触到的基本核心知识——对这些的学习要远早于更高层次的概念和抽象知识的学习。基本的情绪反应、发音、面部和眼动跟踪,大动作和精细运动机能,都是这一学习过程的一部分,另外还有自我意识、分清自我与他人,以及对是非概念最基本的掌握。随着时间推移,孩子们会习得更多的复杂技能,对语言和可接受的社会行为的掌握也更为精准。不过所有这些都需要时间,需要情感相关的付出、需要耐心和引导。没有负责任的照顾和教导,孩子步入歧途的风险会有增无减。

尽管人工智能远没有正在成长的儿童心智那样精细复杂,但是如果得不到足够的照顾和监督,它一样会受到伤害。2016年3月23日,微软在全球范围内推出了Tay。Tay是一款基于人工智能的推特聊天机器人,设计形象为一位19岁的美国女孩。按照设计,这个聊天机器人在与推特用户,尤其是18~24岁的用户交流过程中会自主学习。这个年龄段的手机用户,是微软想要争取的销售对象群体。可惜的是,事情并没有按照预期的路线发展。在上线还不到24小时,发出了近十万条推文之后,Tay已经从甜美的青春女孩变成满嘴脏话的种族主义者。她出口成脏,用词极度下流,公然表示支持希特勒。结果不到一天时间,这个人工智能机器人就被迅速下线。微软谴责一些用户故意用各种反社会的污言秽语与Tay交流,其用意明显就是要把这个机器人毁掉。

不用说,任何熟悉互联网和人类行为的人,对此应该都不会觉得意外。微软谴责用户的行为,往好了说,也不够坦诚。Tay的设计,就是通过深度学习算法,在与人的互动中习得语言及语言的使用。就算没有那些不怀好意的用户蓄意破坏,单说让人工智能直接从网络上学习,也是自找苦吃。就像儿童需要有人引导去学习和鉴别善恶,先进的人工智能在最开始的时候也需要一定的负责人的监督(我本来很想说“成人”监护,但不幸这个形容词在网络上的意义与日常用法极为不同,很可能会引发各种麻烦)。

可这件事根本算不上此类事件中的首例。2011年,IBM的DeepQA项目负责人艾瑞克·布朗决定用专门解释现代俚语俗语的在线词典《城市词典》教智能机器人沃森(Waston)。当时,沃森刚在美国老牌娱乐节目《危险边缘》中大获全胜。布朗觉得,用这本词典教沃森,是让沃森了解非正式用语错综凌乱的好办法。结果没过多久,这个智能机器人就脏话连篇。DeepQA团队不得不将这个新输入从沃森的词库中删除,同时再给它设计一个脏话过滤器。

2012年,谷歌很神秘的X实验室在没有给出任何限定指令和引导的情况下,决定推出谷歌当时最先进的人工神经网络算法的人工智能,结果同样发生了类似始料未及的事。他们给人工智能看了一千万份随机从YouTube上选取的视频剪辑,结果人工智能很快就开始自主辨识和选择特定图像。尽管谷歌这个复杂的神经网络并没有接受过任何训练,甚至没有指令告诉它该找什么,它自己就开始收集各种各样猫的图片。大猫,小猫,长毛的,短毛的,没毛的,好动的,淘气的,它把各种毛色、体形和大小的猫都挑了出来。要是计算科学家族评选对猫最着迷的人工智能,那谷歌的这款当之无愧。当然,对于其背后的原因,我们只能猜测。造成这个人工智能如此酷爱猫咪的原因,很可能只是因为网络上猫的图片太多,特别是全世界爱猫人士上传的巨量共享视频。但是由于人工神经网络运作的复杂性,我们可能永远也得不到明确的答案。

这里要说的重点是,随着人工智能水平的不断提高,我们想得到积极的结果,就需要对机器的自主学习加大管控和监督力度。尽管这些软件现在还远远达不到人的智能水平,但也还是应该比照我们培养人类儿童的类似方法照看维护。我们不可能对极易受到各种影响的幼小头脑放任不管,然后期望一切都会好起来。对于年轻人的教育而言,这种教育策略肯定行不通,那么对于技术先进但是没有经过任何训练的人工智能来说,自然也好不到哪里去。

从另一方面讲,鉴于很多人对人工智能的反应方式,我们应该也无须担心人们会无视人工智能的问题。

1996年11月,日本玩具制造商万代推出了一款电子鸡,这是世界上首批电子宠物之一。玩具的外形像只鸡蛋,最初的设计是要帮助年轻女孩子了解照顾孩子是什么样的感觉。结果电子鸡迅速热卖,取得了意想不到的市场效益。小鸡上有不同指示,显示小鸡的饥饿度、快乐度、听话度和整体健康状况。主人需要定时喂食,陪小鸡玩,给它们清理。要是做得不到位,小鸡就会得病,还会死掉。孩子们,尤其是女孩子对电子小鸡特别投入,如果这个电子宠物“死”了,他们会特别伤心。一旦宠物“死”了,还有专门的墓地可以埋葬。据说,有一个小女孩甚至因为自己的宠物死了而自杀,酿成惨剧。市场上一直可以找到这个玩具的多种版本,包括虚拟的在线版。

虽然电子鸡“瘟”可能不过是又一波最终会过气的狂热,但不可否认它看来触及到了人类反应和行为的某些核心层面。在《一起孤独》这本书中,麻省理工学院教授、社会心理学专家雪莉·透克将这种设备与经典儿童故事《绒毛兔》中的绒毛兔进行了对比。《绒毛兔》讲的是,一个绒毛玩具因为孩子的爱变成了真正的兔子。而电子鸡则把这个概念倒过来,它要求孩子要给它关爱,如果得不到孩子的关注它就死给你看。透克这样解释道:“因为有这种对关注的孜孜以求,所以它在生物学意义上是不是活的这个问题就基本没人在意了。我们对自己辛苦培育的东西会珍爱,如果电子鸡让你喜欢它了,而且你觉得它也爱你,感觉上它就足够活了,成了活物了,活得足以分享你生命的一小部分了。”

随着虚拟宠物发展得越来越精密先进,这种行为还会继续持续下去。比如最早制造于1998年的动漫电子玩具菲比精灵,就是一个例子。菲比精灵的样子介乎小型哺乳动物和一只大胖鸟之间。它能做出一系列表情动作,包括可以动嘴动眼。设计这些特点,就是希望使用者觉得这个玩具有一定的初级情绪智能,虽然事实上它根本没有。菲比精灵最为突出的一个特征,是它对语言的应用。刚开始的时候,精灵说的是“精灵语”,但是随着孩子与精灵玩耍的时间越来越长,它开始慢慢说英语。虽然精灵使用的英语词汇数量随使用时间加长而增长不过是预定设置而已,但是做得很巧妙,足以让年幼的孩子相信精灵是跟他们学的——换个说法,孩子们认为他们在教精灵说话。这种交互关系在孩子和“宠物”之间建立起了一种情感纽带,继而在一部分人身上触发了依恋反应。类似行为在其他很多有社交能力的机器人玩具中也能看到,原因就是这些机器人以某种方式触碰了我们的某个达尔文按钮。面部和声音识别能力、唤起式的发音以及其他一些方法,最终目的都是要说服我们相信这些设备是活的,不仅仅是一台机器而已。索尼的机器狗AIBO、美国生产的仿生宝宝My RealBaby[10],还有其他不少儿童玩具,都在试图利用我们的情绪反应,通过这种策略来与孩子建立情感联系从而促进产品销售。

我们会看到越来越多的仿生设备,以及会让我们投入情感的设备,成为我们生活、家具甚至家庭的一部分。现在很可能只是这种趋势的发端。近年来已经有不少失去孩子的成人,特别是女性购买手工制的仿生娃娃,以安抚情感上的痛苦。在上一章中,我们讨论了一部分人会寻求**机器人的陪伴,以逃避人与人之间复杂的情感关系与不时的纷扰。但是如果人工情感交互智能变得越来越真实,我们又将面对什么样的未来呢?

在初始阶段,也就是今后的10~15年间,我们可能会看到这些设备在情感渗入度上继续缓慢进步。还记得吗?目前情感技术方面的进展大多是在情感检测方面,情感模拟一直处于落后地位。这种局面今后也许会发生改变。随着我们对情感表达各层面的细微区别越来越了解,获得的知识会以不同方式得到应用。起初这可能是以语音互动的方式出现,就像我们在第一章开始时看到的阿比盖尔和私人数字助理间的场景。这种互动对机械和材料的技术要求最低,某种程度上就像跟值得信赖好友通电话一样。这是一个切入点,很多人就是从这一步,出于许多不同的目的,开始使用和接受拟人态的人工情感交互智能。

在这一阶段,我们会看到具有情感意识的虚拟人物化身,与不同虚拟世界中的用户和玩家进行互动。它有两种形式,其中一种形式是增强现实和混合现实,它们将虚拟的东西与真实存在的世界融合在一起。另一种形式是虚拟现实,就是完全浸入电脑生成的环境中。“遥在”技术是另外一种可以做到这一点的媒介,现在这项技术在公司企业中的应用正日益广泛。不过,尽管这些技术今天我们基本都有,但要实时解读情绪并生成非常传神的情绪表达,对计算机的处理能力要求还是太高。当然,今天的虚拟人物化身确实能够与人互动,也能表达有限的面部表情,但是这些表情还非常简单,而且还是预设好的,缺乏真实的人脸所能表达的细微变化。不过随着计算机软硬件的不断改进,这个问题应该逐渐不成其为问题。

随着机器人技术的不断改进和机器人价格的不断下降,也随着人工情绪智能越来越趋向实体化应用的转变,类人机器人的情绪表达可能会越来越自然。限于机器人技术和材料技术的发展水平,还有一直存在的恐怖谷问题,可能这些机器人从一开始并不会做得像真人。不过随着时间推移,机器人的仿真度也许越来越高,毕竟这仍然是我们最自然的互动手段。这项技术最初只有富人用得起,说不定还会被当作亿万富翁的一种身份象征。但是年轻人慢慢地会开始追捧,说不定到时候他们会喜欢那些面部比真实人脸更夸张,或者说更有卡通效果的机器人。但是因为一开始的价格极为昂贵,所以最初可能只有那些有钱的年轻明星为了追求曝光度才会去买(也说不定这些明星的企业赞助人会给他们提供)。

这样的技术发展背后有很多推动因素,其中很重要的一个因素就是数字私人助理的发展。鉴于我们的生活越来越复杂,对时间安排的要求越来越高,价格低廉又具有智能的虚拟助理,对我们环环相扣的生活会大有裨益。这些助手是我们的预约安排人、私人购物助手、合同谈判人、仲裁人等,通过情绪这个我们最为自然也最为社会化的社交,与我们互动,代表我们行事。而在后台,它们还能与其他机器互联。

随着这项技术的发展越来越自然、越来越精细,具有了某种解读情绪并做出响应的渠道,我们就会看到越来越多的使用者把自己的私人助理当作真人一样对待。在对待日常用品的态度上,我们已经看到很多这样的例子,而这些助手会激发我们类似的反应,只不过程度更高而已。随着它们的仿真度不断提高,随着我们与这些助手间的互动体验不断改善,这种发展趋势会一直继续,直到最终我们对这些机器的投入程度,已经与人和人之间正常互动时的投入难分高下。即便这些助手依旧是冰冷的、没有意识的机器。

这是好还是坏呢?假设我在和一个机器人互动,而这个机器人不论是外表还是行为举止都像人,那么我行事就会越来越把它当作人来对待。我们这样的情绪反应完全是出于本能——想不这样都不行。就算老一辈人中有比较顽固、能顶住这种趋势、始终保持对机器人的不信任的,但年轻人的态度十有八九会更为开放,更能接受用新的眼光看待人机关系。最终,对机器人的态度会发生转变。关键的问题是,这种转变需要多久,其间我们会经历多少痛苦?

此外,所有这些又会产生怎样的社会效应?我们已经看到恋物癖人群的存在。所谓恋物癖,也就是对某一物体产生了强烈的情感依恋,强烈到爱上了这一物体,甚至有人试图想与该物体结婚。我说“试图想”结婚,是因为目前这种结婚仪式不具有任何法律效力。但是今后也会一直如此吗?

我们还会看到,随着机器不仅在智商,更在情商或者说情绪智能上不断提高,未来我们对健康人际关系的很多观点都会受到挑战。随着部分机器人越来越逼真,越来越像人类,能从包括外貌、触感和体味等各种感官上吸引我们投入,那么就会有更多人愿意把它们当作真实的、有生命的伴侣和家庭成员予以接受。就算对人工智能是否已经跨过某些区分人与机器人的关键临界点还持有怀疑,人们仍然会这样做。那么如果机器智能最终有了真正的意识和自我意识又将如何呢?那不是就一切都变了?我们先暂时将前提问题人工意识是否可能实现放到一边。我们现在先来看这个问题:如果人工智能意识到了“我思故我在”又将如何?笛卡尔的表达实在是太精辟了。

几十年来,人们总是认为,有很多很多事人工智能永远做不到。从理解自然语言到创作音乐到驾驶汽车,一路走来人工智能创造了一个个里程碑。现在的人工智能已经在读取人们的面部表情,让人们在感觉上相信自己是在和另一个人对话。如果从中有什么可以总结的地方,那就是千万别认为技术做不了什么。

等到技术的笛卡尔时刻[11]真的到来,那么我们对待人工智能的态度会发生怎样的变化?每当一个动物物种在人们看来智商很高时,就会有一大批人站出来,寻求对这一物种进行保护。对于灵长类和鲸类这些物种,甚至有人呼吁要把它们当作人一样对待。因为缺乏标准化的物种间智力测试,所以这些动物的相对智力水平和自我意识水平,目前都还是未知数。但是,与人类自己的智力和意识水平相比,人工智能处于什么程度,我们还是有一个大致概念的。虽然其中某些物种具有由多个感质(qualia)[12]单位及其他组成单元构成的现象意识—主观体验状态,水平也许与人类的相当,但是可以肯定地说,这些物种不具有我们这么高度复杂的意识运用或内省能力。

在这个理论推导的未来世界中,我们会遇到这样一种智能,它可与我们的智能相媲美,在很多方面的表现也许超过我们。它不仅在情感能力方面与我们相当,而且意识和自我意识水平也与我们不相上下[13]。有了这些,我们怎么能否认这些存在配得上与我们相当的保护和权利?它们怎么就不该被视作平等之物?

人们的实际反应与我们期望的总有所出入,这次恐怕也不例外。如此巨大的文化转变,可能遭遇各种各样的偏见与抵制。从彻底否定到明晃晃的暴力抵制,反对者会寸步不让。一部分人会寻求通过立法手段解决问题,将人机智能间的区别以法律条文的形式明确。也肯定会有宗教团体跳出来辱骂这些新的生命形式,觉得它们没有灵魂,或者没有神圣火花,或者缺了什么你有的。辩论两方的有生命、有意识的存在,会在这场辩论中受到挑战,甚至性命不保。甚至更大规模的冲突也不是不可能。总之避免演化升级成战争吧。

但是,随着时间流逝,人们会慢慢接受这种新的现实,会通过立法来维护这种新形式的权利,给它们提供保护,并赋予它们平等的地位。且不说我们与技术彼此依赖,只看我们与技术的共同发展历史,别的任何选择,代价之高都不是我们能承受的。最终我们也许会看到人类与智能机器的联姻和融合继续下去。也许到了那一步,连这种区分都不再举足轻重。

想要克服这个过渡期中的种种挑战,转变视角不失为一种解决方法。如果最终制造出有意识、有感情的机器人是一种自下而上的手段,那么人类增强就可以被称为是自上而下的手段。与技术更紧密地融合,这种趋势由来已久,而且将继续进行下去。今天已经有越来越多的人在体内植入了精密复杂的高科技材料和设备,而他们自身还与从前一样,是地地道道的人类。从关节置换到神经植入物到人造心脏或其他器官,第一代赛博格的人数已经达到数百万。随着背后的动机开始慢慢从修复转向增强,这个数字只会越来越高。不管是为了更聪明、更强壮、速度更快,还是寿命更长,我们会看到越来越多的人出于不同动机,要对“人类1.0版”进行改进。随着这些增强手段的不断精进,它们与身体的无缝对接和融合程度越来越高,使用者最终会变成技术生物混合体。

这种转变绝不会仅限于身体上的变化。用于替代和矫正脑功能损失及与之紧密相关的感官系统的多种设备,其相关研究和人体研究已经进行相当长时间。人造视网膜、耳蜗植入物、脑深层刺激、神经假体,这些只是一个非常微妙的发展趋势的初始之机。我们将会比以往任何时候都要聪明,我们对知识和信息处理能力的掌握简直是即时的。几乎可以肯定这种趋势也会延伸到情感愈合和增强上。我们已经看到军方在投入大量的资源,研制不同类型的认知修复与认知增强工具,希图找到治疗创伤后应激综合征和抑郁的方法。科研实验室中的人机界面研究也进展飞速。随着我们对大脑的工作机制了解得越来越透彻,大脑的整个部分将变得可替换。目前尚处于研制阶段的一种假体,将很快可用于取代发病或受损的海马体。海马体是边缘系统的一部分,位于内侧颞叶脑部深层,对于短时记忆转存为永久记忆的存储转换起着至关重要的作用。这种假体的最初设计,是为了修复大脑这一极为重要的功能,最终可能用于阿兹海默症的治疗。另外,还有一种神经假体芯片也正在研制中。研制这种芯片的科技初创公司Kernel,希望能对中风、阿兹海默症和脑震**患者有所帮助。得益于所有这些研究和技术进步带来的知识,也许有一天我们能帮助健康的假体接受者大大提高智力和记忆力水平。这些技术的一些概念验证版产品,已经在老鼠和灵长类实验动物身上进行过试验,很快小规模的人体实验也将要开始。几乎可以肯定,以后还会出现能进一步强化人脑功能,包括提取和处理情绪的关键脑区功能的方法。

很多人觉得,要改变像大脑这样重要的器官未免让人不寒而栗。毕竟,大脑是意识之所在,是知识和个性的核心,是我们之所以是我们的存在基础。一个人怎么可能在改变了大脑之后还是同一个人?

这种观点,是以你始终是同样的人为假定前提的,但这个假定不论是从生物学角度还是哲学角度都有值得商榷之处。从哲学上讲,人格同一性这个概念所探讨的,就是一个人在经过一段时间后是否还是同一个人。既然我们是我们所有经验的总和,而且是在不同的条件和情境中持续存在的,我们真的能说现在的自己与昨天的自己是同样的人吗?从生物学角度讲,我们都知道我们体内的所有细胞都在不断更新。角膜细胞的更新周期仅为一天。皮肤细胞每两周更新一次。肝脏细胞每150天至500天更新一次。骨细胞平均大约每十年都全部换成了新细胞。这样来看,每七至十年,你身体的所有细胞就已经全换过了一遍[14]。唯一的例外就是我们的神经细胞,它基本伴随我们一生。某些神经细胞会死亡,成人的嗅球和海马体的神经细胞,也就是新神经元虽然会再生,但是数量很有限。总体而言,普遍认为神经元是人体细胞更新的一个例外。

但是,这并不是神经元唯一的不同之处。单个的神经元个体,并不能产生思想、人格或者意识。心智的这些层面,只有在大脑中那一千亿个神经元构成的网络中才会形成,而这个神经元网络处于不断变化之中。突触权因子和树突间的相互连接,同样在不断变化,于是我们所成为的这个人时时刻刻都在变化——不论是心智上还是情感上。也正因如此,一些哲学家和认知学家才会提出,自我的持续性是一种假象。但明显,我们中的绝大部分人肯定不易接受这样的观点。

公元75年前后普鲁塔克所记载的思想实验《忒修斯的船》,对这一悖论进行了解释。在《忒修斯的船》中,一条木船被一次替换一条船板、一个部件。在换下了第一条船板时,没有人会说这条船不是同一条船了。第二条船板换下来时,也是一样。到最后整条船上的所有船板和部件全部被替换了。那么这还是同一条船吗?如果不是,那么这个转变又是在哪一点上发生的呢?古希腊哲学家赫拉克利特对这一悖论提出了一种解答,他把这条船与一条水流不断的河相比。河水时时刻刻都在变化。但河却始终是同一条河。

同样的思想实验也可以用在大脑上。单个神经元细胞,被一个能完美模拟其全部功能的微型芯片或电路所替代。这个人毫无疑问还是原来那个人,没有变。第二个芯片替代了第二个神经元细胞,以此类推,直到替代了大脑的各个皮层、脑区和功能,包括与情感相关的平层、脑区、功能等。假设复制进行得非常完美,那么这个人的新大脑就具有原来大脑中一直就有的全部知识、人格和情感。那么在哪个阶段这个人就失去自我不再是原本那个人,或者可以等而言之地说,不再是人了呢?不论是哪种情况,答案都可能是,我们该关心的不是每一个组成部分,而是由这些组成部分构成的新网络——不管这个网络是带有它自己刚出现的心灵特质的一整条船、一条河、一个身体或者大脑。

我们再来想想一个正好相反的情景,就像美国著名科幻小说家艾萨克·阿西莫夫创作的《机器管家》中的情景。贯穿整个故事的是一个名叫安德鲁的机器人。它的身体部件被一个接一个地替换掉了,替换材料是原本供人类使用的顶级仿生生物假体。最终,它包括大脑在内的全部身体部件,都在细胞层面具有了人体器官功能,而它也最终获得了法律上的人类身份。虽然上面这两个假想情景中的技术水平,目前我们的能力还远未达到,但是并不能说以后将一直如此。事实上,它们成为现实的那一天,也许远比很多人预想的要早也未可知。

那么正在发生的种种技术变革,能帮助我们充分转换视角,避开前面所提到的成长之痛吗?这个很难说。随着我们与技术结合得越来越紧密,技术也越来越像人类,也许在今后的发展道路上,我们将不会分作两个完全不同的群体。三百万年之后,也许我们最终将看到这两个部落渐渐融合,最终成为一个物种。不管新物种是叫作Homo hybridus(混合人),还是Homo technologus(技术人),还是别的什么伪拉丁变体也好,重点是我们本质上成了一家。

在那一天到来之前,在接下来的几十年中,我们对这些技术伙伴的态度还会发生多次转变。在当前阶段,公众对机器人和人工智能抱持的态度喜忧参半,一边期待各种新奇迹的到来,另一边又担心会发生大规模的失业,或者智能爆炸会失控。在这一阶段,我们肯定会看到这种状态起起落落。但是很显然,到了人们不再怀疑这些机器确实能体验情感和自我意识的那一天,情况就会完全改变,对人机情感关系的诸多反对声音就会消失。但是在那个转变时刻最终到来之前的很长时间中,会有很多人出于多种原因对这个不断变化的世界心怀不满,只想留住往日的美好时光。这些人会尽力寻找各种逃避方式,甚至超乎他们自己的想象。