伊拉克费卢杰,阿拉伯标准时间2008年5月24日

一辆装甲人员运输车高踞在幼发拉底河河岸上。美国海军爆炸品处理部队的专家达尼尔·哈里斯,正在车上全神贯注地看着斯普林格出去执行任务。那位忠于职守的斗士,正沿着横在他们前面的钢桁架桥小心地向前移动。薄烟笼罩的夏日天空中,伊拉克的烈日在头顶上明晃晃地炙烤着。哈里斯抹了一把眉毛上的汗,飞快地扫了一眼周围的战友。爆破小组中没有一个人说话。每个人都紧盯着他们的队友,看着他小心翼翼地向简易爆炸装置靠近。

下一秒,一切突地乱作一团。

“他没信号了!”杰克逊突然在无线电中叫起来。

“他往桥边去了!”有人喊道,“小心!”

哈里斯探头一看,看见斯普林格正快速冲向桥的左侧。

“关机!”皮尔逊中尉命令道。

“正在关,”杰克逊叫道,“他没反应!”

“赶紧关!他要掉下……”

那一刻,众人鸦雀无声。哈里斯朝下面的桥望去,这才明白过来。斯普林格的履带突然卡住了,太及时了。他小小的身子有三分之一险险地悬在残桥外。换成平常,他早就掉进下面的河里了。要不是他夹爪上那个装着炸药的容器重量作用,肯定就掉下去了。

杰里·斯普林格还是一动不动。这是一辆矮矮的、双臂可伸展、手腕可360度旋转、带四个定焦彩色相机的双履带遥控车,是配备给美国海军爆炸品处理717连的一个标准版“魔爪”(Talon),一个机器人。

全队都冲过去营救自己的队友。他们知道派真人上桥过于冒险。那个简易爆炸装置随时都可能爆炸。于是他们只有一个选择,派另一个机器人去。

被派去的那个小小的背包机器人(Pacbot),大家都叫它“丹尼·德维托”。丹尼来到桥三分之一的地方,牢牢地抓住魔爪的抓手,使劲往后拽。可他用尽全力,还是拉不动比它大一号的机器人。两个机器人在重量上实在相差悬殊。

实在没办法,大家只好改变策略。他们让背包机器人回来,飞快地在上面连了一根能负重550磅的尼龙绳。然后又把丹尼派上桥,操纵丹尼把尼龙绳系在斯普林格的拉手上。绳子全都连好,战士们才小心翼翼地将斯普林格从桥边上拉了回来。

如果你觉得这些听起来有些怪,你倒也不是唯一有这种感觉的人。但现实是,随着军方逐步加大机器人在军事行动中的应用,类似上面的这种情况也会越来越多。在执行任务的过程中,士兵们经常给自己的机械战友定性别、起名字,定义它们的习惯秉性。更为重要的是,如果机器人出了事,士兵们会在乎,好像机器人是团队中的一员。不过,在很多层面上,它们确实也是。

华盛顿大学当时的博士研究生朱莉·卡朋特(Julie Carpenter),在2013年完成的论文中,约谈了23位爆炸品处理部队成员,对这些成员与机器人之间的互动进行了研究。卡朋特发现,很多受访者会经常性地将这些机器拟人化。机器人要是损坏了,他们会感同身受,还常常因为机器人的损毁而愤怒难过。有好几次,他们甚至还为因公殉职的机器人举行了葬礼。

事情远不止如此。在卡朋特的研究之外,还多次发生过那些经常与机器人一起工作的士兵,为倒下的机械战友颁发奖章,乃至为它们鸣枪21声的实例。

那么这些士兵为什么要这么做?为什么竟然会有人这样做?

卡朋特和其他一些研究者指出,这是因为人有一种自发需求或者倾向,要和那些与自己密切合作的伙伴产生认同、建立联系,即使那些伙伴并不是人类。仔细想想,我们经常会给自己的车、船或者工具起名字,跟它们说话,前线士兵的这种举动也是一样,这么一想就不以为怪了。有位士兵曾在军方的留言板上这样写道:“汽车、吉他、武器……给技术设备起个名字也没有什么奇怪的……所以认为机器人为了挽救生命牺牲了自己也不算太离谱。”

需要澄清的是,这些士兵并没有跟自己的机器人关系紧密到影响任务执行,或者干扰人际关系的地步。卡朋特曾问受访者,在看到机器人被炸飞了是什么感受时,一个名叫杰德的士兵是这样回答的:

“啥心情都有……刚开始吧是有点生气,你看,刚有人把你的机器人给炸飞了。那你肯定心里挺恼火的。你就想到,你人员少了,那你得自己从卡车出去的可能性就大了。然后呢……有点像……有个机器人为了救你死了,所以又有点儿难过。但是呢,话又说回来,这只是个机器,是工具,出去了结果给炸飞了,这事说不定原来是要出在你身上呢,所以你又挺……总的来说挺高兴。就因为你看现在这事是出在机器人身上,不是出在人身上。所以呢,是所有情绪都搅在一起。你看,一开始是生气,心里有点恼火,然后呢,也没什么特别的感觉,有人把个机器人给炸飞了。一方面是,你刚刚失去了一个你依赖了很多次的工具,另一方面是,那个工具刚刚救了你的命……可怜的小家伙。”

——杰德(41岁,美国海军高级军士)

就算不走到极端,也明显看得出来,这些士兵是把这些机器人拟人化了。拟人化,是指赋予非人的实体,比如动物、无生命的物体,乃至如风暴或者咆哮的大海等现象以人的特征和特质。心理学家给出了我们之所以这样做的多种可能原因。被拟人化的客体可能在某些方面与人类相像,比如玩具熊或者小孩子的玩偶。但也可以与人的外表完全没有相似的地方。虽然没有相像的实体特征,但有能让我们联想到人的某些特质,比如能让我们体会出勇猛或者耐心。另外一个原因,是拟人化有助于我们理解自己不熟悉的事物。通过将一个事物放入我们熟悉的情境,即便情境不完全正确,也还是能帮助我们理解这件事物的功能。属于这种类型的简单实例,在我们的语言中比比皆是。椅子腿、组织机构的头儿,与生物上的概念相似度可谓相差甚远,但是这样的用词,能很快将信息传递出来,帮助你理解它们是什么功能。最后一点,还有我们对社会联系的需求。显然,我们天生就有的情绪和社交互动能力,不仅有助于我们彼此建立关系,也有助于我们更好地理解这个世界。从历史来看,甚至对我们的进化都做出过有益贡献。

卡朋特通过观察,也认同这样的观点:“如果我们认定这两件事物很相似,我们会非常自然地把与一个事物互动时的准则,应用到与另一个的互动中去。这样我们就能将已有的知识有效地利用起来。有意思的是,有一些时候,士兵们确实是将人与人互动或是人与动物互动的模式用在了人与机器人的互动中。这绝不只是为了社交而社交的尝试,而是努力去理解我们的人机互动关系的很聪明的方法,以期达到让机器人更具效用的目的。”

只可惜,说起机器,这种互动往往都是单向的。不管我们多么想和坏掉的烤面包机分享我们的沮丧,它都无法理解我们的想法,也不可能根据我们的感受来调整自己的行为。至少现在是如此。

2014年6月,东京涩谷商业区的日本软银移动旗舰店外,人们耐心地排起了长队。大家都期望能有机会看到小机器人“胡椒”(又译“佩珀”, Pepper),那个号称是全世界第一款市面出售的社交机器。胡椒是人形机器人,高度不足1.2米,白色塑料外壳亮亮的,看着很可爱。它会说话,会做手势,能通过一系列预设问题和笑话,与客户进行一对一互动。利用复杂精细的语音识别系统,并辅以大量的视觉和听觉技术,它可以对人的情绪进行解读。胡椒的交谈方式已经比较智能,算是与真人交流比较相像了。虽然还远未达到真人级别的交流水平,但不可否认它绝对是技术打造出的一个令人惊叹的成果。

发明胡椒的是软银旗下的法国机器人公司Aldebaran。他们称胡椒是世界上第一款真正的社交陪伴机器人。胡椒能辨识人脸,理解言语和触摸,会说17种语言,甚至还有幽默感。而最为重要的是,胡椒能理解人的情绪,并做出回应,这项任务对任何机器来说都不是小菜一碟。到了2015年年中,Aldebaran和软银开始向公众出售这款机器人,据报道,一分钟之内就售出了1000台。这也让我们间接看到了市场对这类技术的需求,至少是在那些技术控和技术先期接受者中是这样。胡椒的售价不到2000美元,其设计目的就是为日本日益庞大的老年人群提供陪伴。虽然胡椒在设计上还不能从事家务活动,但是它反应敏捷,有足够的学习能力,以后的版本拾掇家务似乎也不是不可能。

说起拥有识别和理解人类感受能力的设备,胡椒远不是首款,它只是第一台公众可以直接拥有的此类设备。在过去的二十年间,社交机器人已成为情感计算越来越重要的分支,而这种趋势也将随着此类机器精细度的提高而延续下去。

如果说情感计算是以多种技术和体系为基础的,那么社交机器人就更是如此。它们不仅要像情感计算那样,从多条线索中分析确定使用者的情绪,还必须有能力以一个独立实体的身份做出回应,展开互动。在研发这些功能的过程中,研究人员不仅在如何设计这些机器上学到了很多,更对我们人类自己的心理学,以及如何成功把握有了长足的认识。

要想让机器人能真正与人类互动,那么理想状态下,它们与我们的交流应该与我们人类之间的交流一样。要做到这一点,它们就要能识别一个人,能推定出这个人在做什么、是怎么做的。这就意味着,不仅要准确地评估人的外在状态,还要准确地评估人的内在状态。这在人类心理学中被称为“心智理论”(Theory of Mind,ToM),大多会在儿童2岁到5岁期间开始发展。这一能力的发展,让我们能对他人与我们分离的、独立于我们的精神状态,包括知识、信仰、情绪、需求和企图及其他一些状态进行识别和归因。在机器人和其他人工智能身上创建与使用心智理论,在部分人工智能圈里被视为一个巨大挑战。谁也不能保证这一步最后能实现,但是如果我们能从还原论的角度来看,假定心智可以还原成大脑的物质属性,那么这个目标最终应该是可以实现的[47]。在这个前提下,机器人意识某一天也将成为可能[48]。

同时,心智理论还可以通过另一途径让机器人更像人,就是从人类这一侧入手。从人的角度出发,机器人并不需要真正拥有像人与人之间那样彼此知觉的内在状态。它只需要模仿得够好,好到让我们相信它能意识到就行了。这二者之间有着非常重要的区别,因为机器最终能不能拥有真正的意识还尚未定论。而在它能真正有意识之前,只要模仿得够好,我们也该知足了。

那我们又为什么想要这样做?这是因为在现有条件下,这样做让我们通过这一界面进行的社交互动最贴近真实。鉴于我们还不确知意识到底是什么、意识的运作机制,也不确知意识是如何产生的,就算机器有一天真能有意识,到人工智能能拥有意识那一天也还需要相当的时日[49]。有了对心智理论作用机制的更深认识,也许我们能制造出假象,让观察者相信与自己互动的,是一个与自己有着类似“知觉”的他者。就算大家都知道机器人并不真正具有意识,人们乐意去相信也一样有利于互动的展开和更好地交流。

用仿真知觉作为权宜之计之所以重要,是因为它能使我们与机器人的互动更全面,能有浸入感。鉴于社交机器人本身不过是有实际形体的界面,一个用来调用机器人能力的界面,今后我们很可能会继续努力,让社交机器人变得更自然,更像人类。

在制造可能会应用心智理论的机器人上,美国麻省理工学院的教授辛西娅·布雷齐尔(Cynthia Breazeal)一直是该领域的领军人物。布雷齐尔说,在她还是个小女孩的时候,就对个人机器人非常着迷。在布雷齐尔的《社交机器人的设计》一书中,讲到1977年《星球大战》刚刚上映,她就被影片里面那两个类人机器人C3PO和R2D2迷住了。多年以后,拥有工程学学位和理科背景的她来到麻省理工学院攻读人工智能方向的硕士。当时的负责人罗德尼·布鲁克斯向她介绍了机器人科学。这次接触改变了布雷齐尔的人生,她意识到自己就是为这个领域而生的。

那是1997年。就在布雷齐尔在麻省理工攻读硕士期间,索杰纳号火星车在火星登陆,成为第一个登上另一个星球的机器人。这位未来的机器人学家不禁问自己,为什么我们能把机器人送入太空,可自己家里却还没有?想来想去,她认为这是因为机器人还无法以社交的,或者说自然的方式与我们互动。正是这个想法,推动着布雷齐尔开始了第一个社交机器人的研究。后来她在这个机器人的基础上,完成了关于人机社交互动的博士论文。在接下来的三年时间里,布雷齐尔和自己的团队投入了大量心血,研制成了机器人Kismet,这个名字在土耳其语的意思是宿命或者命运。Kismet主体是金属,但却有两只表情丰富的大眼睛、可以开合的红唇和两只可以动弹的耳朵。通过这些,它能传递非言语信息,就像小狗或者人一样。在Kismet旁边坐下来,给它看个东西,然后再评论一下,这个机器人的头和眼睛,会一直追踪说话人的脸,然后再转向这个人所指的物体,然后目光会随着两人交谈的继续,重新回到这个人的脸上。整个过程中,无论是眨眼的动作,还是发出非语言的声音,都像是活物一样。虽然它明摆着是个机器,但是人在互动中会几乎把它当成活的一样。Kismet标志着我们通过界面开发,让机器能以类人的方式真正与人互动这一领域迈出了重要一步,虽说互动仅能发生在社交层面。就像布雷齐尔所说的:“这个小机器人不知怎么触动了我们内心深处的社会性,而凭借这种能力,也让我们看到了以全新方式与机器人进行互动的可能。”

在接下来的很多年中,布雷齐尔组建了麻省理工学院媒体实验室的机器人小组,并带领小组研发了多台社交机器人,其中有表情丰富的雷奥纳多(Leonado),一个毛茸茸的动画机器人。和他们一起合作开发雷奥纳多的是斯坦·温斯顿工作室。这个工作室曾为多部票房极佳的好莱坞大片完成过特效制作,《终结者》和《侏罗纪公园》就是他们的作品[50]。Nexi是个白色塑料MDS机器人。MDS三个字母分别代表移动、灵巧、社交。Nexi的眼睛和面部表情非常丰富,而且早期的Kismet和雷奥纳多都不会说话,Nexi却会说自然语言。另外一个也是该组研发的机器人叫Autom,设计者是麻省理工学院博士科里·基德。这个机器人是他博士设计的一部分,设计目标是为了帮助使用者达成减肥目标。所有这些机器人,和其他很多的机器人一道,为布雷齐尔带来了“个人机器人之母”的赞誉。

到了2014年7月,布雷齐尔在众筹网站Indiegogo上,开始为号称是世界上首部家用社交机器人的研制筹募资金。这个机器人被取名Jibo,该项目也很快成为史上众筹项目中最成功的一个,募得资金超过370万美元,其中230万美元来自5000台机器人的预售款。仅仅用了一年多的时间,这个专门做机器人的初创公司就又另外募集到3500万美元的投资。他们的这个小家用助理是白色的,线条简单流畅,从外形看符合极简主义者的梦想,但功能上却能完成各种类型的家务活动。从拍全家照、传递口信,到给孩子们读睡前故事都能完成。公司于2016年春开始正式发运第一批机器人。

Jibo并不是唯一被称为是第一台家用机器人的设备。很显然,这么说法国Aldebaran公司的“胡椒”也可以。还有法国蓝蛙机器人公司生产的“巴迪”(Buddy),应该也算得上一种滚动式互动家用机器人。事实上,未来几年内会有一系列家用机器人投放市场。很多开发者认为,是时候让这些设备进入市场了,而且尽早出现在公众面前很重要,这一点也有几分道理。不过这些产品都属于初期产品,而且其中不少很有可能在系统真正完善之前就已经打包退货了。对一些愿意早早尝试这些技术的人而言,只要机器缺陷不是太严重也还能够接受。这部分使用者不仅是技术循环的一个重要部分,还可以将那些与所做承诺相去甚远的产品淘汰出局。对这些机器人而言,只有时间能告诉我们,如果真有胜者的话,哪些产品能长期屹立不倒,在同类中胜出。

以上可以看出,目前全球有很多研究人员都在开发新型的社交机器人和平台。虽然依据的理论和采用的方法各有不同,但都是为了能让机器人与我们的交流更为全面。比如,美国的汉森机器人技术公司的大卫·汉森及其团队,设计出的机器人表情丰富得令人难以置信。为了做到这一点,他们使用了大量的促动器和马达,以模拟人面部和颈部六十余块主要肌肉的运动。最外层的包裹材料,用的是汉森研制的一种叫作Frubber的新型仿生皮肤材料[51]。这种材料已获得专利并注册商标。根据汉森的描述,这是一种“通过脂质双分子层纳米技术,自组成类似人体细胞壁的海绵样弹性体”。基于人工智能的性格引擎负责指挥仿真面部动作,这样可以给每个机器人指定它自己的独特表情。通过这些技术的运用,汉森机器人公司已经研发出了一系列表情机器人,可针对教育、研究、博物馆及家用等多种用途进行大规模生产。汉森的目标之一,就是将这些会说话的个性机器人作为一个起点,为“真正有同理心的机器人播下种子。如此,如果它们真能达到,或者也许超出人类智能水平之时,这将成为我们为未来播种的希望之种”。

在商业界,人们已经多次尝试将机器人放在不同商务环境去充当起点联系人。不少公司正在研发服务机器人,也就是至少具有一定程度的社会功能的设备。有的机器人是做迎宾员,有的是在商场服务台做客服,比如东芝开发的“地平”(Junko Chihira),就是一种能与店内顾客互动并提供指导的人形机器人。日本的另一项创新是日本著名的机器人酒店,也称“古怪酒店”的Henna Hotel。酒店几乎全部由机器人来运作,从前台到行李员,全是机器人。上海的一家购物中心则引入了女性人形机器人“阳扬”,她会说话、会握手、能唱歌,还能与人拥抱。新加坡的南洋理工大学也已让他们的一款类人机器人当起了前台接待,并为她取名娜丁(Nadine)。

随着这种态势的迅速发展,有一点值得注意,就是大多数此类迎宾机器人似乎都采用了女性外形。出现这种情况的部分原因可能是大众会觉得女性没有很强的威胁性,同时这些机器人所取代的工作传统上也都是女性从事的工作。那么这种趋势会继续吗?有没有可能随着社交机器人在行政管理和护理领域的应用越来越广,越来越多的女性工作岗位会被取代,就像几十年前工厂机器人取代了大量男性主导的工作岗位一样?2016年世界经济论坛指出,未来的劳动力市场会出现颠覆性变化,包括机器人和人工智能的使用会逐步增加。预计到2020年,全球会净减少500万个职位。在预计会减少的职位中,有三分之二是办公室工作及行政类工作。总体来看,受影响更大的是女性,每增加一个人工智能,就会减少五个职位。对于男性,每增加一个人工智能,减少的职位是三个。这种趋势未免让人不安,需要我们时刻注意。

与现在的其他技术一样,社交机器人中也出现了不少开源产品。Ono是比利时社交机器人项目开发出的一个DIY开源平台。法国的Poppy则是3D打印开源机器人平台。开放式机器人硬件已将资源开放式的理念应用到了机器人系统中。以上所有这些都在自己的平台中提供社交机器人的有关设计信息。有人可能会说,与一些以科研机构为依托的商业机器人实验室推出的产品相比,这些机器人不够精细。但不论怎么说,观史知今,这样的平台终会在创新的不断循环中发挥愈渐重要的作用。

说到情感计算,要记住的重要一点就是这个领域是由多种不同学科和技术构成的。识别人脸,理解面部表情对绝大多数人来说易如反掌,只是下意识就能完成的事,但对机器来说,却是个巨大挑战。必须先用照相机将人的面部特征捕捉下来,再输入极为复杂、已经被成千上万图像样本训练过的面部识别软件,才能开始着手完成同样的任务。语音识别软件也是一样,只不过它是用麦克风来检测我们的语调和音调变化。肢体语言和手势也会传递出大量信息,因此人们也在就此展开研究,寻找理解这些信息的途径。别的一些研究领域,还包括了生理变化,如血流、皮肤电导反应等。所有这些技术都有一个共同点,那就是这些技术运用的都是模式识别算法。模式识别算法,是一种能从原始数据中辨识和提取各种模式与关联的程序,其识别能力远高于个人所能。

尽管情感计算和社交机器人有不少共通之处,但有一点是后者独有的,那就是社交机器人与我们互动的方式。情感计算软件也可以非常精密,但是总体来看,它们还只是软件而已。相比一个有实体形状的软件而言,单纯的软件让使用者更难以产生认同感。从另一个角度说,很多研究都表明,人与机器人互动时,所产生的同理心与人际互动时相仿。卡朋特对军人的调查结果显示,炸弹清理人员显然对那些机器人有一定程度的认同感。尽管这些机器人长得并不像人,但它们毕竟有一个实体形式让使用者开展互动。这一点非常重要,因为研究显示,和我们越像的东西,越容易让我们认同并产生同理心(至少到目前为止)。一个软件本身基本不会让我们产生任何的同理心,很有可能是因为它没有一个实在的形体。即使只是一个小小的机器人玩具,都可能吸引我们投入更多。

德国杜伊斯堡-埃森大学的阿斯特丽德·罗森塔尔-冯德普顿(Astrid Rosenthal-von der Pütten)主持过一项研究,在志愿者看视频的同时,对他们进行功能性核磁共振脑部扫描。在一些视频片段中,志愿者看到的是研究人员与一只绿盒子、一只绿色玩具恐龙和一位穿绿T恤的女性富有感情的互动。研究人员可能给互动对象一个拥抱,或者挠挠痒痒,或者轻轻抚摸。就说那个玩具恐龙,它是个小机器人,名字叫Pleo。它身上配有多个麦克风、扬声器、传感器和小马达,能做出移动、摇摆的动作,还能根据被对待的方式,发出各种声音。刚开始的时候,研究人员挠了挠小恐龙的痒痒,给了它一个拥抱,小恐龙便发出了愉悦的咕噜声和轻叫。之后,志愿者又看了研究人员假装虐待互动对象的一些视频短片。视频中,研究人员把一个个互动对象又是揍,又是摇,又是打,甚至更过分。比如,当Pleo被掐住了喉咙时,它发出了哭叫,还有被卡着不能呼吸和咳嗽的声音,就像那个女性互动对象的反应一样。这个小机器人对其他的粗暴对待行为,也做出了比较明确的情绪反应。随后,研究人员对志愿者的脑部扫描结果进行了分析,结果让他们非常吃惊。不出人们所料,那个盒子是三个对象中最无法激起同感反应的。对于机器人,研究人员认为读数应该在盒子和女性之间,但事实上,大多数的脑扫描结果显示,看机器人时产生的反应,与看那个女性时产生的反应,两者之间要近得多。虽然看到这位女性被粗暴对待产生的反应确实比看Pleo受虐待要高得多,但从结果上还是能看出一些端倪。

在另一项研究中,麻省理工学院的研究人员凯特·达灵(Kate Darling)让一些人与Pleo玩耍。玩了一个小时以后,她给了每个人一把刀,还有别的一些武器,让他们去折磨和肢解他们的玩具。每一个都拒绝了她的要求。达灵于是给悬赏加码,跟他们说,谁杀了别人的恐龙,就能救自己的恐龙。她的要求再一次被所有人拒绝。直到她下了最后通牒,必须得有一只恐龙死,要不就宰了所有的Pleo。只有这时,才有一个人站了出来,用斧子砸倒了其中一只恐龙。而其他所有人都被他这种暴行惊得目瞪口呆,一句话也说不出来。

为什么这些研究中的参与者会有这种反应?到底是什么让他们对没有生命的机器产生了同理心?问题的关键,很可能就在机器人的行为上。麻省理工学院教授雪莱·特寇(Sherry Turkle)把某些动作,如眼神交流、目光对我们动作的追随,还有做手势等称为“达尔文按钮”。这些达尔文按钮触发了一些根植于我们内心深处,也许是本能的反应,说服我们去相信我们眼前看到的,是某种智能形式,说不定还是有意识的智能形式。从多个层面讲,这和客厅里逗乐的小把戏差不多,都是在作弄我们在进化过程中遗留下的薄弱之处。

这些研究以及其他多项研究都证明了一点,不管我们看到的动作作用于人,还是机器人,被激活的情绪系统中很大一部分是相同的。正是基于我们的这种反应,一些机器人专家呼吁,应制定相关准则,保证机器人得到有道德的对待。甚至更有人提出,应保护“机器人权利”。尽管在很多人看来这未免荒唐,但达灵指出了一点,从法律上我们已经有先例,即保护动物不受虐待。她指出,选择要保护哪些动物,完全不存在统一标准,而且也缺乏延续性。多种文化对杀灭昆虫和老鼠毫不留情,但要去伤害一只海豚或者宠物狗却会迟疑不前。每天都有很多人吃着在恶劣的养殖环境中生产出来的畜肉,但同样是这些人,如果明确知道眼前是仓鼠肉或者猴子肉,绝大多数都会拒绝去吃。达灵认为,在我们对其他物种的痛苦产生很强的认同感时,我们也许真的给自己设立了一些规则。从某种意义上讲,这就好像是举着一面镜子,将那种行为反射到了人类自身,按了我们的“达尔文按钮”。如果真是这样,那么这种保护法案存在的意义,其实更多的是在保护我们自己,更甚于保护任何动物。终有一天,我们也会决定为机器人设立类似的法律条文。与此同时,未来会有很多代、各种功能组合的社交机器人,会以越来越趋于真实的方式与我们互动。

我们比较容易对机器人产生认同感这一点,对我们既有诸多益处,也有多种弊端,而且弊端只多不少。随着我们进入一个新时代,与机器人共事的时间越来越多,互动越来越充分,对它们越来越认同,越来越关心,这应该有助于提高我们对它们的接受度,进而接纳它们为我们大家庭的一员。同样也可能进一步改善我们与它们之间的互动,在双向交流中创造更多的价值。不管我们探讨的是服务行业与客户打交道,还是帮助处于社交隔绝状态的人,应该都是如此。

但从另一方面讲,机器人最多只是与人类有些类似的东西而已。而我们却愿意与之产生认同感的这种意愿本身,就有可能给我们带来麻烦。基于我们对这些机器的看法,我们可能会发现,自己在处理众多人际关系时,会无意识地做出并非最佳选择的决定。总有那么一些人千方百计利用我们的弱点,不公平地把这些弱点变成他们的优势,来对其他人进行诈骗。而且还有一种情况,可能也是最重要的,有些人可能真的将与机器人建立的情感关系,等同于人和人之间的情感关系。事实上,很有可能相当一部分人宁肯选择与机器人互动。这里面的问题,至少就目前的机器人智能水平而言,当然是机器人并不具备真正的意识(至少现在还没有)。更通俗地讲,就是家里没人,它也不可能给你任何类似感情回报的东西。机器人现在还无法真的成为朋友和知己,尽管有些人把这种假象误以为真。人与人之间的人际关系能让人心里更充实,更满足,但有时也确实心乱如麻,有不少人会宁愿选择和机器交往这条路。随着机器人技术不断进步,这种**只会越来越大。而也许真有一天,一切会发展到人机互动和人际互动已经无法显著区分开来的程度。想走到那一天,机器人技术还会遭遇很多障碍,其中就有一个千难万险格外崎岖的山谷,我们将在下章继续讨论。

[1]编者注:AAT全称为:Applied Affective Technologes

[2]有部分读者会坚持认为,让我们具有独特性和意识能力的是我们的灵魂。由于这属于信仰范畴,无法通过客观观察和可证伪性等科学手段展开研究,所以本书无法对其进行探讨。

[3]“可惜,几乎有多少位情绪理论家,就有多少种情绪理论。”Jesse J. Prinz. The Oxford Handbook of Philosophy of Cognitive Science [M]. Oxford University Press, 2012;“可以说有多少理论家就有多少种情绪理论。”Neal M. Ashkanasy, Charmine E. J. Hrtel, W. J. Zerbe. Emotions in the Workplace: Research, Theory, and Practice [M]. Praeger, 2000;“有人说,情绪理论的数量和情绪理论家一样多。”Joseph LeDoux, Beck, J. Hard Feelings: Science's Struggle to Define Emotions [J]. The Atlantic, 2015(2).

[4]编者注:1英尺=30.48厘米=0.3048米。

[5]编者注:奥杜瓦伊峡谷(又译奥杜韦峡谷),人类最早的直系祖先“能人”骸骨碎片最早由英国考古学家路易斯·利基在坦桑尼亚的奥杜瓦伊峡谷发现。

[6]编者注:奥杜韦文化:非洲大陆旧石器时代早期文化,因发现于坦桑尼亚奥杜韦峡谷而得名。

[7]利基夫妇同期还发掘出土了晚于这一时期的阿舍利文化的石器。

[8]编者注:乔姆斯基认为说话的方式遵循一定的句法,这种句法具体而言就是一种不受语境影响并带有转换生成规则的语法,儿童被假定为天生具有适用于所有人类语言的基本语法结构的知识,这种与生俱来的知识通常被称作普通语法。

[9]编者注:新达尔文主义认为生物进化是由于两性混合所产生的种质差异经自然选择所造成的后果。

[10]音素:语言中可用于将不同词区分开来的最小单位。

[11]我们今天把这种过度自信称为达克效应,属于一种认知偏差。https://en.wikipedia.org/wiki/Dunning-Kruger_effect.

[12]这一现象存在的时间要比这里提到的长得多。趋化性让细胞根据特定化学物质的浓度升降向给定方向移动。因此可以说,化学信号对动作的驱动,可以一直追溯到第一个游动单细胞生物。

[13]丹麦生理学家卡罗·朗格(Carl Lange)和意大利人类学家朱塞佩·塞吉(Giuseppe Sergi)也分别独立提出了同样的理论。后来这一理论被称为詹姆斯-朗格理论,也可称为詹姆斯-朗格-塞吉理论。

[14]纺锤体神经元似乎主要存在于前扣带皮层、前岛叶皮层和背外侧前额叶皮层。

[15]心智理论,简称ToM,是了解和推断自己和他人心理状态的能力。

[16]人类和可能为数不多的其他几个物种表现出自我意识。

[17]这项研究并没有找到神经元一对一的确切镜像。行动过程中激活的神经元中只有一个分组在观察过程中也被激活。

[18]神经元作用机制产生的很可能是情感同理心或体感同理心,而不是认知同理心。同理心这几种形式的具体区别会在第十八章中详述。

[19]也就是《技术想要什么》的作者、编辑及技术理论学家凯文·凯利所指的“技术元素”。

[20]多项研究表明,脑额下回同时还对反应抑制起着至关重要的作用。这一进化是否可能是在石器打制过程中发展起来的一种保持注意力集中的手段呢?如果真是如此,那么这种反应抑制就可能进一步延伸,起到促进社会化和自上而下的情绪控制的作用,成为石器打制改变我们这一物种的又一可能途径。

[21]编者注:人科是指猿猴。史前尚有一些其他种类的人科成员,一般可分为两个亚种,即早期的南方古猿亚科和后期的人亚科。

[22]如果这些符号你没有用过,试着从侧面看看。冒号是眼睛,分号是鼻子,括弧是上扬或者下垂的嘴形。

[23]这似乎正支持威廉·詹姆斯的观点,就是情绪的表现是在体验到生理反应之后,而不是之前。

[24]艾略特的情况,是他的大脑损伤隔断了身体内感受的神经连接。内感受是体内器官所产生的源于身体内的感受。

[25]计算机一词的本义是指从事计算的人或机器。

[26]谈到密码破译,波兰数学家给予布莱克利公园的巨大帮助常常被人们所忽视。这队波兰数学家早在20世纪30年代就破译了德国恩尼格玛密码机的一个早期版本。这一贡献是绝不应被抹杀的。

[27]这篇文章之所以有名,还有一个原因是图灵在文中提出了一种测试机器智能的方法。来这种方法便以图灵命名,称为图灵测试。

[28] 2的10次幂等于1024。

[29]大约在同期,当时的英特尔公司总裁戴维·豪斯提出,芯片设计上的不断改进会让计算机性能每18个月翻一番。这一数字被人们错认是摩尔提出的。有意思的是,豪斯的估计,比摩尔本人的估计更接近于摩尔定律提出后头40年中每20月翻一番的实际状况。

[30]第五范式是数据库的范式之一。

[31]对这些“定律”的看法存在很大的意见分歧。但不管怎样,这些定律毕竟对给定时间段内的发展趋势做出了相对合理的描述,从这一点讲,还是有一定价值的。由于诸多因素,包括几乎必然存在的限制因素等,这些定律不应被视作是不可违背的。

[32]编者注:加速循环规则意味着技术的力量正以几何级增长,人类正在加速变化的浪尖上,更多更加超过人类想象极端的事物将会出现。

[33]编者注:美国贝尔实验室是晶体管、激光器、太阳能电池、发光二极管、数字交换机、通信卫星、电子数字计算机、蜂窝移动通信设备、长途电视传送、仿真语言、有声电影、立体声录音以及通信网等重大发明的诞生地。

[34]情绪记录器,英文为sentograph,其中sento出自拉丁文sentire,意即感受。

[35]在科罗拉多斯普林斯城界内,不正当使用枪械属违法行为。

[36]哈里斯于2013年6月25—27日代表Crucial.com所做的调查,共计2074名成人参与了这次调查。

[37]在这项实验中,受试者区分起来最困难的图片,是恐惧和惊讶的表情。

[38]分类法是指一套系统化建构的分类方式。

[39]很多具有启发性的项目成果,都是情感计算小组多位成员辛勤工作和创造力的结晶。虽然我在这里也提到了一些,表达了感谢,但我所提到的项目和人远不够全面。

[40]与其说是建模,在这里不如说受启发建立。就像我们会在第十七章中讨论到的,因为我们要面对的是完全迥异的组成,一边是神经元,一边是晶体管,因此这只是在一定程度上的建模。

[41]不过确实存在极限值,过了这个值点,正确率反而开始下降。

[42]有趣的是,辛顿的高祖父就是数学家兼逻辑学家乔治·布尔。布尔的理论成果,对计算机科学的奠定发挥了重要作用。

[43]这一注资是通过他们的母公司 WPP plc 完成的。

[44]莱文农认为,他们的技术也可用于很多疾病的诊断。根据这些病症对人声音的影响,比如某种特定的震颤或抖动,来进行识别。

[45]作者推测,可能其他声音,尤其是表达情感的音乐所激活的也是这一神经网络。因这一系统的具体组织形式不同,不同的人对给定的同一段音乐反应也许会不同。

[46]基因排序在20世纪90年代还是很新的事物,很多非本领域的人,包括专利律师和理赔估算人对基因排序都缺乏了解。分别于1997年和1998年获得批准的乳腺癌基因BRCA1 and BRCA2基因专利,由于涉及范围过于广泛,最终于2013年被宣布无效。正如美国最高法院在一致通过的判决中所称:“自然形成的DNA片段,是自然的产物,并不能因为被分离出来便授予专利保护。”

[47]还原论在这里,是指认为只要技术足够先进,即可将心智还原为一套物理过程,然后再用替代基质或环境进行模拟或复制的观点。

[48]在此我们假定心智理论是已经得到内化的,是机器人或者人工智能的体验,而不只是算法上的模拟。

[49]更多相关内容请见第十七章。

[50]有趣的是,雷奥纳多与《星球大战3:绝地归来》中的伊沃克人很相像,就是多了一对点睛似的毛茸茸的耳朵。

[51]Frubber取自flesh rubber,意即肉一样的橡胶。