美国加利福尼亚蒙罗公园,2033年11月12日

“嘿!我怎么跟你们说的?别在屋子里到处跑。”两个小男孩追追打打,从阿比盖尔家中的办公室穿过,阿比盖尔在后面追着喊。戴尔和杰瑞一个七岁,一个九岁,阿比盖尔只有这两个小外甥。今天这两个孩子真正考验了阿比盖尔的耐性。阿比盖尔的姐姐姐夫去茂伊岛度假一周,阿比盖尔答应帮他们看这两个孩子,答应的时候根本没意识到这活儿有多难。自从开始看孩子她才意识到,自己太需要休一周假了。

“我能给你提个建议吗?”阿比盖尔的微型耳机里传来数字助理曼迪的声音。

“曼迪,我觉得你也没什么办法,”阿比盖尔正恼火得很,“两个孩子没有自己的助理,你没有办法对接。”为了这个,阿比盖尔和姐姐有过不少争论。有几项做得不很严谨的非结论性研究,对给14岁以下未成年人配备数字私人助理的安全性提出了质疑。结果包括这两个小男孩的父母在内,公众反应过激到几乎歇斯底里的地步。

“把你的两台虚拟现实电话会议设备设置一下,”曼迪建议道,“我一直在通过家里的监控摄像头观察戴尔和杰瑞,已经解读、绘制好了两个孩子各自的情绪构成,还给他们下午安排了一些活动,其中既有教育性的,也有社交性的,还有运动锻炼,再结合上诱导策略。这样既不会让他们觉得无聊,也省得他们来烦你,还能让他们接触一些与他们课程水平相当的新观点、新思路。你也能继续做你的事,好好准备准备今晚的约会。我保证他们九点就上床睡觉,一晚上睡得踏踏实实的。”

阿比盖尔听着她这位多年的数字老友讲着,脸上露出了微笑。她真诚地说道:“曼迪,你最棒了!”

就像阿比盖尔所发现的,有情绪意识的技术会以很多我们想不到的方式,与我们日常生活中数不清的其他技术产生联系与交会。尽管阿比盖尔本人对情感计算技术很熟悉,但就连她也没有想到可以把这项技术与自己家里其他系统结合使用[36]。不过这也不奇怪。伴随新技术而来的东西很多,有一点几乎是肯定的,就是你想不到它会怎样改变周围的一切,并为周围的一切所改变。在未来的几十年里,随着情感计算的各种新应用、新设备不断涌现,情况更会如此。

未来的二三十年中,技术和技术能力的爆炸完全是可预见的。虽然计算机的体积在不断缩小,但处理能力在不断增强,这个世界将越来越多地通过数字手段以全新方式与我们互动。到处都是各种传感器、智能电器和可编程设备。一个物联网的世界正在变为现实。我们与周边世界、与彼此互动的方式将彻底改变。我们可以利用强大的计算工具、复杂的分析工具和可视化方法,挖掘出模式和深层信息。与人工情感智能机器相结合,大数据就能给出高度准确的用户心理档案,做出准确的行为预期。

这也许还只是开始。高端家用汽车已经配备了注意力辅助系统和疲劳监测系统,更不用说还有一定的自动驾驶能力。这些车载系统对司机和乘客随时变化的情绪状态,会有越来越清晰的意识。家庭照明和供热系统也会慢慢开始对我们的心情有所了解,还有家里的其他很多东西也是一样。慢慢地,这个清单会越来越长,直至涵盖我们日常生活的各个方面。

随着技术不断推出更新更好的方法,逐渐实现与使用者、与其他技术互动,基本可以肯定是未来技术的发展方向。虽然我们所处的环境会变得越来越复杂,但总会有更令人满意、更符合自然、更有效回应的方式,让我们与这个环境及周遭世界建立联系。

当然,阴暗面也是肯定会有的。(阴暗面是种必然存在,不是吗?)原因有很多。首先,各种新技术层出不穷,没有哪种实际可行的方法,能预测出这些技术相互结合、互动以及使用的所有方式。这就不可避免地导致未来学家常提到的不可预见的结果。有的结果是积极正面的,但也不可避免地存在消极负面结果的可能。

我们就以汽车的发明为例来说明这种不可预见的结果。起初汽车在绝大多数人眼里只是个稀罕物,是对人类的威胁,或者二者皆有,没想到这种不须用马的交通工具迅速发展改进,改变了整个20世纪的物质和文化景观。它起到提升社会各阶层的流动性,促进经济发展,创造了大量的工作机会的作用,让人们有了更多休闲旅行的机会。它极大地便利了商品和服务的流通,提升了企业生产力,在中产阶级的崛起中扮演了主要角色。就连十几岁的青少年和二十来岁的年轻人也从中得益,因为现在他们有办法能躲开长辈,聚在一起享受没有大人监督的时光。而这些,在汽车刚问世,还是靠燃烧反应驱动、噪音震耳、味道呛鼻的交通工具时,没有人能预见得到。

与此同时,汽车也是温室气体的主要排放源,全球气候变暖,部分要归咎于汽车。而且,仅在美国,每年死于车祸的人数就超过三万。更有不计其数的人,因汽车尾气造成的呼吸系统疾病备受折磨甚至死亡。还有铅和苯等其他污染物影响大脑发育,并与先天畸形、癌症及免疫力降低有直接关系。

这里列出的很不全面,但是从中还是能看出,仅仅一项发明就能带来怎样广泛而深远的影响。重要的是,汽车并不是孤立发展的,它很快就融入了我们创造出来的广阔的技术生态系统[37]。结果,这项发明的实际用途便远远超出了发明者的初衷,就如以往类似的情况一样。如果有人把聪明才智用在如何利用新技术来犯罪或者反社会上,就会引发很多问题。

一般而言,大多数发明者进行发明创造都是基于几个原因:为了改善自己的生活,为了社会更美好,或者为了物质利益。但是极少有发明者能百分之百预见到自己的发明会被用于何种用途。汽车被抢劫犯用作了逃跑的工具,汽车本身被用作了杀人工具。互联网被犯罪分子用来相互联络,买卖违禁品。就连发夹这样无害的东西,都可能被用作开门撬锁的工具。所以如果未来情感计算技术和社交机器人被大量应用于违法或不道德行为,我们也不必吃惊。

如果你觉得我们能预先想到一切可能、做好应对准备,最后肯定会失望难过。不过,这也不等于我们就不用做任何努力了。最直接的解决方法是将安全措施内置于这些新设备和程式中,不过在人类的创造力面前,这种方法必然会以失败告终。把半自动手枪变成全自动并不太难。安全带未系提示也不是不能关闭。对各种加密方法时有绕行手段,但无论如何,安全防护手段对绝大多数用户来说还是有用的。比如违章罚款与安全带警示灯的结合,令安全带的使用率从1980年的11%上升到了今天的将近90%。

说到社交机器人,总有人说我们应该向科幻小说家艾萨克·阿西莫夫[38](Isaac Asimov)学习。半个多世纪以来,他那个著名“机器人三定律”一直是科幻小说的主流[39]。但那到底只是小说。虽然让我们充分地想象了一下“如果……怎么办……”,却并非具有可操作性的实用解决方法。正如阿西莫夫笔下的那些人物常常会遇到很多意想不到的问题——包括意料之外的特例、违规行为,在他笔下,计划总是赶不上变化。终究还是回到软件稳定性的问题上,只是这个问题被人类的狡猾和创新能力弄得更趋复杂。

另一种办法,就是尝试着去预测某种技术可能会如何被滥用。但是想真正做到防微杜渐,几乎是不可能的。话说回来,倒是有几种策略我们可以尝试。利用统计数据分析这类方法,也许能在一定程度上帮助我们防御威胁,或堵住漏洞。有一种工具说不定会很有用,就是GMA(综合形态学分析)。GMA是一种“在多维度、非量化的复杂问题中建构和分析所有可能关系”的方法。一些颇具前瞻力的专业人士,就是利用这种方法来解决我们常说的多目标求解问题。这种问题由很多因素构成,且问题各因素之间又可能彼此交织影响,造成问题的整体复杂性进一步加大。因为综合形态学分析法可用于解决因果模型和模拟不完全适用的问题(因为涉及的变量过于复杂),所以这种方法可用来解决社会性和机构型问题,以及其他一些现实问题。

特拉维夫大学就有将综合形态学分析运用于预测科技的实例。著名未来学家罗伊·泰扎纳(Roey Tzezana)领导的研究小组运用综合形态学分析法,对多项新兴技术、这些技术的发展时间进程以及可能造成的影响进行了分析。他们将所有信息汇总后,对这些技术可能如何互动并彼此支持进行了研究。泰扎纳写道:“计算机程序员能开发出数量惊人的综合形态学分析法应用,可以对数百万种可能性进行分析。”从他自己的多项组合性研究结果来看,新技术未来潜在应用和滥用让人不寒而栗。其中,研究小组还绘出了一个时间进程表,显示出不同新兴技术组合何时可能开始成为人类威胁,并计算出了特定组成可能出现的概率,以及该组合造成影响的严重程度。绝大部分威胁都属于网络犯罪范畴,这要归因于这个世界的内部关联性得以提高和数字化表现渐强。但是还有一部分正常情况下是该归入其他范畴的,比如生物恐怖主义、3D打印武器和无人机技术。研究小组还对不同技术被应用于不同犯罪类别的可能性进行了高低排序,然后对某项技术与其他两项、三项、四项技术结合使用的可能性重新排序,最后得出了一系列人类可能面临的新威胁和易受攻击的新弱点。

也许我们可以用这个技术,对情感技术和社交机器人技术进行分析,以更好地预见这些技术未来被误用的可能性,特别是与其他技术相结合后的误用可能。按照风险和易受攻击程度高低,再来决定是否值得为这些技术设计和设置某些安全防御措施。当然我们也清楚,在我们做这些的同时,某个地方某个人也许正在试图规避这些安全措施,而且很有可能会成功。

这种反应的实例可见于很多新型医疗设备。许多可编程的无线医疗植入设备,比如起搏器、植入式心率转复除颤器和外置的胰岛素泵,都有可能被人修改程序,实施远程攻击。在这些设备刚出现的时候,几乎没有任何安全保护措施保证其不被黑入而为恶人所用。尽管听起来可能像科幻故事,但是美国政府最高层真的是以非常严肃的态度在考虑这种可能性。比如2013年前美国副总统切尼曾在CBS访谈节目《60分钟》中提到[40],2007年时他的医生正是出于这个考虑,才要求切尼关掉他起搏器的无线功能。切尼的医生担心,恐怖分子会发送信号给起搏器,通过起搏器诱发副总统的心脏发生心肌梗塞。近年来,对起搏器和其他医疗植入设备的这一弱点,人们的意识不断提高,越来越多的此类设备对信号进行了加密,以防给居心不良的人留下钻营之机。

这种问题是每项新技术出现时我们都必须考虑的问题。这样我们就能建立起安全标准,保护设备,同时也是保护自己。从很多意义上讲,这种预防措施做起来并不难,也许触手可及,可忽视了它们就可能会冒不必要的风险。

当然我们这样说,并不等于这些技术就会带来世界末日。多项技术的结合可以用于不良用途,但同样也可以对我们有益。本章开头提到的那些技术,还有第五章讲到的扑克玩家的假想情景都说明了这一点。面部表情识别、智能隐形眼镜、量子加密,还有天知道哪些现代科学打造的神奇技术结合在了一起,才能让那样的一场竞赛成为可能。各种系统设备如寒武纪大爆炸般涌现才区区几百年,而这些只是它们带给人类的种种神奇中的一部分。

关于这一新技术的多种应用人人都可能存有看法,但到底这只是一个人的声音而已。个人感觉应该集思广益,问问其他未来学家对情感计算、社交机器人和人工情感智能的看法。果然,虽然大家的看法各有不同,其中却也不乏共同关注之处[41]。

曾任职于英特尔公司的未来学家、著有《21世纪机器人》的布莱恩·戴维·约翰逊讲,有一天他收到一位教师送来的一个小包裹。这位女教师听说了这个机器人计划,还跟自己一帮五六岁大的学生讲起了这个计划,启发学生思考。

有一天我来到办公桌旁,看见桌子上放着一只黄色大信封。信封里满满装的都是这帮孩子画的画,还有他们写给我的关于机器人的信。我当时特别感动,因为事先我一点儿都不知道。孩子们的老师对机器人特别着迷。不过最有意思的,还是我在翻看孩子们画的画和写的信时,看到绝大多数孩子都是这样写的:“我想让我的机器人和我一起唱歌。我想让我的机器人和我一起跳舞。我想让我的机器人和我一起烤饼干。”这些机器人不是被当作奴隶。它们是社交行为者,它们是朋友。

从这里面可以看出很多东西。首先,它支持了一个观点,就是本质上我们的的确确是社会性的存在。其次,虽然前几辈人可能与机器人很疏远,或者觉得机器人很讨厌,但这些孩子却几乎不抱任何成见,他们平等看待这些机器人,把机器人当作玩伴。从某种意义上讲,这也预示着未来我们大概会接受和运用这种新技术。

英国的未来学家伊恩·皮尔逊(Ian Pearson)25年来一直在研究未来。他曾担任英国电信集团公司的首席未来学家,后来一直主持顾问公司Futurizon。伊恩就情绪性智能对人工智能部分应用可能产生的影响,给出了自己的看法:

在多种用途上今天的人工智能做得还可以,但是想要与人类达成良好的合作,就需要机器懂得情绪。如果机器能对周边世界做出自己的情绪反应,那么人的工作效率也会更好。坐飞机出门,我更愿意选择会关注气流影响、为乘客安全考虑的自动驾驶系统的飞机。如果是看人工智能医生,我更愿意选择真关心我生死的那个。对于绝大多数人工智能要完成的工作,有同理心是关键。

人们做的决定并不总是符合逻辑的。要理解客户的需求,机器需要有一定的同理心,这也意味着它们要有真正的情绪才行。我们已经知道该往什么方向努力,但仍需我们做好现在每一步。

绝大多数飞行员和医生显然还是关心我们生死的,我相信伊恩的意思是,如果真遇到情况,人工智能关心我们的程度要像我们关心自己或者关心家人一样。只要这种关心不至于降低工作能力,或者对工作表现造成负面影响,就会成为巨大的推动力,推动人们去创造性地发现所有可能的解决方法,避免悲剧的发生。

托马斯·弗雷是未来学家,同时也是美国科罗拉多的未来学研究机构达·芬奇研究所的负责人。他对人工情感智能机器的局限略有不同看法:

在我看来,人类的感受比研究人员所能想象的更细微,更复杂。虽然我们做出来的模仿品会与人类越来越接近,但是想用无机材料做出一个与人类认知完全一样的人工智能头脑只怕永远是个梦想。

人的头脑与人工的头脑,其区别从我们经历周遭事物体会到的情感价值中可见一斑。比如,我们可能会很看重一个好枕头的柔软,因为枕在上面会很舒服,而人工智能可以复制这个值,但却不可能明白个中原因。

同理,人工智能可以设置成在符合一定条件时采取行动的模式,比如地板一旦脏了就要清理,但是这背后的因果逻辑实在与它相距甚远。

人工智能无法真正感受到人类内心的焦虑、压力、愤怒或者恐惧。人的身体上、心理上可能有成百上千种问题,比如失眠、幽闭恐惧症、盗窃癖、陌生人恐惧症,或者渴睡症等。所有这些都被视为人体的缺陷。但正是这些缺陷让我们成其为人各自本身。

没有缺陷就没有要改进的动力。

我们上进心来自于我们自身的不安全感,而人工智能没有这一系列的身体和心理缺陷,它们唯一的动力,不过是在计算方面表现得精益求精而已。

诸多原因可能导致这种情况出现,人工智能在发展到一定水平后,最终会遭遇某种天花板。但是我更倾向于认为,用不了几十年,人工智能就会突破这个上限,具体原因我会在第十七章里讨论。情绪和让人工智能得以体验周围世界的精密传感器,也许就是打开大门的钥匙,让机器能大胆步入任何智能此前都未曾踏足过的世界(这里我要感谢吉恩·罗登伯里、威廉·夏特纳和《星际迷航》所做出的诠释)。

来自密苏里州肯萨斯的城市未来学家、建筑师辛迪·弗雷文(Cindy Frewen)认为未来人类与技术之间的界限会渐趋模糊:

我们给机器加了不必要的限制,抱以不现实的期望,总觉得它们会成神或者成魔。其实它们既不是神,也不是魔,它们只是我们价值的延伸。我们造的是自己需要的机器。我认为,人与机器、自然与人工之间的界限会渐趋模糊。未来我们会抚育机器、建造人类。同理,智能与情感也会相互交织。让机器能继续为人类所用的唯一途径,就是要给机器加上情感特质,不管是将价值体系和特质写入机器的程序[42],还是通过程序让它们对我们当下的情绪做出反应并据此有所行动。比如,我怒气冲冲地上了自己的车,车子感受到了我这种情绪状态,便用语言和音乐让我冷静下来。我们现在对机器的印象是工业化的,冷冰冰的,现在该是改变这种印象的时候了。人们会爱自己的机器狗,相信机器狗也会回报人们以爱。残疾人或者有反社会行为的人,会得到能满足他们需求的个性化支持——不论是情感上的,还是理性上的。唯一的限制就在于,技术是富人的福利。越是先进的技术,越会让用得起和用不起的人之间差距加大。

我觉得这种说法正切中要点。我们需要彻底摒弃机器是工业制造物的形象和比喻。人与机器的共同未来是形成一个混合家庭,在未来的几十年、几百年中它的融合度必定会越来越高。只是,技术进步的风险和领先优势,并不会带来经济运行上的巨大转变。最初能接触到这些的只有富裕阶层。只有靠时间推移,新进步越来越多,才能慢慢广泛普及。正如著名作家威廉·吉布森[43]的名言:“未来已来,只是尚未均匀分布。”

曾在世界第二大化工公司陶氏化学担任未来学家,现为休斯敦大学前瞻项目教授的安迪·海因斯(Andy Hines)博士,对未来学的了解非常全面[44]。可能正是因为这个原因,他转而投入到了对下一代未来学家的教育之中:

谈到情绪机器,我经常会谈起这个,最有意思的想法来自我的学生。这个学期在“世界未来”这门课上,有一组学生选了“社交机器人之未来”作为他们小组这学期的课题。他们列出了四种机器人可能拟人化的假想情境:“机器伙伴”是社交和情绪智能机器人的最佳情境;“助手机器人”基本上可以说是家政型;“同行的友善面孔”是工作场所自动化的一个比较有挑战性的例子;还有“上层阶级之仆”是服务于统治阶层的机器人——针对假想情境中最糟的一种。学生想表达的是,机器人会反映出它们是在什么范式中被创造出来的。

这一点非常重要。正如未来学课程经常会提到的,创造未来的是我们——至少某种程度上是这样。实际上,这也是为什么要研究未来和进行策略性预见的主要原因之一:因为这样我们才能对未来世界的样貌施以最大影响。如今我们造的这些机器智能化程度越来越高,我们必须先要考虑好自己到底想要生活在什么样的世界——这样才是明智的做法。毕竟,仆从揭竿而起推翻主人的事不乏先例。

当然,情感计算最早的应用已经进入了品牌和市场检验阶段。卡罗拉·萨珍斯是美国得克萨斯州达拉斯的一位营销顾问和品牌策略专家。在她看来,情感计算在这一领域必定会不断取得成功:

情感计算可以将销售在智能货架的基础上再向前推进一步。能读取潜在客户的情绪状态,同时迅速与客户细分数据相结合,这将有助于购物过程中个性化信息的推送,而信息相关度的提高,会提升信息的效度和影响。想象一下,一个想赶紧买完就走的购物者在超市的货架间快步走着,手上的购物推车会引导他们找到他们购物单上列的东西,其间购物者还会收到一些贴心信息以及对其他商品的推介,呼应他们当时的情绪状态。

对购买周期较长、价格高昂的商品,购买以后的个性化客服就变得特别重要。今天,想让客户建立起与品牌的深厚情感联系,很大程度上要依靠销售和客服代表。而将来,说不定汽车自带软件就能了解客户的偏好和日常习惯。而汽车通过对驾驶者的情绪监控来读取和学习驾驶者偏好的能力将发生巨变。汽车本身在驾驶者生活中的作用,将比现在大得多,而建立在“爱”上的品牌关系,也将不再依赖于销售商和整体的广告宣传。随着数据的收集,已经记录下来的“对车主的了解”说不定可以直接转入下一辆车,从而使品牌与车主的情感联系得到进一步强化。拥有内置情感计算的产品,也许可以无缝接入所有者的生活,就像今天的智能手机一样。相比只能通过销售和客服来维护客户,未来客户的保有率可能会逐步升高,而费用成本却会降低。

从这段话中应该可以明显看出,情感技术将与所有权周期的各个阶段完美对接,最终这项技术可能成为未来品牌建立与维持品牌忠诚度的关键。

阿丽莎·白格特(Alisha Bhagat)是财富论坛的资深未来顾问。对于这些添加了情绪功能的技术对我们社会生活的影响,白格特是这样阐述的:

技术既可以通过各种信息工具强化人与人之间的社会联系,也会因为面对面交流机会的减少给人带来巨大的孤独感。而情感交互人工智能可以部分消解这种孤独感和隔绝感。可能会有一部分人,与自己的人工智能设备形成非常紧密的情感联系,与其他人的互动反而不足。就像电影《她》(又译《云端情人》)演的一样,毕竟人工智能可以给予一个人的关注,是任何人类都无法做到的。现在已经有很多人整天宅在自己房间,还有些人大部分的社交互动都在网上进行。可响应、情感化的人工智能,会进一步强化这种行为。不过,对于大部分人来说,我认为我们的生活应该不会有太大不同。可能购物和外出就餐的体验会更为个性化,与地图这类工具的互动会更愉快便捷,但是我们的互动方式应该还是与以前差不多。

来自华盛顿特区的未来学家约翰·马哈费(John ahaffie),供职于前沿未来学家咨询公司,担任顾问工作多年。在他看来,情感计算的未来其实已经到来了:

在对人工智能与人类相似的特征进行微调,让技术真正成为我们生活的一部分之后,将人工智能成功联入人们的生活,尤其是以产品或者服务的形式,应该是没有问题的。它会在社交层面融入我们当下的生活。

当人工智能给我讲故事时,会根据我的个性、倾听方式和我刚说出口的话来调整故事,而且我猜,还会用这个故事来阐明某种观点,或者提示我改变自己行为的时候,我们就已经在面对耳目一新到惊诧莫名的神奇事物了。可能其他人想的是人工智能会在何时以何种方式取代人类,而我更多是在思考,人工智能何时接近于取代人类。而那个时刻已然近在眼前。

雷·库兹维尔可谓世界上最著名的未来学家、发明家和作家之一了。他的大半人生都在研究和探索人类和技术智能的未来:

人类对情绪的理解力和做出恰当反应的能力,是未来机器智能能够理解并掌握的能力。我们的一些情绪反应,是针对人体在生物构造上的局限性和薄弱环节,为实现我们智力上的最优而做出的调整。未来的机器智能同样会拥有“身体”[45],以完成与周边世界的互动。但是这些运用纳米工程制造出的身体,会远比生物构造的人类身体更强壮,也更结实。因此,未来机器智能的部分“情绪反应”,会被重新设计以匹配它们强大得多的各项体能。

这段论述很有启发性,那就是情绪不必固定不变,一直像我们现在所体验到的这样。情绪可能会被调整,以适应未来机器智能将入驻的躯体。不过,不管怎样,情绪仍然会以某种形式存在。就连目前担任谷歌工程部门负责人的库兹维尔也坚信情绪技术将成为先进的机器智能极为重要的一部分:

在我说计算机会达到人类的智能水平时,我说的不是逻辑智能。我说的是可爱有趣、能表达关爱之情的情感能力。这才是人类智能中无与伦比的部分。

这个观点,点出了人工智能发展中一个非常重要的现实。我们所了解的、所珍视的人类智能,其核心在于情绪智能。没有情感能力,任何想趋近人类智能的努力也许都是徒劳。如果真是这样,那么人工智能想要达到更高级、更自如以至与人类智能相提并论的水平,就需要情绪智能这样的技术。

无论是近似人类水平还是超越人类水平的智能,情绪的纳入也许都是关键,这一点我们将在第十七章继续探讨。尽管情绪可能不合逻辑、不够理性、不合时宜,却恰恰能帮助我们处理现实生活中那些无法明确定义的方面。很可能正是因为有了情绪,我们才能更好地处理生活加诸于我们的困难、曲折的问题。

很明显,情感计算和人工情绪智能已经来到我们身边,而且正日渐普及、日渐强大。这些技术的各种使用和实现途径,也正慢慢显现。至于它们会在哪些方面成为我们生活的一部分,只有时间才能带给我们完整的答案。人工智能领域一位著名先驱人物对未来的方向有具体的见解。埃尔卡利欧比在2015年的TED女性论坛上曾讲:

我认为,五年之后,我们所有的设备都会装备情绪芯片。你对设备皱眉,设备就会说:“嗯,看来你不喜欢这个,对吧?”那时候我们就想不起来设备没这个芯片时是什么样子了。

虽然这种技术正有方兴未艾之势,但若以为到2020年,上面的假想情景就会普及,恐怕就过于乐观了。不过,从这些技术以及其他各项技术的发展来看,显然那一天也并不那么遥远。也许再有十年,大部分设备就会装上情绪芯片。而未来的几十年里人们当然也还会记得那些感受不到情绪的技术。重点是,这些情绪技术将很快变得无处不在,以我们无法想象的方式改变我们的社会。它们将改变我们的期待、行为,甚至是我们的性取向和道德评判。这些我们将在接下来的部分进行讨论。

[1]《圣诞颂歌》动画版的守财奴,用的是1999年电影版主演帕特里克·斯图亚特的形象。

[2]“Bukimi no tani”翻译过来其实并不是“恐怖谷”,更接近的译法应该是“怪异谷”。

[3]对森昌弘恐怖谷理论的早期翻译曾造成过一些混乱,其主要原因是森昌弘所用的“亲和感”一词,其含义在英语中很难得到全盘表达。英语中用作类似“亲和感”的对应词有“familiarity”“likableness”“comfort level”“affinity”。

[4]这个很难说与前文提到的猴子测试是否矛盾,因为恐惧管理理论并不适用于其他物种,除非别的物种的这种恐惧反应比人类的更出自本能。

[5]这种界定很可能会因具体种族和社群的差异而有所不同。

[6]这段话写成文字恐怕很难不引起误解,或让人觉得受到冒犯。无论整容手术做得多么成功,也无论是出于何种具体需要,病人术后与术前一样仍然还是人类。安装义肢、植入假体,或者人体接受的其他任何手术程序,也是这样。我写这些的目的,只是为了更好地理解一种虽然不是人人尽知,至少是很多人都体验过的关于人体状态的现象。尽管从生物学角度讲,进化可能会让我们有某些特定感觉,但这并不意味着我们的智慧就无法压制住这些感受,从而使大约能抑制感受的大脑的执行功能和社会化的趋向得到进一步强化。

[7]闭锁综合征是指病人虽然能意识到,但因全身瘫痪而无法动弹的状况。

[8]但是目前还没有达到。

[9]根据遗传差异分析结果。

[10]肤色不同在人类歧视行为中最为普遍。

[11]自闭症明显具有遗传性。

[12]也就是统计上所说的高出基线两个标准差。在标准正态分布中,两个标准差大约等于95.45%。但在布洛姆的文章中,他引用了多个超过90%的数据源,关注的结果值达到98%。

[13]置信水平指的是参数值落在某一既定数值区间内的概率。文中是指这个人工智能按照设计针对不同类型的问题做出解答的概率。

[14] massive open oline courses,MOOCs,大规模开放在线课程,又称磨课师。

[15]编者注:快速眼动期又称快速眼动睡眠,在此睡眠阶段眼球会快速移动,同时身体肌肉放松。

[16]长期增益效应,是特定神经元间基于以往神经活动模式对神经信号的持续增益。它是习得行为在细胞层次上的基础。

[17]正如空间分辨率是指相对于空间的测量精度,如图像中的像素数,时间分辨率指的是相对于时间的测量精度。

[18]编者注:赛博蟑螂是前文所说的将电极包装在蟑螂背后,通过远程控制使其成为半机械昆虫。

[19]编者注:赛博格又称义体人类、生化电子人、用机械替换人体的一部分,连接大脑与机械的赛博格系统。

[20]美国国防部现在将这些统称为无人驾驶飞行系统,简称UASs。

[21]编者注:逆向工程又称逆向技术,是一种产品设计技术再现过程,即对一项目标产品进行逆向分析及研究,从而演绎并得出该产品的处理流程、组织结构、功能特性及技术规格等设计要素,以制作出功能相近,但又不完全一样的产品。

[22]目前,运用单元选择合成的最佳语音效果,人们不容易区分出并非真人声音。单元选择合成利用双音、词素、音节等词汇单元数据库及词汇数据库,实时生成完整的短句,并通过其他处理流程加以调整,让这些句子听起来非常自然。

[23]心理战部队近期已更名为军事信息支援作战部队,简称MISO。

[24]编者注:这里罗伯特为了测试斯维特拉娜是否是真人而打的乱码,如果斯维特拉娜是真人,收到这封邮件应该会反问罗伯特乱码的意义,但斯维特拉娜没有问,因此罗伯特判断斯维特拉娜是机器人。

[25]第二类医疗器械,是指出于使用安全考虑而受到特别控制和规范的医疗器械。

[26]相比之下,美国2015年的赡养比是22%,相当于每4.5个劳动年龄的人赡养一位老人。

[27]编者注:网真技术是一种结合高清晰度视频、音频和交互式组件,在网络上创建一种独特的“面对面”体验的新型技术。

[28]译者注:一项使用很广的心理学量表。

[29]“蟒腹中的猪”是人口统计学家使用了多年的一种比喻用法,用来描述一直相对平缓、“单薄”的人口分布曲线因为“婴儿潮”而出现的凸起部分。与蟒蛇吞入腹中的食物一样,这个凸起部分并不是静止不动的,它会沿着从出生到死亡的进程节节推进,在不同时期对不同的资源和基础设施造成压力。

[30]用这个收入可以购买或者外包老人照顾服务。

[31]因为True Link本身销售的产品,就是保护老年人不被诈骗。

[32]顺便说一句,按电灯开关这个过程也是一个对多种复杂处理过程进行抽象的过程,不过大多数人也懒得细究吧。

[33]编者注:分布式拒绝服务攻击是一种比较新型的攻击方法,把分层管理的优势和分布式处理的能力引入到以往的拒绝式服务攻击中。

[34]编者注:零日攻击是利用未知漏洞侵入计算机系统,利用厂商缺少防范意识或缺少补丁,从而造成巨大破坏。

[35]所谓社会工程,就是通过对人进行心理操纵来获取信息,所利用的常为关键性认知偏差。认知偏差是思考过程中会对我们所做决定构成影响的各种错误,包括导致决定有误的各种过滤标准和先入之见。

[36]阿比盖尔是情感智能领域一家成功企业的CEO。

[37]技术学家凯文·凯利称之为“技术元素”。

[38]编者注:艾萨克·阿西莫夫是美国著名科幻小说家、科普作家、文学评论家,美国科幻小说黄金时代的代表人物之一。

[39]有关阿西莫夫的定律,我们将在第十六章详细探讨。阿西莫夫的机器人三定律,是希望将外来的控制手段内化成小说中机器人的固有构成,以防止它们伤害人类,或任由人类受到伤害。

[40]编者注:《60分钟》是美国哥伦比亚广播公司主打的一档电视新闻杂志栏目,该节目制作精良,是美国知名的电视节目,多次获得美国新闻类栏目奖项。

[41]除非另有说明,随后这一部分中所有未来学家的观点均出自作者发出的一份问卷调查。

[42]如,让它们的行为表现为邪恶、甜美、坚韧。

[43]编者注:威廉·吉布森是美国科幻文学的创派宗师和代表人物。

[44]休斯敦大学的前瞻项目是目前世界上此类项目中历史最长的。

[45]比如,虚拟现实中的虚拟身体,或者真实现实中通过极微机器人投射出来的身体。