内华达拉斯维加斯,2029年11月5日
杰森背靠在椅子上,视线掠过手里的牌,落在几个实力不凡的对手身上。他手里拿的是一对王加两个二。灌篮看来是差点儿,但牌的好坏在这场比赛的分量,连一半儿都算不上。至少在这个百威赞助的世界情绪扑克巡回赛决赛场上算不上。
选手们隔着桌子观察彼此,掂量着对手的强弱。其实应该说,他们在运用各自的软件评估对方。每个选手腮旁都戴着一个网络摄像头,眼睛里还有一副智能隐形眼镜,为他们获得不间断的数据流。当然了,每个数据流都用量子加密技术加密,以保证选手之间谁也拦截不了别人的信号。这场比赛赌注极高。
杰森把目标锁定在了德米特里身上,这位应该算是他遇到过的最冷静、最有实力的选手。杰森知道自己该做什么:冷若冰霜,尽人力所能,做到最大限度的不可读,至于其他就由着情绪工程师们去折腾了。他保持自己的呼吸缓慢而均匀,数据开始流入了。
德米特里对自己充满自信,极度自信,信心指数已达99.1%,绝对爆表,简直无以复加。上次杰森见到如此高的数值,还是在里约热内卢,他握着一把同花顺到顶,不动声色。那次他输得就差脱衣服了。但是这次有什么地方不对劲,在数据流的边沿流淌——很细微,本不够引人注目。他把数据仔细分析了一遍,终于找出来了。德米特里面部表情的视频输入显示,德米特里明显正处于一种微乎其微,简直看不出来的性事后兴奋中。
他这是装出来的,肯定的。人人都在装。这是进入这种级别比赛的唯一途径。但是这次又不同。他的目的是要扰乱视线。那么他是在掩盖什么呢?
一个极其细微的微表情,德米特里左眼下一个不易察觉的轻跳泄露了机密。原来,杰森的对手不是他。他在混淆视听,是虚张声势,是摆在那儿勾引你弯腰的植物。他手上没牌,他只是对自己交感神经系统的控制力超乎寻常。杰森真正的对手是格里格,右手边离他最远的那个,而杰森知道格里格没底气。杰森刻意做了一个好像无所谓的假笑,回应德米特里的虚张声势。这次巡回赛将属于他了,他将成为大赢家。
新型的情绪经济已经到来,正如上面这个场景里的扑克大赛,赌注极高。虽然目前看到的尚处早期,但我们的技术能力和市场需求,已经让曾经的稀罕物发展到接近普遍的程度。
这中间会是怎样一个过程呢?与所有刚走出实验室的科学成果一样,起初会有数家初创公司,争先恐后地要第一个进入市场。但是正如大家一次次看到的,率先进入市场并不能保证存活下来,更不用说大获成功了。这只是新技术的第一代试水者,前方还会有很多新发现。大量资金涌入,寻找能长期发展的那区区几个赢家。估值暴涨,说不定涨高到离谱,然后泡沫爆了,或者至少回缩到正常范围。接下来一段时间,用户会提出种种不满,发出质疑,然后有那么几个浑身是胆的发明者,踮着脚又开始试水。于是另一轮循环开启,一切继续。而随着新的循环,第二代情感计算宣告开始。
市场上会出现一个众多公司构成的生态系统来填补经济发展上的独特空白,那是以前几乎没人想过要去填补的空白。随着这些公司立足渐稳,它们又会为此前不可能存在的新公司和新型服务项目的出现,提供支持和发展空间。
过去50年的数字时代,让这一切成为可能。计算机、人工智能、互联网和网络X.0版,无一例外都走过研发—投资的繁荣期和停滞期,经历几乎一模一样。而所有这些,都为新型的情绪经济搭建起了所需的基础设施。如今的公司,可以通过多种不同方式,将自己辛苦卓绝努力得来的技术能力用起来,并散播出去。应用程序界面(API)和软件开发工具包(SDK),为其他企业、个人乃至竞争对手提供了渠道,让他们能将这些新技术与他们各自的应用结合起来。同时,软件即服务(SaaS)则创造了从被授权方和注册用户方,到支持广告的各网站和应用,各方都能享受多种服务的可能。所有这些(以及之外的其他很多)继而让能满足市场需求的新特性、新技能的开发成为可能。随着这一进程的继续推进,一套全新的、能支持进一步创新的基础设施便建立了起来。而这样的创新,在所有那些支持它的技术还不存在时,是无法出现的。
这种市场行为的有趣之处,是它在之前根本没有任何需求的地方,催生出了更多产品和更多服务的需求。这种良性循环,在每代新技术诞生时,都会出现一段时间的加速。增长的规模和速度如何呢?2015年的一份市场调研结果显示,全球情感计算市场预计将出现快速增长,市场总额将从2015年的93亿元增长到2020年的425.1亿元,其中美国市场份额占226.5亿元。对一个十年前还不存在的市场而言,这实在不能说表现差强人意。
2009年4月,皮卡德和埃尔卡利欧比的公司Affectiva正式成立,这是当时首家将情绪计算技术用于商业用途的公司。两人原本的计划,是以情绪计算为基础,专注于开发针对情感表达及识别存在障碍的人士,特别是自闭症患者的系列辅助性技术产品。不到一年时间,公司就已经有了首个稳定的外部投资人——彼得·塞格尔·瓦伦堡慈善信托基金,其投资金额两百万美元,后续投资又增加了1800万。两人早期在媒体实验室时建立起的关系与人脉,让公司在成立之初就有了坚实的客户群基础。她们推出的第一批产品是Affdex和Q传感器。Affdex是在FaceSense基础上开发的情绪感知及分析技术工具,而Q传感器则是iCalm手环的升级版。
公司一开业,就已经有24家大公司表示想使用她们的技术,而且这些企业基本上都在全球500强之列。“可惜的是,他们要求的用途各不相同。”皮卡德在笔记中这样写道,“你不可能一开始就同时推出24种不同的产品。弄出算法来是一回事,刚起步就要给这些公司逐一研发定制产品和界面则是另一回事。所以我们花了好多时间和精力,去搞清楚这24家里面先做哪个。想要人人高兴是不可能了。”
Affectiva推出的首批产品中,就有FaceSense的全新改造版,也就是Affdex的市场化应用。改造的原因之一,是虽然软件设计完成的时间并不长,但在这很短的时间内,图像识别技术和人工智能其他一些方向的技术已经发生了巨变。比如,人工神经网络(ANN)本来自20世纪90年代起,就不怎么受关注了。可是2006年杰弗里·辛顿(Geoffery Hinton)和鲁斯兰·萨拉克霍特迪诺夫(Ruslan Salakhutdinov)共同撰写的两篇重量级论文,又将人工神经网络拉回人工智能的研究前沿。这两位研究者以及其他研究人员的成果,为多层神经网络的建立和训练提供了重要的新方法,继而诱发了这一领域的巨变。从语音识别和语言翻译,到图像搜索和防伪,这些新方法的应用似乎开始变得处处可见。
根据人脑建模的“人工神经网络”[40],是将大量软件或硬件节点(代表神经元)相互连接起来形成一个多层结构,通过一步步渐进提取,达到识别某一特定输入,比如图像的目的。有些层是隐藏起来的,意思就是它们接收到输入信号,在计算后将得到的结果传递给下一层,下一层再重复同样的步骤。以图像识别为例,每一层提取出的图像特征,都比前一层提取得更精准,以此类推。提取结果最后到达输出层,并在输出层进行最后的进一步调整。隐藏层之所以叫隐藏层,是因为我们无法确切知道它们是怎样得到输出结果的,部分原因是同时使用了有监督学习方法和无监督学习方法,来一步步训练人工神经网络。而怎样找到最优化的节点量、层数、输入量和训练量,就是训练神经网络时要面对的挑战。
一般来说,隐藏层的层数越多,网络识别的正确率越高[41]。但追求高正确率要付出代价,所用的节点和层数越多,计算所需的时间越长。幸运的是,在2006年那两篇文章发表的差不多同期,俗称GPU的图像处理单元产量上升,价格也降了下来。有了这种处理器,网络的训练速度提升了几个数量级,而以前需要几周才能完成的主要运算,如今只需要几天,甚至几个小时。多种新方法的出现,比如受限玻尔兹曼机和循环神经网络,使这些深度学习技术得到进一步完善。所有这些因素,让多种识别模式都会用到的深度学习算法得到了极大改进。过去十年中的不断进步,为人工智能领域带来了丰厚成果,包括脸书开发的DeepFace,它能在图像中识别人脸,正确率高达97%。2012年,由辛顿及其两名学生组成的加拿大多伦多大学人工智能小组,以一套深度学习神经网络,稳夺2012年度大规模视觉识别挑战赛(ILSVRC)冠军[42]。再往前数,谷歌旗下的深度思考(DeepMind)公司,运用深度学习技术开发出一款叫Go-Playing的人工智能产品,也就是阿尔法狗。他们用存有围棋大师级的三千万围棋步法数据库对阿尔法狗进行了训练。2016年3月,阿尔法狗以五盘四胜的战绩击败了世界级围棋棋手李世乭。下围棋对于人工智能的挑战要远远大于下国际象棋。而如此水平的表现,人工智能领域人士原以为还要再等十年。
作为基础的算法固然重要,但训练方法一样不容忽视,甚至更为重要。Affectiva改造FaceSense的另一个原因,就是原来的软件在训练中接触到的演员和研究人员数量相对较少。新系统建成后,Affectiva启动了一个先导项目,为观众在线播放美国橄榄球超级杯广告,条件是这些观众必须同意在看的时候,允许Affectiva通过网络摄像头对他们进行分析。借此,埃尔卡利欧比的团队得以收集到系统再培训所需的素材,这次是成千上万份如假包换、来自真实生活的反应实例。而对受试观众重复进行广告和媒体单元筛查,更增加了情绪反应样本获取的真实性。这些工作极为重要,因为通过机器学习方法训练系统识别的是非常细微的表情差异,它细微到能辨别演技高超的表演,甚至可能在给某种真实情绪体验添枝加叶。随着每一条广告,他们收集到的表情反应样本越来越多,系统的正确率也越来越高。埃尔卡利欧比曾在一次应邀发言中这样讲道:
我们通过观察面部来捕捉表情。面部是社交和情绪信息交流功能最强大的渠道之一。我们的做法,是通过计算机视觉和机器学习算法来跟踪记录人的面部,例如面部特征、眼睛、嘴、眉毛,再把这些与情绪数据点进行对照。然后我们把所有信息汇总起来,与情绪状态进行对照,比如困惑、感兴趣、很享受。过去几年,我们一直在处理这些数据。我们发现,手里的数据越多,情绪分类软件的正确率越高。同样类型的情绪分类软件,只有一百个样本时,正确率一直徘徊在75%左右。可是当样本总数提高到接近10万份有效训练样本时,正确率一下子就超过了90%。这很让人激动。到目前为止,我们一直在持续增加数据库中的数据总量,系统的正确率也在不断提高。
这就是与庞大的数据量和机器学习打交道的有趣之处:一步成功往往会带来更大的成功。
2011年初,英国跨国市场研究公司明略行(Millward-Brown)邀请Affectiva给他们演示一下Affdex的应用。明略行在前一年刚刚设立了自己的神经科学部门,希望能将面部识别技术应用到广告测试上。但是他们发现其他很多公司也有同感,那就是在实验室里可行的东西,放到别的环境中不一定可行。在受试者身上又是连电极,又是连传感器的系统,不仅笨重烦琐,而且也耗费时间。更不必说还极可能造成受试者的焦虑与不适,对情绪测试造成干扰。
于是明略行的决策层提议给Affectiva团队四个广告。对于这四个广告,明略行的团队已经测试过了。如果Affectiva的团队和软件对这四个广告的观众反应分析正确,明略行就答应做这个崭露头角的新公司的投资人,并同时成为它的客户。其中的一则广告是联合利华的多芬自信基金会(Dove Self-Esteem Fund)获奖广告《攻击》(Onslaught)。广告演的是一个懵懂天真的小女孩,面对着各种各样宣扬媒体对女性外貌定义的广告形象和信息。这则广告的主旨,是要提醒人们留意广告造成大众对美和形体产生的过度期望。广告最后以这样一条信息作结:“在美容行业改变你的女儿前,和她谈谈。”Affectiva的软件对上百位观众观看这则广告时的反应进行了分析,确认了明略行此前已经发现的现象,观众在看的时候会感觉不舒服。但是Affectiva还发现,在广告最后结尾的地方,几乎所有观众的不安情绪都开始消退,而看到最后那条信息时,更有如释重负的反应。这一反应持续时间很短,没有任何一种相对传统的检测方法和问卷聆听到这一信息。Affdex的的确确检测出了其他检测技术漏掉的信息。
试验通过了。明略行兑现了先前的承诺,给Affecitiva注资450万美元[43]。同时,明略行开始使用Affdex对上千个广告进行测试。到2011年夏天,Affectiva的营业额已经超过100万美元。此后不久,他们就投放了自己的首个软件开发工具包,让其他公司和个人可以利用这个软件来强化自己的应用。这一举措促进了情绪智能生态系统的扩展,同时大量的广告项目为Affectiva数据库采集了更多的扩充数据,使他们能将系统训练得识别正确率更高。到目前为止,Affdex分析完成的广告总量已超过两万则,面部标本总量超过400万份,共生成了500亿个情绪数据点。目前应用这一技术的国家已超过75个。因为采选的样本涵盖了各种脸型和各种面目状态,且跨越多种文化,所以这无疑又为情感表达的共通性理论提供了有力支持。
在Affectiva不断发展的过程中,时任公司首席执行官的戴维·伯曼(David Berman)开始将公司从提供辅助性技术,转向利润更具吸引力的市场研究领域,在这个领域吸引投资者的机会要大得多。由此造成皮卡德原来的产品重心,也就是追踪人体生理指标的可穿戴设备不再受重视。Q传感器被一步步挤出主营产品队列,到了2013年更是被公司宣布全面停售。发生在皮卡德合作创建公司的这些变化迫使她离开。此后她又创办了Physiio,很快便与Empatica Srl合并,也就是现在的Empatica公司。
今天,Empatica销售的传感器有两个版本,各自独立。E4针对的是研究人员,Embrace针对的则是普通消费者。市场上的Embrace和其他很多可穿戴设备一样,主要用来跟踪和量化我们日常生活的方方面面,包括身体疲劳程度、兴奋度、睡眠和体育运动量。此外,Empatica还在研究如何将它做成供看护者使用的癫痫发作探测和警报装置。E4可以进行无线连接,为需要跟踪生理数据的研究人员实时提供一系列原始数据。
不用说,Affectiva肯定不是市场上唯一一家着眼于情感技术,或者面部表达情感分析技术的公司。总部设在圣地亚哥的Emotient公司成立于2008年,比Affectiva成立的时间还早。这家公司运用类似的面部识别软件,对微表情进行探测和分析。这些微表情,在人发生情绪体验时,是人所共有的。那么为什么这个领域突然涌现出了大量公司呢?Emotient的CEO肯·丹曼(Ken Denman)是这样解释的:“此前,还没具备那些必要条件。微表情是潜意识还没来得及受意识抑制时,反应在面部肌肉上的表现,稍纵即逝。而之前,照相技术还达不到能让我们实际测量面部微表情的水平。”丹曼随后还指出,计算能力也是一个因素。计算机如今具有的计算能力,让我们能够运行多种深度学习神经网络,才让今天的探测分析成为可能。
正因如此,才会涌现出十多家公司,它们的专营领域除面部信息外,还涉及人类与周围世界沟通情感的其他途径。总部设在特拉维夫的Beyond Verbal是一家情绪分析公司,其专长是从人说话的语声语调中提取和识别内蕴的情感信息。他们的技术最初主要应用在客服电话中心及其他客服场所,用于读取和理解客户当时的情绪和情感。今天,公司的业务已经拓展到了其他方面,特别是健康与保健市场[44]。公司的软件系统以物理学家和神经心理学家超过21年的研究成果为基础,训练所用的语音样本取自174个国家和地区,样本总量达到160多万份。每一个样本的分析结果都要经过三位心理学家的复审,且三人必须最终对样本传达的情感达成一致。根据公司的资料,他们的系统不仅能检测出来电者的主要及次要情绪,还能在一定程度上检测出他们的态度及性格特点。所有这些信息都可以用来引导自动语音系统和客服人员,寻求满足客户需求的最佳方法。客服电话中心可以通过对该项技术不同方式的应用,来更好地处理客服过程中出现的问题。比如,同样是气急败坏的客户,一个是真心想要找到解决方案,另一个只是希望心中的不满为人所知,那么处理时就可以分别采用不同的策略了。
Beyond Verbal采用的是深度学习和模式识别技术,从声音波形中提取情绪内容。我们说话的声音本身,应该说还没有进化出传递情绪的功能,而身体的生理结构决定和限制了声音形成的方式。在与公司的首席科学官约拉姆·莱文农博士(Yoram Levanon)交谈时,他谈到了情绪是怎么通过声音传递的。他认为,伴随情绪而来的身体变化改变了我们语音的一些特质。某种程度上讲,和弗雷德·克莱恩斯所说的从指压波形中可以探测出情绪类似。莱文农博士认为,我们从很早就开始学习语音的这种情绪特质,大概从我们还在母体中时就开始了,在这一早教窗口期,相关的神经元开始进行自组,以便对人类语音中的情绪因素实现最佳辨识[45]。
Beyond Verbal为软件开发者提供应用程序界面和软件开发工具包,方便他们将语音情绪分析程序纳入自己的应用。同时他们还启动了应用程序Moodies——这个号称是世界上首款为智能手机开发的情绪分析应用软件。Beyond Verbal称,该应用能将分析对象按体现不同情感和态度的四百多个情绪变量进行分类。公司的首席执行官尤瓦尔·莫尔(Yoval Mor)预测:在不久的将来,任何使用语音输入的设备和平台都会嵌入情绪分析软件。
几十家公司迅速集结,以期在情绪识别领域占领一席之地。有些是从零开始开发产品,有些则利用已经站稳脚跟的公司运用相对成熟技术提供的API和SDK。
在面部表情识别领域,除了Affectiva和Emotient,还有其他很多公司,比如Eyeris、IMRSV、Noldus、RealEyes、Sightcorp,以及情绪计算公司(tACC)等,就连微软也通过微软认知服务开发的情绪API加入角逐。微软的情绪API,是通过提供多种自然互动和情境互动改善用户体验。目前,这个API的核心功能主要在面部表情识别方面。
在表情识别的相关领域,还有Emospeech。这家公司和Beyond Verbal一样,开发的都是语音情绪识别软件。另外还有一家以色列公司Nemesysco,通过分析话语重音发现诈骗。瑞典公司Tobii,则是通过眼球控制及追踪来研究人类行为。虽然步态和身体姿态分析也被视作情绪计算领域的一个部分,而且两者在物理疗法和人体工学等方面的应用也越来越广,但是目前还没有定义出可靠的情绪状态指示指标来通过它们记录情绪。也许等地理定位技术达到一定精度,或者可穿戴摄像头能对穿戴者的动作形成充分的内插式反馈,对这些特征的分析水平才会有进一步发展。
情感计算新技术这枚硬币的另一面,则是各种在软件和机器人系统中合成情感的方法。已经有几家公司开始进入这块市场,让机器带给我们它们有情感的体验。比如,在英国伦敦和欧洲都设有分部的Emoshape生产一种EPU,也叫情绪处理单元,安装在设备上以后,会让使用者觉得这个设备好像有情绪体验。EPU号称是世界上第一个用于人工智能、机器人和消费者电子设备的情绪芯片。它通过传感器来探测互动对象的情绪,然后通过自己的行为来体现对互动对象情绪的感知。通过监测面部表情、语言和音调,它还能判断出使用者正处于什么情绪级别。
今后必然会有其他公司紧追不舍,或者像Emoshape一样研发自己专有的EPU,或者开发出售自带API的情绪引擎,供其他软件接入。而这些又可以用于调整机器人、软件应用和人工智能个人助理的行为,就像我们在第一章开始时认识的数字个人助理曼迪那样。
这里面有一点很有趣,那就是这些初创公司中,绝大多数都是做面部表情识别的。促成这种局面,似乎和两大关键因素不无关系。首先,让情绪识别这一分支得以发展的一系列技术条件已经成熟。网络摄像头和智能手机上的相机像素已经足够高、速度足够快;所有设备的数据处理能力,包括台式机、笔记本,当然最重要的恐怕还是智能手机已经足够强;设备与服务器及各项服务的连接和传输速度足够快,不管是有线连接,还是Wi-Fi连接,手机互连。
第二个原因就更有意思了。以计算机为基础的模式识别和深度学习技术,最近几年无论在精度还是能力水平上,都取得了相当的发展。在有些方面,这种发展让模式识别得以达到人类在自然条件下远远无法达到的水平,但在另一些方面远达不到人类那样信手拈来的程度。原因可能是,如果共有特征的结构相当清晰,比如叉子上的齿、汽车的四个轮子,或者每个字母的样子,那么建立在人工神经网络上的视觉系统就能训练得非常出色,即使是识别条件不够好也没问题。同理,绝大多数的面部表情识别系统,都是以一套结构清晰的分类法为基础,最常用的分类法就是艾克曼对面部肌肉离散动作的绘制归类。这种分类法是以人类情绪的面部表达基本相同这一假设为理论基础的。这种相当完善的分类法,也许正是目前情绪分析公司做面部情绪识别分析的占多数的原因。等其他表达渠道的情绪识别技术出现,人们对它们也有了更多了解之后,这种局面也许会有所改变。
当然,与其他所有行业一样,情感计算行业也存在公司间的兼并和收购。就像前面我们提到的,Physiio于2014年与Empatica Srl合并成为Empatica公司。2015年,面部识别软件公司Kairos以270万美元的价格收购了IMRSV,为自己的客户提供有需求但却超出公司当时业务范围的服务。2016年1月,全球大公司苹果收购了Emotient,收购价格未对外界公开。到本书完成时,苹果尚未宣布收购Emotient的具体原因,但业内很多人猜测,苹果在收购后就可以研发更新版的Siri,也就是现在苹果上的私人助手软件。苹果于同期进行的另外一些收购活动,包括收购英国自然语言软件公司VocalIQ、深度学习图像识别公司Perceptio,以及动态图像面部分析初创公司Face Shift,似乎也证实了这种猜测。正如前面所说,若能以更自然的方式理解和回应我们的软件系统,就会一直推动众多此类支持性技术不断向前发展。
专利和知识产权法,也是可能影响这一新领域发展的因素。比如,Emotient在2015年5月,为自己一项一天时间里采集标记多达十万份面部图像的技术方法申请到了专利。苹果则于2014年为一套能根据面部表情评估心情的系统提出了专利申请。知识产权是创新的动力和促进的因素,因此极为重要。但给新技术授予的专利,从现有法律条款的角度看,保护范围往往过于宽泛,或者保护内容可能具有显而易见性。不巧的是,对一个新科学领域的不熟悉,很可能造成盲目纳入保护失了边界的后果。美国Myriad基因公司1997年和1998年申请的BRCA乳腺癌基因专利,在2013年被双双宣布无效,这就是盲目保护的典型例子[46]。
对专利过于宽泛的保护,会阻遏创新和发展。评估像Emotient拥有的专利,不是本书谈论的范围。但是我们也许该好好思索,类似这种指导机器学习的众包方法是不是不该受到保护。时间会告诉我们答案。在一门新学科发展的早期,不要人为制造不必要的障碍才是最重要的。你可以设想一下,假设20世纪八九十年代,有人申请到了一项被泛泛描述为面部表情分类法的专利会怎样。这在当时看来可能是一个具新颖性也并非显而易见的技术流程,但是如果保护范围过宽,这样一项专利足以扼杀整个情绪计算领域!这里的一个关键点,就是在早期阶段,我们最好对那些明显会对公共利益造成损害的专利,额外设置一些禁止授予的防范准则。有一点很重要,我们要记住美国专利商标局的职责不仅有提供专利保护,还有“促进美国的工业和技术进步,增强国家经济实力”。在现在这个快速变化的世界,哪些技术该得到专利保护,是需要我们谨慎思考的问题。
在市场经济中,人们很容易将利润视为创新的主要促进因素和动机。但利润只是其中一个因素,甚至可能并非最重要因素。能给创新提供支持的基础设施,一支志同道合、远见卓识的核心团队和一个基本能接受并支持新技术开启的可能性的社会——就算不是接受所有可能性,至少也能接受部分可能性的社会,所有这些都是取得更长期发展的必要条件。创新不是形成于真空,而是各种观点汲汲互为灌溉的结果。在保护那些真正值得保护的知识产权的同时,为一项正在发展的技术保留部分开放空间,才能让技术生态圈得以成长和繁荣。而从中受益的,将不只是创新者本身,还有整个社会。埃尔卡利欧比似乎也赞同这样的观点。她曾经这样说:“我们面临的最大挑战,是这项技术的应用实在太广了。我的团队和我本人都认为,只靠我们自己是不能完成得了的,所以我们将这项技术提供给公众。这样别的开发者就可以着手开发相关应用,发挥他们的创造力。”
想想所有这些进步,对于各种不同形式的情感计算与相关应用的不断发展,我们该做何预期?各个组成部分如何相互支持又相互竞争的?情感生态圈将如何形成?对其他技术又将产生怎样的影响?
从这一行业部分领军人物的表述中,我们可以清楚地看到他们对未来,或者对他们期望看到的未来是什么样的预期。前面我们提到过的Beyond Verbal公司的尤瓦尔·莫尔认为:
情绪分析软件很快会在几乎所有的语音输入平台上普及。这意味着,类似Siri这样的软件助手,或者在地球另一边的电话客服中心,能在你和他们开始互动的瞬间,就对你的心情和整体心理状态做出判断。还有,你打给朋友的电话可以选择运用情感通道,在已经自然传递的信息之外,再铺设一条互动通道。不过考虑到个人隐私问题,如果你想关闭的话,每个电话都应该可以提供关闭选项。如果提供服务的公司想维持良好的客户关系,至少刚开始会是这样。
埃尔卡利欧比已经反复表述过她如何看待情感计算的未来。比如她这样说:“有一天我们所有的设备都会有情绪芯片。你的设备会对你的情绪做出反应,并随即做出相应调整。”可以看出,她所预见的情感通道,并不是只有面部表情这一条,而应该是包括其他可能的情感通道在内,至少是一个芯片能容纳得下的所有通道。当她说:“我觉得我所有的情绪都在虚拟空间里消失了。”她想说的是,在我们绝大部分的网上交流中,信息存在着巨量损失。情感通道一直是我们绝大部分线下交流的组成部分,贯穿人类的大半历史。如果我们能通过什么方法,将这条通道补上,也许能重新找回一些重要的东西。
在谈到情感计算的未来时,皮卡德说:“我觉得二十年内,情感计算会被应用于所有的可穿戴设备,所有的电话、笔记本电脑和机器人。任何人与技术发生直接互动的地方,任何人与机器互动时期望它有智能的地方,都能找到情感计算。”与埃尔卡利欧比一样,皮卡德也认为未来我们的绝大多数设备都会具有很高的情绪敏感度。有趣的是,她的研究重心不只是针对我们的运算设备,更拓展到了机器人身上。在下一章中我们会看到,皮卡德并不是唯一在考虑这个问题的人。