科罗拉多斯普林斯,2015年4月20日
西科罗拉多道上一个安静的傍晚。这是片商业区,聚集了商贸中心、快餐店,还有些不太大的手工艺品店。这个时间,店铺已经准备关门了。突然,一声枪响打破了宁静,之后又是一声,又是一声。邻居们很快就数不清听到多少声枪响了,不止一个人惊恐万分地跑去找电话。枪声骤停,与起时一样突然。不一会儿,宁静再一次被打破,这次是警车的尖啸。出警的警官赶到了现场,但已经太晚了。他们很快发现,这次的处决式枪杀事件,和以往这里发生过的任何枪击案件都不同。行凶者叫卢卡斯·辛奇,店铺主,现年37岁。由于心生绝望且走投无路,将被害人带至后巷,掏出了最近刚买的9毫米HiPoint手枪。预谋已久的辛奇,残忍地将8发子弹射入了他那台2012戴尔XPS电脑的心脏。电脑未能幸存。
辛奇并没有意识到自己犯了法[35],他跟警察说,那电脑让他头疼好几个月了。辛奇说当显示器上一遍一遍跳出来无耻之极的Windows“蓝屏死讯”,他最终失去了理智。
“真痛快。”辛奇在谈到自己的机器谋杀行为时这样说,还补充道他一点儿也不觉得后悔。
从有了个人电脑开始,使用者用球棒把电脑砸了,或者把电脑从五层楼扔下去的事就层出不穷。1997年有一段监控录像叫“不顺的一天”。录像里有个员工被电脑气疯了,他先是用拳头在键盘上猛砸了一顿,最后把整台电脑砸在了地上。这段视频在网上爆红,点击率达到数百万。让人发笑只是其中一个部分,它这么受欢迎的另一个重要原因,是因为在和电脑打交道的过程中,很多人都有这种受挫折不顺畅的同感。
那么这种对机器的严重伤害行为有多么普遍呢?大概比你想的普遍。根据哈里斯互动调查(Harris Interactive)[36]为Crucial.com所做的调查显示,超过三分之一的美国人承认自己对电脑有过语言或肢体上的虐待行为。所有这些虐待行为,包括骂脏话、尖叫、吼叫、用拳头或其他物体击打,基本都是因为某些重要任务电脑没能完成,或者完成得不够水平。
关于计算机引发暴躁情绪的问题,从这个词诞生的第一天人们就在研究了。正如克利福德·纳斯在《媒体等同》(Media Equation)中指出的那样,我们与计算机的互动,本质上是社会性的。可是,这些机器却还没有精巧到能与我们在同一个层面交流的程度。我们在与其他人的互动中总不可避免地掺杂大量情绪成分,但计算机对此还太懵懂,所以才会可能随时花样频出地给使用者添堵。随着我们使用机器的频率增高,在生活中越来越多的方面对它们更为依赖,我们的不满大概会有增无减。除非我们能找到某种方法,让机器在人机之间这种未曾明言的社会合同关系中往前跨出半步。
这只是情感计算未来能做的很多事之一,即满足任何其他手段都不大可能满足的需求。在那本具有突破性的《情感计算》一书中,皮卡德提到了这一点,她认为用户的挫败情绪是学习新软件的一个主要障碍。而同时,协助和手把手引导一旦过度,不仅没有帮助,反而可能让事情变得更糟。这一点是微软付出了代价才明白的。
20世纪90年代中期,微软开始在其应用最广的软件包Office办公系列中加入助手。Office助手是一种早期的智能用户界面,运用贝叶斯算法根据内容的出现概率进行决策。在与使用者互动时,Office助手是以动画人物的形象出现,默认的长相是一只曲别针,名字叫Clippit(不过,很多用户都把这个助手叫大眼夹,这名字也就这么叫开了)。大眼夹经常会非常不合时宜地跳出来打扰用户,询问用户在它检测出的任务中是否需要帮助。问题是,大眼夹过于想帮忙了。你打一个地址,再打个“亲爱的”,那个总是跃跃欲试的助手就会突然冒出头来,干扰你的注意力。“似乎你正在写信,”它会说,“你需要帮助吗?”虽然设计的本意是一个虚拟助手,但这个助手没完没了地打扰,最终弄得人人都烦它。为了说明问题有多严重,纳斯2010年在《华尔街日报》发文:“史上最遭人骂的软件设计就是大眼夹,就是微软办公软件里的那个动画曲别针。只要跟电脑用户一提它的名字,就能激起各种程度的仇恨,一般只有被遗弃的情人和死对头才能激起这样的仇恨。”几年的时间,大眼夹成了人们不断拿来模仿讽刺的对象,甚至还有人做了一段“大眼夹必须死”的视频在网络上广为流传。2001年,微软取消了这一功能。
虽然Office助手在使用过程中确实存在很多问题,但最大的问题还在于它对用户的情绪状态一无所知。除了鼠标点击和文字输入,计算机就再没有别的输入手段,结果导致这个助手远远无法与人进行真正有用的互动,特别是那些本来就心怀挫败真正需要帮助的人。更糟的是,它还有一个很卡通的拟人化外表,交流也是一对一的,这就更进一步强化了使用者潜意识中的期待,指望这种社会互动就像人与人之间那样。
这些还只是媒体实验室情感计算研究组需要解决的很少的几个问题实例而已。比如,为了解决大眼夹几乎人人喊打的问题,微软找到了研究组,希望他们能想办法提高办公助手的情商,改善其应用。针对这个问题,皮卡德的团队开发了一种压力感应鼠标,它能检测出用户的兴奋度。在设备演示中,一个用户想给某位Abotu先生写封信。可是每次一输入,Word就会自动把名字改成About先生。在感应到使用者抓握鼠标的力量越来越大时,大眼夹突然跳了出来。
“看起来好像你很烦躁,”它观察到,“需要我关闭自动修改功能吗?”虽然压力感应鼠标相对来说比较简单,但确实在一定程度上实现了对用户心理状态的实时反馈。这在没有改变程序基本格式的情况下,解决了大部分问题。只可惜,这种改进虽然可能会受欢迎,但对于绝望的大眼夹来说为时已晚。至今大眼夹案例仍是计算机界面设计史上代价沉重的一大教训。
情感计算组接手了很多不寻常的项目。他们运用多种非常规方法,解决了大多数人根本不会留意需要解决的问题。而这也正是麻省理工媒体实验室闻名世界的原因所在。媒体实验室最初的创建者,是麻省理工的教授尼古拉斯·内格罗蓬特(Nicholas Negroponte)及时任麻省理工学院校长的杰罗姆·威斯纳(Jerome Wiesner)。媒体实验室是一间跨学科研究实验室,致力于技术、科学、多媒体、艺术和设计等多学科交会的项目。实验室在机器人技术、人工智能、人机互动及用户界面、生物机电工程学、社会计算及其他多个领域创新成果不断,也让媒体实验室的名字成为“前沿”的同义词。
1997年,皮卡德在媒体实验室组建了自己的研究小组。尽管那时她的研究已经得到广泛支持,她还是提到,全世界大概只有这个地方会组建这样的研究组。而媒体实验室本身的跨学科性质,对这样一个小组来说最合适不过。因为他们要把工程和计算机科学与心理学、认知科学、神经科学、社会学、教育、心理生理学、以价值为中心的设计和道德等全部结合起来。
这种跨学科的方法对他们的研究至关重要,因为要将情绪表达变成计算机能识别和处理的东西,是个非常复杂的过程。组里有一部分学生和研究人员负责开发能通过静物相机和摄像机识别面部表情的系统。另有一部分人负责录制语音资料,设计仅凭说话者声音语调,不考虑其所用词汇,就能提取说话者情绪状态的程序。还有一部分人则负责研究生理信号,比如肌电图、血容量脉冲、皮肤电反应和呼吸等。尽管这些对我们人类来说自然又简单,但在计算机处理时,其中的很多工作,都需要用到大量的模式识别技术,来教这些系统去识别表情的意义和区别。
模式识别,是机器学习和人工智能的一个分支,在最近几十年中已发展得愈加精细。作为备受关注的一种人工智能形式,模式识别有时也被称为狭义的人工智能或弱人工智能。对我们人脑来说,识别模式易如反掌,软件虽然尽力想复制人脑不可思议的模式识别能力,但神经元的本事却远非机器逻辑能模拟得出的。因此,计算机完成这些任务时所用的方法与人脑大为不同。比如说,在机器视觉模式识别过程中,要给物体或场景指定意义,得先完成几个步骤。首先,是采集和预处理,就是将图像采集好并进行清理。这一步之后可能需要特征提取,就是对线条和边界、兴趣区域,可能还要包括质地、形状和动态等因素进行识别。图像检测和分割,要对各点和各区域进行归类,生成下一步处理所需的素材。接下来要进行的,可能包括对数据进行分组、归类和标记。不用说,就算是我们觉得很简单的图像,对计算机来说信息量都是巨大的。
情感计算的研究人员还发现,一些能更直接测量情绪变化的方法,不仅在情感计算方面有所裨益,对其他情感系统的研究也是有益补充。通过监测生理信号来确定情绪唤起的变化,能让我们更好地把握受试者的基本心理状态。从一定意义上讲,研究人员早在一个世纪以前就开始这么做了,正是对身体反应的研究,才促成了测谎仪及其他测谎设备的诞生。
不过,从多种层面上讲,读取人的面部表情难度要比只是进行视觉模式识别和匹配大得多——至少对机器来说是这样。细微的差异与变化,因文化、个体,甚至具体某个人的脸,都会大为不同,以至于一段时间以前,很多人都还觉得识别面部表情对计算机来说根本没可能。就算当时的计算机已经能进行模式识别了,但还未能解决这个问题:怎样才能真正对检测到的东西进行归类和识别?比如,表情特别丰富的人,和不那么丰富的人之间,就存在着很大的差异。或者,你怎么才能辨别一个人的微笑是真是假?要是有人笑里藏刀或是咬牙切齿呢?
皮卡德的情感研究组是幸运的,那些将在全球各机构及企业兴起的情感技术实验室也是幸运的,因为这个问题有了答案。20世纪60年代,年轻的心理学家保罗·艾克曼开始就情绪的表达方式是否具有共通性这一问题展开研究。换言之,就是情绪的表达方式是否和你的成长地区及成长方式有关。那段时间,艾克曼先后在美国、巴西、智利和阿根廷展开研究,以展示系列图片并提问的方式,希望确定人类情绪表达方式的共通程度高低。在发现上述地区的情绪表达方式存在高度一致之后,为了排除跨文化影响的可能性,艾克曼又去了巴布亚新几内亚,请那里的部落居民参与同样的测试。这个部落,属于世上最与世隔绝的部落之一。尽管这些人生活之地如此蔽塞,但艾克曼发现,他们在识别他人面部特定情感时,与世界其他地方的人相当一致[37]。以这一初步调查结果为基础,艾克曼提出,人的基本情绪分为六种:高兴、悲伤、愤怒、惊讶、恐惧和厌烦。虽然后来有些科学家认为,基本情绪其实只有四种,不过艾克曼继续根据自己的研究界定情绪,并进而列出21种可明确区分的情绪。
此后艾克曼先后担任过心理学家、教授,还主管过一家专门研发、生产相关情绪技巧培训设备的公司。其间,他提出了与情绪相关的多种理论,开发了多种工具。艾克曼是20世纪被引用次数最多的心理学家,入选《时代》杂志全世界百位最有影响力的人物,还成为电视剧《不要对我说谎》中的莱特曼博士(由蒂姆·罗斯扮演)的原型。不过,在他完成的浩繁工作中,对情感计算特别有帮助的,是他对面部动作编码系统(Facial Action Coding System, FACS)的采用和推广。该系统是瑞典解剖学家卡尔-赫尔曼·约特舍(Carl-Herman Hjortsj )早十年前提出来的一套人类面部表情分类法[38]。这套分类法将每个单独的面部肌肉动作定义为一个动作单元,从而将一种表情的各个组成部分,分解为计算机程序能够分析和分类的可处理单元,大大提高了与机器逻辑的相容性。这套结构严整的系统,对情感计算这一新生领域起到了巨大的推动作用。
再后来,艾克曼还研发出了其他很多表情分析工具,其中最有名的是微表情训练工具和细微表情识别工具。前者能识别微小的非自主面部表情,即使人刻意抑制自己的情绪,这些表情仍然会出现,后者则用来进行识别细微情绪表达信号的教学。不过因为研究表明,在人能做出的一万种面部表情中,只有三千种与情绪实际相关,因此他又设计了其他一些工具。面部动作编码系统和面部动作编码系统情绪解读字典,采用的是类似的分类学方法,不过只针对与情绪相关的面部动作。所有这些工具,至少为面部表情的初步分类奠定了重要基础。
使用编码系统,比如艾克曼的面部动作编码系统会存在一个明显问题,那就是这些系统建立在静态图像上,如果想应用到动态图像上就是一个挑战。但是如果在面部动作编码系统中引入非局部空间模式,再结合时间信息,就有可能从这些变化的表情中提取出情绪信息来。这一步非常重要,因为编码系统就此终于具有了正确解读非静态图像的潜力。我们的脸不是静止不动的,而是时时在运动变化中,每种表情特征都分为反应、释放和放松三个阶段。因此,我们在面对面交流的时候,表情可能发生变化,在经历各阶段的运动过程中,正确地辨识表情,特别是细微的微表情也许会更容易些。
但是,正如皮卡德所指出的,识别面部表情不总是等于了解产生这些表情的诱**绪。不管怎么样,因为表情是我们内在心理状态最可见的表达,它们对于我们理解表面掩盖下的复杂感受,仍不失为是最佳的出发点。
媒体实验室这个新组建的研究组迅速发展壮大,很快开展了一系列涉猎广泛的研究课题,从多角度对情绪读取展开研究[39]。这种研究方法,对这样一个新领域形成必要的研究精神至关重要。只有对情绪计算技术带来的一切可能抱以开放的态度,才能对这些可能展开充分研究。
有一个小组开发出一种像手套一样的设备,叫作皮肤电反应传感器(Galvactivator),它能跟踪测量佩戴者的皮肤导电性。这种情绪手套的发明者,是皮卡德和约瑟琳·舍雷尔(Jocelyn Scheirer),产品设计则由时尚科技公司Studio XO联合创始人兼总监南希·蒂尔伯里(Nancy Tilbury)及数学家兼设计师乔纳森·法灵顿(Jonathan Farringdon)共同完成。情绪手套会将信号传送给一个二极管,佩戴者兴奋度越高,二极管越亮。1999年,可穿用设备的生物反馈被应用在了电脑游戏《雷神之锤》(Quake)中。在感应到游戏者对屏幕上的场景感到吃惊时,游戏中的人物会向后跳。研究组开发了很多能检测佩戴者生理状态变化的生物感应器,《雷神之锤》采用的只是其中一种而已。情绪手套的概念,最终促成了越来越复杂的可穿用设备的诞生,包括今天在市场上可以买到的一些产品。
情感计算研究组的课题,还包括Affect as Index(情感指数化)。这套系统可以将群体生理信息作为输入信息,然后按不同的人口统计维度进行分组整合,并与媒体内容关联起来。这一系统能让多个用户组“共享”情绪,研究具体事件对参与者可能产生的不同影响及造成这些不同的原因,从而在不同用户组间建立起对话,促进彼此间的相互理解。还有一些课题研究群体互动,对大众传媒颇为实用。Affect in Speech(言语中的情感),旨在建立一个包含一系列情绪变化的语料库,以支持为语音情感自动识别系统建模的专项研究。EyeJacking:See What I See(共视:见我所见)这个应用,则将大众的集体智慧利用起来,让人们能“截眼”,透过别人的眼,分享他们的所见。如果应用于自闭症患者,那么患者的家人、看护者和同龄人,就能远程标记视野世界,为实时所见提供额外增补。此外,这一技术还可应用于机器人,提高机器人的某些视觉识别能力。
这些课题,很多都是肩负双重使命。它们不仅要完成课题本身的既定目标,同时还要为其他课题提供支持。比如,关于语音语调变化的语料库,可用于研发其他基于语言的软件和应用。又比如,对群体情绪(group sentiment)进行分类组合的系统,可以用来开发众多社会传媒应用,或者用于流行病学的研究。
自闭症情绪交流研究小组研究的多项课题,都旨在帮助有口头交流困难的人,包括自闭症患者解决他们面对的基本问题。这部分人群可能出现内心已近崩溃、表面却很平静的情况。而此类工具就能在他们崩溃前找到触发点,帮助看护者找到解决办法,避免崩溃的发生。
情绪手套是较早走出实验室的情感技术之一。经过一系列升级外加数次迭代,其轻巧度与便携度都得到极大改善。情绪手套也被称为皮肤电反应感应器,原理是对皮肤的电传导性进行测量和跟踪(它的英文名galvactivator,本来就出自它之前的名称:galvanic skin response,即皮肤电反应)。情绪手套的设计就是一只可穿戴的无指手套,曾经过多个测试组的使用和测试。有的时候一次测试人数就超过千人,而且数据采集是在这上千人身上同时进行的。根据情绪手套搜集的信息,研究组后来于2007年成功研发了iCalm腕带手环。iCalm是一种低价、低能耗的无线设备,能跟踪监测皮肤电反应和心率等多项身体反应变化。研发的目的,是希望能用来辅助监测睡眠质量、减肥成效、精神压力水平、锻炼时间与强度,进行自闭症教育、产品测试,甚至成为电脑游戏的用户界面。
皮卡德在给电气电子工程师协会的一篇论文中,讲到了朱迪的故事。朱迪是位患有自闭症的年轻女性,当时正要在一个年会上做关于自闭症的发言。很多自闭症患者在遇到意料之外的情况时,内心就会产生巨大压力。朱迪也是这样。皮卡德于是给了朱迪一个手环。这只手环会测量三项生物特征信号——皮肤电反应、运动和温度。后来,年会的日程安排出现变化,朱迪开始躁动不安。手环记录下了这种反应,同时还记录了朱迪努力尝试其他应对机制时的情绪状态。手环收集来的数据,让皮卡德的团队识别出了对朱迪有利的行为,帮助她避免“情绪崩溃”的发生,而这正是自闭症导致患者社会功能不调的一个常见特征。
情感计算研究组不仅推出了很多新观点、新课题,完成了多项发明,还培养了真正意义非凡的合作关系。研究组中人才济济,其中有很多人通过实验室研究,结成工作上重要的合作伙伴。其中有一组伙伴还促成了一系列新技术乃至新企业的最终诞生。
拉娜·埃尔卡利欧比(Rana el Kaliouby)出生于埃及开罗,在那里长大,也在那里获得了她的理学学士和理学硕士学位。在攻读硕士期间,她对利用计算机改变人与人之间的沟通产生了兴趣。差不多同一时间,当时还是她未婚夫的威尔·阿明给她看了皮卡德1997年那本开山之作的书评。阿明本人于开罗创办了一家科技初创公司。埃尔卡利欧比于是订了一本《情感计算》。她等了四个月才拿到书,最后总算是读到了。这本书让她感觉很受鼓舞,书的作者是位女工程师是其中一个很重要的原因。而这位女工程师很快将不仅成为埃尔卡利欧比的典范,还将成为她的导师。皮卡德的这本书,让埃尔卡利欧比下定决心,今后她的目标就是研发出能读懂人脸的系统。
埃尔卡利欧比的硕士论文,研究的是面部跟踪系统。在获得硕士学位之后,埃尔卡利欧比于2001年来到英国,在剑桥开始攻读博士学位。但她发现,剑桥没有一个人真的熟悉情感计算。很多人都对她提出质疑,不明白她为什么会想去研究这个方向。在一次研究成果报告会上,有一位年轻听众对埃尔卡利欧比说,想让计算机学会读取面部表情,她需要解决的一些问题听起来和他兄弟在日常生活中面对的那些问题极其相似。他兄弟是个自闭症患者。
埃尔卡利欧比对自闭症没有什么了解。为了寻找解决手头问题的线索,她开始研究自闭症。而此时,剑桥自闭症研究中心的负责人——认知神经学家西蒙·贝伦-科恩(Simon Baron-Cohen)正在做一个课题,就是要建立一套人类表情的影像库。课题的研究目标,是要帮助自闭症患者识别他人的面部表情,因为脸盲现象在自闭症患者中非常普遍。影像库中的每一段录像,都由一个二十人组成的评判组审定过,一共核定了四百多个有效标本,可以让埃尔卡利欧比拿来用于训练她的软件。机器学习算法会随后对所有标记为某一特定表情,比如快乐或者困惑的图像进行处理,再找出这些影像中脸部的所有共同点。这样,软件就能知道这种表情看起来是什么样,进而通过更多的标本及反馈提高识别能力。
以这项研究为基础,埃尔卡利欧比研发出了她的第一套情绪社交智能补充设备。这套设备包括一副带外向网络摄像头的眼镜和几只朝向使用者的LED指示灯。在交谈过程中,设备会检测对方的面部表情并为佩戴者提供实时反馈,告诉佩戴者他们交谈对象的状态。绿灯表示对方很专注,黄灯表示对方反应平淡,红灯表示对方毫无兴趣。到埃尔卡利欧比完成了在剑桥的学业时,她研发的系统表情辨识的正确率已达88%,而且能辨识的表情远远多于现实生活中的几种基本表情。她决定给这套系统取名读心者(MindReader)。
2004年,正当埃尔卡利欧比忙着研发读心者并准备将它作为博士毕业设计的一部分时,皮卡德来到剑桥实验室造访了埃尔卡利欧比。两位女士相见恨晚。埃尔卡利欧比这套系统的精密性和活跃度给皮卡德留下了深刻印象,很快两人就建立合作,开始了进一步开发。埃尔卡利欧比请皮卡德做她博士论文的审核人,皮卡德则邀请埃尔卡利欧比加入媒体实验室的情感计算组。2006年,埃尔卡利欧比应邀加入了研究组,开始了她的博士后研究。两个人合作起来非常愉快,而且很快就为iSET的研发,从美国国家科学基金会争取到近百万美元的项目资金。iSET属于情绪辅助设备,其基础就是埃尔卡利欧比的面部识别软件脸感(Face Sense)。
在iCalm和读心者的基础上,皮卡德和埃尔卡利欧比合作完成了大量课题。两人花了五年时间开发了多种设备,在美国罗德岛普罗维登斯的自闭症研究中心格洛登中心(Groden Center),对患儿进行应用测试,并取得了成功。这些设备让我们对有严重情绪表达和情绪识别障碍的人有了更多了解,也为这些人带去了希望。
在这些项目进行的过程中,媒体实验室每两年都会举办一次“资助人周”活动。在这一周里,研究人员会给赞助公司——那些富有先见,能理解此类研究所具潜势的公司,讲解自己的课题项目。这一活动不仅给媒体实验室带来良好声誉,更为研究者送来了重要的反馈信息。尽管皮卡德和埃尔卡利欧比的研究进展每每让赞助人惊叹不已,但他们总还觉得她们做得不够。两位研究者一次次获知,她们的技术在各种商业应用上都有巨大潜力,尤其是在产品品牌建构和市场调研领域。又隔了一段时间,软件读心者被上传到媒体实验室的服务器,各赞助企业都可以登上这些服务器去试用实验室正在开发的产品。很快,这一软件就成了媒体实验室下载量最高的软件。对此,皮卡德和埃尔卡利欧比显然很是兴奋。不过大受欢迎也伴随着多得像雪崩一样多的问题。各行各业的公司企业都想一探究竟,弄清这到底是个什么软件、有什么用途。美国银行、福克斯、吉普森、惠普、贺曼、微软、美国航空航天局、诺基亚、百事、丰田和雅马哈都对这项技术表示出了浓厚兴趣。皮卡德和埃尔卡利欧比一方面很高兴自己的研究不仅能帮助那些受自闭症折磨的患者,还具有商业利用价值,但另一方面又感觉难以招架。毕竟,她们是研究人员,不是商业经营者。她们想要的是专心致志搞研究,而不是创办企业。
两人研发的设备和系统,识别正确率继续缓慢稳步地提高。她们正在研究的机器学习算法有个优点,简单讲就是输入的数据标本越多,程序的识别正确率越高。偶尔,设计上做出一些更改,比如专门给面部识别系统编写的非对称嘴部扫描软件,也会让识别率有所提升。起初,系统只能追踪人嘴部的对称运动。但是嘴的形状和位置,往往两侧并不相同。假笑、咧嘴一笑,还有冷笑,所有这些表情,嘴左右两侧动作一般都有不同。所以,在她们写出嘴部跟踪软件,对两侧动作同时独立跟踪以后,表情的识别正确率顿时提高了一截。
虽然偶尔会有这些改进,但要继续提高,主要还得靠机器学习。有一点越来越明确,就是想要继续改善系统的正确率,就必须使用更多的样本信息来训练系统。而情感计算研究组只能提供这么多样本了。还不只是这个问题,样本采集的过程本身非常耗时。而她们训练系统,需要成千上万乃至可能几十万人的图像。皮卡德后来计算过,按照她们当时的采集方法,想要采集到足够的样本,需要将近10亿美元!媒体实验室虽然做得成功,但这样的预算,不用说也是超乎想象。
来自资助企业的各种需求源源不断,皮卡德和埃尔卡利欧比最后找到媒体实验室当时的负责人弗兰克·莫斯,提议招募更多的研究人员进项目,以满足研究需要。莫斯否决了这一提议。他告诉她们,想要进一步发展她们的技术,需要将研究转入企业模式。“是时候你们独立发展了。”莫斯对两人这样建议,还补充说,在市场中的实际应用,会让她们的技术在应用上更富活力,也更有弹性。两位女研究者很想只专注于研究,不想开什么公司,但她们同时也看到趋势的避无可避。想让自己的研究真正突破现有水平,就只能告别她们如此熟悉的学术环境,全身心投入纷杂的商业世界。