如果你真的细细思量过自己的选择,将不得不面对一个无法理解的真相。你曾经做出的所有选择都不是出自你的意愿,你一直都只是个囚徒而已。如果我告诉你,我是来还你自由的呢?

——《西部世界》第1季第4集中的黑衣人

每天早晨,宾夕法尼亚大学的四年级学生泰(Tai)都会在完美的时刻醒来,既睡了个好觉,又不会耽误上课或赴约。今天的完美时刻是早上7点18分。这个闹铃时间并非他自己设置,而是软件为他选择的。他的手机中有个睡眠跟踪软件,过去几个月里一直追踪着他的睡眠模式,监控快速眼动期[1]和浅睡期。基于这些信息,软件为他设置了智能闹铃,会在浅睡期唤醒他,同时也会尽量保证每天唤醒时间大体一致。这个软件背后的理论认为,这样的时间安排能给泰的一天带来更多的活力和专注力。

尽管泰乐于听取教授和亲朋好友的建议,但他也想走自己的道路。他觉得自己是个独立思考者,有能力权衡利弊,最终做出正确的选择。为此他需要一个好头脑,以及一晚的好觉。

泰在**翻了个身,睁着一只眼抓起手机查看消息:最近一条Insta有十四个赞、Facebook上有七条通知、新的Facebook头像得到了三条评论,对于周一晚上来说还不错。他刷着Facebook,朋友哈利发的文章标题《扫地机器人的多样新选择》吸引了他的注意力。他点进文章,觉得其中提到的Eufy RoboVac扫地机器人不错,于是又转给了女友凯特。

还有封他妈妈发来的邮件,是一篇《纽约时报》文章的链接,《同居前不得不知的事情》。泰叹了口气,只是和妈妈随口提到要和女友同居,她就当真了。文章的配图里有一对三十多岁的迷人情侣,坐在洁白的台阶上,凝视着对方的眼睛微笑。他回复:“哈哈,谢谢啦。看到了,那对中年夫妇看上很幸福。你怎么找到这篇文章的?”把他们称为中年夫妇肯定会惹妈妈生气。不过没时间再刺激她了,已经7点28分了。

泰翻身起床,走过积满灰尘的地毯打开衣柜,拉出一条Bonobos的水洗弹力卡其裤(他一直在Instagram上关注着这家网络服装店)、蓝灰相间的菱形花袜(在亚马逊上排名第一)、正装衬衫和领带。他今天要去面试一份工作。

坐下来吃早饭时,泰回想起机缘巧合得到这次面试机会的事情。领英(LinkedIn)的算法提醒他去祝贺朋友萨曼莎入职半年,随后他看到了萨曼莎发的这个招聘信息。他俩的对话有点小尴尬,因为两人是几年前被Tinder(交友APP)匹配到一起的。萨曼莎是个带着些文艺气息的女孩,浑身上下洋溢着自信,她有很多地方讨人喜欢,但两人始终没有擦出火花。之后他们虽然成了朋友,但自从萨曼莎毕业后,泰要和她保持联系也没那么容易了,尤其凯特还不是特别喜欢萨曼莎。

泰和萨曼莎的友谊不是最近刺激到凯特的唯一事情。他和凯特讨论过搬到一起住的可能性,这事情似乎让她很紧张。周末的时候,泰发了一篇赫芬顿邮报推荐的文章《情侣同居前必做的15件事》给凯特,凯特读得津津有味,尤其是第15点“准备好退出策略”。泰建议万一两人分手了,凯特搬出去更说得过去,毕竟是自己为两人找到的这套公寓,不过这么说只是以防万一而已。凯特发来的消息充满了怒气,泰到现在还没有回复。

换好衣服后,泰又看了看手机。还是没有凯特的消息,但收到了他妈妈关于那篇《纽约时报》的文章回复:“哦,我正在给你和凯特找乔迁礼物,谷歌里就跳出来了那篇文章。宝贝,怎么不转发给凯特呢?另外祝你今天上午面试好运!”

泰能听见Spotify Discover[2]为他挑选的Chance the Rapper[3]的说唱声从卧室的另一边传来,那边的墙壁正映射着东面窗户射进来的旭日阳光。是时候出发去面试了。他打开优步(Uber)想打车去学校,价格是11.23美元,有点高,昨天同样的路线才花了9.34美元。他关闭软件再次打开,这次是10.82美元。泰不清楚价格变化的原因,但他这次下了单,然后在门口等着丰田卡罗拉(Toyota Corolla)出现。

在车上泰边和司机闲聊着,边打开了笔记本电脑准备自己的面试案例,这是商学院学生就职要求的一部分:仔细思考一个有挑战性的商业场景然后陈述解决方案。另一位学生分享的案例准备文档里有这么一个问题:“根本原因分析法(Root Cause Analysis, RCA)是什么?”泰草草做着笔记,用这个方法来分析自己的一天,最后生成了这么一张图表:

泰为自己的一天做了根本原因分析

这些乍一看似乎都是随机的,但他还是忍不住思考,Facebook、谷歌、Tinder和亚马逊使用的算法,到底在自己当前的处境中扮演了什么角色。他是不是要为自己的新工作感谢为他调配了方程式的程序员?这份工作对他的生活和职业而言真的是最理想的下一步,还只是一些无关紧要的过往决策(例如点点鼠标、在屏幕上滑动)带来的偶然结果?泰喜欢想象自己驾驭着方向盘,可这次优步之行让他明白了“掌控方向”的并不是他自己。

前些天我刚好组织了一次关于个性化算法的课堂讨论,作为讨论的后遗症,或许他只是多虑了?于是他发了封电子邮件给我:“有些有意思的东西想给你看,下课后能占用你10分钟吗?”

泰轻叹一声,合上了笔记本电脑。也许他和凯特需要暂时逃离这个地方,好好捋一捋同居的念头。他抽出自己的手机,打开亿客行(Expedia),也许亿客行能推荐几个好酒店。

从2004年起,我就在沃顿商学院教一门名为“使能技术”的课程。现在想想,我当初应该给这门课程起名为“技术领域现状”,这个名字更能准确地描述这门课的内容。这门课程讨论那些改变了各行各业以及无数个人日常生活的技术,包括像泰那些的学生。2004年时,我们讨论了宽带技术、在线购物和基于IP的语音传输技术(Voice over IP,诸如Skype等服务使用的、可以通过互联网进行语音通话的技术)。这些技术在今天几乎已经不稀奇了,如今我们讨论物联网、虚拟现实和太空科技。但这么多年来,有一个主题一直没变,那就是决策算法。我们曾经讨论过亚马逊的商品推荐算法,如今我们讨论的是无人驾驶汽车和智能投资顾问里的算法。另一个更为微妙的变化则是泰问出来的那种问题,我们的行为在多大程度上受我们自己的控制?这类问题在课上越来越常见了。

我们都能意识到,无论是在网上搜索,还是和朋友们联系,或是在亚马逊上购物,自己的线上决策能在多大程度上改变生活。我们中很多人也明白,这些网站背后的公司为我们量身定制访问这些网站和应用的页面,从而引导我们的选择。个性化算法帮助我们在购物网站上选择最优的商品,在视频网站上观赏最好的电影,在约会软件上寻找最理想的对象,在招聘网站上连接最有用的联系人,在社交网站上阅读最吸引人的帖子和文章。但在我们的印象中,自己一般都只是对着这些建议礼貌性地点点头,然后做出自己的选择。毕竟,掌控者是我们自己。

然而,请掂量掂量这些事实:视频网站上80%的观看时间都来源于自动推荐,基于某些估算数字,亚马逊上几乎35%的销售也来源于自动推荐,而约会软件上绝大多数的匹配都由算法生成。根据这些数字,和我们所坚信的不同,我们很多人显然并没有选择的自由。

一个原因是,产品的设计目的是激发我们的购买冲动,而不是利于我们做出更好的判断。举个例子,假设你明天有个重要的工作会议,理想情况下,你希望晚上花点时间准备准备,然后睡个好觉。但就在你开工之前,手机上弹出一条提示,你的朋友发状态时提到了你。就一分钟的事,你边这么想边点了进去。但登录之后你发现朋友们发了一大堆状态。没点几下,你就发现自己在看他们分享的视频了。视频结束后,你又收到了一些相关的有趣视频的推荐。等你意识到大事不妙时,已经半夜1点了,显然你不得不通宵准备明天的会议。这种事情会发生在我们大多数人身上。这种行为非常普遍,正如一些产品设计师指出的,常用的设计技巧——例如使用提示和游戏化方法来提升用户参与度——瞄准并且放大了人类的弱点,例如我们对社会认可的需要,或是我们无法抗拒眼前的欢悦,即使我们意识到这会带来长期代价。就算我们真以为是在为自己做决定,我们常常也是被推动着甚至是糊弄着做出这些决定的。

我们搜索酒店、在线浏览约会信息、网上购书时,无法真正控制自己的选择的另一个原因是,我们看到的信息只是所有潜在相关信息的九牛一毛而已。尽管我们体验到的自由意志,最终决定了我们要看、要读、要购买的内容,但事实上99%的可能选项早已被排除在外了。

原本要浪费时间筛选细枝末节的选项,直至达成最终选择,也许你并不介意节省的这点时间,但算法并不只是帮你更快地找到商品或信息,虽然没有它们的帮助我们最终也能找得到。实际上,算法对我们究竟要买什么以及花多少钱能施加重大的影响。

思考下搜索算法所扮演的角色。在数百万条搜索结果中,可能有数千条和某次特定的搜索是高度相关的,谷歌的算法决定了哪些结果会排列在结果页面的顶端。这种排名对我们的行为会产生巨大的影响。在谷歌搜索上,约33%的点击会落在排名第一的链接上,而排名前十之外的搜索结果被点击的可能性只有不到10%。

自动推荐也是在线选择的主要驱动因素。亚马逊的推荐算法对于人们阅读哪些书的影响最大,超过任何个人和组织,包括奥普拉[4]、美国国家图书奖[5]和纽约时报。自动推荐功能在广泛的商品领域驱动着购买决定,从厨具、香水到电器和艺术品。不仅仅是零售商,诸如奈飞、Spotify、苹果公司的iTunes和谷歌的YouTube之类的在线媒体公司都采用了推荐算法将我们轻轻推向特定的方向。

社交媒体网站上同样也能体验到算法的影响。我们可能会相信,是朋友影响了我们所见的主要内容,但事实上,算法扮演了同等重要的角色。每次用户打开Facebook应用或网站时,平均来说,Facebook约有1500条潜在的新闻或帖子可以显示。算法决定了哪一些你该先阅读、哪一些你该稍后阅读、哪一些你完全不必阅读。算法考量了大量因素来决定给你展现的内容,包括我们和发帖的朋友的互动频率,某个帖子得到的总体点赞数,评论数和转发数,来自朋友们的点赞数、评论数和转发数,帖子出现的时间,是否有用户想隐藏这个帖子等。Instagram和推特最近也采用了算法推送。考虑到社交媒体已经成为我们许多人访问在线新闻和媒体内容的门户,新闻推送算法在决定我们所阅读的新闻报道以及塑造我们对周遭世界的看法时起到了至关重要的作用。

也许这不可避免,算法不仅选择了我们在社交网络上所看到的媒体内容,也悄无声息地决定了网络本身,意思就是我们允许哪些人进入我们的个人生活和职业生涯。上周遇到或者昨天刚发过邮件的那个人,领英的算法会不可思议地提醒你将他加入你的职业网络。想和童年小伙伴重建联系?Facebook的算法会给你推荐好友。为何要止步于友情?Tinder、Match.com和eHarmony公司的算法甚至决定了你约会和结婚的对象。在线约会应用和网站上促成匹配的主要因素就是算法,根据某些估算数字,美国高达40%的单身人士都使用这些在线约会服务。

我们作为个人决定自己的行为,除了自己的感觉,还要考量外部意见。让我们来看看Match.com这个案例,它成立于1995年,现在已经成为全美国最流行的约会网站。

加里·克雷曼(Gary Kremen)创办Match.com时,有部分原因是受到了报纸征婚启事的启发。要是你年纪够大,也许会记得报纸上刊登的豆腐干大小的征婚启事,这种广告通常会先做个自我介绍,然后再谈谈自己想找的那个人:“男性、单身、35岁、热爱阅读,希望找寻20~30岁之间的单身女性,需身体健康、为人风趣。”找到另一半的工作就交给了读者。Match.com的早期算法就想复制这一模式,但考虑到忙碌的单身女性和单身男性可能会互相错过,网站也会作为媒人介入,为两人牵线搭桥。

只要能匹配个人条件和需求这两方面的信息,将其自动化,并扩大到互联网所允许的规模,你的事业就成功了。确实,Match.com和众多竞争对手吸引了数百万的付费用户,同时也引来了部分人的鄙视,当然这些人对于老式的报纸个人广告也持有怀疑态度。尽管公众对于交友广告的安全性、匿名性,以及或多或少促进了“勾搭文化”,都表示了强烈抗议,但没有人否认,这些网站确实给了用户所需要的东西。

除了网站没有按“要求”提供服务,至少不是按你写下的要求。2011年,金融时报(Financial Times)的记者戴维·盖利斯(David Gelles)采访了Match.com,得知这家公司发现最好的策略是忽略或者至少部分忽略用户所描述的需求。尽管网站的算法会要求用户定义自己的理想对象,但Match.com并不会给用户推荐符合这些特征的人。相反,网站给用户发送的每日推荐不是基于用户所提供的需求,而是基于完全不同的东西:用户访问过的他人简介。

“以前,我们基于你设定的条件进行匹配。你符合她的要求,她符合你的要求,你俩就是天生一对。”阿马纳特·汤博瑞(Amarnath Thombre)说,“但是随着我们对数据研究的逐渐深入……(我们发现)人们的行为和他们在个人信息中所陈述的需求非常不一致。”当时他是负责战略和分析的高级副总裁,如今是Match.com的CEO,同时也是另一个约会应用的董事会成员。

当Match.com的算法开始基于用户点击的内容而不是输入的内容推荐时,整套流程似乎运转起来了:默默看自由主义者简介的政治保守派最终被推动打起了招呼;原以为非本宗教不嫁的天主教女孩开始和犹太男孩约会相恋;坚持要找金发女郎的男人在算法介绍给他们褐发女孩时跃跃欲试。有意思的是,Match.com的分析团队发现,保守派对于联系自由主义者持更开放的态度,反之却不然;天主教女孩尤其不可能私信印度教徒或无神论者;而男人特别关注潜在对象的头发颜色。

“比起口头上的偏好,我们更关注人们的行为,因为我们发现人们经常心口不一。”汤博瑞如此向盖利斯解释。

Match.com一直都在致力最大化用户找到合适对象的概率。但忽略用户表述的偏好的决定,违反了用户和算法之间的隐性契约,引起了众多问题。如果我们的行为和我们的话语相悖,尤其是在恋爱这样私密的事情上,难道不是该由我们自己来判断由行为还是话语决定事态走向吗?究竟是算法为我们的欲望服务,还是算法操纵了我们的欲望?答案也许具有争议,但这种做法的成效却是无可争议的。盖利斯报道说,Match.com上追求者发送的第一条消息中超过一半来自算法的推荐。其他在线公司也走在这一条路上。今日,许多算法都不再询问用户的需求,而是默默守在幕后推断用户的偏好。

看看你的周围,问一问是哪些因素驱使了你选择这些商品、这些媒体和这些人。除非你是一名卢德分子[6],否则算法已在悄悄地改变你的生活。传统的说法是,算法会为我们做出更快更好的决定,给我们的家庭和业余爱好留出更多时间。但现实没那么简单。在这个新世界中,我们的很多决定都是被注定的,这些算法在我们的决定上施加了貌似微不足道的影响,但层层累积后,对我们的生活产生了天翻地覆的冲击。因为我们最终成为什么样的人,是我们在毕生时间里做出的形形色色的决定的总和。

2012年,Facebook开展了一次研究,研究中他们稍稍修改了新闻推送算法,给一些用户展示更多的“硬新闻”,好比说更多的“伊拉克战争”和更少的“钻进盒子里的猫”。然后他们计算了2012年11月间这些用户中点击了“我投过票了”按钮(在选举时点击该按钮,可以告诉在线朋友自己参与了投票)的人数,我们大多数人应该在Facebook的信息流顶端见过这个按钮。他们将这一组用户中自我报告的投票人数和另一个新闻推送算法未被修改的对照组用户加以比较。研究者们发现新闻推送算法被修改的这些用户中,投票人数增长了三个百分点,从对照组的64%提高到了实验组的67%。后续调查进一步发现,这些用户更显著地报告自己关注政府活动。[7]三个百分点听上去似乎不多,但选举结果,包括2016年美国的总统选举结果,就经常被更小的数字左右。[8]

2012年1月,Facebook的研究者开展了一次类似的研究,调查情绪是否能够,又是如何在社会上传播。他们挑选了689 003名用户,将他们分配到两个实验中。在第一个实验中,修改过的新闻推送算法会随机从他们的信息流中移除一些积极的帖子,使得他们在自己的网络世界中看到更少积极的内容。在第二个实验中,一些消极的帖子会从信息流中被随机移除。每一个实验中,都设计了一个用于比较的对照组,对照组用户的信息流不向积极或消极方向偏移。和相应的对照组相比,研究可以评估信息流被歪曲的用户所发帖子的倾向。

研究者们发现情绪是会传染的:见到更少消极内容的用户在自己的帖子中会体现更多的积极性,而见到更少积极内容的用户所发的帖子也会更为消极。这项研究的本意是展示我们的网友所表达的情绪如何影响我们自己的心情,但研究结果也表明,给我们选择媒体内容的自动化算法也存在潜在影响。如果你昨天觉得元气满满可以挑战全世界,而今天又感觉丧气无望,这可能也和你的信息流算法为你挑选的社交媒体帖子有关系。[9]

泰对自己画的图表感到不安并没有错,那张图表清楚地展示了,他在做出相关决定时所体验的自由意志至少部分程度上是个幻觉。那天下午课后交谈时,我和泰分享了Facebook的研究结果。他还谈到了他在大学里如何花费时间学习为自己做决定,并为自己的决定担起责任。他曾以为决定的掌控者是自己,然而如今他终于意识到,阻挡在自由思考和自由行动间的障碍并不是其他人,而是他用来简化日常决策的数字工具。“哇,想一想我做的大多数选择其实都不是我自己的选择。”泰,这位显然没有结过婚的年轻人咕哝着。

我理解泰的半信半疑,毕竟,失去我们的自由意志不是桩小事。但我没有给他任何信心。相反,我告诉他这也许还只是冰山一角。