理论上,理论和实践没有区别;但实践中,理论和实践有区别。[10]
——本杰明·布鲁斯特
2004年一个晚春的早晨,二十多岁的凯文·吉布斯(Kevin Gibbs)坐在拥挤的通勤班车上,反思着自己搬来旧金山居住的决定。几年前他从斯坦福大学毕业时,还憧憬着刺激的城市生活,而不是硅谷蔓延扩张的郊区风景。如今他在硅谷担任着谷歌的软件工程师,工作是帮助优化公司巨大的数据中心——用来存储数据、为谷歌的全球搜索业务助力的IT设备网。大多数工作都需要在现场进行,小部分可以远程解决的问题则需要稳定的互联网连接。但刚入职没几个星期,他就发现坐公司班车通勤可以有效地利用上下班时间的优势,被没有足够稳定的信号给抵消了。于是他决定做个项目找找乐子。
班车在繁忙的101国道上蠕动时,他开始编写代码。他编的第一个程序是个URL预测器,能猜测用户在地址栏输入的内容,然后自动补充完整。举个例子,假设某人输入了“www.n”,就会自动出现“www.nytimes.com”,因为这个程序会检索数据,从中发现大多数开始输入这段URL的用户最终会输入什么URL。如果这个用户又加了个“e”,变成了“www.ne”,那这个程序就会建议使用“www.net?ix.com”。
坐在吉布斯边上的同事注意到他在做的事情,问道:“如果你把这个功能用在搜索关键字上呢?”这个想法很有意义,吉布斯不久之后就完成了谷歌自动补全工具的第一个版本。和URL预测器一样,这个程序会尝试预测你想输入的内容,但这一次的目标是,预测你可能想在谷歌的搜索工具栏里输入的单词和短语。预测结果基于这位用户最近的搜索请求、流行的新闻和其他用户在谷歌上进行的搜索。这个工具给用户节省了时间,考虑到我们大多数人每天都要进行数百次搜索,每次搜索节省的寥寥数秒累计起来也是非常可观的。最好的情况下,这个工具甚至能通过提出相关建议帮助心不在焉的用户集中注意力。
这个工具于2004年12月上线,但作为一个可选的附加功能,基本上被普通用户忽视了。这样的状态持续了四年。但自动补全功能逐渐吸引到了更多用户,有些用户甚至把这个功能设为了自己的首页。玛丽莎·梅耶尔(Marissa Mayer),当时是谷歌一名卓越的高管(后担任雅虎的CEO),对这个工具很感兴趣。谷歌最终组建了一支团队,在2008年将自动补全发布为搜索引擎的默认功能。
如今,搜索引擎已然大大提升了我们个人和职业生活的效率,这一功能更是为我们省下了大把时间。此外,这功能还给原本平淡无趣的搜索体验增添了一丝丝乐趣。就算自动补全的建议和我的查询完全无关,我有时候也会瞥一眼,因为这些建议给我提供了一扇窥视他人头脑的窗户。输入“永远不要把”,你会看到类似“永远不要把袜子放进烤面包炉”的建议;“我可以用吸尘器吸吸”的头条建议是“我的狗吗”。“这个功能上线后,我才意识到有人会坐在搜索引擎面前,随手输入脑子里所想的内容,完全不在乎搜索引擎是否能够回答这个问题。无论输入大脑中闪现的任何内容,他们都期待着瞧瞧搜索引擎能跳出些什么东西。”吉布斯在最近的一次对话中告诉我。甚至出现了一个名为谷歌Feud的网站,仿照电视节目秀Family Feud[11]制作了在线游戏。和那个电视秀不同,它要求参与者猜测的是,对于某个查询,自动补全算法会给出哪些建议。调查表明这个游戏一炮而红。接近3000万用户玩过这个游戏,还在多个电视秀中被提及。
吉布斯将自己在谷歌搜索体验上追加的这个杰出功能视作几乎无法避免的成果。“我很确定,就算我没有做这个功能,也会有人做出来。”2013年他对All Things D网站[12]的科技新闻记者说,“我觉得这种情况在发明史上出现过,一个家伙在德国研究,另一个在俄罗斯研究,最后发现大家在同一年干的都是同一件事。我还没找到和我干同样事情的那个家伙,但我觉得这个主意只是瓜熟蒂落、水到渠成而已。”
今天我们大多数人视自动补全算法为理所当然,几乎不会在使用谷歌时注意到它。但无论这个功能可以提高多少效率,它也会带来意外的后果。2016年冬季,作家卡萝尔·卡德瓦拉德(Carole Cadwalladr)在谷歌的搜索框里输入了几个完全无害的单词“犹太人是”,自动补全算法的第一个猜测是“犹太人是一个种族吗”,之后是“犹太人是白人吗”和“犹太人是基督徒吗”。这里的每个猜测都必然会引发一些有趣的讨论,但第四个猜测引起了卡德瓦拉德的注意:“犹太人是魔鬼吗”。她选择了这个选项,看到了包含新纳粹主义网站和反犹太主义YouTube视频链接的搜索结果。看到这些,卡德瓦拉德震惊了,谷歌不但让这些仇恨内容如此易访问,甚至还将用户指引至此。
卡德瓦拉德偶然发现的并不是一个反常的特例。联合国妇女署(U.N. Women,一个致力提升女性平等性和权利的联合国组织)发布的一系列广告的创意完全就是基于自动补全建议,这些广告揭示了输入“女人应该”会带出“女人应该待在家里”和“女人应该当奴隶”。类似的,“女人不该”会带出“女人不该拥有权利”和“女人不该投票”。看着这些自动补全建议,我不禁想问,正确的建议难道不该是“女人应该在21世纪看到更好的明天”吗?
挑选身边任何一个带有偏见的话题,用自动补全算法补全它,在某种程度上,这让我们知道还有那么多人在输入这样的查询关键字,也未尝无用。因为,除非人们开始意识到问题已经无处不在,否则很难解决这个问题。但对谷歌发出这样的质询则更令人不安:谷歌是否无意间将本不经意间搜索相关信息的易受影响的人群带到了充斥着偏差和偏见性评论的网站,有效地把新的读者群带入了煽动仇视的网站?[13]
吉布斯意识到,自己发明的工具也许会将用户引导至一些特定的内容,同时有效地屏蔽其他内容,从而塑造他们的心态和行为。“依我来看,社会观念转变很重要,”他说,“一开始这只是个业余项目,但后来就变得严肃了。”但他也指出,要取得平衡有多困难,“你如何判断什么重要、什么不重要?而且还必须基于客观标准判断,不能基于个人意见。”吉布斯说这挑战就像是让算法不能推荐色情内容,但同时又不能屏蔽性相关的内容。这两者之间的区别,我们看来也还是显而易见的,但我们并不总能在界定条件上达成一致。但要把美国联邦最高法院法官波特·斯图尔特(Potter Stewart)的名言“吾见之吾知之”教给算法则是难上加难。同样,吉布斯发现要添加一份**内容的黑名单还算容易,但要程序员保证系统不推荐任何令人讨厌的内容则非常具有挑战性。
谷歌自动补全算法的性别和种族偏见绝对不是算法世界中的特例。最近一帮技术人员上线了世界上第一届由人工智能判断的选美比赛。比赛的初衷是不带入人类的偏见和误差,使用脸部对称度等客观因素来进行选择。科学家们使用高级的机器学习技术和预先标注好的海量图片数据集创建了美女评价算法。尽管有来自100个国家的超过6000名选手参加,最终软件选择的44名赢家几乎都是白人,只有少数来自东亚。尽管大量参赛者来自非洲和印度,但只有1名深色皮肤的参赛者进入了决赛。参与创建了这个算法的科学家承认,他们的人工智能评委对于有色人种存在偏见。
谷歌相册的照片标签算法在2015年也面临了类似的问题。杰克·阿尔西尼(Jacky Alciné)是一名软件工程师,同时也是关注技术领域中种族和多样性问题的积极分子。那一晚他在加利福尼亚奥克兰坐下来整理手机里几个月攒下来的照片时,本无意引起轩然大波。然而当他用谷歌相册软件浏览照片时,有东西吸引了他的注意。在一堆被谷歌的自动标签功能标记为“自行车”“轿车”和“毕业礼”的照片中,一张杰克和朋友朝着镜头开怀大笑的照片被自动标记为了“大猩猩”。考虑到照片中的两个人都是黑人,这事就不只是古怪,而是冒犯了。杰克打开推特贴了一张截屏图,几天之内转发就超过了3000次。
谷歌很快就道歉了,说这个数百万人喜欢而且靠它来节省时间的必备工具很不幸也是一名种族歧视者。或者用更婉转也更精确的说法,是不懂种族这一概念的歧视者。图像处理算法没有使用足够大量的黑人照片训练过,也就没有能力区分不同的肤色和光照明暗。谷歌的快速反应防止了这个问题成为公共关系危机,大多数推特用户都以幽默或好奇的态度而不是愤怒来回应这次事件。但这个问题不是唯一的特例。
意外后果这个概念不仅仅适用于算法所做的决策上。早在18世纪,亚当·斯密等经济学家就使用过这个术语,但直到20世纪才由美国社会学家罗伯特·默顿(Robert Merton)推广开来,他用这个术语指代人类决策带来的意料之外的副作用。文献记载了三种不同类型的意外后果:意外收益、有害结果、意外缺陷。意外收益,顾名思义,是偶然所得。著名的案例就是药物万艾可,研发这种药物的原意是降低血压,但在临床实验期间意外发现其在男性**功能上的副作用使其地位得到了“抬升”。尽管意外收益也和算法决策有关,但几乎没有关于它的辩论,因此本书中对此不做详细讨论。
“有害结果”指的是介入行为恰恰恶化了原本要改善的结果。一个著名例子就是发生在印度殖民地时期的所谓“眼镜蛇效应”。据传,德里的一位英国政府官员认为印度首都地区存在眼镜蛇威胁,意图解决,于是他进行悬赏,要求将死眼镜蛇交给相关部门。起初,悬赏带来了正面效果。然而好景不长,一些头脑灵活的人意识到,与其到野地里冒险去抓眼镜蛇,还不如饲养眼镜蛇上交蛇头更为容易。政府察觉这种行为后取消了悬赏。既然已经毫无价值,那些饲养者便将眼镜蛇全部放生,结果德里地区的眼镜蛇数量不降反升。[14]
“意外缺陷”指的是在预期的正面结果之外产生的未预期到的负面结果。很多场景下会产生这种结果。一个案例发生在英格兰东北部。那是一个工业城市,有记载的历史至少可以回溯到地籍簿的时代,那是威廉征服者下令进行并在1086年完成的英国地产清册。当年,该地仅有21户居民,还拥有一个古斯堪的纳维亚语的名字艾斯肯托普(Escumetorp)。在现代地图上,这个城市叫斯肯索普(Scunthorpe)。1996年,当地一位名为戴维·布莱基(David Blackie)的居民在创建美国在线(AOL)账号时,输入了这座城市的名字。他的账号注册过程被中断了,系统也未给出任何理由。AOL热线电话人员起初猜测是他们的算法察觉到了他的姓“布莱基”,将其标为带有种族主义的蔑称。但真相水落石出时大家才发现,原来是城市的名字“斯肯索普”让机器不敢直视,因为这个名字里含有那个c开头的不雅词汇[15]。
AOL尝试屏蔽冒犯性语言的努力通常都是成功的,但显然不具有冒犯性的名字被屏蔽也时有发生。如何解决?AOL告知用户暂时将“斯肯索普(Scunthorpe)”拼写为“斯康索普(Sconthorpe)”。一位发言人向当地报纸保证,技术人员正在想方设法消除这一屏蔽。在解决之前,她说“为了不引起冒犯,我们已经把该城市重新命名”,这件事真是把软件的预期效果和意外缺陷巧妙地融合在了一起。
2005年夏季,宾夕法尼亚大学的大二学生纳撒尼尔·斯蒂文斯,昵称“奈特”(Nathaniel “Nate” Stevens)决定放弃暑期实习机会,去帮助他的父亲打理自家的车行。他之前在车行干过,处理一些文字工作,和潜在客户聊聊天。但这次他带着一些市场营销技巧,打算处理下车行的广告事宜。当时,消费者已经越来越多地使用谷歌查找本地的汽车经销商。假设你住在康涅狄格州,想找一家丰田经销商,你就在谷歌里简单地打上“康涅狄格丰田经销商”。虽然买家们已经开始往线上跑了,本地的车行却还顽固地指望着他们从厚重的黄页中找到自家的名字。奈特知道几年之内黄页就会走上渡渡鸟和玛卡雷娜(Macarena)[16]的老路。他决定把老爸的车行推进21世纪,于是在谷歌上投放了广告,很快他在网络上发现了一个还无人触及的巨大商机。
典型的本地生意都是夫妻店,对新技术并不在行,也没有庞大的市场团队来研究如何在谷歌上投放广告。和给黄页公司开一张支票、要求登半页广告不同,在谷歌上投放广告的流程没有那么简单。谷歌会进行实时拍卖,出售搜索结果页中有限的广告位。对一家小企业来说,需要找出顾客可能会在搜索引擎输入的关键字种类,以及弄明白如何为每个种类竞价。奈特嗅到了其中的商机,创办了一家公司帮助本地的小生意主如牙医诊所经营者、园艺师、房地产经纪人,在谷歌上投放广告。一开始,他亲自为客户做些关键决策,例如顾客会输入哪些搜索条件和关键字、用多高的价格竞价等。但很快他就意识到,这样做既不划算也不利于扩大规模,也无法招聘培训更多人员为可能需要类似帮助的成百上千家小企业服务。
奈特打电话给我告知了他的困境,他想讨论下如何创建一个算法来自动处理这些决策过程。我决定尝试这样的方案:一开始先做合理猜测,然后随着某个特定搜索关键字的搜索数、点击数和销售线索数(指进一步接触该企业的潜在顾客数量)的增加,每天产生的新数据会不断提升算法的性能。举个例子,华盛顿特区的一家牙医诊所也许会考虑在上千个可能的搜索关键字中选择“华盛顿特区牙医”“特区牙齿美容”和“补牙”竞标。随着时间推移,算法会慢慢减少投向表现不佳的关键字的广告预算,转而投向效果更好的关键字。理论上,一个月之内,这个算法就能在搜索关键字和竞标方面做出比真人更好的决策了。
在测试的初始阶段,这个算法产生了一些非常奇怪甚至灾难性的建议,例如对一个关键字提出了每次点击10 000美元的竞价,而人类很少会出价超过20美元。但几个迭代之后,竞价终于符合常理了,也产生了为我们的客户降低成本、带来更多顾客的益处。
我们宣布项目成功了,但其实不然。不久之后,奇怪的事情发生了,我们的客户投放广告的费用开始飙升。有一位客户之前花2000美元的广告预算可以获得50个销售线索,如今却下降了一半。但这个现象并没有发生在所有人身上。对于一些广告客户,效果下降了,对于另一些,却持续走好。我在筛查这些结果时,又发现了另一个谜题。在某个领域的市场中,我们的客户越多,我们就能得到越多的数据,但算法的性能却变得越差。举例来说,在关键字“特区牙医”的第一页查询结果里出现的十位广告客户中,六位都是我们的客户。算法带给他们的利益都下降了。但对费城仅此一家的饮食服务公司,算法还是延续着非凡的表现。
经过分析,有害结果的原因得到了揭示:华盛顿的六家牙医诊所使用的是完全一样的算法,为这些客户挑选出了完全一样的“具有高度价值的关键字”。所以每个客户为了保住自己在这些关键字下的头排位置而激进竞标,在这场出价大战中,只有谷歌得到了实实在在的好处。那是否可以说我们这个项目概念出问题了呢?幸运的是,答案是否定的。如果同样的算法和同样的底层数据为所有客户指定广告策略,那争夺有价值的关键字的区域价格战将不可避免。但在真实世界里,不同的企业有不同的擅长领域。这一家牙医诊所也许擅长牙齿美白,更愿意把这个作为他的首选关键字,而另一家也许想突出自己在拔牙方面的特长。他们服务的客户群甚至都不一定是同一批人:儿童和老人、有保险的病人和自掏腰包的病人。为了修正我们的算法,我们只需要进行一些修改,使其能考虑到每个广告客户的数据,识别出对于他们的业务具有独特价值的那些搜索条件。我们一完成修改,算法立刻就停止了为所有人追逐同一组关键字的恶性循环[17]。调优过的算法成为我们之后建立Yodle公司的基础,最终帮助了超过50 000家小企业优化他们的广告投放策略。
我们的算法导致的类似有害结果通常都是意料之外的。但多亏了所有科技公司都例行进行的测试和优化,这些错误经常能被快速检测到并且及时解决。而“意外缺陷”则被证明更加难以对付。
思考下Facebook在2016年夏季遇到的问题。由人类编辑团队管理的“热门话题”板块,被控带有自由主义偏见。一位前员工揭秘说,有着保守倾向的新闻,即使再热门,也会被编辑团队压制。不仅如此,一些“新闻策展人”(Facebook对那些编辑的称呼)还被要求插入来自自由主义的新闻,即使这些新闻实际上根本不热门。这次爆料让Facebook陷入极其尴尬的境地,但他们的高级管理层迅速行动起来解决了这个问题。对于人类偏见相关的问题,显而易见的解决方案就是由算法替代人类,自动选择热门新闻,尤其当这份工作只是记录某个帖子的浏览数和分享数。毕竟,一个算法不可能被控带有政治目的。
结果现在已经众所周知了:热门话题算法没有能力质疑新闻来源的可靠性,无意间推广了“假新闻”。结果就是,在美国总统大选前的数月里,错误的甚至是编造的新闻被大范围传播。根据估算,那段时期内,Facebook上前20位的假新闻比前20位的真实新闻得到了更广泛的传播。
Facebook拥有海量的资源和众多极富才华的工程师,为何会部署带有如此瑕疵的算法?为何Yodle的意外后果刚一冒头就被实质上只有两个人的算法团队检测到了,而Facebook的问题却迟迟没有被发现,还差一点酿成大错?
这两个故事揭示了“有害结果”和“意外缺陷”之间有趣的区别。“有害结果”伴随着你想尝试改善的情况的恶化。算法通常都部署在复杂的系统中,可能造成了这种预期不到的问题。举例来说,对于眼镜蛇悬赏,人们会如何反应,可能就是难以事前预测的。类似的,不同广告客户的竞价决策间的相互影响也因为过于复杂无法预测。但因为它们恰好影响的就是要衡量的目标,所以被检测到的概率更高。
相反,受“意外缺陷”影响的并不是你尝试要改善的结果或情况。但如果有那么多潜在的结果需要检测,那我们又怎么可能检测得到呢?Facebook的工程师们也许仔细测算过他们算法的政治倾向,毕竟这个算法本就是因为人类编辑的政治偏见而开发出来的。他们也许也能保证头条新闻确实很热门,因为这个算法的目的就是提供热门话题,但他们显然没有考虑到存在假新闻的可能性。
“意外缺陷”和“有害结果”,从它们的定义来看,都是出乎意料的。但和“有害结果”不同,“意外缺陷”不影响科学家们跟踪的那个性能指标数据。正因为如此,也许无法完全被避免。
谷歌的自动补全算法推广的仇恨内容、给照片打上种族主义标签、法庭使用的判决算法中的种族主义、新闻展示算法中扩散的假新闻,在一个算法日益为我们做出更多重要决策的世界中,这些事件正变得越来越普遍。
如何理解算法的意外后果的含义呢?打个比方:假设你的头痛反复发作,医生给了你一种药物,保证能在两周内治愈你的头痛,谁会对如此神奇的药物说不?如果说这种药物会让你皮肤发痒,但只要停药就会消失呢?我们大多数人仍然会选择服药。如果每1万个病人中有1人会丧失长期记忆呢?也许这一丝丝风险也是你愿意去承担的。那如果有5%的可能会丧失记忆呢?如果有5%的可能会丧失记忆同时有更大的可能性发作癫痫呢?从哪一刻开始,这种疗法变得比疾病本身更糟了呢?
用数据驱动的算法来指导我们的决策过程,非常类似上文的这个疗法例子。它们也许能出色地完成设计任务,但同时也带来了副作用。无论是作为这些算法的用户,还是作为设计者,我们的注意力往往都集中在了它们的实效这单一直接的方面:“这个药能治好头痛吗?”只问这个问题,就意味着对于可能出现的副作用欠缺考虑。实际上,我们甚至都不知道会出现哪些副作用。算法做出的建议不会自带警告标志。也许是时候让它们带一个了。
谷歌的自动补全算法发明者吉布斯相信,使用算法的公司必须披露算法中的更多细节。但即使这样,他也承认还远远不够。“你必须对算法提高警觉、加深理解,希望随着日子一年年过去,我们最终能达成这一点。我觉得我们应该抱有合理的……怀疑不是个合适的词……我们应该以批判性的眼光看待它们。如果一个算法能够影响我们的行为,我们会想知道这是出于什么目的、基于什么原理。对于所有影响我们生活和行为的算法,我们必须都要做到这一点。”
我相信这是个重要的目标。让我们在第二部分讨论这个话题。
[1] 快速眼动期是睡眠的一个阶段,在这个阶段里,人的眼球会快速转动,据称也很容易做梦。
[2] Spotify是一个正版流媒体音乐服务平台,Spotify Discover是其提供的个性化推荐服务。
[3] 美国著名说唱歌手,曾获格莱美奖、全美音乐奖等大奖。
[4] 奥普拉·温弗瑞(Oprah Winfrey),著名电视谈话节目《奥普拉脱口秀》的主持人,拥有巨大的影响力。
[5] National Book Awards,美国出版商协会、美国书商协会和图书制造商协会于1950年3月16日联合设立,是美国文学界最重要的奖项。
[6] “卢德分子”一词用于描述工业化、自动化、数字化或一切新科技的反对者。
[7] 一些Facebook用户也许会对这次实验感到不适。如果Facebook真是有意鼓励特定人群为特定目标投票,那确实值得警醒。然而,这次研究并不是这么回事。研究者们只是想理解不同种类的算法如何影响社交行为。虽然如此,这次研究还是引起了不少关于算法设计伦理的问题。如果Facebook部署了算法的“硬新闻”版本,那是不是意味着他们在操纵人群进行投票?如果不部署呢,是不是又意味着操纵人群不进行投票?就算Facebook所做的是鼓励所有用户都进行投票,这又会影响选举结果吗?女性、年轻人和城镇居民,都是2012年可能更支持奥巴马而不是罗姆尼的人群,恰恰他们又是更活跃的Facebook用户,暗示着这次科学实验可能更偏向于民主党。我们说不好,这两个版本的算法会让谁受益,但很清楚,算法能支配无尽的力量,我们必须时刻留意算法如何影响社会。这是我在本书中将会谈到的话题。
[8] 2016年11月美国总统大选后爆发的Facebook假新闻论战则是更需要警醒的操纵实例,虽然不完全是算法造成的。下一章会更多谈论这个话题。
[9] 毫不奇怪,这次研究引发了强烈的愤怒。以人类为对象进行研究的伦理协议要求获得受试者的明确许可。Facebook没有获得受试者许可,却辩称它的服务协议条款中包含了免知情许可。这次对于用户情绪的研究的实际影响也许很小,平均而言,在自己的信息流里看到更少积极内容的用户,在之后自己发的帖子中每千字会少使用一个积极词汇。但研究带来了公共关系上的损害,导致了一场媒体风暴。最终,这次研究的首席研究员发表了一份道歉声明。
[10] 这句话最早的出处是1882年2月的《耶鲁大学文学杂志》(The Yale Literary Magazine)。耶鲁大学的学生本杰明·布鲁斯特在叙述自己和朋友一场关于“理论和实践”的哲学辩论的文章中写下了这句名言。
[11] 一个热门的美国家庭问答节目。
[12] 美国著名的科技博客,由华尔街日报开设。
[13] 谷歌允许用户上报带有攻击性的自动补全结果。一旦接到上报,谷歌会快速响应、删除攻击性建议。尽管谷歌采取负责任的行动,但如何最好地避免出现此类问题而不是简单应对,这个难题仍然悬而未决。
[14] 我16岁的时候,父母把家搬到了班加罗尔一个人口比较稀疏的区域。班加罗尔是南印度一座繁华的城市,经常被称为“印度的硅谷”。尽管这座城市已日显拥挤,但至少在这块区域土地仍然充裕,住房也更便宜,但这也意味着附近存在大片的草丛,正是蛇类生活的理想环境。有一天我正往屋子里走,见到了一条蛇影钻进了母亲花园的瓶罐中。我不大相信自己看到的真是条蛇,于是开始翻看那些瓶瓶罐罐,直到和一条眼镜蛇四目对视。没想到的是,与其说是我怕那条蛇,它似乎更怕我。我想了想是不是就不管它了,等它自己回去。但最后我还是决定最好还是抓住它放到更安全的地方。我向一位邻居求助,他又去找来一名附近的建筑工人。建筑工人一再尝试,但那条蛇似乎过于恐惧,始终不敢离开瓶罐绕过墙角回到草丛中去。最终,建筑工人坚持说那条蛇已经见过了他的脸,一定会在晚上回来咬他。让我懊恼万分的是,他杀死了那条眼镜蛇。我原本只是想帮助它回到开阔的地方,但是一个“有害结果”挫败了我的计划。
[15] cunt,女性**
[16] 玛卡雷娜(Macarena)是首20世纪90年代曾红极一时的西班牙语舞曲。
[17] 改变算法的程序总比改变人心要简单些。我一位朋友的父亲几年前开始在亚马逊上出售二手书籍。他制定了一个策略,每一本书的价格都和网上的最低价设为一样。假设说有本九成新的巴拉克·奥巴马的《我父亲的梦想》在以4.99美元的价格出售,弗雷德就会把自己手头那本也定为这个价格。一段时间之后,他注意到这么一位卖家,只要弗雷德跟了他的价格,他就会降低自己的价格,降低1分钱。而当弗雷德跟上这个新价格,第二天那个竞争者又会把自己的报价降低1分钱。沮丧的弗雷德于是做了件美国司法部可能有足够理由称之为共谋的事情:他给那位竞争对手发了信,指出这个模式继续下去的话,他们俩的价格最终都会止步在1美分。那个卖家回复说自己作为亚马逊的卖家有长期成功的信用记录,无意改变自己的行为。他还说,弗雷德也不要指望预测他的下一步。他总结说:“有时我跟价,有时我削价。”那次交流之后,那位卖家继续他的削价行为。弗雷德停止了跟进,那个老手赢了这场战斗。对于弗雷德而言,他很高兴没有将自己的定价决策自动化。