虽然我对出现奇点的可能性持怀疑态度,但这并不意味着我认为人工智能安全无虞。毕竟,人工智能是一门通用技术:它的应用仅仅受限于我们的想象。所有的技术都可能产生意想不到的效果,未来几十年甚至几百年内都存在可能性。而且所有的技术都可能被滥用。我们的无名氏祖先率先用上了火,我们不可能因为他没预料到燃烧化石燃料将导致气候变化而怪罪于他。英国科学家迈克尔·法拉第(Michael Faraday)于1831年发明了电动机,他也没预料到会产生电椅这种刑具。1886年获得汽车专利的卡尔·本茨(Karl Benz)肯定无法预言,他的发明在未来的一个世纪里会造成数百万人的死亡。互联网的发明者温顿·瑟夫(Vint Cerf)可能也没想到恐怖组织会利用他的发明分享可怕的杀人视频。
就像这些技术一样,人工智能也会产生负面的影响,甚至可能会波及全球。像这些技术一样,人工智能也有可能被滥用。这些后果或许不会像上一章我们提到的试图消灭人类的《终结者》场景那么富有戏剧性,但却是我们以及我们的后代在未来几十年中需要解决的问题。
因此,在本章中,我们会讨论一些我认为在人工智能领域真正值得人们担忧的东西,以及它们对未来的影响。最后,我希望你们会认同,人工智能领域可能会出现问题,但不是像好莱坞影片中那样的问题。
我们将从就业和失业开始:人工智能将取代我们工作,这值得我们思考人工智能的存在和发展将如何改变人们的工作结构,以及人工智能担任的职能和人类之间存在异化的可能性。这反过来促使我们思考人工智能技术的应用对人权的影响,还有致命性自主武器出现的可能性。然后我们将考虑算法偏见的问题,以及人工智能缺乏多样性的问题,还有假新闻和假人工智能现象。
就业和失业
机器人会取代我们的工作,我们最好从现在开始早做打算,以免为时已晚。
——《卫报》, 2018年
除了《终结者》式的毁灭场景,有关人工智能最广泛和令人恐惧的问题就是它将如何影响未来的职业结构,特别是它拥有使人失业的潜力。电脑不会疲惫、不会宿醉、不会吵架、不会抱怨、不会要求成立工会,也许最重要的是,它们不要工资。这就是它会让雇主开心、雇员紧张的原因。
尽管类似“人工智能会让你变成无用阶层”的头条新闻在过去几年里层出不穷,但这种恐慌并不是史上第一次出现。人类劳动的大规模自动化至少可以追溯到1760年至1840年之间发生的工业革命。工业革命代表商品制造方式的彻底改变,从小规模生产经营(家庭手工业)转向我们今天熟悉的大规模工厂生产。
工业革命并不是由单一的技术突破推动的,而是一系列的技术进步,加上独特的历史和地理环境促成。英国通常被视为工业革命的发源地,大量本地和从美洲等殖民地运送来的棉花,集中在英格兰北部的工厂进行加工。大英帝国不仅盛产棉花原料,还提供了庞大的成品市场,这为英国纺织工业的繁荣提供了经济条件。从17世纪30年代开始,纺织品加工方面的一系列技术革新使得人们可以制造出更大型、更快捷的纺织加工机器,它能够稳定制造出高质量的纺织品,并且达到家庭手工业无法望其项背的规模。原材料通过利物浦和曼彻斯特大量进口,被带到新兴发展的工业城镇。最初,纺织厂采用水动力,但煤动力蒸汽机的改良让这项技术迅速得到广泛应用,使工厂不再需要依赖普及性和稳定性都不好的水动力源。而因地制宜的英格兰北部正好有着丰富的煤矿藏,为发动机提供燃料,煤矿城镇和工业城镇并驾齐驱,成为工业革命发展的有力支撑。
工业革命开创的工厂形式,使大多数人的工作性质发生了根本性的变化。工业革命前,大多数人直接服务于农业,工业革命把人们从农村带到了工厂所在的城镇,把他们的工作地点从田地和农舍搬到了厂房。他们的工作性质也变成了到今天仍然广泛存在的类型:在工厂从事一项专业化、高度重复性的工作,作为涉及高度自动化生产流水线的一部分。
家庭手工业无法在价格、质量和商品一致性上与新技术竞争,手工业者只能另谋高就(许多劳动力流入了新工厂),否则就会面临失业。社会发生了巨大的变动,但并不是所有人都喜欢这种改变。在19世纪初期,卢德派运动兴起,卢德派是组织松散的团体,他们反抗工业化,焚烧和粉碎了工厂的机器——他们认为这些机器剥夺了他们的生计。但那只是昙花一现的运动,很快就被英国政府扼杀。在1812年,英国政府将破坏机器定为可判死刑的重罪。
当然,1760年至1840年发生的只是第一次工业革命,自那以后,技术一直在稳步发展,卢德派反抗工业化的两个世纪以来,发生过好几次类似的巨大变化。具有讽刺意味(并且悲哀)的是,在第一次工业革命中繁荣起来的工业城镇,在20世纪70年代末80年代初又被另一次工业革命摧毁。这一时期传统产业衰落的原因有很多,国际经济全球化意味着,在欧洲和北美传统工业地区制造的商品,现在正被世界另一边新兴经济体的商品所取代——因为更加低廉的生产成本。美国和英国倡导的自由市场经济政策对传统制造业十分不利,但是,最关键的技术“贡献”应该是微处理器的发展,它让工业里面大量非技术性工作得以全面自动化。
微处理器发展是今天计算机技术得以实现的根本,它是一种系统部件,将计算机中央处理器的所有关键部件组合成单一、小型、便宜的单元。在微处理器出现之前,计算机体积庞大,价格昂贵,运行不稳定。微处理器使得计算机变得更便宜、更迅速、更可靠,而且体积缩小了许多,这让自动化生产成为可能,特别是制造业。但英格兰北部的工业城镇因此遭受了致命打击——40年前遭遇制造业寒冬后,它们至今仍未恢复元气。
虽然自动化生产让英国北部传统制造业中心遭受灭顶之灾,但我们必须明白,微处理器等新技术的发展总体是让经济活动净值增长的。新技术创造了新机遇,创造了更多的企业、更多的服务和更多的财富。微处理器发展的情况也确实如此:新兴技术创造的就业机会和财富比毁掉的多,只是不在英格兰北部而已。
劳动自动化也不是什么新鲜事了,但现在令人担忧的事情,就像以前自动化和机械化夺走了非技术工作一样,人工智能可能会从我们手上夺走技术工作的机会。如果人工智能广泛应用,留给我们人类的机会还有多少?
人工智能会改变现有的工作结构和性质,这一点是毋庸置疑的。我们只是不清楚,这种改变是否会像工业革命那样,具有戏剧性和颠覆性,还是会以更温和的方式进行。
2013年,我在牛津大学的两位同事卡尔·弗雷(Carl Frey)和迈克尔·奥斯本(Michael Osborne)撰写了题为“就业的未来”的报告〈[113],引发了对这个问题的争论。报告令人震惊地预测:在不久的将来,美国会有高达47%的工作岗位受到人工智能和相关自动化技术的影响。
弗雷和奥斯本将702种职业按照他们所认为的自动化程度进行分类。报告指出,被取代风险最高的职业包括电话销售员、下水道疏通工、保险业务员、数据录入员(实际上还有许多类似职业)、电话接线员、销售员、雕刻工和出纳员。有一定风险的职业包括治疗师、牙医、顾问、医生(包括外科医生)以及教师。他们的结论是:
我们的模型预测,大多数从事运输和物流行业的工人,连同大部分办公室和行政后勤人员,以及生产性职业的劳动者,都处于危险之中。
弗雷和奥斯本还总结出三个不会轻易被人工智能取代工作的特点。
首先,也许是理所当然的,需要创造性思维的工作被认为是安全的。创造性思维职业包括艺术类、媒体类和科学类。
其次,需要较强社交能力的工作也是比较安全的。那些需要理解和管理人际互动和微妙人际关系的工作,不会轻易被人工智能取代。
最后,他们指出,涉及灵敏感知和灵巧手工的工作也很难被自动化。在这里,人工智能面临的问题是,虽然机器感知领域一直在进步,但在这方面和人类相比还差得远。我们可以快速理解高度复杂化和非结构化的环境,而机器人只能应付规则的、结构化的环境,一旦超出机器学习训练的范畴,就会面临重重困难。另外,人类的手还是比机械手灵活得多——2018年,罗德尼·布鲁克斯预测,恐怕要到20年后才能出现一只跟人类一样灵活的机械手[114]。至少在那之前,那些从事需要大量灵巧手工的人是安全的——木匠、电工或者管子工今晚可以睡个踏实觉了。
弗雷和奥斯本的报告受到了广泛的质疑和批评,许多评论员指出了报告中他们所认为的方法论缺陷和不合理假设,并强烈表示这个结果太过笼统。虽然我也认为报告中最悲观的预测在一段时间内不会成为现实,但我坚信人工智能以及先进的自动化、机器人等相关技术将在不久的将来让很多人失业。如果你的工作是分析数据然后做出决策(比如是否提供贷款),那我不敢说人工智能是否会取代你的角色。但如果你的工作只是用程序化的脚本跟客户对话(就像许多呼叫中心接线员的工作),那么我很抱歉,人工智能会很快让你变成无用阶层。如果你的工作只是在一个受限制的、地图清晰的城市地区进行日常驾驶,那么我也很抱歉,人工智能注定会取代你,只不过别问我那是什么时候。
然而,对于我们大多数人来说,新技术主要改变的是我们的工作性质。大多数人不会被人工智能系统取代,反之,使用人工智能工具可以让我们在工作中变得更高效、更优秀。毕竟,拖拉机的发明没有取代农夫,只是让他们成为效率更高的农夫;文字处理机的发明也没有取代秘书,只是让他们成为效率更高的秘书而已。我们可以通过软件智能体来简化工作,提升效率,这样我们可以从无穷无尽的文书表格工作中解脱出来。人工智能将嵌入日常工作的所有工具中,给我们带来难以想象的益处——甚至有很多是以无声无息的方式。用吴恩达的话来说,“如果一项脑力工作,普通人只需要不到一秒钟就能完成,那么,我们可以用人工智能实现它,无论是现在还是将来[115]”。这可是一长串任务列表。
虽然许多人担心人工智能会夺走人类的工作机会,带来全球失业和加速不平等的严重后果。但技术乐观主义者希望人工智能、机器人技术和先进的自动化技术将引领我们走向一个截然不同的未来。这些乌托邦主义者相信人工智能最终会将全人类从枯燥乏味的工作中解脱出来——在未来,所有工作(或者说,至少所有肮脏、危险、无聊或其他不受欢迎的工作)都将由机器完成。人类可以自由自在地写小说、讨论柏拉图、四处游玩或做其他事情。这是一个诱人的梦想,尽管它也是老调重弹——乌托邦式的人工智能在科幻小说中出现得可真不少。(不过,更有趣的是,科幻小说中更频繁出现的是反乌托邦式的人工智能——也许把背景放在人人幸福、人人健康、人人快乐的未来中,要写出一个有意思的故事难度会更大吧。)
在这一点上,反思一下20世纪70到80年代出现的微处理器技术发展是很有必要的。正如我们前文讨论过的,微处理器的出现引发了大规模的工厂自动化浪潮,当时微处理器技术在社会各界引发了各种争论,跟现在人工智能引起的争论颇为相似。彼时,乐观主义者们预测,在不远的将来,我们用来工作的时间将大大减少,每周工作三天或者类似的工作制度将成为常态,休闲时间会大大增加。
只可惜事实并非如此。为什么呢?有一种观点认为,与其享受计算机、自动化和其他技术进步为我们腾出来的休闲时间,不如把时间更多地用在努力工作上,赚更多的钱,享受更好的商品和服务。比如我们想买彩电、录像机、CD播放机、DVD播放机、家用电脑、手机,我们也想去海外度假,想要更大更快的汽车、更华丽的衣服、更精美的食物,为了支付这一切,我们必须付出更多的努力。有人认为,只有全社会都没有过多欲望,都甘于接受简单的生活方式,没有太多消费品,只需要维持基本生活,我们的工作时间才可能大大缩减。另一种观点认为,技术进步带来的经济利益并没有被平均分配:富人变得更富有,贫富差距越来越大。不管确切的原因是什么,从20世纪70年代的经历中,我们能够得出一个明显而略让人觉得沮丧的结论,至少在不久的将来,技术可能不会为所有人创造一个悠闲的乌托邦。
这就巧妙地为我们引入了全民基本收入的概念:即社会上的每个人都应该获得一定的保障性收入,不管他们是否工作,也不需要任何考核或者测试。全民基本收入并不是一个新出现的概念,但最近的技术发展,特别是人工智能的发展,使它重新成为人们关注的焦点。有一种设想,人工智能/机器人/自动化技术将创造足够的财富,使得全民基本收入成为可能(因为机器可以完成工作),以及必要(因为,在这种设想下,人们可能没有工作了:机器把人类的工作机会夺走了)。
我也很想相信乌托邦式的未来,但由人工智能推动的大规模全民基本收入计划在短期内实现似乎并不合理[116]。首先,人工智能所产生的经济效益必须是巨大的,才能使全民基本收入得以实现,因此就需要远远超过以往的技术创新来支撑庞大的项目,而没有任何迹象表明目前的人工智能发展会带来如此规模的经济效益。其次,要想推行全民基本收入计划,将需要前所未有的强烈政治意愿:可能会在社会环境极其紧张的情况下才能迫使政府接受这样的行动方针。我的猜测是,恐怕需要出现大规模的失业潮,这个想法才有可能被提上议程。最后,全民基本收入将从根本上破坏社会的结构,毕竟在当今社会中,工作占据着核心的社会地位。目前同样没有任何迹象表明社会做好了接受这种变化的准备。
虽然人工智能是导致工作环境变化的一个重要因素,但它不是唯一因素,甚至可能并不是最重要的。一方面,无情的全球化进程尚未走到终点,在此之前,它将继续以我们无法想象的方式震撼整个世界。计算机本身也没有达到进化的终点——在可预见的未来,计算机将会继续变得越来越便宜、小巧,以及拥有更高的交互性能。光是这些发展就足以持续改变我们的世界,还有生活与工作的方式。在这个背景下,我们的世界相互联系日益紧密,全世界的社会、经济和政治格局也在不断变化:化石燃料资源减少、气候变化和民粹主义政治抬头。所有的因素都将对就业和社会产生影响,对我们产生影响,而这些影响比人工智能大得多。
算法异化以及改变工作性质
在一本人工智能科普书里看到卡尔·马克思(Karl Marx)的名字时,你可能会感到惊讶,但是,这位《共产党宣言》的合著者所关注的问题,与当前人工智能如何改变工作和社会现状的争论密切相关。特别在19世纪中叶第一次工业革命以后建立起来的异化理论——当时资本主义社会才初具形态。马克思的异化理论关注的是工人与工作和社会的关系,以及资本主义制度是如何影响这种关系的。他指出,工业革命出现了工厂系统,工人们在工厂中从事重复性的、无聊的、最终毫无成就感的工作,以换取微薄的收入。他们没有机会筹备安排自己的工作,事实上,他们根本没有控制工作的权利。马克思认为,这是一种非自然的生活方式。工人们的工作,从真正的意义上来说是没有意义的,但是工人们别无选择,只能从事这种毫无成就感、没有意义的工作。
可能这些工作状态也会让你点头认同,不过人工智能和相关技术的迅速发展将马克思的理论推向了一个新的维度:在未来,我们的老板可能只是一段算法。
我们又一次看到了异化现象,特别是在所谓“零工经济”领域——这是工作模式发生改变的另一个方面。半个世纪前,你或许会在一家公司从毕业干到退休,这很常见。长期雇佣关系是一种常态,那些频繁跳槽的员工会受到质疑。
但现在,长期雇佣关系已经越来越少见,取而代之的是短期工作、计件工作和临时工作——这就是零工经济。在过去20年里,移动计算机技术的发展是全球化零工经济迅速腾飞的主要原因,工作人员可以通过移动设备协调和参与工作。手机内置的GPS系统可以随时定位和监控工作人员的位置,还可以随时向他们传达工作指示。人们日常工作所做的每一件事,甚至在键盘上按键的次数,发送电子邮件的习惯语气,都可以被电脑程序记录和监控。
网络购物巨头亚马逊因为对员工要求严格、监控严密、工作环境严苛而时常遭受批评,以下是2013年英国《金融时报》的一篇报道,描述了一名仓库工人的工作[117]:
亚马逊的软件会计算出最高效的配送货物步行线路,指导工人装满手推车,然后通过手持卫星导航设备屏幕的指示,指导工人从一个货架走到另一个货架。即使路线如此高效,依然有许多需要步行的地方……“你就像个机器一样,不过是人形的,”亚马逊的工人说,“如果你乐意的话,可以管这叫作人类自动化。”
如果马克思今天还活着,我想,他会用这篇报道作为异化概念的完美解释例证。这就是人工智能造就的自动化噩梦:人类的劳动被系统地简化为那些不能被机器或软件自动化的任务,工人被细致地监控和监督着,没有创造力、没有创新性、没有个性,甚至没有思考的空间。想象一下,如果你的年度考核是由电脑程序来决定,甚至是否决定录用你,也是由电脑程序来判断,你会有什么感受。有点愤世嫉俗地说,我们也许不应该太关心这些问题,因为这些工作不会存在很长时间了:很快它们就会被人工智能和机器人自动化技术完全替代(亚马逊正在大力投资仓库机器人技术)。
世界上很大一部分劳动人口从事这样的工作,这个前景一点都不诱人。不过,我想现在已经说得很清楚了,这并不是什么新鲜事——只是从工业革命时期就存在的趋势,人工智能只是扩展了它的维度。当然,当今职场上还有许多人的工作条件远比亚马逊的仓库工人差得多。这不应该归罪于技术,技术是中立的。雇主、政府、工会和监管者应该思考人工智能在这些方面对社会的影响——它将如何改变人类工作的性质,以及什么样才算体面的工作环境和条件,还有失业问题。迄今为止,人工智能所引起的焦虑和争议,大多集中在失业问题上。
人权
上述讨论显示了控制我们工作状况的人工智能系统是如何让现代职场人异化的,但是,人们对人工智能的使用的更大担忧,是它影响了最基本的人权。拥有一个人工智能系统做老板已经很让人头疼了,它告诉你什么时候可以休息,什么时候应该工作,给你设定目标,并对你的工作状况随时监控和批评……但是,如果人工智能系统有权决定你是否应该进监狱,这种情况又会如何?
再一次声明,这可不是臆想——现在已经有类似的人工智能系统正在投入使用。例如,英国杜伦的警察部队于2017年5月宣布,他们将启用危害评估风险工具(Harm Assessment Risk Tool, HART)[118],这是旨在帮助警察决定应该释放还是拘留涉案嫌犯的人工智能系统。HART是机器学习的经典应用,它的训练库包括2008至2013年获得的所有拘捕数据(约104 000起拘捕事件),并用2013年的全年拘捕数据进行测试(测试用的数据未纳入训练库)[119]。最终结果是,在低风险案例中该系统的准确率高达98%,而在高风险案例中为88%。有趣的是,系统设计的时候考虑到了谨慎处理高风险案例(例如涉嫌暴力犯罪的案件),或者这能解释最终结果的区别。系统使用34种不同的案例特征进行训练,其中大部分与嫌犯的犯罪史有关,不过也包括年龄、性别和住址特征。
没有迹象表明,杜伦的警察把所有决定嫌犯是否拘留的决定权都交给了HART,该系统只是作为决策支持工具,辅助监管人员做决策而已。但是,尽管如此,当社会各界得知HART投入使用时,仍然引起了很大的不安。
主要问题在于HART只关心独立案件的一系列特征,它不会像一个有经验的监管人员那样,会综合考虑嫌犯背景和案件流程,所以它的重要决定是基于相当狭窄的数据基础做出的。决策缺乏透明度也是一个令人担忧的问题(这是机器学习的经典问题,人工智能程序无法给出决策的解释)。当然,培训所使用的数据特征可能存在偏差,也有人提出这一点(尤其是将嫌疑人的住址作为特征之一,这更令人担忧,该系统的决策可能涉嫌歧视底层区域的人)。
还有一点,尽管HART只是一个决策支持工具,但可能在未来的某一天,我们会发现它成了主要的决策者:监管人员有可能太过疲惫、太过迷糊或者太过懒惰,放弃了自己来做决策的权利,于是不加任何思考地全盘接受HART的建议。
我认为,所有这些担忧都指向一点:HART这样的系统侵蚀了人类判断的地位。归根结底,对一个人做出重大影响的决策者是人类,比起别的东西,更让人感觉自在。毕竟,我们享有基本的人权,例如接受同侪审判的权利,而这项权利来之不易,理应受到高度重视。让类似HART的电脑程序对人类做出判决,也许会让人感觉我们在放弃这些来之不易的权利。对这样的趋势我们不应当掉以轻心。
这些担忧是合理的,尽管我不认为应该简单粗暴地全面禁用类似HART的系统,但在使用它的时候,应当遵循非常重要的注意事项。
首先,诚如HART案例中明确指出的,这些工具只能用于为人类决策者提供支持,而不能取代人类进行决策。机器学习决策并非十全十美,它们难免会做出一些明显毫无意义的决策。而当前机器学习还有一个令人沮丧的现状,就是很难确认它什么时候的决策会出错。因此,在给人们带来重大影响的决策方面,盲目遵循人工智能的建议是非常不明智的。
另一个问题涉及对机器学习技术不成熟地开发和利用。HART是由经验丰富的研究团队开发的,他们应该全面周到地考虑过这款软件可能面临的各类问题。并不是所有开发者都有如此丰富的经验,或者会如此深入思考。因此,令人担忧的是,代替人类做决策的系统,是否在开发环节考虑得足够谨慎和全面。
HART只是备受人权组织关注的应用于执法系统的软件之一,伦敦警察厅因使用一款名为“帮派矩阵”的工具而饱受批评。该系统有数千人的记录,并将数据代入一些简单的数学公式中,以预测这些人参加帮派的可能性[120]。帮派矩阵系统大部分似乎都建立在传统计算机技术上,不太涉及人工智能领域,但有这方面的趋势。国际特赦组织称该系统是一个“种族偏见数据库,将某个年代的黑人全部定罪”。有人声称,如果你表现出只偏好某一类音乐的倾向,就会被列入数据库。美国一家名为PredPol的公司销售支持“预测警务”的软件,用以预测犯罪热点区域[121]。同样,该软件的使用引发了人权方面的争议:如果数据有偏差怎么办?如果软件设计不合理怎么办?如果警察开始过度依赖它该怎么办?另一个系统,COMPAS,旨在预测一个人再次犯罪的可能性[122],该系统用于量刑参考[123]。
有一个极端的案例说明这种错误的想法是如何走向绝境的。2016年,两名研究人员发表了一篇文章,声称只需要让人工智能系统识别一下人脸就可以发现潜在的犯罪行为。这样的系统让我们回到了一个世纪前那些武断的犯罪理论。随后的研究表明,他们的系统大概是根据一个人是否微笑来判断犯罪行为:系统训练使用的是警方拍摄的罪犯面部照片,而这些照片往往都不会面带微笑[124]。
机器人杀手
希望你会认同我的想法,我认为人工智能系统当我们的老板会导致员工异化,而让人工智能系统来决定一个人是否应该被警方拘留,这是对人权的一种侮辱。那么,对于一个有能力决定你生死的人工智能系统,人们又将如何看待呢?随着人工智能的迅猛发展,人们对这一前景的担忧开始见诸报端,其中至少有一部分原因是我们提到过很多次的《终结者》场景。
关于自主武器的话题总是带有强烈的煽动性,许多人会本能地厌恶它,认为这样的系统是不道德的,永远不该被建立。对于持有这样观点的人而言,若是有品行端正的人持有相反观点,会让他们感到惊讶。因为我知道这个主题有多么震撼,所以我会尽可能轻描淡写地带领你深入研究潜在的人工智能自主武器所引发的问题。
自主武器的讨论大多源于战争中使用得越来越频繁的无人机。无人机,顾名思义,就是无人驾驶的飞机,在军用领域,它可以携带导弹等武器。因为无人机不用搭载人类飞行员,所以它比传统飞机更小巧、更轻便、造价更低。而且无人机的飞行不会给遥控它的人带来风险,因此它可以被用于飞往危险区域执行任务。对于军事组织来说,这自然是一个富有吸引力的选择。
在过去的50年里,无人机的军用开发经历了数次尝试,不过直到21世纪才成为现实。自2001年以来,美国一直在对阿富汗、巴基斯坦和也门的军事行动中使用军用无人机。尽管我们不知道具体数量,但似乎美国已经投入了数百架无人机,可能导致了数千人死亡。
遥控无人机本身就引发了各种严重的伦理争议,例如,由于控制无人机的驾驶员没有亲身涉险,他们可能会采取一些实际在场的情况下不会采取的行为。而且,最重要的是,人们不会像自己亲临现场那样认真对待行为的后果。
出于以上以及更多的原因,使用遥控无人机引起了极大争议。然而,自主无人机出现的可能性将人们的担忧提升到了更高层面。无人机不再被遥控,意味着很大程度上,它们不再需要人类的引导或者说干预来执行任务。而且,作为执行任务的一部分,它们可能有权决定是否夺走人类的性命。
自主无人机和其他种类自主武器的构想,立刻会让你联想到非常熟悉的电影场景:机器人大军无情地、精准地使用致命武器屠杀人类,没有任何对人类的怜悯、同情或理解。我们已经了解到为什么这样的《终结者》式末日场景不值得我们今晚就担忧得失眠,但是自主武器出问题的可能性,以及致命的后果,仍然是人们反对其发展和应用的一个重要论据。但是,关注自主武器也有许多其他原因。其中之一是拥有自主武器的国家可能不太介意发动战争,因为他们的部队不需要亲自上前线。因此,自主武器可能使得发动战争的决定变得更加容易,使得战争更加普遍化。但是,最常见的反对意见是,自主武器是不道德的:人们不能制造能够决定夺走人类性命的武器,这是错误的。
值得指出的是,在目前的技术条件下,人工智能驱动自主武器是完全可能实现的。请考虑如下场景[125]:
现在有一种廉价的小型无人机型,配备了摄像头和GPS导航系统,机载小型电脑和一块手榴弹大小的炸药。这架无人机被设计成可以在城市道路巡航,寻找人类。它不需要精准识别特定的人,只需要识别人类的形态,当它识别出人体时,会飞到人类的位置,引爆炸药。
这种设想十分可怕,人工智能只需要能够在街道上空导航、识别人体并飞向他们就可以了。我认为,任何一个合格的人工智能研究生,只要有合适的资源,就能够构造一个这样的无人机原型,而且它们可以以低廉的价格大量生产。现在想象一下,若是成千上万的无人机被投放到伦敦、巴黎、纽约、德里或者东京街头,将会发生什么。想象一下大屠杀,想象一下恐怖的画面。据我所知,这样的无人机已经有人制造出来了[126]。
对许多人而言,关于人工智能自主武器是否应该存在,根本无须争议,然而,有关的争议确实存在。
这场争辩中最著名的主角之一,是美国佐治亚理工学院的罗恩·阿尔金(Ron Arkin)教授,他认为自主武器的出现肯定是不可避免的(总会有某个人,或者某个机构将它们最终制造出来),因此,最好的对策是思考如何设计它们,使它们的行为比普通人类士兵更合乎道德[127]。毕竟,他指出,人类士兵在道德方面并没有很好的记录。当然,他也承认,不可能出现拥有“完美道德”的人工智能自主武器,尽管如此,阿尔金教授仍然相信,我们能够制造出比人类士兵更有道德的自主武器。
还有其他支持自主武器的观点,例如,有人认为,让机器人去从事卑鄙的战争事业,总比让人类去打仗更好:战争的赢家往往是拥有更优秀机器人的一方(当然,问题就变成了如何确保我们拥有更好的机器人)。
我还听过这样的论点,即反对自主武器比反对常规战争更没有道德。例如,当一架B-52轰炸机在5万英尺的高空飞行,释放炸弹的时候,负责释放炸弹的投弹手并不清楚他们投下的32吨的炸弹将落到何处,也不知道它会落到谁身上。那么,为什么人们要反对能够精准杀人的自主武器,而不反对这样随意杀戮的常规武器轰炸?我想,答案是我们应该同时反对它们。但实际上,常规轰炸确实没有像自主武器那样引起这么多的道德争议。
不管人们试图构建什么有利的论据,我必须坚定地说,国际人工智能界的大多数研究人员都强烈反对开发致命的自主武器。关于自主武器可能被设计成比人类士兵更合乎道德的论点并没有被广泛接受。理论上这是一个有建设性的想法,但实际上我们根本不知道怎么去做,而且也不可能很快成为现实(见上一章的讨论)。虽然我敢说,提出这一论点的初衷是最好的,但令人担心的是,它已被那些想现在就制造自主武器的人所劫持。
在过去十年里,科学家、人权组织和其他组织联合开展了一场旨在阻止自主武器研发的运动。“禁止机器人杀手运动”成立于2012年,得到了国际特赦组织等主要国际人权组织的支持[128]。该运动的既定目标是实现全球禁止研发、生产和使用完全自主武器。这项运动得到了人工智能研究界大部分人的支持。2015年7月,近4000名人工智能科学家和2万多人签署了一封公开信,支持禁令;除此之外还有许多其他类似的倡议。有迹象表明,政府组织听到了人们的呼声。2018年4月,中国驻联合国代表团提议禁止使用致命的自主武器;英国政府最近的一份报告也明确建议,永远不要给人工智能系统以伤害或杀人的权力[129]。
显然,致命的自主武器既危险又不道德,因此,在我看来,按照《渥太华禁雷公约》[3]的思路,实施一项禁令是有必要的。但这可能比较难:不仅要考虑到致力于制造这类武器的组织会施加阻力,另外,制定一项禁令本身不是容易的事情。英国上议院人工智能特别委员会在2018年的报告中指出,给致命自主武器下一个清晰的定义相当困难,这将是立法的一个主要障碍。从纯粹实际的角度来看,仅仅试图在武器开发领域禁用人工智能技术基本上不太现实(我斗胆猜测许多常规武器已经在某种形式上使用人工智能系统控制)。此外,立法禁止某种特定的人工智能技术使用,比如神经网络,那就更不现实了,因为软件开发人员可以很轻易地在代码中掩饰使用的技术。
因此,即使公众和政府都愿意控制或禁止发展和使用致命自主武器,制定和执行相关立法也是困难重重。但是,有迹象表明,各国政府正在尝试,这未尝不是一个好的开始。
算法偏见
我们也许希望人工智能系统能够做到公正和公平,摆脱困扰人类世界良久的偏见和成见,但恐怕事实并非如此。在过去十年里,随着机器学习系统被推广到越来越多的应用领域,我们开始了解到自动决策系统也会表现出算法偏见。现在它已经成为一个主流研究领域,许多团体都在努力理解算法偏见带来的问题,以及如何避免。
算法偏见,顾名思义,是指计算机程序——不仅仅是人工智能系统,而是任意计算机程序——在其决策过程中表现出某种形式的偏见的情况。该领域的主要研究者之一凯特·克劳福德(Kate Crawford)指出,存在算法偏见的程序可能会造成两方面的伤害问题[130]。
首先是分配伤害,分配伤害体现在某个群体在某些资源方面被拒绝(或优待)的时候。例如,银行可能会使用人工智能系统来预测潜在客户的优劣——优质客户意味着会按时还贷,而劣质客户则更可能拖欠贷款。他们可以使用优质客户和劣质客户的相关资料来训练人工智能系统,经过训练的系统可以查看潜在客户的详细信息,并预测客户可能是优质还是劣质客户,这是一个经典的机器学习程序的案例。但如果程序存在偏见,那么它可能会拒绝向某个群体提供贷款,或者偏袒某个群体,更可能放款给他们。在这里,偏见导致了相关群体明显可识别的经济障碍(或优待)。
另一种是代表性伤害,通常发生在系统产生强化刻板印象或者偏见时,一个最臭名昭著的例子就是2015年,谷歌的照片分类系统将黑人照片标注为“大猩猩”[131],强化了令人反感的种族刻板印象。
但是,正如我们在第一章里了解到的那样,计算机不过是执行指令的机器而已,它怎么会存在偏见呢?
因为机器最重要也是单一的获取信息途径是数据,偏见就是通过数据引入的。机器学习程序使用数据进行训练,如果数据本身就存在偏差,那么程序也将学习数据中隐含的偏见,而训练数据本身就可能存在不同程度的偏差。
最简单的可能性是,构建数据集的人本身就是带有偏见的。在这种情况下,他们会在数据集中嵌入这类偏见,可能不会太明确,也可能是无意识的。事实上,无论每个人认为自己多么公平公正,我们都存在某种形式的偏见。这些偏见将不可避免地在我们创建的训练数据中体现出来。
虽然这些问题是人为的,但是机器学习也会不知不觉地成为帮凶。例如,如果机器学习程序的训练数据不具有代表性,那么该程序的决策将不可避免地被扭曲。例如,假设银行根据一个地理区域的数据集对贷款软件进行了训练,那么这个程序很可能最终会对其他地区的个人产生偏见。
设计拙劣的程序也会产生偏见,举个例子,假设在上面提到的银行案例中,你选择用种族血统作为关键特征来训练银行的人工智能系统,最终,你的程序毫无疑问会在衡量发放贷款的时候带有明显的种族歧视。(你不会真的觉得银行能蠢到这个地步吧?等着看呗。)
算法偏见是目前存在的一个突出问题,我们之前就了解过,当前人工智能系统大多采用机器学习的方式构建,机器学习的特点是“黑盒”:它无法用人类能够理解的方式解释或者说明它的决策。如果我们过于信任人工智能系统,这个问题就会更加严重——有迹象表明已经存在这样的趋势了。银行建立了人工智能系统,使用包含几千个案例的数据集训练它,训练结果是看上去它能够得出和人类专家相同的结果,所以人们就武断地相信人工智能系统不会出错,并且毫不犹豫地信任它的决策,而不进行深入思考。
有时候,你会感觉到似乎世界上的每一家公司都在疯狂地将机器学习应用到他们的业务中,但在这种疯狂浪潮中,他们有可能创造出更多带有偏见的程序,因为他们根本没意识到这其中的致命问题,最关键的是,要用正确的方式获取数据。
多样性缺乏
1956年,当约翰·麦卡锡向洛克菲勒研究所提交了关于人工智能达特茅斯暑期学校的提案时,他列出了拟邀请参加会议的47人名单。“并非所有人都能来参加这次会议,”他在1996年写道,“只有那些我认为会对人工智能产生兴趣的人,才会被列入名单。”
现在,我想提个问题,你猜一下有多少名女性被列入了邀请名单,见证了人工智能作为一门新兴科学的诞生呢?
答案是:零。我非常怀疑,任何一个有声望的当代研究资助机构会考虑赞助这样一场连基本的多样性测试都通不过的活动。事实上,现在的标准做法是要求申请人确保如何解决平等性和多样性问题。但是,在当时男女就是这么不平等。如果你一直关注本书,很难忽略的一个事实就是,人工智能长期以来似乎都是一个由男性主导的学科。
事后来看,我们可以意识到当时普遍存在的不平等现象,并对此感到遗憾。我同样认为,用我们今天还没有彻底实现的标准去评判20世纪中叶举行的一次活动也没多大意义。更重要的问题在于,今天的人工智能研究本质是否有所不同。在这里,虽然有一些好消息,但总体情况只能说喜忧参半。一方面,你不管参加哪一个有声望的国际人工智能会议,都会看到许多女性研究人员的身影。但是,另一方面,人工智能领域的男性主导现象仍然存在:缺乏多样性仍然是人工智能现阶段面临的一个棘手问题,就如科学和工程学科诸多领域一样[132]。
人工智能研究领域的性别构成很重要,原因有很多。一方面,男性主导的研究领域将使潜在的女性科学家感到反感,从而扼杀了这一领域潜在的宝贵人才。而且,也许更重要的是,如果人工智能完全是由男性设计的,那么我们最终得到的结果将是——找不到更好的术语来形容了:男性人工智能。我的意思是,这样建立的体系必然会体现出特定的世界观,而这种世界观不能够代表女性,甚至对女性根本不友好。如果你不相信,那么请你读一本让我对这个问题大开眼界的书:《看不见的女人》,卡罗琳·克里亚多·佩雷斯(Caroline Criado Perez)所著[133]。她提出的关键问题在于:我们这个世界上几乎所有的东西都是由只考虑单一性别的人设计和制造的——男性。她认为,造成这种情况的根本原因是她所说的“数据缺口”:通常用于制造和设计的历史数据集绝大多数是以男性为导向的:
大部分历史记录的数据都是有缺陷的……古时候狩猎都是由男性来完成的,以往的历史写作者根本没有给女性留下多少空间……相反,人们默认男人的生活方式代表了人类的生活方式,当谈到人类另一半的生活时,通常只有沉默和空白……这些沉默,这些缺陷,都会产生后果。它们每天都影响着女性的生活。这种影响都发生在细微处。例如,办公室空调温度标准是为男性设定的,让女性在办公室里瑟瑟发抖;或者,女性在超市里挣扎着想够到按照男性身高标准设计的货架顶层等……它们不危及生命,不像一辆汽车的安全设施没有考虑到女性的身体尺寸,不像心脏病发作的时候得不到救治和诊断,所以你的这些烦恼都是“非典型的”。这样的现状,即女性每天都生活在围绕着男性的数据构建的世界中,带来的后果可能是致命的。
卡罗琳以各种毁灭性的细节全面记录了以男性为基准设计和以男性数据为标准的问题到底有多普遍。当然,对于人工智能而言,数据是必不可少的,但数据集里男性偏见是普遍存在的。有时候,这种偏见很明显,比如在广泛应用于训练语音理解的口语数据集中,69%的数据集是男性声音,不可避免地,这个语音理解的系统对女性声音的理解就会比对男性声音的理解效果差得多。但是,有时候,这种偏见更细微。如果你收集一组厨房的照片来训练程序,那么这些照片大多会跟女性有关;或者假设你收集一组主要描绘各大公司CEO的照片,会发现大部分都是男性。现在,你应该可以很轻易推断出这样的数据会让程序造成什么样的偏见。而且,正如卡罗琳指出的,这些事情都确确实实发生过。
有时候,这种偏见简直是根深蒂固。一个臭名昭著的案例发生在2017年,有人发现谷歌翻译公司在翻译文本的过程中,有时候会篡改文本中的性别[134]。如果你将下列文字从英语翻译成土耳其语:
他是一名护士
她是一名医生
再将翻译好的土耳其语翻译成英语,就变成了:
她是一名护士
他是一名医生
还真是没有性别的刻板印象啊,是吧?
偏见本来就是人工智能中存在的问题,对女性而言,这个问题更具有特殊性。因为新的人工智能系统建立在有着强烈男性偏见的数据基础上,而建造新人工智能系统的团队压根没注意到这一点,因为他们自己也有男性偏见。
人工智能面临的终极挑战之一,就是如果我们构建某些体现真人特性的系统,例如,当我们构建Siri和Cortana这样的软件智能体时,可能会无意中以强化某种刻板的性别认知方式来构建。如果我们要构建一个具有服从性的人工智能系统,让它看上去或者听上去都像女人,那么就等于在无意中宣传女性的仆从地位[135]。
假新闻
顾名思义,假新闻就是将虚假的、不准确的或者误导性的消息当作事实,并以新闻的方式呈现。当然,在数字时代之前,世界上就存在大量的假新闻源,但是互联网,尤其是影响巨大的社交媒体,却成了传播假新闻的完美渠道。
社交媒体的存在是让人们可以方便地彼此联系,现代社交媒体平台在这方面取得了惊人的成功——西方的脸书和推特,还有中国的微信,都有着大量的用户基础。21世纪初,社交媒体应用首次出现的时候,它们似乎都是关于朋友、家人和日常生活的:有很多小孩子的照片,还有猫狗等宠物的。但社交媒体作为一个非常强大的工具,很快就被应用于其他目的。互联网假新闻频发的现象已经在2016年登上了头条,这一现象证明了社交媒体有多强大,以及多么轻易就能造成严重影响。
有两件事情让假新闻成为热点:2016年11月美国总统大选,唐纳德·特朗普(Donald Trump)最终被选为美国总统;2016年6月,英国就是否继续留在欧盟举行全民公投,结果支持退出欧盟的一方以微弱优势胜出。毫无疑问,社交媒体在这两次投票中都扮演了重要角色——无论人们如何看待他的政治及个人行为,特朗普是公认的善于利用社交媒体召集支持者的人。在这两个案例中,都有人认为推特等社交媒体平台被用来传播有利于最终胜利方的假新闻。
人工智能是假新闻的重要组成部分,因为它对假新闻的传播方式至关重要。所有的社交媒体平台都依赖于你在它们上面消磨了多少时间——这就给了平台向你展示广告的机会,而这也是平台最终盈利的方式。如果你喜欢在平台上看到的内容,那么你就会花更多的时间在它上面。因此,社交媒体平台就有动机向你展现你喜欢的东西,而不是真相。它们怎么知道你喜欢什么呢?因为你会告诉它们。每一次你的点赞,都会让平台去查找类似的消息,即你可能会喜欢的消息。一个运行良好的平台都会建立一张有关你偏好的关系图(这就是残酷的事实),并以此来决定给你推送什么内容[136]。例如,约翰·多伊(John Doe)是一名白人男性,喜欢暴力视频,有种族主义倾向……如果某个平台想要约翰·多伊喜欢它,那么,它会向这位用户推送什么样的新闻呢?
人工智能在其中所起的作用是根据你的点赞、评论,以及你点击的相关阅读链接等行为去分析你的偏好,然后寻找到你也许会喜欢的新消息。这些都是很典型的人工智能应用,所有社交媒体平台公司都会有专门的研究和开发团队来解决这些问题。
但是,如果所有社交媒体平台都这样——弄清楚你喜欢什么,向你展示你喜欢的东西,隐藏你不喜欢的——那么,它们呈现在约翰·多伊面前的是怎么样的世界?一个充满了暴力视频和种族主义新闻的世界,他不会得到多渠道的、公正的信息,他将深陷于自己的社交气泡中,对自己的世界也会存在偏见,并且偏见还会因此得到加强:这被称为证实性偏见。而这种现象如此令人担忧的原因是它的规模:社交媒体正在全球范围内操纵人们的信仰,无论这种操纵是蓄意的,还是纯粹偶然,这无疑是值得警惕的。
从长远来看,我们看待世界的根本角度有可能被人工智能改变。每个人都通过自己的感官(视觉、听觉、触觉、嗅觉和味觉)获取关于世界的信息,并利用这些信息建立对现实的一致看法:对世界实际情况的描述和可以被广泛接受的看法。如果你和我都以同样的方式见证了一个特定的事件,那么我们会得到同样的信息,我们可以利用这个信息表达对共识现实的一致看法。但是,假如这个世界没有了共识现实,没有共同看法,会发生什么呢?如果我们每个人都以完全不同的方式看待世界,又会发生什么呢?人工智能可能会让这些假设成为现实。
2013年,谷歌发布了一款可穿戴设备——谷歌眼镜,它的外观和日常佩戴的眼镜类似,只是谷歌眼镜配备了一个摄像头和一个小型投影仪,并可以通过蓝牙与智能手机连接。发布之后,人们立即担心谷歌眼镜中“隐藏”的摄像头会被用于拍摄一些不恰当的照片,但该设备真正的潜力在于内置投影仪,它可以将用户看到的任何内容与投影图像叠加。这其中的应用潜力是无穷的。例如,我个人最不擅长的一件事情是认人:有些人我明明很熟,可就是叫不出名字,这是一件非常尴尬的事情。一款谷歌眼镜的应用程序就可以帮助我识别出眼前的这个人,并且谨慎地提醒我他的名字。
这种类型的应用被作为增强现实(Augmented Reality, AR)应用:它们获取真实的世界,并在其上覆盖计算机生成的信息或图像。但是,如果应用程序不仅仅是增强现实,而是完全改变现实,甚至使用户根本察觉不到这种改变,又会如何?在撰写本书的时候,我的儿子汤姆已经13岁了,他是托尔金(Tolkien)的著作《指环王》的超级粉丝,也特别热衷于这本巨著衍生的电影。想象一下,谷歌眼镜应用程序可能会改变他对学校的认知,让他的同学看上去像是精灵,老师看上去像是兽人。你可能也想要一款类似的星球大战主题的应用程序,等等。这会很有趣,但问题是:如果我们都居住在自己的私人世界里,那共识现实又有什么意义呢?你和我不再有相同的、共通的经验来建立共识。另外,这样的应用程序也容易被黑客入侵。想象一下,如果有一天汤姆的眼镜被黑了,从根本上改变了他认知世界的方式,从而操纵他的信仰,那会发生多么恐怖的事情。
尽管目前这样的应用还不能实现,但在未来二三十年内,这类增强现实应用很有可能成为现实。我们已经开发出了人工智能系统,它能够生成对人类而言完全真实的图像,但其实图像是由神经网络构建的。例如,在撰写本书时,人们就表示了对DeepFakes的担忧[137]。DeepFakes是一款人工智能换脸工具,可以通过换脸技术,让图片或者视频中出现根本没有出现过的人。负面影响最大的案例发生在2019年,美国众议院议长南希·佩洛西(Nancy Pelosi)的一段讲话被篡改,让人觉得她有语言障碍,或者可能受到毒品或酒精的影响[138]。DeepFakes也被用来修改色情视频,在视频中加入实际上没有参与的“演员”[139]。
目前,DeepFakes修改过的视频质量还很差,但它正在慢慢变好,或许很快我们就完全无法分辨照片或者视频是真的,还是DeepFakes篡改过的。到那时,照片和视频将不再是对某一事件的原始可靠记录。如果我们每个人都居住在自己特有的、由人工智能驱动的数字世界里,那么建立在共同价值观和原则之上的社会将面临真正的危险。社交媒体上的假新闻,只是一个开始。
人工智能造假
我们在第四章中看到了类似Siri、Alexa和Cortana这样的软件智能体是如何在21世纪开始的十年里,作为20世纪90年代智能体研究的直系“后裔”出现的。在Siri问世后不久,一些大众媒体就报道过Siri存在未经记录的功能。你可以对Siri说:“你好,Siri,你是我最好的朋友。”Siri会给出一个看上去很有意义的回应(虽然我尝试的结果是“好的,迈克,不管天气好坏,我们都会成为好朋友的”)。媒体们很兴奋,他们想知道,这是通用人工智能吗?好吧,不是。Siri所做的只是针对某些关键词和语句在常备回答中选择回应,这和几十年前的ELIZA没有太大差别。在这个问答里面没有什么智能可言,显然,这个有意义的答案不过是假的人工智能而已。
苹果并不是唯一一家使用假人工智能的公司,2018年10月,英国宣布一款名为Pepper的机器人将参加下议院听证会[140],但这只是无稽之谈。Pepper机器人当然出席了听证会(而且,根据记录,它是一个很了不起的机器人,是许多幕后精彩研究的结晶),但它只是用预先写好的答案回答预先确定的问题而已,甚至还不到ELIZA的水平。
在Siri和Pepper的案例中,没有任何欺骗的意图——它们只是一点善意的小乐趣。但许多人工智能研究界人士对此感到很恼火,因为这些小乐趣描绘了一幅完全错误的人工智能远景图。首先,如果有人真的相信Pepper可以回答人们提出的问题,他们就会对目前人工智能问答系统产生不切实际的期望,这完全是误导性的。不过我想应该不会有太多人上当吧——毕竟很容易就能看出问题。那么问题就在于,人们可能会认为这些胡说八道作秀才是人工智能的真正目的:造假。
类似的事件发生在2018年12月,在俄罗斯雅罗斯拉夫尔的青年科学论坛上,一个“高科技机器人”表演了令人震惊的舞蹈。结果证明,这是一个穿着机器人服装的真人[141]。目前尚不清楚活动的组织者是蓄意欺骗还是作秀,我姑且认为这只是一个善意的玩笑。但是俄罗斯国家电视台报道称,这个“机器人”看上去跟真人一样。任何观看了这场舞蹈的人都会得出一个合理的结论,这应该能代表目前机器人技术和人工智能所能达到的最高水准。
不幸的是,这样的造假在人工智能的边缘领域太普遍了,这让人工智能研究人员非常沮丧。2017年10月,沙特阿拉伯宣布将公民身份授予一个名叫索菲亚的机器人,这毫无意外地引起了媒体的广泛关注[142]。鉴于沙特阿拉伯在人权方面不太理想的记录,尤其是在妇女权益方面,许多评论员强调了这个宣布(赋予机器人公民身份)的讽刺意味。但许多人也想知道,这个机器人是否存在一些全新的东西:它是通往通用人工智能的起点吗?
索菲亚由汉森公司制造,是一款仿真机器人,外形和人类一样,还能拥有丰富的面部表情,当然也拥有用自然语言交谈的能力。商业内幕网站于2017年12月发布了对索菲亚的“采访”[143](索菲亚的回答使用斜体):
你的感受和喜好是什么?
你有没有让机器人住进你的家里,或者跟你一起工作过?
没有。
你知道,或许现在已经有不少机器人进入你的生活,而你并没有意识到。你希望有一天能够和机器人一起生活吗?
那现在我的身边出现的是什么样的机器人呢?
确实。
当你不知道怎么回答的时候,你默认的答案就是“确实”吗?
是的。
脸书的人工智能研究主管亚恩·勒库恩(Yann Lecun)对此嗤之以鼻。2018年1月,他在推特上写道:“这些把戏对比真正的人工智能,就跟变戏法对比真正的魔法一样天差地别。这些简直就是胡说八道。”这恰好概括了人工智能研究界对这种廉价宣传噱头的不屑。
人工智能造假,主要是人们被误导了,相信他们看到的就是真正的人工智能,而事实上,这些幕后都只是一些把戏而已。我听到有传言说,如果人工智能初创公司不能让他们的技术在关键的成果展示中发挥作用,他们就会在幕后使用假人工智能来糊弄。我不清楚这种做法有多普遍,但人工智能造假对每个人来说都是实实在在的问题,也是对人工智能研究界的莫大伤害。