大哭一场固然痛快。不过你早晚还得停下来,然后还得决定怎么办。
——C.S.刘易斯,《银椅》
机器人学三定律:
1.机器人不能伤害人类,或因不作为而使人类受到伤害;
2.机器人必须执行人类的命令,除非这些命令与第一条定律相抵触;
3.机器人必须保护自己不受伤害,除非与第一、二条定律相抵触。
第零定律:机器人必须保护人类的整体利益不受伤害。
——艾萨克·阿西莫夫,《我,机器人》
几个月前的一个星期二早晨,我去了趟费城市区的国家宪法中心,这个中心自诩美国亲身体验最好的历史博物馆。博物馆和我家只隔了四个街区,每次经过时,我都会提醒自己一定要常来逛逛——但我最近一次去逛,是在10年以前。
我走上台阶,进入第一个展厅。乍一看展厅里似乎很拥挤,但我马上意识到这里面几乎都是真人大小的雕像。大多数周末,中心都人满为患。但那是个工作日的早晨,第一间展厅里只有我、四个学童和五位穿着红色T恤的导游站在周围。看到屋子里导游和游客一样多,我不禁乐了。
我进去还没超过一分钟,一位导游就迎了上来。那是位看上去在75岁上下的友善妇人,也许是退休后来博物馆当志愿者的。她自称乔伊斯,开口问道:“您有什么想了解的吗?”
我感觉得问些什么才算不失礼节。“这间屋子里为什么会有这么多雕像?”我问道。这问题算不上聪明,但这是我当场能想出来的最好的问题。出乎我的意料,乔伊斯显得很高兴。“签署者展厅描绘了1787年制宪会议的最后一天,”她解释,“这42尊青铜雕像代表了当时参加国家政府体制辩论的创始人。它们的位置是根据一幅当代画布置的,每尊雕像的身形、身高都和本人一致。”
“真的吗?”我喃喃道。
乔伊斯自豪地点点头:“他们的三围都是给他们量衣服的裁缝提供的。凑近点看,您也许还能认出几张脸来。那边是乔治·华盛顿,这显然是本杰明·富兰克林。还有这是亚历山大·汉密尔顿,感谢百老汇音乐剧,他现在是展览的明星了。[4]”
我发现自己的注意力集中在另三尊雕像上,这些雕像摆放得似乎与其他雕像有些距离。“这些为什么放在这里?”我问道。
“哦,这些是反对者,”乔伊斯解释,“他们拒绝签署新宪法。”她示意一位同事过来,“鲍勃能告诉您更多关于反对者的事情。”
鲍勃是位七十多岁高龄的导游,他也很高兴在清闲的一天接待一位访客。“这三尊反对者的雕像,”鲍勃告诉我,“是弗吉尼亚州的乔治·梅森(George Mason)和埃德蒙·伦道夫(Edmund Randolph)、马萨诸塞州的埃尔布里奇·格里(Elbridge Gerry)。他们担心新的中央政府可能会成为新的暴政来源,和他们刚刚推翻的政府并无不同。因此他们要求某种保障,以确保人民的权利不会被遗忘。他们的要求导致了前10条宪法修正案即《人权法案》的诞生。这些修正案列出了政府不得侵犯的具体权利,包括了从宗教自由、集会权到保证陪审团的权利。”
我点点头。这些事都很有意思,但我更希望能独自参观。我思索着脱身的借口,但事实证明,这些导游不会让我独自离开,尤其在这访客稀少的一天。
当我盘算着如何是好时,鲍勃继续着他的解释。“宪法的目的是建立我们国家所需的那种强大的中央政府,”他说道,“但是反对者担心我们要用乔治·华盛顿国王代替乔治三世国王。他们担心新的联邦政府可能变得过于强大。”
“嗯,今天的强权就是那些大公司。”出于礼貌我说道。
“也许我们需要一个新的人权法案来解决这个问题!”鲍勃大笑道。
我报以微笑。但是思考了他的评论后,我转身对他说道:“您是对的,一个人权法案正是我们所需要的。”我继续向他介绍了我正在撰写的新书以及新技术带来的挑战。鲍勃很高兴终于引起了我的注意。“我带您去看看人权法案,也许对您有启发。”他边说边领着我走向另一个房间。
人权法案是第一部国家宪法明确规定保护公民权利,但它并不是凭空出现的。鲍勃说,人权法案从许多早期文书中汲取了灵感,其中包括1215年英国国王约翰签署的权利宪章《大宪章》、1689年的英国《权利法案》以及《弗吉尼亚权利宣言》。《美国人权法案》建立在以往的基础之上,是更为丰富、更为完善的产物。
如今,在这个公司迅速推出先进的人工智能和机器学习的时代,考虑下保护社会的算法权利法案对我们来说是有其意义的。问题是,是否存在早期经验可供我们借鉴。幸运的是,在这个算法日渐强大的时代,许多组织和个人都在思考和讨论我们所面临的挑战的本质以及可能的解决方案。在考虑如何开发和部署新的算法工具时,我们可以运用一些他们已提出的有用的想法。
2016年10月,白宫科学技术政策办公室(OSTP)发布了一份题为“为人工智能的未来做准备”的报告。该报告探讨了人工智能在公共利益方面的应用以及带来的挑战,包括对劳动力以及公平性、安全性和治理观念的影响,并提出了23条建议作为总结。可以理解,大多数建议旨在为政府机构提供使用人工智能的指南。这份文件代表了大批不同专家的当前共识,可以想象,许多建议含糊且乏味。下面是两个例子:
建议5:政府机构在为支持人工智能的产品制定监管政策时,应利用适当的、高水平的技术专业知识。
建议16:使用基于人工智能的系统,为个人相关的决定做出决策或提供决策支持的联邦机构须格外小心,应在基于证据的验证和确认基础上,确保这些系统的有效性和公平性。
除了简单地提出问题之外,其他成果还包括试图制订可实际实施的解决方案。2017年1月,由信息技术领域的教育家、研究人员和专业人士组成的美国计算机协会(ACM)公共政策委员会概述了一套指导原则,可以作为算法权利法案的前身。这些原则涵盖七个通用领域:
1.意识性——设计、实现和使用算法的人员,必须意识到算法潜在的偏差和可能的危害,并在实践中加以考虑。
2.访问性和补救性——受到算法负面影响的人员必须拥有某种机制,使他们能够质疑决策并寻求补救。
3.问责制——使用算法的组织必须对算法得出的决策负责,即使无法解释算法如何得出这些决策也是如此。
4.解释性——应该给那些受算法影响的人员解释决策及其生成过程。
5.数据溯源性——设计和使用算法的人员应保留用于训练算法的数据记录,并将这些记录提供给相关人员以供研究,以了解可能存在的偏差。
6.可审计性——应保留算法和数据,以便在可能造成损害的情况下对其进行审计。
7.验证和测试——使用算法的组织应定期测试它们是否存在偏差,并公布测试结果。
纽约大学的AI Now研究所是一个跨学科研究中心,致力于理解人工智能的社会影响,也在2017年针对该领域的从业人员发布了一系列建议。其中一些建议与ACM的原则重叠。但是它们也涵盖了新的领域,例如:
核心公共机构,例如负责刑事司法、医疗保健、社会福利和教育的机构(即“高风险”领域),不应再使用“黑盒”人工智能和算法系统。包括使用未经审查或未经验证的预训练模型、从第三方供应商处获得许可的人工智能系统,以及机构内部创建的算法过程。公共机构对此类系统的使用引起了严重但正当的担忧,所以至少应将它们公布以进行审计、测试和复查,并遵守问责制标准。
在关于算法决策及其挑战不断扩大、日益激烈的对话中,这些各种各样的建议和指导原则是重要元素。但是很显然,它们与真实的权利法案在一个关键方面有所不同:没有人真正有权执行它们。因此,毫不奇怪,现在正出现呼声,希望采纳诸如ACM提出的原则,并通过建立具有执法权的监管机构使之真正被付诸实施。
其中一位支持者是马里兰大学的计算机科学教授本·施耐德曼(Ben Shneiderman),他的研究为诸如智能手机触摸屏的突破铺平了道路。在2017年5月于伦敦大英图书馆举行的图灵演讲中,施耐德曼呼吁建立国家算法安全委员会(National Algorithmic Safety Board)。以美国联邦储备委员会(Federal Reserve Board)为原型,国家算法安全委员会由定期轮职的专家组成,并有权审计算法流程、传唤关键信息以及发布行业参与者需要遵守的裁决。
2017年12月,纽约市通过了一项法律,成立了一个新的自动化决策系统任务小组,以监督市政机构使用的算法。建立特别工作组是很好的开始,可能会影响世界上的其他城市和国家。新加坡政府也成立了类似的关于人工智能使用伦理的咨询委员会。迄今为止,它选择进行宽松的监管,与业界合作制定咨询准则和最佳实践,以供公司自愿采用。
在撰写本书时,最积极的法规行动可能是欧盟的新法规,称为通用数据保护法规(GDPR)。GDPR取代了欧盟于1995年发布的数据保护指令(DPD),其效力更强大、适用范围更广泛。首先,它作为一种“法规”而不是单纯的“指令”,现已成为欧盟成员国的法律。其次,GDPR有权对违反法律的公司处以毁灭性的罚款,最高罚金在2000万欧元和全球收入的4%之间取较高者。这个巨大的代价,甚至那些科技巨头也不得不予以关注。
GDPR的复杂性可以分为两个主要部分:非歧视和解释权。非歧视部分断言,使用算法对个人进行描述在本质上是歧视性的。因此,GDPR禁止仅使用敏感数据来决策,按照定义,敏感数据包括与种族、政治、宗教、性别、健康等有关的个人数据。
该规则有两种可能的法律解释,两者都带来了挑战。在所谓的“最低限度解释”场景中,规则仅与敏感数据的直接使用有关,这可能导致规则的应用范围非常狭隘,从而使立法实际上无效。相反,在“最高限度解释”场景下,规则实际上不仅禁止敏感数据,而且禁止使用与它们相关的任何数据(例如,某人的地址可能与其种族或健康状况相关)。这可能会使得利用数据分析的大量应用程序不再可行。
这两种解释中的哪一种会胜出?欧盟能否定义一种中间立场,以避免这两种解释中的潜在问题?只有等待多年的法庭判例和欧盟管理者的特定裁决解决这个问题了。
GDPR的第二部分侧重于解释权,与透明性问题直接相关。本质上,它授权用户能够要求获得为他们做出决策的算法背后的数据,包括推荐系统、信用和保险风险系统、广告计划和社交网络中的数据。通过该法规,GDPR试图打破透明性的一个主要障碍,即公司的“有意隐瞒”。但这并未解决现代算法透明性相关的技术挑战。
GDPR在面对解释性时的挑战,对算法的权利法案提出了更广泛的问题。是否可以制定足够广泛和普遍适用的行为规则,同时又足够明确清晰,可以充当一种行为指南?规则过于具体,可能会使人们对算法的使用方式抱有狭隘的看法,并且可能会限制其使用范围。但过于宽松的规则,可能会使业界不确定自己被允许做什么。
经验表明,权利法案可以而且应该足够灵活,以便在各种活动领域适用不同程度的严格性。例如,考虑下《美国人权法案》中对于言论自由的保障,人们早就接受了这种保障所适用的严格性在每个沟通领域中都存在差异。诸如消费品广告之类的商业言论受准确性相关法规的约束,以防止公司欺骗顾客,企业甚至会被要求采取规定的言论形式,这些形式是企业希望避免使用的,例如在食品外包装上打印营养信息、在香烟包装上打印健康警告。相比之下,政治及社会问题相关的言论则获得了最广泛的言论自由保护,从而使政府官员很难阻止他们不认同的信息进行传播。
算法权利的原则将需要具备类似的灵活性,以便在人类行为的各个领域中区分“高风险”或“安全关键”领域(例如刑事司法和自动驾驶汽车)和“低风险”领域(例如娱乐和社交网络),在保护与自由之间取得适当的平衡。
2016年9月,Facebook、亚马逊、谷歌、IBM和微软共同创建了人工智能合作伙伴组织(The Partnership on AI)。之后,苹果、eBay、英特尔、SAP、索尼和其他行业巨头也加入了进来。与算法人权问题相关的一系列非营利组织也已成为该组织的成员,例如美国公民自由联盟(American Civil Liberties Union)、大赦国际(Amnesty International)、电子前线基金会(Electronic Frontier Foundation)和人权观察(Human Rights Watch)。合作组织的目标是研究和定义人工智能技术的最佳实践,以及增进公众对于人工智能的了解。微软研究总监埃里克·霍维茨(Eric Horvitz)表示,迄今为止,该合作组织一直专注于四个初期活动领域:在医疗保健和运输等领域实施安全至上的人工智能系统的最佳实践;检测和解决人工智能系统中的偏差;人机协同工作的最佳实践;人工智能带来的社会、心理、经济和政策问题。“您可以想象,有很多方向我们可以推进,令人兴奋的是,我们可以通过所谓的竞争前方法来做些什么,”霍维茨解释,“我们这些大公司、非营利组织、学术合作伙伴对此都拥有一致的观点。”
被世界上许多最大、最强的科技公司赞助,这种合作关系是自我监管的重要开端。但也带来一个问题:科技公司自己可以真正有效地实施算法权利法案吗?政府监管者的干预是必要且不可避免的吗?
一方面,对营利性企业进行自我监管的能力和动机持怀疑态度是很自然的事情。毕竟,这些公司自身具有的强大动力会驱使他们追逐利润最大化,并不断扩大影响范围并增加客户对他们的依赖度。监管他们自己的算法将不可避免地对他们自己提出要求,花费他们的金钱和其他资源,势必会遇到公司领导层的阻力。合作伙伴组织最终有可能仅仅成为一种公共关系工具,以保护公司免受公众的批评,并抵制政府的监管。
另一方面,有趣的是,《美国人权法案》实际上就是一种自律行为。它代表了由政府官员自己制定和实施的一系列限制政府权力的措施。因为某些内置在系统中的巧妙执行机制,它运作得相当好。其中包括政府各部门之间的权力分工,使得一个部门可以限制和约束另一个部门的行动。还包括公民通过法院系统和投票权对侵犯其权利的行为寻求法律补救的权利。《美国人权法案》的相对成功表明,制定了正确的内置保障措施,自我监管就可以发挥作用。
此外,有充分的理由可以证明,在技术世界中,某种形式的自我监管确实是不可替代的。原因很简单,即技术的复杂性通常超出了政府及普通公民的知识范畴和控制范围。如果政府的监管机构负责执行有关人工智能和算法的守则,那么几乎可以肯定的是,它们将严重依赖其监管行业中的经验丰富并与行业紧密联系的外部专家。在证券监管、食品安全和环境保护等技术领域中也会出现类似情况。这些领域中,监管都取决于行业和政府监管机构之间的合作。在算法决策领域,也可能会出现这种情况。
现在,是时候开始为受到算法的强大功能和复杂性影响的人类起草权利法案了。我相信,只有算法的用户(你和我)也参与进来发挥作用,这样的法案才会成功。因此,我将把决策算法的用户职责也涵盖在内。
我相信算法权利法案应该有四个主要支柱:
·第一,那些使用算法或受算法决策影响的人员,应有权得到用于训练算法的数据的描述信息,以及如何收集数据的详细信息。
·第二,那些使用算法或受算法决策影响的人员,应有权得到算法流程的解释,以足够简单的术语表述,使普通人易访问和诠释。前两个支柱都与透明性的一般原则有关。
·第三,那些使用算法或受算法决策影响的人员,应对这些算法的工作方式拥有一定程度的控制权。也就是说,用户与算法之间始终存在反馈回路。
·第四,那些使用算法或受算法决策影响的人员,应有责任了解自动化决策带来的意外后果。
让我们仔细看一下这四个支柱。首先,我们将研究如何考虑前两个支柱(数据和算法程序的透明性)下的用户权利和公司责任。为了更好地理解这两个支柱,请想一想研究者尼古拉斯·迪亚科波洛斯(Nicholas Diakopoulos)和迈克尔·科利斯卡(Michael Koliska)概述的现代算法的四个不同阶段:数据、模型、推理和界面。
第一阶段,数据,是由可能有问题的算法输入组成的。因此,权利法案中的一项重要要求应该是公司发布算法训练所用数据的详细信息,包括数据来源、采样方式、先前的用途、准确性方面的已知问题,以及数据集中所有变量的定义。此外,对于在分析之前如何修改或“清除”数据,公司应该保持公开透明(这属于计算机科学文献中所谓的“数据溯源”领域)。
第二阶段,模型,指的是使算法在给定一个或多个输入的情况下做出决策的步骤序列。例如,推荐算法模型指定了它如何根据用户的历史购买记录生成推荐建议。(一个典型的例子是第三章中提及的“购买此商品的人也购买了”算法。)如我们所见,算法的步骤序列可以由人完全编程,可以由机器学习算法完全自学,也可以是两者的结合。权利法案应要求公司公布其开发的模型的具体细节。同时随着时间推移,必须制定出旨在保护公司知识产权的合理措施。但是,任何解决方案都应阐明由人编程及算法自学获得的逻辑部分,以及模型使用的相关参数。重要的是,即使基础模型如在深度学习模型中那般晦涩难懂,也应有可能解释决策的理由。对于可解释机器学习的新兴研究对实现这一目标尤其重要。最后,该法案应允许在“高风险”场景(例如医疗保健和交通运输)中出现问题时对算法的源代码进行审计。
第三阶段,推理,包括了解算法在典型情况和异常情况下的工作状态。权利法案应要求公司公布有关假设的类型、算法推理过程的详细信息,以及这些假设可能失败的情况。
最后阶段,界面,是用户与之交互最为直接的算法输出部分。权利法案应要求公司尽可能将算法相关的信息直接集成到用户界面中。最简单的方法就是,简单地告知用户实际上他正在使用一种算法。除此之外,该界面还应使用户可以轻松地与系统交互,以访问有关上述数据、模型和推理的信息。这四个阶段的透明性构成了算法权利法案的前两个支柱。
第三支柱是反馈回路的概念,它为用户提供了一种沟通手段,使其可以对算法为他们做出决策的方式进行某种程度的控制。回路的性质不可避免地会有差异,这取决于正在开发的算法的类型以及它所管理的现实世界中的交互类型。它可以有限而直接,例如授予Facebook用户权力将新闻帖子标记为“可能是虚假”;也可以随时干预,例如让乘客在对无人驾驶汽车的选择不满意时进行干预。
第四支柱是最后一个,也许是最复杂,但也是最重要的支柱。它关系到用户的责任,即要意识到意外后果的风险,从而使自动决策系统的用户了解更深、参与更深。用户只有承担此责任,才能充分享有前三个支柱中叙述的权利。
宾夕法尼亚大学计算机科学教授、领先的机器学习研究者迈克尔·凯恩斯(Michael Kearns),最近在著名的圣达菲研究所向60名著名科学家致辞。他演讲的主题是,许多用于社会敏感活动(例如刑事判决和贷款审批)的算法中潜伏的隐性偏见。
凯恩斯以前发表过类似的演讲,但他不能忽视在这个特定地点讨论新技术固有危险带来的讽刺意味。圣达菲研究所距曼哈顿计划所在地洛斯阿拉莫斯镇仅40英里,1939年至1945年间,6000多名科学家和支持人员在这里共同奋斗,制造了世界上第一枚原子弹。该计划的最终影响是巨大的:广岛和长崎约有20万人丧生,自那以后,新的技术威胁在人类头上笼罩了七十多年。
那些参与曼哈顿计划的物理学家,以及他们对自己的工作所带来的社会和道德挑战的回应,提供了一个宝贵的先例。在轰炸广岛和长崎之后的几年中,他们之中很多人参加了限制使用核武器的活动,公开承担起对自己工作的责任。
最著名的例子就是爱因斯坦。1939年,他给富兰克林·罗斯福(Franklin D. Roosevelt)的信中谈到了核武器的潜力,促使了曼哈顿计划的启动。爱因斯坦曾担心希特勒和纳粹会首先研发出原子弹,但在看到由他引发的后果时,他内心充满了遗憾。“如果我知道德国人不会成功造出原子弹,”他说道,“我就不会写那封信。”
爱因斯坦后来投入了大量时间和精力来支持限制他曾帮助制造的武器。实际上,他在1955年去世前几天签署的最后一份公开文件正是《罗素-爱因斯坦宣言》,强烈呼吁科学家为人类造福。宣言得到了其他著名科学家和知识分子〔例如马克斯·玻恩(Max Born)、弗雷德里克·朱利奥特-居里(Frédéric Joliot-Curie)、莱纳斯·鲍林(Linus Pauling)和伯特兰·罗素(Bertrand Russell)〕的支持,该宣言宣称:
如果我们这样做出抉择,那么摆在我们面前的就是幸福、知识和智慧的康庄大道。难道我们要因为忘不了我们的争吵,竟然要舍此而选择死亡吗?作为人,我们要向人类呼吁:记住你们的人性而忘掉其余。要是你们能这样做,展示在面前的是通向新乐园的道路,要是你们不能这样做,那么摆在你们面前的就是遍布死亡的危险。
今天现代算法所带来的挑战可能不像原子弹的威力那样严峻,但是,很难不看到两者在机遇和挑战方面的相似之处。[5]
正如凯恩斯所深思的,他的信息是呼吁:“设计这些系统的科学家必须承担起修复的责任。”凯恩斯是对的。但他的呼吁不应局限于科学家和技术人员,还应包括企业家、商业领袖、监管者和终端用户。我们必须共同回答今天面临的最紧迫的问题之一:我们将如何构思、设计、管理、使用和监管算法,从而为全人类谋福利?