词汇表(1 / 1)

A*:人工智能中使用最广泛的启发式搜索方法,是斯坦福研究所SHAKEY项目的一部分,于20世纪70年代早期开发。在A*之前,启发式搜索是一种相当特殊的技术。A*让启发式搜索建立在坚实的数学基础上。

AlexNet:一个突破性的图像识别系统。该系统在2012年实现了图像识别的巨大改进,是一个具有里程碑意义的深度学习系统。

AlphaGo:一个突破性的围棋游戏系统,由深度思维的团队开发。2016年3月,在韩国首尔举行的一场比赛中,AlphaGo以4∶1的成绩击败世界围棋冠军李世石。

ceteris paribus preferences:即“尽可能保持其他条件不变”,这个概念是指我们在给人工智能系统说明自己的偏好时,希望它执行任务的前提是“尽量保持其他事物不变”(即尽可能让其他的事物保持原来的状态)。

Cyc工程:基于知识的人工智能时代中,最著名也是得到负面评价最多的实验。它试图通过提供一个受过合理教育的人类所拥有的关于世界的一切知识来构建一个通用人工智能系统,但最终失败了。

Cyc假说:一种假设,即人工智能主要的问题是知识问题。一个拥有全面知识库的人工智能系统可以等同于通用人工智能。

DENDRAL:一个经典的早期专家系统,帮助用户识别未知的有机化合物。

ELIZA:20世纪60年代由约瑟夫·魏岑鲍姆开发的会话式人工智能开创性实验,ELIZA用简单的封装脚本来模拟心理医生。

HOMER:20世纪80年代开发的一种智能体,它在模拟的“海洋世界”环境中运行。HOMER可以使用(一部分)英语与人交互,被指派在海洋世界完成任务,并对自己的行为有一些常识性的理解。

ImageNet:一个由李飞飞开发的带有标签的大型在线图像档案库,在训练深度学习程序为图像添加标签的领域有着深远影响。

LISP:在符号人工智能时代被广泛应用的编程语言,由约翰·麦卡锡开发。LISP机器是专门设计来运行LISP编程语言的计算机。另请参见PROLOG。

MYCIN:20世纪70年代出现的经典专家系统,它充当医生的助手,诊断人类血液疾病。

NP完全问题:一类无法有效解决的计算问题。NP完全性理论是20世纪70年代发展起来的,在此期间许多人工智能问题被发现是NP完全问题。另请参见P与NP问题。

PROLOG:一种基于一阶逻辑的编程语言,在基于逻辑的人工智能时代特别流行。

P与NP问题:P代表“多项式时间”, NP代表“非确定性多项式时间”,从技术上讲,P与NP问题指的是在非确定性多项式时间内可以解决的问题是否可以在多项式时间内解决。NP完全问题是否一定能够在多项式时间内解决?这是当今数学中最大的难题之一,在短期内可能无法解决。

R1/XCON:20世纪70年代美国数字设备公司开发的经典专家系统,旨在帮助他们配置VAX系列计算机。这是早期人工智能的盈利案例。

SHAKEY:20世纪60年代末,斯坦福研究院在自主机器人方面进行的有重大意义的实验,开创了几项关键的人工智能技术。

SHRDLU:人工智能黄金时代出现的著名系统,后来因为专注于模拟的微观世界而广受非议。

STANLEY:赢得2005年美国国防高级研究计划局顶级挑战赛冠军的无人驾驶汽车,由斯坦福大学开发,自动驾驶大约140英里,平均时速19英里。

STRIPS:一个影响深远的计划系统,在斯坦福研究院的人工智能项目中使用。

阿西洛玛人工智能准则:2015年和2017年,人工智能科学家和评论员在加利福尼亚州阿西洛玛举行了两次会议,制定了一套关于人工智能伦理的准则。

包容式体系结构:一种行为人工智能时代的机器人体系结构,将机器人可能的行为组织成一个层次结构,越是底层的行为,优先级就越高。

贝叶斯定理/贝叶斯推断:贝叶斯定理是概率论的一个核心概念,在人工智能中,它为我们提供了一种在得到新数据或者证据时调整人工智能信念库的方法。最关键的是,新的数据可能只是“噪音”或者不够确定的数据。贝叶斯定理为我们提供了处理此类不确定信息的正确方法。

贝叶斯网络:一种知识表述方案,用于捕获基于概率的数据之间产生的复杂网络。使用基于贝叶斯定理的贝叶斯推断来构成。

本体工程:在一个专家系统中(更普遍地说是在一个基于知识的人工智能系统中),这是一个定义概念词汇表的任务,这些词汇表被用来表示系统中的知识。

博弈论:一种基于全局的推理理论,在人工智能中被广泛用于构造人工智能系统和其他系统交互的框架。

不可判定问题:从精确的数学意义上来讲,某个问题无法用计算机(或者更确切地说,图灵机)来解决,即为不可判定问题。

不确定性:人工智能普遍存在的一个问题。我们接收到的信息很少是确定的(即确切为真或者为假),通常会具有不确定性。同样,当我们做决策的时候,也很少确切地知道决策后果是什么:通常有多种可能性结果,只是每种结果出现的概率不同。因此,处理不确定性是人工智能的一个基本主题。另请参见贝叶斯定理及附录C。

不确定性选择:在这种情况下,我们所做的选择可能有多种结果,而我们所知的,是对于每一个可能的选择,其结果发生的概率。参见预期效用。

不通情理的实例化:人工智能系统按照使用者的要求达成任务,但并没有按照使用者预期的方式去做。

(神经网络的)不透明性:神经网络的专业知识都被编码在一系列的权重数字中,我们无法分辨这些权重的“含义”。这意味着目前的神经网络不能解释或者证明它们的决策。

常识推理:这是一个宽泛的术语,基本上人类都有能力做出有关世界的常识性的推断,但这对基于逻辑的人工智能来说非常困难。

城市挑战赛:2007年美国国防高级研究计划局顶级挑战赛的后续挑战赛,在城市挑战赛中,无人驾驶汽车必须能够自主穿越城市环境。

触发:在基于知识的人工智能系统中,如果在工作存储器中的信息与规则的前因条件正确匹配,那么规则就会被触发,从而允许我们将规则的后果结论添加到工作存储器中。

触发阈值:即人工神经元被触发的临界值。人工神经元接收大量的信号输入,其中可能只有一部分输入被激活,当被激活的输入的权重值超过触发阈值时,神经元会被“触发”(即产生一个输出)。

初始状态:在解决问题中,初始状态描述了我们在执行任务之前呈现的状态。另请参见目标状态。

传感器:给机器人提供原始感知数据的装置。典型的传感器有摄像机、激光雷达、超声波测距仪和碰撞探测器。解释原始感知数据是人工智能的重大挑战之一。

道德机器:一个在线实验,在这个实验中,用户被问及在各种电车难题中应该做出什么样的选择。

道德智能体:如果一个实体能够理解其行为的结果以及有是非的观念,并且能够因此对其行为负责,那它就是一个道德智能体。主流观点认为,人工智能系统不应该,事实上也不可能被视为道德智能体。道德责任在于构建和运行人工智能系统的人,而不是系统本身。

电车难题:伦理学中的一个问题,最早出现于20世纪60年代:如果你无作为,有5个人会死亡,而如果你采取行动,那么另外1个人会死亡。你应该行动吗?通常在无人驾驶汽车背景下讨论,尽管大部分人工智能研究员认为无关紧要。

顶级挑战赛:美国国防高级研究计划局组织的无人驾驶汽车竞赛,2005年10月,由STANLEY机器人获得胜利,标志着无人驾驶汽车时代的到来。

对抗性机器学习:机器学习的一个分支,人们给程序输入容易导致错误输出的数据,试图欺骗机器学习程序,虽然这些输入的结果对人类而言是“显而易见”的。

多层感知器:多层神经网络的早期形式。

多层神经网络:将神经网络组织成一系列多层级网络的标准方法,每层的输出作为下一层的输入。早期神经网络研究的一个关键问题是没有办法训练多层神经网络,而单层神经网络的能力又十分有限。

多智能体系统:多个智能体相互作用的系统。

反向传播:训练神经网络的一种重要算法。

反向推理:在基于知识的人工智能系统中,我们从试图建立的目标(例如“该动物是食肉动物”)开始,试图通过使用我们所掌握的数据来验证目标是否合理(例如“如果动物会吃肉,那么该动物是食肉动物”)。与正向推理相对。

分支因子:在解决问题的时候,每次做决定时必须考虑的备选方案的数量。在玩游戏的时候,分支因子即你在任何棋盘位置上平均可能移动的次数。在井字棋游戏中,分支因子约为4;在国际象棋中,约为35;在围棋中,约为250。较大的分支因子会导致搜索树很快变得庞大到难以想象,因此需要使用启发式搜索来优化。

符号人工智能:一种人工智能类型,包括明确的推理建模和规划过程。

副现象论:一种意识研究的观念,即意识是身体内部机械运动的结果,是物质运动之后伴随出现的次生现象。

感受性:个人心理体验。比如闻到咖啡味,或者在热天喝冷饮之类。

感知:了解周围环境的过程。它是符号人工智能的根本症结所在。

感知器/感知器模型:一种神经网络,起源于20世纪60年代,但至今仍是有价值的。对感知器的研究在20世纪70年代早期就逐渐停止,因为当时有研究表明单层感知器模型所能学习的东西有着严重局限性。

高级编程语言:一种隐藏程序运行时实际计算机底层操作的编程语言。高级编程语言至少在原则上是独立于机器的:同一个程序可以在不同类型的计算机上运行,比如Python和Java。约翰·麦卡锡开发的LISP就是早期的高级编程语言例子。

功利主义:应该选择让社会福利最大化的行动的观点。在电车难题中,功利主义者会选择杀死一个人来挽救五个人的生命。另请参见美德伦理学。

工作存储器:在专家系统中,工作存储器里包含了正在解决问题的信息(与编码在规则中的知识相对)。

规则:一种离散的知识。以“如果……那么……”的形式表示,例如,规则“如果动物有**,那么该动物为哺乳动物。”它告诉我们,如果我们知道某动物是有**的,那么我们可以据此得到新的信息,即该动物为哺乳动物。

后果结论:专家系统的“如果……那么……”规则中,“那么”后面跟随的部分即为后果结论。例如,在规则“如果动物有**,那么该动物是哺乳动物”中,后果结论是“该动物是哺乳动物”。

极大极小值搜索:游戏开发使用的关键搜索技术之一,在游戏中,你试图使自己的利益最大化,而你的对手会试图使你的利益最小化。另请参见搜索树。

积木世界:一个模拟的“微观世界”,人工智能在其中的任务是摆放各式各样的物体,如方块或者盒子。其中最著名的是SHRDLU所在的积木世界,随后因为抽象了人工智能系统在现实世界中所面临的诸多真正困难的问题——尤其是感知问题——而广受批评。

机器人三定律:科幻作家艾萨克·阿西莫夫在20世纪30年代提出的三条定律,是一种规范人工智能行为的伦理框架。虽然它们非常巧妙,但实际上不可能直接在人工智能编码中实现,甚至无法被明确定义。

机器学习:智能系统的核心功能之一。机器学习程序学习输入和输出之间的关联,而不需要明确告诉它按照怎样的步骤去执行。神经网络和深度学习是机器学习的常用方法。

基于逻辑的人工智能:一种人工智能系统构建方法,其中的智能决策被简化为逻辑推理,例如一阶逻辑。

基于行为的人工智能:1985年至1995年期间,一种获得了广泛关注的取代符号人工智能的系统。该系统在构建的时候更为关注系统应该表现出的行为,再去考虑这些行为是如何关联的。包容式架构是构建基于行为的人工智能系统最流行的方法。

基于知识的人工智能:1975年至1985年间,人工智能的主流范式。使用明确的知识来解决问题,通常以规则的方式编码。

基于智能体的交互界面:通过人工智能驱动的软件智能体来实现计算机界面操作的想法。软件智能体与使用者共同工作,智能体是一个主动的助手,而不是像常规计算机应用程序那样只能被动地等待使用者告诉它做什么工作。

监督式学习:机器学习最简单的形式,通过向程序展示输入和期望输出的实例来训练程序。另请参见训练。

奖励:强化学习程序对其行动的反馈,奖励可能是正面的,也可能是负面的。

脚本:20世纪70年代发展起来的一种知识表述方案,旨在捕捉常见情况下常规事件的序列。

精神状态:意识的一个重要组成部分,包括欲望、信念和偏好等。另请参见意向立场。

可判定问题:即可以使用算法解决的问题。

莱特希尔报告:20世纪70年代初,英国的一份关于人工智能的报告,对当时的人工智能研究提出了严重的质疑。该报告直接导致了人工智能研究经费大幅削减,普遍认为该报告是导致人工智能寒冬出现的因素之一。

逻辑:推理使用的正规框架。另请参见一阶逻辑和基于逻辑的人工智能。

逻辑编程:一种编程方法,我们简单地陈述对问题的了解和我们的目标,然后剩下的由机器去执行。另请参见PROLOG。

旅行机:20世纪90年代中期出现的一种典型的智能体设计。它将智能体的控制系统分为三层,分别负责反应、计划和建模。

美德伦理学:当面临伦理问题时,确定一个道德智能体,他体现了我们所注重的道德原则,然后他的选择就是我们应该去做的选择。

目标状态:在问题解决中,目标状态描述了我们成功完成任务时希望看到的状态。

纳什均衡:博弈论里的一个核心概念,如果任意一位参与者在其他所有参与者的策略确定的情况下,其选择的策略都是最优的,那么这个组合就被定义为纳什均衡。

逆向强化学习:机器学习程序观察人类的行为,试图从观察中学习到奖励系统。

判定问题:判定问题是指答案可以用是/否来回答的数学问题。例如“16的平方根是4吗?”和“7920是质数吗?”之类。艾伦·图灵解决了判定问题,即是否所有的数学判定问题都是可判定的。他指出有一些判定问题(尤其是停机问题)无法用算法来解决,这种类型的问题即是不可判定问题。

偏好/偏好关系:对于所有可供选择的事物,你按照偏好程度进行排序。如果想要一个智能体代表你行事,它需要知道你的偏好,才能为你做出最佳选择。

普罗米修斯工程:20世纪80年代欧洲无人驾驶汽车技术的开创性实验。

奇点:机器智能超越人类智能的假设节点。

启发式搜索:一种利用“经验法则”来决定集中搜索方向的方法,启发式搜索是基于经验法则的,所以无法保证搜索方向一定正确。另请参见A*。

嵌入(智能体):行为人工智能时代的一个中心思想,大意是指人工智能的进步需要开发真正嵌入某个环境中并且能够作用于该环境中的智能体,而不是脱离实体开发(专家系统通常就是这样)。

前提:在逻辑上,前提是你最初掌握的知识,你要使用逻辑推理等方式从前提中得出结论。

前因条件:专家系统的“如果……那么……”规则中,“如果”后面跟随的部分即为前因条件。例如,在规则“如果动物有**,那么该动物是哺乳动物”中,前因条件是“动物有**”。

强化学习:一种机器学习的形式,让智能体在环境中进行活动,并以奖励的形式接受对其行为的反馈。

强人工智能:强人工智能的目标是建立一个真正有思维和意识等的人工智能系统,另请参见弱人工智能和通用人工智能。没有人知道强人工智能是否能实现,以及它会是什么样子。

(神经网络中的)权重:在神经网络中,神经元之间的连接(轴突)被赋予了权重数字。权重越大,连接对神经元的影响就越大。神经网络最终归结于这些权重值,而训练神经网络的目的就是找到合适的权重值。

人工智能的黄金年代:人工智能研究的早期,大约从1956年到1975年(紧接着就是人工智能寒冬)。这一时期的主要研究集中在“分而治之”的方法上:构造能够展示智能行为组成部分的系统,希望它们在以后能够被集成为通用人工智能。

人工智能寒冬:指20世纪70年代早期,莱特希尔报告发表后的一段时间。该报告对人工智能极尽批判之事。在人工智能寒冬中,研究经费大幅削减,整个人工智能领域都遭受质疑。人工智能寒冬出现在基于知识的人工智能系统兴盛之后。

软件智能体:在软件环境中而不是像机器人那样在物理环境中存在的智能体。可以把软件智能体视为软件机器人。

弱人工智能:构造虽然没有具备人类的理解力(意识、思维、自我意识等),但是可以模拟出相应能力的程序,即为弱人工智能。另请参见强人工智能和通用人工智能。

莎莉-安妮测试:一种心理测试,目的是确定被测试者是否有心智理论能力,即对他人的欲望和信念进行推理的能力。这项研究最初是为了测试自闭症。

社会福利:“社会的总体幸福感”,社会整体状况如何,是社会福利的一种衡量方式。

设计立场:试图根据某个实体的设计意图来理解和预测它的行为。例如,时钟是用来显示时间的,所以我们可以把它显示的数字理解为时间。与物理立场和意向立场形成对比。

实体程序:人工智能程序中表示偏好的标准技术。给所有可能出现的结果附加数值表示偏好程度,称为实体程序。然后,人工智能系统试图计算行动过程,得出效用最大化的结果,即偏好程度最高的结果。另请参见预期效用和预期效用最大化。

深度学习:21世纪出现的推动机器学习研究兴起的突破性技术。其特点是使用更深层次结构、互联性更高的神经网络,以及更庞大、更精心策划的训练数据和一些新技术。

深度优先搜索:一种用于解决问题的搜索技术,在深度优先搜索中,并非逐层展开搜索树,而是沿着搜索树的一个分支向深度展开。

神经网络:一种利用“人工神经元”进行机器学习的网络构造,深度学习中的基本技术。另请参见感知器。

神经元:即神经细胞。神经元彼此相连,并通过轴突传导信息。大脑的基本信息处理单元,也是神经网络的灵感来源。

身体还是心灵问题:科学中最基本的问题之一,即大脑/身体中的物理过程如何与意识体验相关联?

搜索/搜索树:一种基本的人工智能问题解决技术,计算机程序试图从初始状态开始,采用有限的步骤,寻找如何转化成目标状态的方法。

算法偏见:人工智能系统在做决策的时候可能会表现出偏见。其原因可能是使用了有偏见的数据集进行训练,或者是软件设计不当。偏见可能以分配伤害或代表性伤害的形式出现。

特征:分段的数据组成,机器学习程序依赖它进行学习以做决策。

特征提取:在机器学习中,决定在一个数据集中选择哪些属性作为训练数据。

梯度下降:训练神经网络时使用到的一种技术。

通用人工智能:这是个宏伟的目标,即建立一个拥有人类所拥有的全部智能能力的人工智能系统:计划、推理、参与自然语言对话、开玩笑、讲故事、理解故事、玩游戏——所有的一切。

通用图灵机:现代计算机的原型。虽然图灵机通常只能编码一种特定的步骤或者算法,但通用图灵机可以执行任意的算法。

突触:神经元之间的“连接点”,让它们能够交流信息。

图灵测试:由艾伦·图灵提出的一种测试,用来解决机器是否能“思考”的问题。如果你与一个实体互动一段时间后,你不能分辨出它是一台机器还是一个真人,你就应该接受它具有类似人类智能的结论。它很有创意,也很有影响力,但是在人工智能测试领域,不必把它奉若圭臬。

图灵机:一种包含着解决特定数学问题的特殊步骤的机器。任何可以用计算机解决的问题都可以用图灵机解决。由艾伦·图灵发明,用来解决判定问题。另请参见通用图灵机。

(不完备的)推理:在逻辑学中,得出的结论并不是前提所能保证得出的。另请参见(完备的)推理。

(完备的)推理:如果从前提中能够正确得出结论,那么推理就是完备的。

推理机:专家系统中负责推理的部分,从工作存储器的规则和事实中获得新知识。

维度诅咒:在机器学习中,包含更多特征的训练数据会导致训练数量剧增。

危害评估风险工具:一个机器学习系统,用来帮助英国杜伦的警察决定是否应该拘留某人。

威诺格拉德模式:图灵测试中的一种模式。两个句子只有一个单词不同,但却具有完全不同的意思。这项测试需要被测试者理解不同之处。威诺格拉德模式中,必须理解文本以后才能正确回答,旨在识别出在图灵测试中使用一些小伎俩来欺骗询问者的被测试者。

问题解决:在人工智能中,问题解决意味着寻找到正确的行动顺序,将问题从初始状态转换为目标状态。搜索是人工智能中问题解决的标准方法。

物理立场:试图通过物理结构和物理定律来预测和解释一个实体的行为。与设计立场和意向立场形成对比。

乌托邦主义者:相信人工智能和其他新技术将带领我们走向一个乌托邦式的未来的人(技术将使人们从工作中解脱等)。

狭义人工智能:和通用人工智能相对,构建专注于解决非常具体问题的人工智能系统,而不是试图让人工智能系统拥有人类全部的智能能力。这个词主要见诸媒体,人工智能研究界极少使用。

先验概率:在得到进一步信息之前,你先假设一个概率。在这个意义上,“先验”意味着“在得到更多信息之前”。

信念:人工智能所掌握的有关其环境的信息。在基于逻辑的人工智能中,系统所拥有的信念即知识库和工作存储器中的信息。

信用分配:机器学习中出现的一个问题:决定机器学习程序的哪些动作是好的,哪些是坏的。例如,你的机器学习程序输掉了一盘棋,它如何得知具体哪一步是导致输棋的关键步骤呢?

心智理论:临**表现正常的成年人对他人的精神状态(信念、欲望、意图等)进行推理的普遍能力。另请参见意向立场和莎莉-安妮测试。

(机器学习中的)训练:机器学习程序的任务是学习输入和输出之间的关联,而无须被告知它们之间是如何关联的。为了做到这一点,程序通常是通过给出输入和相应输出的示例来进行训练。另请参见监督式学习。

演绎:即逻辑推理,从现有的知识中获取新的知识。

易处理:如果某个问题能够被一种有效算法所解决,这个问题可以被认为是易处理的。NP完全问题就不是易处理问题:我们没有有效算法解决它们。另请参见P与NP问题。

一阶逻辑:一种通用的语言和推理系统,为数学推理提供了精确的基础。在基于逻辑的人工智能范式中得到广泛研究。

意识的难题:理解物理过程如何以及为何会导致主观意识体验的问题。另请参见感受性。

意向立场:预测和解释某个实体的思想,将其归因到实体的心理状态上,如信念或者欲望,并假定该实体根据这些信念和欲望理性地行动。与物理立场和设计立场形成对比。

意向系统:任何可以使用意向立场来描述的系统。

涌现性质:组成系统的每个组件都会表现出某种特性,当这些特性发生交互的时候,通常会以一种意外的或者不可预测的方式产生新的特性。

预期效用:在不确定条件下的判定问题中,某一特定决策方案的预期效用是指在此选择下平均获得的收益。

预期效用最大化:在不确定条件下的决策中,当在多个方案中做出选择时,理性的智能体将选择平均收益最大的方案,即预期效用最大化方案。

语义网:一种知识表述方案,使用图形表示法来捕获概念和实体之间的关系。

正向推理:在基于知识的人工智能系统中,从信息中推理得出结论。与反向推理相对。

制订计划:即寻找到将初始状态转变成目标状态的一系列操作。另请参见搜索。

知识表述:以计算机可以处理的形式显示编码知识的问题。在专家系统时代,主要的方法是使用规则,尽管逻辑也被广泛应用于知识表述。

知识导航器:苹果公司在20世纪80年代推出的一款概念视频,引入了基于智能体的交互界面的思想。

知识工程师:受过构建知识系统训练的专业人士,知识工程师致力于研究如何进行知识获取。

知识获取:在建立专家系统时,从相关人类专家中提取和编码专家知识的过程。

知识库:在专家系统中,知识库由人类专家的知识组成,通常以规则的方式编码。

知识图谱:谷歌开发的一个庞大的基于知识的系统,自动从万维网上获取知识构建。

中文房间:哲学家约翰·希尔勒提出的一种设想,试图以此证明强人工智能不可能存在。

轴突:神经元与其他神经元连接的组成部分。另见突触。

侏儒问题:心理理论中的一个经典问题,当我们不经意间将心智的问题用另一个心智来解释的时候,就会出现这个问题。

智能体:一种功能比较完善的人工智能系统,通常集成了多种不同的人工智能功能,以便代表使用者自主工作。智能体通常被假定嵌入某个环境中,并在该环境中积极工作。

专家系统:一种使用人类专家知识来解决严格限制范围内问题的系统。典型的专家系统有MYCIN、DENDRAL和R1/XCON。从20世纪70年代末到80年代中期,构建专家系统是人工智能研究的重点。

自然语言理解:程序可以用人类的自然语言(如英语)进行交互。

组合爆炸:在连续选择中,选择的可能性等于选择的次数与备选可能性相乘。这是人工智能所面临的一个基本问题,在搜索中出现,它会导致搜索树以极快的速度增长。