AI的学习能力
怎样才能避免智力引发的错误行为呢?
为了分析情况,信息是必不可少的。近年来,AI技术发展迅速。甚至在人们认为电脑不可能战胜人类的围棋和将棋(日本象棋)领域,AI也能轻易击败人类。
AI已经能够“深度学习”了。
例如前面提到的围棋和将棋,要想提高技术,就需要大量信息。
人们先在电脑中输入围棋和将棋的规则,再在电脑中输入围棋和将棋的定式。但是,如果仅靠这些,AI赢不了人类。
于是,人们在电脑中输入大量过去的对弈数据,电脑就会知道怎样能取胜、怎样会失败。
但是,如果只是反复给电脑灌输人类的知识,AI并不能超越人类。
此后,电脑会自己重复围棋或将棋的对弈过程,逐渐学会如何取胜。这种机器自主学习的过程就是“深度学习”。
电脑可以用极快的速度重复对弈过程,从而获得大量信息。这样一来,人类就无法与之抗衡了。
能轻易击败人类的AI就是通过这种方式培养出来的。
哺乳动物的智力也是这样的。
为了找到正确答案,我们需要大量信息。但是,仅有外界提供的信息是不够的,必须在获取信息的基础上,在自己的大脑中重复这些信息,判断信息的准确性。
这就是“经验”。
就像一台没有输入任何信息的电脑不过是一个盒子一样,没有获取足够信息的智力根本无法发挥作用。
对人类来说,经验是必不可少的。
AI做不到的事
很久以前,“框架问题”就被看作AI的弱点之一。下面用一个关于机器人的故事来解释什么是“框架问题”。
一个洞穴里放着能驱动机器人的电池,电池上有一枚定时炸弹。现在,人们要给机器人一个指令,让它将电池拿出来。
一号机器人成功地从洞穴里拿出了电池,但也把炸弹一起带出来了,所以它爆炸了。虽然它完成了“拿出电池”这一指令,但完全没考虑其他事情。
接着,人们在给二号机器人的指令中增加了“考虑行动后果”这个条件。结果,二号机器人在电池前停了下来。因为它担心拿掉炸弹会导致洞顶坍塌或靠得太近会损坏墙壁。它考虑了太多几乎不可能发生的情况,最终什么也做不了。
三号机器人得到的指令是,取出电池,不要考虑与目的无关的事情。结果,三号机器人甚至没能进入洞穴。因为与目的无关的事情无穷无尽,一一排除这些事情需要无限多的时间。
人类很容易想到必须先拆除危险的炸弹,再取出电池。但对AI来说,没有“拆除炸弹”这个指令,它们就想不到这一点。
其实,这个从洞穴里取出电池的问题是AI研究早期阶段提出的问题。现在,AI已经可以在规避炸弹的前提下取出电池了。
然而,这并没有解决机器人无法适当处理意料之外的事这个实质性问题。如果设定好条件和情景,框架问题可以得到解决。但是,要解决所有问题,必须输入大量信息。
人类的“经验”优于AI的“信息量”。
人类的优势在于能处理意料之外的情况。如果一个人面对意料之外的情况就不知所措地停下脚步,其实和早期的AI没什么区别。
经验就是不断重复“成功”和“失败”
经验就是反复经历“成功”和“失败”。
例如,AI在下围棋或将棋时会积累怎样做会成功、怎样做会失败的信息。
哺乳动物也一样。通过反复经历成功和失败,慢慢认清怎样做会成功、怎样做会失败。这就是经验。
但是,对哺乳动物来说,获得经验是有条件的——经历必须是安全的。如果不安全,哺乳动物也许会因此丧命。
“被狮子撕咬”和“从高楼上跳下来”之类的经历无法提供对生存有用的信息。因为失去生命意味着一切都结束了。
所以,任何经历都必须在安全的环境中体验。
哺乳动物会保护自己的孩子,孩子可以在父母的保护下积累经验。因此,哺乳动物可以在父母的保护下充分利用它们的经验,高度开发智力。没有父母保护的昆虫无法积累经验,自然也无法开发智力。
作为父母,哺乳动物的使命不仅仅是保护孩子,还要让孩子在安全的环境中积累经验。