生物的大脑不如AI(人工智能)吗?(1 / 1)

AI的学习能力

怎样才能避免智力引发的错误行为呢?

为了分析情况,信息是必不可少的。近年来,AI技术发展迅速。甚至在人们认为电脑不可能战胜人类的围棋和将棋(日本象棋)领域,AI也能轻易击败人类。

AI已经能够“深度学习”了。

例如前面提到的围棋和将棋,要想提高技术,就需要大量信息。

人们先在电脑中输入围棋和将棋的规则,再在电脑中输入围棋和将棋的定式。但是,如果仅靠这些,AI赢不了人类。

于是,人们在电脑中输入大量过去的对弈数据,电脑就会知道怎样能取胜、怎样会失败。

但是,如果只是反复给电脑灌输人类的知识,AI并不能超越人类。

此后,电脑会自己重复围棋或将棋的对弈过程,逐渐学会如何取胜。这种机器自主学习的过程就是“深度学习”。

电脑可以用极快的速度重复对弈过程,从而获得大量信息。这样一来,人类就无法与之抗衡了。

能轻易击败人类的AI就是通过这种方式培养出来的。

哺乳动物的智力也是这样的。

为了找到正确答案,我们需要大量信息。但是,仅有外界提供的信息是不够的,必须在获取信息的基础上,在自己的大脑中重复这些信息,判断信息的准确性。

这就是“经验”。

就像一台没有输入任何信息的电脑不过是一个盒子一样,没有获取足够信息的智力根本无法发挥作用。

对人类来说,经验是必不可少的。

AI做不到的事

很久以前,“框架问题”就被看作AI的弱点之一。下面用一个关于机器人的故事来解释什么是“框架问题”。

一个洞穴里放着能驱动机器人的电池,电池上有一枚定时炸弹。现在,人们要给机器人一个指令,让它将电池拿出来。

一号机器人成功地从洞穴里拿出了电池,但也把炸弹一起带出来了,所以它爆炸了。虽然它完成了“拿出电池”这一指令,但完全没考虑其他事情。

接着,人们在给二号机器人的指令中增加了“考虑行动后果”这个条件。结果,二号机器人在电池前停了下来。因为它担心拿掉炸弹会导致洞顶坍塌或靠得太近会损坏墙壁。它考虑了太多几乎不可能发生的情况,最终什么也做不了。

三号机器人得到的指令是,取出电池,不要考虑与目的无关的事情。结果,三号机器人甚至没能进入洞穴。因为与目的无关的事情无穷无尽,一一排除这些事情需要无限多的时间。

人类很容易想到必须先拆除危险的炸弹,再取出电池。但对AI来说,没有“拆除炸弹”这个指令,它们就想不到这一点。

其实,这个从洞穴里取出电池的问题是AI研究早期阶段提出的问题。现在,AI已经可以在规避炸弹的前提下取出电池了。

然而,这并没有解决机器人无法适当处理意料之外的事这个实质性问题。如果设定好条件和情景,框架问题可以得到解决。但是,要解决所有问题,必须输入大量信息。

人类的“经验”优于AI的“信息量”。

人类的优势在于能处理意料之外的情况。如果一个人面对意料之外的情况就不知所措地停下脚步,其实和早期的AI没什么区别。

经验就是不断重复“成功”和“失败”

经验就是反复经历“成功”和“失败”。

例如,AI在下围棋或将棋时会积累怎样做会成功、怎样做会失败的信息。

哺乳动物也一样。通过反复经历成功和失败,慢慢认清怎样做会成功、怎样做会失败。这就是经验。

但是,对哺乳动物来说,获得经验是有条件的——经历必须是安全的。如果不安全,哺乳动物也许会因此丧命。

“被狮子撕咬”和“从高楼上跳下来”之类的经历无法提供对生存有用的信息。因为失去生命意味着一切都结束了。

所以,任何经历都必须在安全的环境中体验。

哺乳动物会保护自己的孩子,孩子可以在父母的保护下积累经验。因此,哺乳动物可以在父母的保护下充分利用它们的经验,高度开发智力。没有父母保护的昆虫无法积累经验,自然也无法开发智力。

作为父母,哺乳动物的使命不仅仅是保护孩子,还要让孩子在安全的环境中积累经验。