百乐二号破解器 - 人工智能的哲学问题,究竟谁能解决?

 

百乐二号破解器 - 人工智能的哲学问题,究竟谁能解决?

百乐二号破解器,你好,本期的《阅读时差》与你分享的这本书叫《为什么》,副标题是:“关于因果的新科学”。这本书的作者是人工智能领域的传奇人物朱迪亚·珀尔,作为一名计算机科学家和哲学家,他认为,我们现在说的人工智能,根本就是“人工不智能”,要想实现真正的人工智能,我们需要从因果关系中寻求答案。

《为什么:关于因果的新科学》

朱迪亚·珀尔 著

一个多世纪以来,科学家们大都信奉一句话,叫“相关不是因果”,特别是基于大数据和机器学习的ai兴起之后,很多人都说“有相关关系就够了”。比如说,根据大数据分析,当某个地方受到台风灾害的时候,那里的沃尔玛商店卖的一种草莓馅饼干的销量就会大增。这是为什么呢?我们不用知道,只要知道有这个信息就够了,你看天气预报说台风要登陆,那就多给草莓馅饼干备货,何必问这是为什么呢?

因果关系说起来复杂,有一段漫长的历史争论,但却又具体到我们每个人的生活中。那什么是因果关系呢?比如,吸烟有害健康,会导致患肺癌的风险。这句话现在人人都相信,但是在几十年之前,很多统计学家认为,“抽烟能导致肺癌吗?”这类的问题,根本就不应该问,因为他们认为,事情只要达到了一定的复杂程度,谈论因果就是徒劳的,一切都是因为相关性。但在过去的30年里,以珀尔为代表的学者们,一直致力于因果关系的科学研究,并且取得了重要的突破。这本书可以说是珀尔向世人做的一次集中学术汇报,向我们介绍这门新科学。这本书是珀尔和他的团队的共同研究成果,书里有非常多的数学和统计学模型,理解起来有一定难度,但我们没必要去深挖这些模型,只要理解他的思想就足以刷新我们认识世界的逻辑。

这本书的内容如此的颠覆,你一定很好奇它的作者朱迪亚·珀尔是何方神圣。

前面说过,珀尔教授是人工智能领域大名鼎鼎的意见领袖,现任现加州大学洛杉矶分校计算机科学教授,“贝叶斯网络”之父,这个贝叶斯网络是目前机器学习应用最多的技术之一,他也因此被认为是机器学习技术的开山鼻祖,有趣的是,他同时也是这种技术最激进的批评者。珀尔有一句名言,“数据是极度愚蠢的。”他要做的就是让ai学会因果思维,真正明白自己在干什么。

为了阐述因果推断的具体内容,接下来,我就从以下三个部分来为你解读这本书。

首先,我们要明白,为什么要问“为什么”?这也是我们理解因果思维的基础;

其次,我们要花一点时间来解释什么是因果思维的三级阶梯,在作者看来,这个阶梯正是掌握因果关系模型的基石,而重要的是不断地沿着阶梯向上攀爬。这套因果关系模型的应用非常广泛,涉及各领域学科,但是影响最大的,还是人工智能领域。

第三部分,我们就来看看,在因果思维模式下,人工智能的未来是怎样的。

在上小学的时候,老师经常跟我们说不光要“知其然”,还要“知其所以然。”只会做一件事还不够,我们需要知道为什么要做这件事,也就是“为什么”。比如,你对现在的工作不满意,想要跳槽,但是你有一些纠结,到底是你现在的公司不行,还是你自己的处事能力不行?生活中,类似这样的问题还有很多。为什么结果是这样的,我们想知道事情的原委。回答“为什么”,就是要找到一个因果关系,我们可以用a导致了b。找到因果关系,才能理解一件事究竟是怎么回事儿,才能知道应该采取怎样的应对措施。

但是你可能会有疑问,既然因果思维这么重要?为什么会被主流的科学界抛弃呢?这就要说到与因果关系对应的另一对关系,也就是相关性。

我们前面说过,早在一百年以前,就有统计学家相信,科学的世界里根本没有什么因果。不要问为什么,所有知识都是相关性的,人的一切行为都是基于经验的。你有没有发现,物理中的定律就是在描述一种相关关系。比如质量越大,惯性越大。但是为什么质量的变化会引起惯性的变化呢?我们一般都不是很在意。这种认知其实都源于统计学领域的一次革命。

1877年,达尔文的表弟,统计学家高尔顿利用自制的“高尔顿板”向大家展示了他的发现:回归平均现象。打个比方来说,父亲的身高在父辈中比较高,比如在前10%,孩子的身高会相对较高,但是可能会在前20%甚至更低,这种现象其实就在说明,孩子的身高会逐渐向平均身高“回归”。回归现象的背后,是父亲和孩子的身高呈现某种关联性,这种关联性就被称为相关性。但由相关性建立的一套思考体系有说不通的地方。珀尔书中举了个简单的例子:一个国家的巧克力销量和该国获得诺贝尔奖的人数呈高度正相关。那么问题来了,难道增加巧克力销量就能增加科学家们获得诺贝尔奖的人数吗?这样的推断显然这是荒谬的。为了解决这个问题,统计学家们找到了一条出路,叫做混淆变量。举例来说,一个国家巧克力销量和诺贝尔奖获奖人数之间之所以存在相关性,可能是夹杂了该国家经济发展水平这个混淆变量。经济发展水平高的国家自然巧克力销量大一些,而该国的科学家更有可能获得诺贝尔奖。所以这个混淆变量才是问题的关键。

不知道你有没有听出什么问题?统计学家们将巧克力销量上涨的原因归为经济发展水平。这不就是我们刚才说的a导致b的因果关系吗?我们在解释一个现象的时候,虽然我们可能无法用纯粹理性定义它,但无形之中,还是会用到因果关系。

既然我们总是绕不开“为什么”,总是要去思考事物背后的因果关系,那么在第二部分,我们就来看看珀尔总结的掌握因果思维模式的三个层级。

因果思维的三个层级,分别是观察、干预和想象。我们先来说观察。

观察,就是通过数据分析做出预测,它处在因果思维的最下层。比如:人们在头痛之后,根据网络上搜集的信息,大多数人通过吃阿司匹林来缓解头痛;下雨会把衣服淋湿,所以再次下雨就要打伞,这就是观察思维。观察是寻找变量之间的相关性,就是积累经验。

所有动物都有观察的能力。观察思维已经能解决很多问题,但是远远不够。

中间层叫做干预。顾名思义,就是通过做某种试验再对数据进行补充和加工,在试验前就会提出一些假设,比如:如果吃了阿司匹林,头痛会好吗?“a/b测试”,又叫灰度测试。是互联网公司在产品测试时候经常采用的方法。比如,看看哪个标题能吸引更多点击,什么颜色的网页能让用户停留时间更长,都是用分组测试的方法。其实,干预思维是我们工作和生活中一直使用的方法论工具。文章的点击量不高,换个标题或者拓宽一下渠道,但是干预的结果到底怎么样,我们还需要第三层的思维。

这最高层就是想象,是对过去发生的事情的反思。在这一层,就需要一些想象力了,我们需要考虑那些没有发生的事情会产生什么样的结果,比如:是阿司匹林治好了我的头痛吗?比如,你可能经常会说,如果我当初听了他的话,现在就不会这样了。你想象的是一件从来没有发生过的事情,所以也叫反事实分析。作者在书中还援引了尤瓦尔·赫拉利在《人类简史》中的观点,智人群体中,曾经发生过一次认知革命,我们具备了想象不存在的事物的能力。关于《人类简史》的其他内容,你可以出门左转,中信书院有对这本书的详细解读。

以这个因果阶梯为基础,作者提出了自己的看法。无论如今大数据和人工智能的概念有多么火爆,计算机的能力目前只能停留在因果阶梯的最底层,也就是观察。简单来说,现在利用计算机可以在我们头痛时,迅速地获得大多数人在吃阿司匹林的信息。但是无法通过这样的数据与信息明白阿司匹林为什么能治好头痛,也无法得知作为个体吃了阿司匹林是否能缓解头痛的症状。现在所有实用ai技术都是基于这个第一级思维。alphago下围棋,并不是它理解这步棋有什么用,它只不过知道走这步赢棋的概率会更大。珀尔教授要做的就是帮助计算机从最底层沿着阶梯一步步向上爬。

这就是第二部分的全部内容。接下来,第三部分,我们再来说说利用因果思维模型,人工智能的发展将会是怎样的。

在第二部分中,我们说过,因果思维是观察、干预和想象的过程,这是一种很主观的过程。我们想象中的人工智能其实是希望计算机具备这种主观的思考方法,能够自发的进行运算和处理,简单点说,就是希望计算机拥有自由意志。

自由意志的感觉到底有什么用呢?珀尔的看法是它首先有利于交流。

有自由意志,才谈得上有“动机”,而动机提供了对行为的解释。我有自由意志,在众多的选项中我先选择了这个动机,然后才谈得上据此去做理性的说服。价值观总是在方法论之前,你总要先知道自己想要什么,再用理性研究怎么做。然后你还可以使用反事实分析,说我当时如果克制了那个愿望,也许现在会有更好的结果。

珀尔还特意举了一个踢足球的例子。阿根廷队比赛结束之后,教练跟梅西说,当时那个情况你不应该把球传给迪玛利亚,你应该给阿圭罗。这句话就已经假定了梅西有自由意志。教练和梅西都明白这么做是为了赢球,赢球的动机不变,现在只是要做个小调整,为了获得更好的进攻机会。短短一句话背后有太多心照不宣的默认动机。

可是如果假定梅西没有自由意志,你要表达这么一个意思就非常困难。教练需要调用梅西的整个软件系统,把当时场上的情况、以及所有类似的情况的优先级赋值都调整一遍。教练会感到很麻烦,梅西会变得一脸茫然。

所以珀尔说,从交流的效率考虑,如果将来要搞一支机器人足球队,这些机器人最好有自由意志的幻觉。自由意志会让他们的表现更好。

更重要的是人跟ai的交流。就算ai可以使用一种特别复杂的机器语言互相对话、不需要有自由意志,但是人需要啊。当一个人跟ai说话的时候,他还是假定ai有自由意志。ai需要自由意志的幻觉才能理解人的意图。那怎样才算有自由意志呢?

对人来说,自由意志的好处不仅仅是交流。时刻提醒一下自己有自由意志,可以让我们做出更好的选择。

比如说有个烟民,抽烟已经形成习惯了。如果他在毫无意识的情况下,从口袋里掏出烟就抽,那我们可以说他在这件事儿上没有表现出自由意志。他是抽烟的机器,他是烟瘾的奴隶。但是如果这个人把烟拿出来之后,突然停顿了一下,意识到自己现在有个“想抽烟”的动机,他就开启了自由意志。他马上就可以反思这个动机!他可以想到,如果我现在不抽烟,改成吃个苹果,会不会有更好的结果呢?

珀尔据此提出了一个标准。如果一个ai知道自己当前的动机是要做一件事,同时它能评估一下,说如果换一个选择,做另一件事,结果会不会更好,那我们就可以认为这个ai有自由意志。

人在行事过程中如果能表现出自由意志,他就能够独立自主、他就能自己控制自己,他就值得尊敬。ai如果有自由意志,它就可以算得上是“强ai”。珀尔说,目前还没有任何一个ai程序有这样的功能。

那怎么才能让ai有自由意志呢?它需要具备三个特点。

首先,它需要一个关于世界的因果模型。比如你家有个扫地机器人。有一天晚上你正在睡觉的时候,这个机器人想要打扫房间,它拿着吸尘器就开始扫地,把你给吵醒了,你想让他安静点。这个机器人需要有个因果模型才能理解你这句话。它得知道扫地会导致噪音,噪音会吵醒你,吵醒你会让你不高兴。

它还得会干预分析和反事实分析。它得知道虽然你说了这句话,但是白天它还是可以扫地。它得知道晚上你要是不在家,它可以扫地。它得知道如果这个吸尘器是绝对静音的,你就算在睡觉它也可以扫地。只有因果模型才能帮它做出这些灵活的处置。

第二,它需要把自己也当成环境的一部分,考虑自己跟环境的因果互动。一个有意思的论断是机器人永远都无法100%预测自己的行为。因为你要精确预测自己的行为,就得把自己的程序跑一遍,可是你本来就已经在跑自己的程序啊!你不可能开一个子进程,这个子进程里又包括了全部的你,否则就是无限循环。所以ai需要一个关于自己的因果关系模型。他对自己的行为特点、对自己的动机会产生什么结果有一个基本的蓝图,这样它才能把自己和环境综合考虑。

第三,它还需要一个记忆系统。他得知道自己以前的那些动机都导致了什么样的后果,这样他才能从错误中学习,他才能对自己的行动负责,也就是反思的能力。

好了,到这里,这本书的重点内容就为你分享的差不多了,现在来总结一下。过去三十年间,学术界爆发了一场关于因果思维的革命。第一部分,我们知道了为什么要问“为什么”。问“为什么”的能力,是我们与生俱来思考问题的能力,但是在相关关系思维的影响下,因果思维被掩藏了起来。第二部分,我们介绍了介绍了有关因果关系的科学,对于观察、干预和想象这三种因果思维层级。第三部分,我们讨论了在因果思维研究下,人工智能的发展方向。


您可能还会对下面的文章感兴趣: