虚假的因果

授权和转载须知

《理性:从人工智能到僵尸 – 地图与真实的土地 – 第四部分:神秘的答案 – 虚假的因果》

对于希腊炼金术士火元素的问题,18世纪的答案是燃素。点燃木头,使其燃烧。橙黄色的“火”到底是什么东西?为什么木头变成了灰烬?对于这两个问题,十八世纪的化学家回答道,“燃素。”

……好吧,这就是他们的答案:“燃素。”

燃素从燃烧的物质中逃逸出来,变成了可见的火焰。随着燃素的逃逸,燃烧的物质失去燃素,变成灰烬——一种“真实的物质”。封闭容器中的火焰熄灭是因为空气中燃素已经饱和,不能容纳更多燃素了。木炭燃烧后留下的残余很少,因为木炭几乎是纯粹的燃素。

当然,没人用燃素理论去预测化学变化的结果。你先看到结果,然后用燃素理论去解释它。并不是燃素理论学家预测火焰会在封闭容器中熄灭;而是他们在容器中点火,看到它熄灭,然后说,“空气中的燃素一定饱和了。”你甚至不能使用燃素理论去预测你不应该观察到什么;它可以解释任何事情。[1]译注:关于燃素理论的补充说明:18世纪后期,有人开始针对燃素进行量化实验,并测得金属燃烧后的质量比燃烧之前大。当时有一些学者声称燃素可以拥有负重量,或是“比空气更轻”;后来,当金属氧化后重量增加这一事实越发明晰之后,“燃素”这一词义开始演变为一种概念,而非实际物质。许多学者会用“燃素”来指代氧化物。1789年,现代化学元素周期表被发现;燃素理论在不断地为切合实验结果打补丁之后,终于因为过多的假设和复杂的特殊情况而不堪重负,缓缓步入死刑。

这就是科学的早期时代。在很长一段时间,没有人意识到这有问题。虚假的解释感觉上并不虚假。这使得它们十分危险。

现代研究提出,人类会使用类似贝叶斯网络中的有向无环图(Directed Acyclic Graph, DAGs)的方式来思考因果关系。因为下雨,所以人行道上有水;因为人行道有水,所以会打滑。

从这里我们可以推断——或者,在一个贝叶斯网络中,严格地计算概率——当人行道打滑的时候,有可能在下雨;不过,如果我们已经知道人行道上有水,那知道人行道打滑对于我们推断是否在下雨没有帮助。

为什么火焰燃烧的时候灼热发光呢?

看起来是一个解释。它使用了相同的认知数据格式来表示。但人类的思维无法自动侦测到一个原因对应到其结果的箭头是不受限制的。更糟糕的是,由于后见之明偏见,当我们仅仅是用一个原因来解释一个结果时,就好像这个原因真的导致了这个结果

有意思的是,通过对概率因果推理的现代理解,我们可以精确指出燃素理论学家错在哪里。贝叶斯网络的一个初期灵感是注意到,如果推断在原因和结果之间产生共振,会产生证据重复计算的问题。举个例子,假如我得到一个不太可靠的消息,说人行横道上有水。这应该会让我想到很可能在下雨。不过,如果很有可能在下雨,会不会让人行横道上有水的可能性变得更大?会不会让人行道湿滑的可能性变得更大?不过,如果人行横道湿滑,它上面就可能有水;那我应该再次提高下雨的概率……

朱迪亚·珀尔[2]朱迪亚·珀尔:美国以色列裔计算机科学家和哲学家,因其人工智能概率方法的杰出成绩和贝氏网络的研发而知名。详见:https://en.wikipedia.org/wiki/Judea_Pearl有一个关于一列士兵计数算法的比喻。[3]Judea Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (San Mateo, CA: Morgan Kaufmann, 1988).假设你在一列士兵中,你周围有两个士兵,一个在前,一个在后。加上你,共有三个士兵。你问你身后的人,“一共有几个人?”他们看了看然后说,“三个。”所以总共有六个士兵。显然,数数不是这么数的。

更合理的做法是,问你前面的士兵,“你前面有几个人?”再问你身后的士兵“你后面有几个人?” “你前面有几个人”这个问题可以被不带混淆地传递。如果我是队列的排头,我可以说“前面只有一个人”。我后面的人得知“一个人在前面,”然后对身后的人说“前面有两个人”。同时,每个士兵从他身后的人那里得知“后面有N个人”,然后对前面的人说“后面有N+1个人”。总共有几个人?把这两个数字加起来,再算上你自己:这就是队列的总人数。

关键在于,所有人必须分别追踪这两条信息:向前信息和向后信息;然后到最后才把它们加起来。你不能把向后信息中的人加到你需要向后传递的向前信息里。事实上,总人数从来不会被作为信息来传递——没人会大声说出来。

类似的原则适用于严格的因果概率推理。如果你从某种途径,而不是观察人行道,知道了有没有下雨,就会从“下雨”到“人行道有水”传递一个向前信息,提高了我们对人行道有水的期望。如果你观察到人行道有水,这就对正在下雨的信念传递了一个向后信息,然后这条信息从“下雨”节点传递到除了“人行道有水”以外的所有邻近节点。一个证据我们只计算一次;更新的信息不会来回“反弹”。详细的算法可以在朱迪亚·珀尔的经典理论中找到——《智能系统中的概率推理:似然推断网络》(Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference)。

所以,燃素理论的问题在哪里?当我们观察到火焰灼热,“火”节点向“燃素”节点发送了一个向后证据,让我们更新了关于“燃素”的信念。但如果是这样的话,我们就不能把这算做燃素理论成功地向前预测了。信息只能向一个方向运行,不能弹回来。

可怜,人类不用严格的算法来更新信念网络。我们通过观察子节点了解父节点,通过父节点预测子节点。但是我们并没有严格保管区分“向后信息”和“向前信息”的账本。我们只记得燃素灼热,所以火焰也是灼热的。所以看上去燃素理论预测了火焰的灼热。或者更糟——这就像燃素使得火焰灼热。

直到你注意到,预测并不是提前做出的,不受约束的因果节点,这才会将其标记为“虚假”。它的表示方式和你信念网络中的其他节点相同。它看起来像一个事实,如同其他你知道的事实:燃素使得火焰灼热。

一个设计合理的人工智能会立刻发现这个问题。甚至不需要特别的代码,只需要保证信念网络中的向前向后信息的账本正确运行。(不幸的是,我们人类不能像一个设计合理的人工智能一样,重写我们的代码。)

所谓“后见之明偏见”这一说法,只是用非技术性的方式来说明以下事实:人类不能严格区分向前信息和向后信息,人类允许向前信息被向后信息污染。

那些很久之前误入燃素歪路的人并不是故意犯傻。没有科学家想故意陷入一条死胡同。你脑子里有什么虚假的解释吗?如果有,我保证这些解释没有被贴上“虚假”的标签,因此以“虚假”为关键字搜索你的想法并不会让它们现身。

由于“后见之明偏见”,使用你的理论“预测”你已经知道的事物不足以检查理论的好坏。你必须预测未来,而不是过去。只有这样,才能保证混乱的人类思维发送了一个纯粹的向前信息。


翻译:yzhaobk
校对:糖颗颗,潜艇

注释

注释
1 译注:关于燃素理论的补充说明:18世纪后期,有人开始针对燃素进行量化实验,并测得金属燃烧后的质量比燃烧之前大。当时有一些学者声称燃素可以拥有负重量,或是“比空气更轻”;后来,当金属氧化后重量增加这一事实越发明晰之后,“燃素”这一词义开始演变为一种概念,而非实际物质。许多学者会用“燃素”来指代氧化物。1789年,现代化学元素周期表被发现;燃素理论在不断地为切合实验结果打补丁之后,终于因为过多的假设和复杂的特殊情况而不堪重负,缓缓步入死刑。
2 朱迪亚·珀尔:美国以色列裔计算机科学家和哲学家,因其人工智能概率方法的杰出成绩和贝氏网络的研发而知名。详见:https://en.wikipedia.org/wiki/Judea_Pearl
3 Judea Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (San Mateo, CA: Morgan Kaufmann, 1988).

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注