Newcomb悖论与认知变化,本文主要内容关键词为:悖论论文,认知论文,Newcomb论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
〔中图分类号〕B815.3 〔文献标识码〕A 〔文章编号〕1000-7326(2005)04-0081-04
一、引言
本文的目的在于分析Newcomb悖论的逻辑结构,着重讨论参与者的认知状态对解决Newcomb悖论的影响。作为推论,我们要反驳S.Burgess在杂志Synthesis上发表的有关Newcomb悖论的解决方案。[1]同时也涉及决策逻辑与Newcomb悖论之间似是而非的矛盾。
Newcomb悖论涉及两个对象:一个是有超常能力的生物——能够对其它生物的大脑认知过程有直接的了解,我们称之为“外星人”;另一个是普通的人,比如“你”。决策境况是在外星人扫描你的大脑之后,它提供两个盒子让你选择:选择其一或全部选择。两个盒子一个是透明的,能清楚地看到它里面藏有$1000,而另一个是不透明的,你不能看到里面到底有多少金额,不过它要么是$100万,要么为$0。要你选择的是挑一个盒子还是两个盒子(记为one-box和two-box)。要想得到$100万当且仅当外星人已经预测(通过它的大脑扫描工具)你将会one-box。另外,外星人还告诉你一条信息:他曾经把同样的选择交给数以千计的观众,结果在one-box的观众中,有99%的人获得$100万;而在two-box的观众中,有1%的人获得$100万。那么你该如何挑选(决策)呢?通常的分析是这样的:
如果你one-box,那么你的收益只是$100万,少于two-box;如果你two-box,那么你有可能得到$100万+$1000,因此,收益比one-box多。如果你是理性的(收益最大化),你会选择two-box。
但在另一方面,考虑到收益的期望值,也许是另一回事:如果你one-box,则你的期望收益值将高于你two-box时的期望收益值。具体论证如下:
在你one-box情况下,你的期望收益值=Pr(外星人预测你one-box|你one-box)×$100万+Pr(外星人预测你two-box|你one-box)×$0=99%×$100万+1%×$0=$990000。
在你two-box情况下,你的期望收益值=Pr(外星人预测你two-box|你two-box)×$0+Pr(外星人预测你one-box|你two-box)×$100万+$1000=99%×0+1%×$100万+$1000=$11000。
显然你one-box的期望收益值>你two-box的期望收益值,所以你会倾向选择one-box方式而不是two-box方式,这与第一种分析只考虑收益相矛盾,这就是所谓的Newcomb悖论。在下面我们将表明,所谓的Newcomb悖论并非与真正的悖论如罗素悖论相同,因为后者是真正地从同一前提推导出来的两个相矛盾的结论,而Newcomb悖论的推导却依赖于逻辑上两个不同的决策原则。毫不奇怪,在不同原则支配下的计算规则得到不同结论是可能的。
二、决策原则
首先我们来讨论two-box方式所依赖的决策原则,即:
假如你one-box,你将会得到少于two-box的收益;假如你two-box,你将会得到多于one-box的收益。因此不管$100万元是否放进不透明的盒子中,在两种选择之下,选择two-box将比one-box时多$1000元。在这种情况下,显然two-box是理性的。因此这背后的原则——我们可以称之为占优原则(Principle of dominance,POD),支持这样的选择:
(1)你必须在两个行动中选择其一;
(2)你选择的行动或决策方式不能影响你所处的境况,尤其是对立的境况;
(3)在这两种对立的境况之下,决策行为A比决策行为B收益大,那么你如果是理性的话,你必须做A。
根据POD,你认为选择two-box将是合理的。
但是,由于在盒子里的钱的数额与你的选择方式是one-box还是two-box密切相关,(2)所设定的情景不一定成立,所以上述计算方式必须作相应的调整。例如,外星人放$100万当你one-box,而甚少有机会放$100万当你two-box,这使得计算结果倾向于one-box。这样的计算是根据另一个原则“条件期望收益的最大化”(Principle of maximizing conditional expected utihty,PMCEU):执行那些使条件期望收益最大化的行动,在Newcomb悖论所对应的境况中,你应该one-box。
当然,这两种原则在处理Newcomb悖论时并非完全对立的,这里需引进因果决策理论(causal decision theory,CDT)来完成这一点。遵循E.Eells的做法。[2](P206-218)令Qi(a)表示Pi(a),Ai(a)的共同原因(common cause)。其中,Pi(a)代表外星人预测你将one-box或two-box,Ai(a)代表你的选择行动one-box或two-box;令Ui(a)代表在a的情况下,放$100万在不透明盒子里还是不放$100万在不透明盒子里,注意i=1,2分别代表两种情况。于是依靠因果决策理论(CDT),有:
箭头所指方向表示箭尾符号代表的对象是箭首符号代表的对象的原因,这实际是共同原因因果结构。按照S.Burgess的解释,Qi(a)表示在扫描时刻你的大脑状态,上图中第一图可表示为:
采用共同原因因果理论的好处之一是,一旦采用理论来说明你的选择,那么它提倡必存有一种选择胜过其它选择,这恰与占优原则(POD)相一致,而理性选择就是选择占主导地位的选择。以上图而言,我们可以计算境况下你的每一个选择的条件期望收益值。很容易看出,计算将与前面的计算过程一样,肯定会得到相同的结论:即选择one-box是理性选择,但这又是占优原则(POD)要求的结果。这个结论即占优原则(POD)与one-box选择并不矛盾,这得到了Gibbard与Harper的支持,但与Jeffrey[3]的证据决策理论(Evidential decision)相矛盾。Skyrms[4]与Lewis[5]也有类似支持CDT的结论。
三、知识共享与博弈
我们首先分析Burgess方案的不足,然后提出我们的方案——应用知识共享的概念来说明Newcomb问题。实际上,Burgess方案与E.Eells并无多大不同,他们都赞成用因果决策理论解决Newcomb悖论,都承认CDT与占优原则(POD)并不矛盾,也就是说Newcomb悖论是可以消解的。不过,Burgess方案有其独特之处,在于引进你的“认知状态”(epistmic states,ES)概念,来说明条件期望收益怎样在占优原则与因果决策理论下的计算过程是一致的;更重要的是Burgess认为条件期望收益可以同时是条件证据期望收益(conditional evidence expected outcomes),这在你的认知状态ES发生变化时证据期望收益可以看作是条件期望收益,此时证据是作为假说而使用的。因此,对于你的任何一个认知状态ES,条件证据期望收益可以按照因果决策理论的原则来对待,当然此时的占优选择肯定是one-box。占优原则POD,因果决策理论CDT与证据决策理论可以和谐共处,而后者却被E.Eells所拒斥。
Burgess还仔细分析了外星人在放置$100万于不透明盒子之前与之后,你的认知状态可能的变化。前、后之间是有相互影响的,为了使占优原则成立,你需要承诺选择two-box。实际上,这种相互作用可在共同原因理论中表达:
这个图式告诉我们A,B所表达的相互作用对应于你在外星人的决策之前与之后的认知。这种相互作用使得证据决策理论转化为因果支持理论,涉及到心与行动之间的因果关系。这是占优原则POD与因果决策理论CDT之间在Newcomb问题上不矛盾的主要原因。
我们要指出的是,由于外星人的放置金额$100万与你头脑或你的意图one-box有关,因此,面对有超常预测能力的博弈者,你如果想得到$100万,可以采用one-box策略。同时我们假设你是一个下述意义下谨慎的决策者:选择one-box与two-box至多相差$1000,损失不多;而采用two-box策略损失可达$100万。于是你采用one-box策略。此外,采用two-box策略没有充足的理由支持:毕竟选择two-box使得得到$100万的概率只有1%,几乎就是小概率事件,在一次决策试验中不可能发生。注意到这里理由是不同于上述意义上的占优原则POD的。但是,我们仍将指出,one-box选择依赖于外星人与你之间的一个重要信息的共享与否,而这点是Burgess与Eells等人讨论所忽略的重要之处。对这种知识共享的讨论,使我们转向知识共享在Newcomb问题境况中的关键作用。
由于忽略了知识共享,Burgess等人的方案显得很脆弱。Burgess方案必须假设你不知道下列事实:如果外星人预测你将two-box时,他将在不透明盒子里不放$100万,而这个事实对于你的选择one-box还是two-box十分关键。假如你知道这个事实,知道选择two-box得到$1001000概率非常小(就是小概率事件),当然你将会选择one-box,而拒绝two-box策略。New-comb问题的出现显然需要two-box的收益值,这意味着Newcomb决策境况中认为two-box出现的概率与one-box是一样的。
知识共享,即外星人与你都知道对方知道……,是一种理解博弈(我们把他们之间的因果作用关系称为博弈)的有力工具。如果参与人知道真实状态含于E中——也就是如果
显然,如果,E就是在状态ω下的知识共享,或外星人与你共同分享同一知识——你与外星人都知道——当外星人预测你将two-box时他就不放$100万于不透明盒子中。这种知识共享的概念带来一个推论:[6]假定在状态ω时的知识共享是成立的话,参与人i与j对共享知识E的后验概率是相同的,但是,即使i,j的后验概率一样,i,j也不必有相同的信息或他们将共享知识。这里,我们必须指出一个重要的结论:假定你们之间互相信任的话,比如你与外星人之间彼此相互信任的话,那么由于状态空间是有限的,这个博弈过程在有限时间内收敛,[7]因而你们博弈的最后结局是:“我们不可能永远不一致”。考虑到外星人有意偏向one-box选择(因为它把$100万只置于不透明盒于中),状态空间one-box与two-box是有限的,那么依照上述重要结论,我们马上得到有关你们博弈的重要结果:最终你们会达到一致,这意味着你最终偏向one-box策略。
这个结论与因果决策理论CDT的推论一致,但必须指出,我们的推导过程所依赖的原则是不一样的。我们的结论考虑到参与者之间的认知相互作用,利用了知识共享和博弈的概念,这与Burgess和Eells的方案不一样,他们是利用了因果性与条件期望收益值概念。最致命的是,他们不考虑外星人与你之间的博弈,事实上,博弈过程是存在的。由于忽略了可能的知识分享过程,使得Burgess在分析这个过程时所依赖的原则一旦在不充分信息或缺乏共享知识情况下是难以成立的。因此可以说,Burgess的分析只是碰巧得到了与应用博弈理论相同的知识,但其方法与原则并不一定是有效的。
四、结论
Newcomb悖论实际上并不是完全意义上的悖论,这一点我们在对Newcomb悖论所涉及的原则中已指出了这一点。但是,这并不等于说分析Newcomb悖论没有多大的理论意义与实际意义,因为仔细的分析表明,Newcomb悖论所涉及的问题境况紧密地与知识共享和博弈联系在一起。如果不考虑到知识共享的可能性,其他类型的分析如Burgess与Eells的分析都失之准确。我们对Newcomb悖论的分析如果局限于几个传统决策的相关原则之中,那么对Newcomb悖论的解决方案不可能抓住悖论所对应的问题境况特征,虽然结论可能正确,但方案本身并不普遍有效。这就是我们批评Burgess与E.Eells等人方案的根本原因所在。知识共享与博弈的应用是解决该悖论的关键所在。当然,这些概念的应用,可能会引起认识论与哲学上的讨论。这方面的工作有待于进一步研究深化。
认知变化的过程就是知识共享与博弈的过程,这一点是被许多论者所忽视的。Burgess指出了参与人你的认知变化,但这只是单方面的,没有涉及到外星人认知状态的变化。也许有人认为,外星人的认知能力超强,但毕竟它还是会出错的,这就给它与你之间的知识博弈提供了空间。一旦你们进行了博弈,那么,有关博弈的理论成果就可以应用于Newcomb悖论的问题境况分析中了。