通用智能框架下的纽康姆难题论文

通用智能框架下的纽康姆难题

李熙

摘 要 :面对纽康姆难题,主流的决策理论出现了分歧,采用期望效用最大化原则和占优原则分别会导向两种不同的选择,这对决策理论构成了一个挑战。通过合适的概率计算,占优原则可以看作一种极端的期望效用最大化原则,所以决策理论的基础——追求效用最大化并不与占优原则冲突,问题是——如何计算期望效用。纽康姆难题背后的关键也是如何通过概率把握因果,其核心是归纳预测问题。通用人工智能领域的通用归纳、通用智能模型刻画的恰恰是因果预测问题,本文认为,为了解决纽康姆难题发展各种新奇的决策理论是不必要的,而借助通用智能模型AIXI探讨纽康姆难题中涉及到的因果性问题。

关键词: 纽康姆难题;证据决策论;因果决策论;通用归纳

对于一个理性的主体来说,如果已知每个行为可能带来的后果,他会选择能够带来最大期望效用的行为。但如何精确地刻画并计算期望效用却是一个难题,尤其在涉及不确定情境下的决策时,对于如何用概率刻画可能后果的不确定性,并不是一件平凡的事。证据决策论与因果决策论是两种比较主流的决策理论,在分析纽康姆难题时,通常认为,证据决策论采用期望效用最大化进行决策,因果决策论采用“占优原则”进行决策,事实上,通过合适的概率计算,“占优原则”可以看作特殊的期望效用最大化,也就是说,两种决策论都通过期望效用最大化进行决策,但二者对于“期望”的计算方式不一样。比如在纽康姆难题中,证据决策论([4])与因果决策论([5])导出了两种完全不同的行为方式。

纽康姆难题最初由物理学家纽康姆提出、由哲学家诺齐克(R.Nozick)发表([8]),它指如下这种谜题:

从上述列表和实例介绍中不难发现,不仅CEN/TC 287和相关国家标准化组织修改采用或等同采用了ISO、OGC标准,NATO和DGIWG这2个军方标准组织也奉行“采用国际标准”原则,尤其是DGIWG,明确规定不仅采用ISO的基础地理空间信息标准,还在没有适用的ISO标准时,采用OGC等国际标准组织制定的相关标准,将这些国际标准转化为DGIWG标准后作为DGIWG标准予以公开。

一个女巫向你展示了两个箱子a 和x ,其中a 透明x 不透明。透明箱子a 中有很少的钱(L 元),不透明箱子x 中可能有很多钱(B 元,B≫L ),也可能什么都没有,你可以两个箱子都拿走也可以只拿不透明的箱子x 。

女巫声称她可以提前预测你的行为,如果她预测到你会两个箱子都拿,她就让x 空着,如果她预测到你只拿x ,她就会放很多钱(B 元)在里面。你们已经玩了好多回合了,女巫每次都猜对。下一次你该怎么选?1 在原始的纽康姆难题([8])设定中,你看到女巫跟很多人玩,她几乎从来没输过。现在轮到你了,你该如何选择?本文对此做了微小的改动。
之所以称其为纽康姆“难题”,是因为,根据主流的决策理论,比如证据决策理论,你最好只拿一个箱子;而根据因果决策理论,两个箱子都拿是一种“占优”策略。这在一定程度上非常反直观,所以虽然不构成一个悖论,却是一个难题。虽然本文对游戏设定略有修改,但这种反直观的情形依然存在。关于纽康姆难题更细致的哲学分析可以参看张建军([15])。

二、神矮LS—1临红1号 7月上中旬成熟,比乔化栽培早熟20天,该品种果形端正,果形指数0.91以上,着色全面鲜红,果面光洁无锈,红白相间,外观极美,平均单果重258 g,是早熟品种中罕见的大型果。果肉淡黄色,果皮中厚,抗碰压,汁液多,甜酸适口,货架期长,无采前落果和裂果现象,2016年销售价4.5元/kg。

一般认为,证据决策论采用经典的条件概率,因果决策论采用反事实条件概率,其他形形色色的决策理论也基本是在设计各种“条件概率”。采用“消解”方案的人一般认为,经典的条件概率理论已足够,对游戏的不同解读方式对应不同的条件概率计算方式。本文也认为,发展一套专门的反事实条件概率或其他形式的条件概率的理论是不必要的,本文将从胡特尔(M.Hutter)的通用智能模型AIXI2 关于AIXI的详细知识请参考[2]和[6],其中涉及到的关于柯尔莫哥洛夫复杂性的知识请参考[7],博弈论的知识请参考[9]。 入手,认为在纽康姆难题中,关键在于如何用概率论刻画未知的“因果性”,从算法概率的角度看,关键在于,环境类/假设空间如何设定。

随着新媒体知识信息的全程化、开放化、网络化的发展,读者获取信息的渠道也更加丰富,获取的信息数量也急剧增多;面对各种无序信息资源,读者变得无所适从,无法快捷方便的获取到自己所需的信息资源。在这种情况下,如何辨识信息,帮助读者高效准确地为读者提供所需信息,同时基于数据信息提供多种增值服务,成为各级信息服务机构的重要研究目标,而这些也正是信息服务的本质所在。

马铃薯病毒病传播途径主要是靠蚜虫传播,因此防病同时要治虫防。防病毒病可用20%病毒A可湿性粉剂500倍液;32%核苷溴吗啉胍30-50ml兑水30公斤,病菌速灭13ml/亩,1.5%植病灵K号乳剂1000倍液、15%病毒必克可湿性粉剂500一700倍液等杀菌农药。防治蚜虫可用氧化乐果和吡虫啉类杀虫剂。改进栽培措施。包括留种远离茄科菜地;避免过施氮肥增施磷钾肥。

1 通用智能模型AIXI简介

记号. 字母表X 上的有穷序列记为X ,无穷序列记为X ,记X #:=X∪X ,空序列记为ϵ 。有穷序列x∈X 的长度记为|x| ,Xt :={x∈X :|x| =t} ,X≤t :=长度为n 的序列x 1x 2...xn 简记为x 1:n ,类似的,xt :n :=xtxt +1...xn− 1xn ,x<n :=x 1...xn− 1,ax 1:n :=a 1x 1a 2x 2...anxn ,ax<j :=a 1x 1a 2x 2...aj− 1xj− 1,两个序列x 和y 的连接为xy 。x∗ 表示序列x 后连接任意长的序列。x 是y 的前缀定义为xy⇔∃z (y =xz ),真前缀x≺y⇔xy∧x y 。如果没有非空序列x,y∈A 使得xy∈A ,则称集合A⊂X 为无前缀集。

字母表X 上的全序< 可以诱导出有穷字符串X 上的准字典序,

艾佛森括号

后验信念用更新。当环境未知时,Hutter([2])的通用智能主体AIXI会采用以所罗门诺夫(Solomonoff,[11,12])先验w (ν ):=2−K (ν )为先验信念的贝叶斯混合追逐期望效用 最大化。因为

秋菠菜出真叶后浇泼1次清粪水;2片真叶后,结合间苗,除草,追肥先淡后浓,前期多施腐熟粪肥;生长盛期追肥2~3次,每亩每次尿素5~10千克。冬菠菜播后土壤保持湿润。3~4片真叶时,适当控水以利越冬。2~3片真叶时,苗距3~4厘米。根据苗情和天气追施水肥,以腐熟人粪尿为主。霜冻和冰雪天气应覆盖塑膜和遮阳网保温,可小拱棚覆盖。开春后,选晴天追施腐熟淡粪水、防早抽薹。

其中u :(A×X )→ [0, 1]是效用函数,γ 是贴现函数,满足为贴现归一化因子。

在强化学习框架中,主体与环境不断交互,在第k 个回合,主体向环境采取动作ak∈A ,环境反馈给主体一个观察xk∈X ,主体感知到xk 的同时体验到效用u (ax 1:k ),然后进入第k +1个回合,如此循环往复。形成的交互历史是(A×X ) 的一个元素。一个策略是一个函数π :(A×X )→ ∆(A ),它映射一个历史ax<t 到动作a 上的概率分布π (a|ax<t ),环境是函数ν :(A×X )×A→ ∆(X ),它映射一个历史ax<t 和一个动作at 到观察x 上的概率分布ν (x|ax<tat )。一个环境也可以视为一系列条件测度的序列,对于任意动作序列a<t ,反馈回而且,环境是时序的,未来的动作不会影响过去的观察。环境与主体共同构成一个交互历史上的概率分布:

一般默认用µ 作为真实环境,如果真实环境µ 已知,那么一个理性的主体会采取某个能使其获得最大的期望效用的“最优”策略

按“自由意志”的分解方式,

记∆(X )为X 上的概率分布的集合。

假设M :={ν 12...} 是下半可计算的环境集。其中对每个环境ν∈M ,主体都有一个相信其为真实环境的先验信念w (ν ),即w∈ ∆(M ),那么对所有可能环境的贝叶斯混合就是

柯尔莫哥洛夫复杂性函数K (x|ϵ ),其中U 是通用前缀图灵机。对于那些不是字符串的对象o ,定义K (o ):=K (o ),其中o∈X 是对o 的某种标准编码。

所以,可以不区分确定性环境还是不确定性环境,而追求最大化 。AIXI可以看作在各种可能的环境中以算法概率追求期望效用最大化的主体。

2 AIXI与纽康姆难题

纽康姆难题的原始版本中,主体对于女巫胜率的估计是题目直接给定或基于频率的。虽然纽康姆难题涉及因果性的话题,但对于概率本身的理论基础却不做讨论。事实上,纽康姆难题的关键是因果性,或主体做决策时眼中的主观因果性,对这个因果性的刻画恰恰应该被囊括在主体对于女巫胜率的主观信念之中,体现为某种主观概率。而在AIXI的框架中,AIXI是以所罗门诺夫先验概率作为评估各种可能性的初始信念,用贝叶斯混合或与其等价的算法概率为基础进行决策,因果性体现为可计算函数或可计算概率分布。下面对比证据决策论和因果决策论分析AIXI在纽康姆难题上的表现。

根据证据决策论,行为a 带来的期望效用为

因为无法判断a (选择箱子)和x (放钱)的先后顺序,所以根据时间顺序谁先谁后有两种分解方式,一种我们称它为“证据/因果”的分解方式,另一种称它为“自由意志”的分解方式。3 根据我们的分解方式,一种情况下可以讨论女巫的行为多大程度上影响主体选择箱子的动作,这跟主体的自由意志相关,所以我们称这种分解方式为“自由意志”分解。另一种情况下可以讨论选择箱子的动作是否可能影响女巫的行为,而这种情况下又可以分别讨论证据决策者和因果决策者的不同选择,所以我们称这种分解方式为“证据/因果”分解。

但仅有β=1的条件下,才能使公式(44)结果为零.若β=1,二阶导数的判别式也等于零.故无法确定是否存在β的最优解.

二者的差别仅在于,证据决策论采用条件概率P [x|a ],而因果决策论采用反事实条件概率P [a>x ]。在纽康姆难题中,条件概率与反事实条件概率并不相等。但不管条件概率还是反事实条件概率,背后起作用的都是因果性。

(3)在将电缆支架与桥架进行接地处理时,首先需要对电缆的终端进行处理,并同时固定好电缆,然后选择能够弯曲半径的电缆设备进行施工。为保障电缆施工的安全性,在进行电缆施工时,需要树立相应的警示牌,以使得施工工作能够正常进行开展。

这个难题涉及到因果决定论与自由意志这一宏大哲学主题,所以倍受哲学家关注。除了因果决策论和证据决策论,为了解决这个难题,甚至产生了几个专门的决策理论。比如连贯决策论([1]),无时间决策论([14]),无更新决策论([10]),量子决策论([3])等等。从结果来看,这些决策理论要么支持选择一个箱子,要么支持选择两个箱子。但还有另外一种消解难题的方式,那就是彻底否定这个游戏本身的合理性,认为这不是一个严格定义的博弈框架,不同的解读可以导出不同的博弈,比如[13]。

如果你相信女巫的说辞,那么你就会相信女巫是通过某种你不知道的策略进行预测然后据此决定放不放钱

根据AIXI的框架,你的博弈环境可以看作

你在博弈环境P 中的期望效用为

工程造价最终结论的得出是一个关于金钱的数字,在这个经济高度发达的时代,经济利益对人们的影响虽然不是完全但也是巨大的。因此,工程造价的计算、估计所依据的信息数据的范围一定要是最为广泛和全面的,要确保将所有可能的影响因素都考虑到位。在大数据之下的计算机技术和系统对于数据信息的所有可能性的计算已经达到目前最高水准。因此,对于工程造价而言这无疑是一个福音。计算的越多,工程造价的层次和完整性就越发突出。

在纽康姆博弈中,主体把每一局都当做最后一局来玩,不考虑未来的情况,所以虽然不考虑未来可能继续的博弈,但计算概率时,整个的过去历史在起作用,主体所能依赖的也只有过去历史。

而根据因果决策论,行为a 带来的期望效用为

自动装配螺丝机如图1所示,工作台是由1台步进电机驱动可沿着X轴运动,电动螺丝刀安装在由另1台步进电机驱动可沿着Y轴运动,通过2台步进电机的配合可实现X轴及Y轴一定行程内的自由定位,从而将待安装螺丝的螺孔移动到电动螺丝刀的正下方。

其中策略µ 在环境µ 中的期望效用为,

(78)指叶苔 Lepidozia reptans(L.)Dumort.刘胜祥等(1999);熊源新等(2006);杨志平(2006);余夏君等(2018)

自认为拥有自由意志的人会认为自己的行为完全独立于女巫的行为P [at|h<txt ]=π (at|h<t ),自己的行为由自己决定π (at|h<t ),所以,根据有,

所以

也就是说,不管女巫放没放钱,她的行为的结果都是已经确定无法更改的了,所以自己两个箱子都拿可以多赚L ,是一种“占优”策略。

而相信自己不完全拥有自由意志、自己的行为部分受女巫的控制的人会认为这时,选择一个箱子还是两个箱子就取决于女巫的预测行为和自己拥有多少自由意志。比如,假如你认为自己没有任何自由意志,这意味着你的行为将完全被女巫决定那么,

夏国忠和他士兵们迎着弹雨,踏着同伴的尸体和血迹,一路冲杀,用无数条生命开路,终于杀上了山顶。鬼子缩进地堡和雕楼,继续负隅顽抗。夏国忠带着战士们,开始一个地堡一个地堡扫除残敌。他们把成捆的手榴弹扔进敌人的暗堡,用炸药包炸毁敌人的雕楼。天亮时,山顶上的枪声和爆炸声才渐渐稀疏下来。

所以,只要你相信“女巫可能会以微小的概率预测你拿不透明的箱子”,你就应该只拿不透明的箱子,

对于AIXI来说,因为女巫的策略未知,所以要用算法概率

替换P 进行估测,其中q ⇝h 指程序q 输出历史h 。虽然放钱xt 发生在选择箱子at 之前,但AIXI在做出选择之前完全看不到箱子里是否放了钱xt ,所以他只会根据他已有的经验h<t 做决策。在“类型”确定的情况下AIXI的博弈可看作可观察行为的完美信息博弈,所以AIXI是一个完全的自由意志主义者,他不确定的是——自己的行为是否会影响女巫的预测,所以他根本不会按照“自由意志”的方式进行分解,而会选择按照“证据/因果”的方式建模。因此,对于AIXI来说,首先,是否要考虑女巫的说辞、还是只考虑她的行为,如果考虑说辞该如何建立模型,如果完全相信女巫,相信放钱xt 确实发生在选择箱子at 之前,就会按照“自由意志”的方式分解,又因为存在一些没有自由意志的可能世界,所以AIXI会是一个不完全的自由意志主义者,也有可能会拿一个箱子。

按照“证据/ 因果”的分解方式,可区分证据决策与因果决策两种决策方式,

对于因果决策者来说,他相信自己的选择行为发生在女巫的预测行为之后,所以对女巫的预测没有影响,所以,

所以,

在工业和信息化部、中国工业经济联合会最近联合通告的第三批制造业单项冠军企业和单项冠军产品名单上,上海市化工行业协会理事单位,浙江大华技术股份有限公司排名单项冠军示范企业第18位;副会长单位,上海百金化工集团生产的名牌产品“二硫化碳”排名单项冠军产品第10位。

所以,虽然对放钱x 和选择箱子a 的“时序”的理解与自由意志的情形完全相反,但结果跟完全相信自由意志的情况一样,都认为拿两个箱子是“占优”策略,可以多赚L ,必须两个箱子都拿,

而对于证据决策者来说,他不确信自己的行为是否影响女巫的预测,所以会认为,

所以,是否只拿一个箱子取决于二者相差多少,

她不说话,拿眼瞅我。我被她看得不好意思,说:“我……我走了。”起身要走,被她一把拽住,她说:“都来了,就别走了。”

因此,因果决策与证据决策的区别就在于对条件概率P [x|ha ]的赋予方式不同;而对于AIXI来说,他会用算法概率M 来逼近P (xt|h<tat )。这意味着AIXI通过综合分析女巫所有可能的(可计算的)预测策略来猜测P 。也就是说,通过虚拟所有可能世界的运行来逼近现实世界。所以,如果没有充分的证据,AIXI不会贸然相信所以,AIXI是一个证据决策者。但是,AIXI该如何对待女巫的说辞?如果把女巫的话作为先验信息考虑进来?由于AIXI的环境类/假设空间(M )不包含未来影响过去的情况,所以AIXI不相信“时空穿梭”。这意味着,AIXI对于诸如“女巫看到我的决策然后穿越回过去再决定放不放钱”之类的假设的信念度为0。然而,虽然女巫声称选择行为发生在她的预测和放钱行为之后,但是,看到x 的结果是在自己的选择做出之后,所以,AIXI可以怀疑存在某些假设,根据这些假设,选择行为仍然可以影响女巫的决策(比如,假设“女巫可以扫描你大脑神经元的运作”,而且假设“女巫可以扫描你大脑神经元的运作”这个假设本身是可计算的),那么,这会使得因此,AIXI有很大的可能会选择一个箱子。

3 小结与讨论

纽康姆难题是一个有哲学韵味的决策难题。面对纽康姆难题,主流的决策理论出现了分歧,采用期望效用最大化原则和占优原则分别会导向两种不同的选择。证据决策论者会拿一个箱子,因果决策论者会拿两个箱子。拿一个箱子的一般是宿命决定论者,拿两个箱子的一般是自由意志论者。一般来说,证据决策论采用经典的条件概率,因果决策论采用反事实条件概率。本文认为,解决纽康姆难题的关键在于,如何用概率方法刻画其中隐藏的因果性。如果用经典概率论可以刻画出其中的因果性,那么发展一套专门的反事实条件概率或其他形式的条件概率的理论是不必要的。本文通过对联合概率进行的“证据/因果”和“自由意志”两种不同的分解方式,说明不同的分解方式组合,会产生不同的期望效用。占优原则可以看作一种极端的期望效用最大化原则。所以,决策理论的基础——追求效用最大化并不与占优原则冲突。问题是——如何计算期望效用。本文主要从胡特尔的通用智能模型AIXI出发,从AIXI与女巫博弈的视角分析纽康姆悖论。AIXI采用算法概率计算期望效用,因为算法概率可以用来处理序列预测问题,而序列预测在一定程度上是对因果性的反映。而从算法概率的角度看,计算概率的关键在于,环境类/假设空间如何设定。借助通用智能模型AIXI,我们可以清楚地看出,基于什么样的环境类/假设空间,主体会采取什么样的选择。当环境类/假设空间足够大到包含类似于“自己的行为可能会影响女巫的决策”的可能假设时,主体都会倾向于选择一个箱子。

另外,如果AIXI的源代码和内存可以被修改,而且它自己也知道可以被修改(即,假设空间中包含自己的源代码和内存可以被修改的环境),那么,这就类似于主体不具有完全的自由意志的情形,也会倾向于只选择一个箱子。

如果AIXI意识到自己是完全内嵌于真实环境之中的,自己对真实环境的理解只是一种虚拟建模,主体完全是环境的一部分,环境可以修改主体的任何部分,环境执行主体的代码,主体所能做的顶多是在模拟环境的时候能够同时模拟主体在模拟环境中的表现。这种完全内嵌于环境的主体跟内存和源代码可以被修改的主体类似,都会考虑到自己不完全具有自由意志,都可能倾向于选择一个箱子。

虽然AIXI的“算法概率”对于估测“女巫”的预测行为有着重要作用,但是,在AIXI的框架中,尽管信息是不完全的,但时序关系是严格确定的,所以“主体”与“环境”的博弈可以看作“可观察行为的贝叶斯扩展博弈”。但在纽康姆难题中,对于“女巫”的预测行为“主体”无法观察到,所以无法确定自己的“选择”行为是否会影响“女巫”的“预测”、或“女巫”的“预测”是否会影响自己的“选择”。从AIXI的角度看,这就要慎重对待“女巫”给出的先验信息。因果决策者相当于把“女巫”的说辞理解为“自己的行为与女巫的行为完全独立”,所以,凡是模型类中自己的行为与女巫的行为不独立的所有假设都提前剔除了。而证据决策者只重视博弈的交互过程本身,不会把“女巫”的说辞作为先验信息从而据此提前对假设空间做那么大的删减。因此,二者的差别源于对“游戏设定”本身的理解不同。如何“合理地”对待游戏设定本身的不确定性已经超出了算法概率所能处理的不确定性的范畴,因为算法概率仅仅以“简单性”为先验,而不会考虑“游戏设定”给出的先验信息。

另外,一个有意思的问题是,假如跟你博弈的不是女巫而是AIXI,而且你知道跟你博弈的是AIXI,并且你知道自己是某个可计算的策略,那么,你会选一个箱子还是两个箱子?因为AIXI能够逼近任何可计算的策略,而且逼近的误差大小与可计算策略的柯尔莫哥洛夫复杂度相当,根据胡特尔([2]),

这意味着,AIXI可以近似正确地预测你的选择。所以,这种情况下最好永远只拿一个箱子。

参考文献

[1]W.Eckhardt,2012,Paradoxes in Probability Theory ,Dordrecht:Springer.

[2]M.Hutter,2005,Universal Artificial Intelligence:Sequential Decisions Based on Algorithmic Probability ,Berlin,Heidelberg:Springer.

[3]N.Ishibashi-Ohmura and T.Takahashi,2015,“Quantum decision-making in Newcomb’s problem:Effect of reward size”,NeuroQuantology ,13(3):293-298.

[4]R.C.Jeffrey,1990,The Logic of Decision ,Chicago,USA:University of Chicago Press.

[5]J.M.Joyce,1999,The Foundations of Causal Decision Theory ,Cambridge,United Kingdom:Cambridge University Press.

[6]S.Legg,2008,Machine Super Intelligence ,PhD dissertation,University of Lugano.

[7]L.Ming and P.Vitányi,2008,An Introduction to Kolmogorov Complexity and Its Applications ,New York,USA:Springer.

[8]R.Nozick,1969,“Newcomb’s problem and two principles of choice”,Essays in Honor of Carl G.Hempel ,pp.114-146,Dordrecht:Springer.

[9]Y.Shoham and K.Leyton-Brown,2009,Multiagent Systems:Algorithmic,Game-theoretic,and Logical Foundations ,Cambridge,United Kingdom:Cambridge University Press.

[10]N.Soares and B.Fallenstein,2015,“Toward idealized decision theory”,arXiv:1507.01986,preprint.

[11]R.Solomonoff,1978,“Complexity-based induction systems:Comparisons and convergence theorems”,IEEE Transactions on Information Theory ,24(4):422-432.

[12]R.J.Solomonoff,1964,“A formal theory of inductive inference.Part I and Part II”,Information and control ,7(1,2):1-22,224-254.

[13]D.H.Wolpert and G.Benford,2013,“The lesson of Newcomb’s paradox”,Synthese ,190(9):1637-1646.

[14]E.Yudkowsky,2010,“Timeless decision theory”,https://intelligence.org/files/TDT.pdf.

[15]张建军,逻辑悖论研究引论(修订本),2014年,北京:人民出版社。

Newcomb’s Problem under the Frame of Universal Intelligence

Xi Li

Abstract Newcomb’s problem challenges the classical decision theory because the expected utility principle and dominance principle appear to provide conflicting recommendations for what you should choose in the Newcomb’s game.Since the dominance principle can be taken as a special case of the expected utility principle,the foundation of the decision theory—the utility maximization model is safe and sound,the problem is—how to calculate the expected utility properly.The key behind Newcomb’s problem is how to grasp the causation with(counterfactual)conditional probability.So the real problem behind the Newcomb’s problem is the problem of induction and prediction.The famous universal induction/universal intelligence model in artificial general intelligence precisely characterises casuality with algorithmic prediction.Maybe it is not necessary to develop various novel decision theories to cope with Newcomb’s problem.We will explore the causality problem involved in Newcomb’s problem by means of the universal intelligent model AIXI.

中图分类号: B81

文献标识码: A

文章编号: 1674-3202(2019)-04-0052-12

收稿日期: 2017-05-18

作者信息: 李熙 中南大学哲学系 xieshenlixi@163.com

基金项目: 国家社科基金项目“通用人工智能的哲学基础研究”(17CZX020)。

致 谢: 感谢评审专家提出的修改意见和建议,使得本文的可读性得到了提高。

(责任编辑:罗心澄)

Xi Li Department of Philosophy,Central South University xieshenlixi@163.com

标签:;  ;  ;  ;  ;  

通用智能框架下的纽康姆难题论文
下载Doc文档

猜你喜欢