人工智能“瓶颈”突破理论_人工智能论文

人工智能“瓶颈”突破理论_人工智能论文

人工智能“瓶颈”的突现论“突破”,本文主要内容关键词为:人工智能论文,瓶颈论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

中图分类号:B016.98 文献标识码:A 文章编号:1000-5099(2013)05-0009-05

近年来,尽管人工智能在探讨和深化人类智能方面取得了巨大的成果,但是悲观派认为迄今为止的先进计算机也没有显出任何人类智能,“在近四十年光景里,AI领域并没有什么实质性的突破”。[1]塞尔把这种情景归结为人工智能的瓶颈问题。按照他在“中文屋论证”中所说,计算机程序不能产生意向性,即句法机不是语义机。然而事实上,人工智能科学家并没有停止前进的步伐,类似于人类智能应用技术不断渗透到人们生活领域;纽威尔和西蒙认为机器智能有意向性,它能加工符号的系统具有因果性,能够解释表达,并在已知该表达式的情况下执行解释过程。部分AI专家通过建构自然语言加工系统,试图让机器的符号加工也具有语义性,例如20世纪60年代用关键词匹配技术研制出了一些有一定语义能力的自然语言理解系统(SIR、STUDENT等),70年代用句法语义分析技术建立了像LUNAR、SHRDLU、MARGIE等理解系统。这些事实和理论表明,所谓的人工智能瓶颈可能并不是人工智能的末日,哲学家和科学家要重视传统人工智能对人类智能的思考,并寻找新的理论支撑。本文认为,塞尔的“中文屋论证”是有缺陷的,他忽略了突现属性的可能性,尽管认知属性不能还原到计算程序,但是并不意味着作为一个整体的系统没有认知属性,认知属性是构成计算系统的个体组元的相互作用的结果。

一、中文屋论证的逻辑缺陷

一般认为,塞尔的中文屋论证是对传统人工智能发展的致命打击。在《心灵、大脑与程序》(1980)一文中,塞尔针对人工智能的理论预设就是图灵测试即心灵之于程序,正如计算机的软件之于硬件,认知就是计算。他提出:“从严格意义上讲,编程计算机所理解的,正是汽车和加法机所理解的,就是说,恰恰什么都不理解。计算机的理解并不只是局部的或不完全的,而是零。”[2]99他进行了一个思想试验:假设不会中文的塞尔被关进有两个窗口和一部中英文对照说明书的房子里。从一个窗口递进写有中文的问题的纸条,塞尔根据说明书与中文问题进行匹配,并将答案以中文的形式从另一个窗口送出。塞尔认为房子里的内部设置就是一个计算机硬件,而他就是一台计算机。根据程序加工所接受的问题,输出对问题的答案,塞尔就通过了图灵测试,然而他并不理解问题与答案。同样,一个计算机只是根据所设计的形式规则进行操作,而不能意识到它所操作的符号的内容。由此,塞尔得出结论,计算程序并不是心灵,因为前者是形式的或句法的,而后者具有语言内容。语义学并不内存于句法学,而句法学对于语义学是不充分的。总之,心理具有语义内容,即心理学家布伦塔诺所说的意向性。意向性是心理的重要特征,而计算机没有意向性,因而无法思维。

那么什么条件下才能具有意向性呢?如果说中文屋论证是一个否定性的论断,那么在后来塞尔论述心理意向性时又进一步提出了肯定性的陈述,即意向性是一种生物性因果能力,它不能为计算机拥有,而只能为大脑的生化物质所拥有。“如果不把意向性赋予这些动物,我们就不能理解它们的行为,同时,我们都知道禽兽是由和我们类似的材料构成的。”[2]109

那么塞尔这两种论断是否一致呢?博登认为,塞尔的意向性论述不过是一个承诺性的注释,“从最坏处讲,只是在兜售神秘主义而已”。[3]因为,按照塞尔的论证,没有系统是有意向性,系统内部的塞尔只是专职负责接受外在的输入并按照规则加工然后输出状态,但这并不理解内容。不过,塞尔又认为能够具有意向性的事物只有大脑神经元,大脑中有一个东西能够承担意向性的职责。它之所以有意向性是因为“它是模拟懂中文大脑神经突触的形式结构,并且它给出中文作为输出”,正如“每一段水流的连接都对应于懂中文的大脑中一个突触,整个系统装配起来,使得在全部应有的激发产生后,也就是在所有正确的开关都打开后,中文答案就会在管理系统输出端冒出来”[2]106。这种大脑中的东西,按照查默斯的说法,类似一种笛卡尔式的妖。确切地说,这种妖之所以具有因果性是因为它有某种特定的物理化学因果力。

这种因果力只能由大脑材料恰当地表现出来。那么什么是“恰当”的因果力呢?为什么只有大脑神经元而其它材料就不能产生这种因果力呢?塞尔说:“这是因为我是某种有机体,具有某种生物结构(即化学和物理结构),在一定条件下,这个结构能够以因果的方式产生感知、行动、理解、学习以及其他意向性现象。……这是一个经验主义的问题,与光合作用是否能够由化学性质不同于叶绿素的某种物质完成的问题,有其相似之外。”[2]111既然,大脑神经元能够以类似由化学性质产生光合作用一样产生意向性,那么神经因果关系就是可以在神经元层次上实现,这等于说当意向性出现时,从我们大脑中物理属性中抽象出某种因果属性。这难道不是传统人工智能强调的认知或心灵就是计算的吗?

虽然塞尔一再强调信息加工的功能性并不是意向属性的必要条件,但是在中文屋论证中,我们面对着一些计算系统的奇怪操作,它具有超出单纯信息加工属性之外的一定的物理和化学属性。那么塞尔如何肯定就不存在意向性呢?如果按照塞尔所说的这是一个经验问题,显然石头、飓风、水管没有意向性的论断也不能否认逻辑上没有意向性的可能。当塞尔说在中文屋中的塞尔没有意向性,因为他是在做符号操作,而在大脑中的妖具有生物化学本质上的因果操作,因而具有了意向性。然而,假如塞尔承认大脑中的妖会产生意向性,甚至他本身没有也可以,那么可能中文屋中的塞尔也会产生意向性,尽管他本人没有意向性。塞尔显然否认后者的可能,因而塞尔的两个结论是不一致的。

二、逻辑缺陷的原因分析

造成塞尔两个论断不一致的原因体现在他对系统论置疑的回复中。塞尔说:“因为个体中不存在的东西,在系统中仍然不存在。如果个体未做出理解,就不存在系统中能够理解的方式,因为系统只是个体的一部分。”[2]99-100也就是说,系统只是个体的相加,个体没有的属性,作为整体的系统也没有这个属性。

我们认为,塞尔的中文屋论证源于两个错误的直觉知识:第一,无法想象高级复杂的功能可以在中文屋中实现;第二,只有碳基材料才能产生意向性,硅基材料不可能产生意向性。首先,对于第一种直觉知识,我们认为塞尔这种思想是一种缺乏想象性的表现,犯了“构成悖谬”(fallacy of composition)。所谓构成悖谬就是指部分不存在的属性不会在整体中存在的错误。这种错误一般被认为是还原论的看法,即所有高层的属性都是同一于低层的属性,并不存在不同于低层属性的高层属性。然而,为什么复杂的系统就不能具有部分所没有的属性呢?系统论告诉我们,一个系统具有它的部分所没有的属性,或者说整体大于部分之和。例如,我们说一个飞机不能在天空中飞翔,是因为它的材料不能飞翔,这显然是荒谬的。既然如此,塞尔就不能说一个系统没有意向性是因为它的部分没有意向性,作为一个整体的系统可能有意向性。一个整体系统具有不同于部分的属性恰恰证明突现现象的存在。突现现象的存在是塞尔这种“构成的悖谬”为悖谬的原因。尽管塞尔正确地指出了中文屋中的部分没有意向性,但是这些部分以正确的方式相互作用与关联是可能突现出意向性的。因此,塞尔在对系统论的反驳中是没有说服力的。恰恰相反,系统论并没有说一个大系统必然具有意向性,而只是说有些大系统可能具有意向性,塞尔忽略了突现性的存在。

其次,对于第二种直觉知识,塞尔犯了“碳基沙文主义”。塞尔嘲笑心理属性竟然会从那种材料如电线、金属片等中得出来,也很难想象在这些材料中会有心智出现。所以很难想象一个人和纸片结合会理解中文。按照塞尔承认的意向性只能由大脑材料的因果力产生出来,那么我们用其它无机材料代替大脑生化材料去实现这种因果力,为什么就不能产生心理属性呢?事实上,突现不但产生在人工构造的环境中,而且普遍存在于自然界人类社会群体中,像飞行的群鸟、森林大火、交通拥挤等,那么为什么认知、意向等心理现象不是能突现的呢?查默斯认为,看待这个事物的方式要澄清由塞尔中文屋描述所忽视的两点:第一,中文屋中的“纸片”是单纯的一堆形式符号。它们构成了一个具有因果结构的具体动力系统,这个因果结果直接对应于原初大脑的结构。我们关联符号操作的缓慢使得这一点并不明显,就像操作这样的符号的妖一样存在,然而它仍是纸片中的具体动力学,从而产生了意识的经验。第二,妖的角色完全是次要的。重要的因果动力学是那些发生在纸片中间,对应于原初情况下的神经元。妖仅只是作为一类因果设备,把意识经验归属于它只是层次的混乱。事实上,妖的意识经验完全与系统的功能无关。系统的主要方面就是它的动力学。查默斯认为塞尔的论证是以一种奇怪方式执行程序而盗走了我们的意向性,一旦我们认识到我们心灵中并没有什么妖存在,屋子里的因果动力学实际上反映出我们大脑中动力学的特征,那么假定这个系统会产生经验就没有什么不合理的。

塞尔认为在计算系统中根本不能发现认知属性,并推出认知属性不能还原到计算。我们认为在计算系统的构成部分没有发现认知属性,但并不意味着作为一个整体的计算系统没有认知属性。认知属性是从构成计算系统的个体部分之间相互作用中突现出来的。

三、语义突现的可能性

按照塞尔的观点,意向性或意义是一种高阶的属性,高阶的属性不能还原到低阶的属性。然而,这并不意味着二者没有关系。根据突现论的观点,高阶属性依赖于低阶属性并且独立于低阶属性。突现论反对二元论和活力论,即坚持在唯物主义框架内解释问题。它认为,世界可以分成不同的层次,每个层次都是下一阶层次的突现,一直到最低层次。下一阶层次按照复杂结构的增加而突现出高一阶的层次。在这一点上,突现论是反对神秘主义的,即它并不认为突现属性是一种认识上的新奇的、无法预测的现象,甚至可能是神秘的,相反它是承认依赖、随附于其它属性的。因而,真正的突现应当是一种本质上不同的、新奇的实在。认识上无法解释与预测并不存在着必然性,它可能今天无法做到,但并不意味着将来不可能做到。比如,在传统英国突现论者密尔那里,他就认为化学属性是突现的,事实上后来化学属性也被还原到物理属性。因此,意向性或语义的突现是一种本体上的突现,是一种本质上不同于计算系统的属性。

意向性或语义突现类似于近来复杂性科学研究中发现在各类复杂系统中都会出现的突现现象。比如生存游戏(the game of life)、联结主义网络以及生物、认知和社会现象。蒂莫西·奥康纳(Timothy O'Connor)对突现属性提供了全面的解释,认为它应当具备四个条件。假设某对象O具有突现属性P,那么:第一,P随附于O的构成部分的属性;第二,P不为O的任何部分所具有;第三,P不同于O的任何结构属性;第四,P对于牵涉到O的部分的行为模式有着直接的决定性影响(即下向因果作用)。[4]按照奥康纳的突现条件,属性的存在潜在地被一些复杂的对象所拥有,而不是被任何部分所拥有。在后来的复杂性科学研究中,突现属性往往被认为是复杂事物的结构属性。

沙弗尔(M.J.Shaffer)对塞尔中文屋论证作了进一步说明:“可以如下考虑这样的可能世界W1。世界W1类似我们的世界,因此我们可以假定在某种意义上除了在下述方面不同于我们世界之外大多是相同的。在这个世界里,我们可以假定存在着另外的突现属性,它是W1世界本质定律L所许可的一系列属性之一。让我们定义这个由L许可的突现属性是丰富句法系统所充分得出的,是一种语义属性(你也可以说或意向属性、意义、心理状态)。”[5]229-235注意塞尔在中文屋论证中预先排除了语义属性从句法属性突现的可能性,那么如果突现属性存在的话,即使中文屋的人并没有本土的中国人那样理解中文,但是假如他的句法系统充分丰富,保证突现语义属性产生,那么他是理解中文的,具有本土中国人所拥有的心理状态。在这个意义上,在可能世界中,句法是语义的充分条件,中文屋论证并没有必然证明句法不是语义的充分条件。事实上,经验证据表明,这样的属性是存在的。许多突现属性出现在日常世界的定律中,如流动性、混沌状态。因此没有特别的理由保证中文论证对于人工智能构成威胁。当然这个突现依赖于对概念的如何理解,以及它在语义上的运用。但是,“我认为,这并不是完全新的东西,自然它意味着人工智能和传统人工智能并不像它最初表现那样的不变的,然而十分清楚的是中文屋论证似乎并没有证明它所意图证明的那样”[5]229-235。

对于计算机来讲,我们应当区分句法加工和语义加工。我们知道,计算机存在着两个符号系统,一个是由计算机内在程序例示的内在符号,一个是由计算机作为整体而拥有的外在符号。句法加工就是对内在符号进行处理,把计算机作为一个文字处理器,主要对符号进行操作。计算机操作的符号又形成一个符号系统即程序,它是外在于计算机的,不同于内在符号系统。我们可以采用上面塞尔的思想实验。在最初的背景下,在屋里操作的人明显与汉字卡片是外在关系,他不理解汉字的意义。这个人把汉字作为一个字符串按照规则进行加工,就像通用图灵机中的读写头一样,而规则书则像通用图灵机的编码,作为一个整体的系统是一通用图灵机,它模仿机器。就我们所知,机器M是完全意向的,理解汉字的。

应当注意,在存储规则书中并没有什么真正的变化。事实上,作为一个物理的存在,一个人的存储内在于人的,这与是不是作为一个认知存在的人是内在没有关系。一个人贮存的符号系统是那些一个人加工或计算的东西,因此,它是外在人的。就像通用图灵机一样,一个人会模拟具有不同属性的不同系统。对这个系统来说,汉字确实是内在的,但可能机器有一个对中文对话的理解,就像外在符号系统所关于的内容。这样,我们看到中文屋论证并不能得出句法不能进行语义加工,相反这恰是该思想实验的详细特征。因为,被认为理解汉字符号的计算系统就是由一个这样的汉字符号构成的符号集合。换句话说,外在于系统的汉字符号被认为形成了内在符号,它同时引导了计算过程。现在,这样一个装置并不需要那种对于说中文的人来说有意义的符号,就如输入I被通常图灵机和个别图灵机有不同的看待,你不能认为像说中文的人那样对于汉字有意义,因而把计算系统对于汉字同样看才有意义。

在计算机中,理解来自于使用者对加工符号的解释,实际上中文屋里的人就是一个语言计算系统,因此,符号对那个人是有意义的。包含汉字的规则书与是否一个系统有恰当的理解是不同的,事实上,规则书包含英语符号。即使这样,我们仍不能说是否这个系统有恰当的理解,除非我们把一个系统看成一个整体。

四、对人工智能发展的启示:聪明来自于愚笨

按照塞尔中文屋论证,未来的人工智能不能像厄纽尔和西蒙那样基于物理符号系统假设,而只能向大脑学习,模拟大脑的神经元功能。事实上,目前人工智能发展并不是完全沿着所谓的联结主义或情景认知的理论前行的,因为按照这种理论,我们不但要了解人类智能产生的神经元复杂模式,而且要造出特别复杂的机器结构,这在实践上是一项艰巨的任务。恰恰相反,当代人工智能专家认为机器人并不是造得越来越复杂越聪明,他们只用非常简单的逻辑步骤以简短的连线却造出“聪明”的机器人。

麻省理工学院移动机器负责人罗德尼·布鲁克斯(Rodney Brooks)认为机器人并不是先会思考才能做事的,也就是说并不是先造出类人的大脑才能有意向行为。他们制造出一系列的异形机器人没有思考却无所不能,比如它们能偷桌子上的苏打罐,穿越曲折的房间。这样的机器人有没有意向呢?如果按照塞尔对待意向性或语义的策略,就是一种从上到下策略,即根据有意向心理属性的系统能力分解到有意向心理属性的部分或个体,寻找到承载具有这些属性的基质,那么这样的机器人是不可能有意向的。但是,按照从下到上的策略,从简单组件开始逐渐增加复杂性,直到产生高阶、复杂的心理属性则是可能的。布鲁克斯认为机器人可以采用包容体系结构,即依赖于一组独立的简单行为,行为的定义包括触发它们的条件和采取的动作。一个行为建立在其它行为之上,当两个行为发生冲突时,一个中央处理器决定哪个行为应当优先。机器人的总体行为是突现的,即先做简单的事,然后学会准确无误地做简单的事,在简单任务的成果之上添加新的活动层级,重复上面的步骤,无限类推。这种机器人就像市场经济活动一样,看似无法理解,然而整个活动却像受到一个头脑在指挥,显示出意向性。

丹尼特指出,从爬虫似的机器人可以看出,意识或意向性只是一种功能性的东西。它们是从一个由许许多多微妙的而无意识或意向性的神经环路构成的分布式的网络中突现出来的。布鲁克斯认为,每个单独的生物内都有非生物的东西,也许将来有一天,每一台单独的机器内含有一大群非机械的东西。他说,包容结构实质上是一种将机器人的传感器和执行器连接起来的并行分布式计算。这种结构要点是将复杂功能分解成小单元模块并以层级的形式组织起来,这种由上而下的控制的嵌套式层级会逐渐形成完整的结构单元,并且底层活动较快,上层的活动较慢。控制的分类聚合必须从底部开始渐进累加。这样的机器人告诉我们,人工智能并不需要配置更多的电脑部件,配置部件越多,也就越笨重,越不具有意向性;相反,不断增加组件的层级,意向性就突现出来。

因此,所谓人工智能难题只是一个人类优越性的体现,不存在着单独的会思维、有意识意向的中心,而只有无中心的、突现的智能。人工智能进展会打破人类智能所固有的常识心理观,即思维有一个中心,有一个实体。事实上,人类智能也只是人类在种群和个体在生长和发展过程中不断由无意识无意向的材料而突现出来的整体性特征。

标签:;  ;  ;  ;  ;  

人工智能“瓶颈”突破理论_人工智能论文
下载Doc文档

猜你喜欢