心的本质是计算吗?,本文主要内容关键词为:本质论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
大约半个世纪以前,计算机科学的先锋阿兰·特灵(Alan Turing)提出,一个用规则和事实来程序化的高速数字计算机可能表现出智力行为。这样就诞生了后来被称为人工智能的研究领域。人工智能的发展使得一些人试图将心的本质理解为计算,因此而引发了极为深刻的哲学讨论。本文将分析对心的计算模型的诸种反驳,并试图揭示心的非计算本质。
1 计算机能够通过特灵测验吗?
1950年,特灵发表了“计算机器与智力”一文,为人工智能的发展提供了一定的哲学基础。在这篇文章中,特灵提出了这样的问题:机器能思维吗?特灵在提出这一问题以后,马上就发现问题提得过于模糊,因此换了一种提法:“在什么情况下,一个机器会被错误地当作是一个真正的、思维着的人?”特灵为此设计了一个测验。在测验中,一个人与一个机器和另外的一个人作远距离对话,粗略地说,特灵的看法是,如果第一个人无法通过谈话区分人和机器的话,那么就可以说这个机器是在思维。这就是所谓的特灵测验(Turing Test)。
(1)老式人工智能的问题:心的活动不能被形式化
经过50年的努力,大多数人已经清楚地看到,人工智能这一意在产生一般智慧的企图是失败了。当然这种失败并不意味着这种人工智能是不可能的,而是表明如下的假设是错误的:人类是借助事实与规则来产生智力行为的。而赫奇兰德(John Haugeland)所说的老式人工智能(Good Old—Fashioned AL,GOFAI)遵循的正是这一错误假设。
人工智能的早期工作也就是所谓的老式人工智能是由奈威尔(Allen Newell)和西蒙(Herbert Simon)的工作开始的。50 年代后期,奈威尔和西蒙证明计算机可以做计算以外的事情。他们表明,计算机的位串能够用来代表任何事情,包括真实世界的特征;而且计算机的程序可以被用作关联这些特征的规则。这样一来,计算机内部表达的结构就可以表征其特征具有相同结构的外部世界的一个事态,而且计算机可以用作储存和操纵这种表征的物理符号系统。据此,奈威尔和西蒙宣称,计算机可以用来模拟智能的重要方面。心的信息加工模型就此诞生了。
奈威尔和西蒙的早期工作十分引人注目。到60年代后期,人工智能已经成为一个十分兴盛的研究领域。明斯基(Marvin Minskey)声称:“不消三十年, 创造‘人工智能’的问题就会基本解决。”[(Minskey,1967,p.2)]
但这一研究很快就陷入困境。麻烦最初表现在不能成功地编一个程序来理解孩子的故事。程序缺乏四岁孩子的常识,而谁也不知道如何使这些程序具有理解最简单的故事所必须的背景知识。唯理主义的旧梦是问题的核心所在。老式人工智能是建立在这样一个笛卡尔主义的观念之上的:理解即是适当的符号表征的形成和运用。对笛卡尔而言,这些表征是建造于初始观念或元素的复杂描述。康德又加上了重要的一条:所有的概念都是关联这些元素的规则。而弗雷格则表明,规则可以被形式化,这样无需直觉或解释,它们就可以被操纵。而由于计算机被看作是一种可能的形式化的符号加工系统,人工智能就将这种唯理主义的观点变成一个研究课题,寻求能够表达日常知识的初始观念和形式规则。常识理解必须被表征为由事实和关联及应用这些事实的规则所组成的巨大资料结构。可是,正象我们已经看到的那样,将所需要的常识理论系统化是一件极为困难的事,更不要说将它们形式化了。它绝非象明斯基所期望的那样,只是将千万个事实分类。
自1965年以来,H.德雷福斯(Hubert Dreyfus)就不断论证老式人工智能是注定要失败的。他对于心的符号信息加工模型的第一个攻击在于,我们的相关感觉是整体的并且要求参加到不断变化的活动中去,而符号表征则是原子的,与这样的活动完全分离。后来,人工智能研究者开始认识到,对H.德雷福斯所说的整体性情境的表征是人工智能的严重障碍。1979年,H.德雷福斯在他的“计算机不能做什么”一书的再版序言中指出,人工智能研究者所说的常识知识问题其实并不是一个如何表征知识的问题;相反,当我们与外部事物及人打交道的时候,日常常识背景理解使得我们能够经验到当前有关的东西,这是一种知道如何做的能力,而不仅仅是一种知识。问题正在于,这种知道如何做的能力,以及兴趣、感觉、动机和体能,所有这些构成一个人的东西都要作为知识、作为巨大复杂的信念系统来传递给计算机。在H.德雷福斯看来,将我们的未加表述的、前概念的背景理解表述为一种符号表征是没有什么希望的[(H.Dreyfus,1992)]。
但H.德雷福斯并没有证明背景知识中所包含的大量技能是不能用符号形式表征出来的。好在他的兄弟S.德雷福斯(Stuart Dreyfus)填补了这一空缺。S.德雷福斯在他关于技能获得的现象学描述中指出, 技能获得在开始通常是学习和应用一些与情境无关的规则。这是信息加工模型中的仅有的一点正确之处。但是,S.德雷福斯指出, 在技能发展的高级阶段,规则所起的作用越来越小,技能越来越表现为以具体情境为基础的直觉判断。在S.德雷福斯关于技能发展的描述中, 有一点在我看来十分重要,这就是,对于一个完全掌握某一技能的人来说,规则可以说是完全不起作用了,而不是在无意识中起作用。这就好比一个刚学走路的孩子,总要扶着墙壁或者其它的什么东西,一旦学会走路,他就不再扶着任何东西,不是扶着无形的墙壁或拐棍。因此,人工智能所假设的存在于无意识之中的规则根本就是子虚乌有[(Dreyfus & Dreyfus,1986)]。
(2)人工智能的新发展——联结主义
在《超越机器的心》发表以后,两个德雷福斯面临着这样的反驳:对于智力行为的产生,唯一的解释方式就是通过使用符号表征,所以使用符号表征肯定就是内部的因果机制。对于这个“舍此而无它”的辩驳,两个德雷福斯的回答是不能令人满意的,也就是说,他们不能令人满意地对智力行为的机制提出另外一种解释。
幸运的是,人工智能研究的发展在此时出现了新的转机,神经网络模型获得了迅猛的发展。这就是联结主义的崛起。这一新的研究途径是通过模拟大脑的学习能力而不是心对世界的符号表征能力来产生人工智能。这一研究方案的提出并不是出于哲学上的考虑,而是受了脑科学研究成果的启发。1949年,海伯(Donald Hebb)提出,如果神经A与神经B的同时兴奋能够加强一组神经元之间的联系, 那么这组神经元就能够学习(Hebb,1949)。罗森布莱特(Frank Rosenblatt )紧接着就在1950年提出,由于智力行为难以形式化,人工智能莫若设法产生一种自动的学习机制,使得神经网络能够学会区分模式并作出适当的反应。寻求符号表征的研究者是在寻找一种能够赋予计算机以解决问题或区别模式的能力的形式结构,而罗森布莱特则要在数字计算机上建立或模拟一个能够自己产生这种能力的物理装置。当符号人工智能停滞不前的时候,并行分布加工系统的研究获得了令人吃惊的成功。
神经网络模型的提出与发展很自然地为两个德雷福斯所面临的反驳作出了回答。如果不是符号和规则,那又是什么呢?神经网络模型表明,信息的储存根本是没有必要的;设计者只须训练一个模拟的知觉神经网络对特定情境进行反应并使它对其它情境以它学到的方式进行适当的反应。
那么神经网络模型是否可以取代老式人工智能而成功地模拟心的活动呢?问题并没有这样简单。正象H.德雷福斯所指出的那样, 神经网络模型也不能完全逃避表征问题。因为计算机不是一个人,所以它就没有人的欲望、需求和情绪。因此,计算机就需要将这些对于人是自然而然的东西用规则表征出来。而这并不比将人的知识和能力用物理符号系统表征出来更为容易:
这样,人工智能的所有工作似乎都面临一个深刻的两难境地。如果要建立一个老式人工智能系统,那么就不得不把一个人仅仅因为是一个熟练的人就能理解的所有东西都表征在一个信念系统中,……通过将人类仅仅因为有一个熟练的躯体就能理解的东西明确化来成功地设计一个表现出常识的计算机是极为不可能的。可喜的是,新近的机器学习研究并不要求将人类仅仅因为是人而理解的所有东西都表征出来。但是这样一来,……就陷入了另一个困境。所需要的学习装置要与人类关心同样的问题,有与人同样的结构来概括人类的行为方式。而正象不大可能使一个物理符号系统具有人的属性一样,要制造一个与我们足够相似的装置来活动和学习在我们的世界上,至少是同样的不可能[( H.Dreyfus,1992,p.xlv—xlvi)]。
可见,人工智能的尝试总是不能尽如人意。如果我们要建立一个神经网络系统,那我们倒是不必表征所有的东西,这个系统会自己学到老式人工智能所不得不予以表征的东西。但问题是,我们如何能使这个系统具有普通人类所具有的需求、兴趣和动机呢?
2 心就是计算机的程序吗?
我们看到,德雷福斯断然否认了计算机通过特灵测验的可能性。他的否认是有道理的。但是我们还可以问一个更为深刻的问题:如果计算机通过了特灵测验,那我们是不是就应当认为这个计算机的程序就说明了心的活动方式呢?
为了在这个意义上确定人工智能研究的心理学和哲学意义,塞尔区分了弱人工智能与强人工智能。所谓弱人工智能,就是认为计算机的主要价值在于为心的研究提供有力的工具。例如,它使得我们能够用更为严格和精确的方式来将假设形式化并予以检验。而强人工智能,不只是将计算机看作心的研究的工具,而是认为适当程序化的计算机本身就处于心的状态中,认为被赋予正确程序的计算机确实理解事物并具有其她的认知状态:
在强人工智能中,由于程序化的计算机具有认知状态,所以那个程序就不仅仅是帮助我们验证心理解释的工具;相反,这些程序本身就是解释。[(Searle,1980,p.509)]
塞尔所举的一个例子可以帮助我们更好地理解强人工智能所持的观点。假定你听到下面的故事:“一个人走进一家餐馆并要了一份汉堡。当侍者把汉堡送来时,这个人发现那汉堡已经烧焦了。此人冲出餐馆,既没付汉堡的账,也没留下小费。”现在如果问你:“那个人吃了份汉堡吗?”你多半会回答:“不,没有。”同样地,如果你听到下面的故事:“一个人走进一家餐馆并要了一份汉堡;当侍者将汉堡送来时,这个人对那汉堡非常满意;当此人离开餐馆时,他给了侍者一大笔小费,然后才付了账”。如果这时问你同样的问题:“那人吃了那份汉堡吗?”你的回答多半是:“是的,他吃了。”现在,计算机可以以同样的方式来回答有关餐馆的问题。这时,强人工智能的支持者就会声称,在这样的问答过程中,机器不但模拟了人类能力,而且
①我们完全可以在精确的意义上说,那机器理解了这个故事并回答了问题;
②机器所作的一切解释了人类理解故事并回答问题的能力。
而这正是塞尔所要反驳的。
基于弱人工智能与强人工智能的区分,塞尔提出了他对强人工智能的反驳:中国屋论证(Chinese room argument)。 塞尔想象自己在一个有两个窗口的屋子里,这两个窗口分别是I和O。通过窗口I 进入纸张,上面有很复杂的记号。在屋子里面有一本用英文写成的大书。书里写着这样的指示:每当从I窗口进来的一张纸上写着这些记号时, 你就要做这样一些事情,然后把有这些记号的纸送到O窗口。 屋子里还有一堆写有记号的纸。
现在假定这些记号实际上就是中国字——由I 窗口进入的是问题,而送到O窗口的则是对这些问题的正确答案。 这一情形很象计算机里面的设置:一堆操纵于符号的规则(程序)通过输出窗口给出某些符号对由输入窗口进入的符号作出反应。
为论证起见,塞尔容许适当的程序通过特灵测验。在屋子的外面,说中国话的人可能以为她们是在跟屋子里的一个懂中文的人对话。但实际上屋子里的那个人(塞尔)并不懂中文。塞尔只是根据符号的形式(形状)来操纵符号,他并不知道这些符号的意义是什么。因此中国屋的思想实验表明,开动一个计算机程序并不构成真正的理解和思维,因为所有的计算机所能做的只是根据符号的形式来操纵符号。
塞尔对计算机的理解能力的否定是截然的。他认为,计算机的理解力与汽车和计算器的理解力没有什么不同,也就是说,它完全没有任何理解力。计算机的理解力不是部分的或不完全的,而是一个完全的空白。
对于塞尔的中国屋论证,存在各种各样的误解。有人认为,塞尔是要论证“机器不能思维”,或是“计算机不能思维”。实际上,这并非塞尔的本意。在《意识之谜》一书中,塞尔明确回答了这一误解:
如果我们所说的‘机器’是指一个具有某种功能的物理系统,那么大脑就是一个机器,一个生物机器,而它是能够思维的。所以至少某些机器是能够思维的,而且据我们所知,建造一个能够思维的人工大脑或许也是可能的。而且大多数人脑,例如你的和我的,有时确在计算。例如它们将2加上2从而得到4。所以,根据计算机的老式定义, 亦即计算机是确实有数学计算功能的东西,大脑就是计算机。因为它们计算。所以,有些计算机是可以思维的, 例如你的大脑和我的大脑[( Searle,1997,draft p.10)]〔1〕。
所以,在塞尔看来,计算机能否思维实际上是一个无关紧要的问题。我们尽可以回答“是”,但这并不能告诉我们任何东西。塞尔认为,问题的关键在于,“计算——正确的计算加上正确的输入与输出——本身是否足以保证思维的存在”[(draft,p.10)]。而中国屋论证所表明的正是对这一问题的否定回答。
对中国屋论证的另一个误解是认为塞尔否定一个物理的计算机可以具有意识这样的“突现特性”。对此,塞尔明确说到:“归根到底,如果大脑能够具有意识这样的突现特性,为什么其它种类的机器就不能呢?”[(draft,p.11)]塞尔指出,“强人工智能并非关于计算机硬件产生突现特性的特定因果特性”,“它并不是宣称某种硬件可以象给出热量那样给出心的状态或硬件的因果特性可能导致这一系统具有心的状态”,而是声称“在任何一个硬件中输入正确的程序都会构成心的状态”。一句话,“强人工智能不是说一个计算机可能‘发出’或具有心的状态这样的突现特性,而是说填入一个不管什么中介物的程序本身就构成了心的状态。填入的程序本身就担保了心的生活的存在。”[(draft,p.11)]塞尔进一步指出,中国屋论证反驳的正是这一强人工智能论点。这个反驳所要提请我们注意的是,这个程序纯粹是按照句法规则来定义的,而句法本身是不足以担保心的语义内容的呈现的。也就是说,中国屋论证所表明的只是程序的出现并不担保心的状态的出现,而并非表明程序的出现一定担保不存在心的状态。
塞尔并不笼统地反对机器能够具有心的状态这样的观点。他所反驳的只是:依照形式化的程序来操作的机器仅仅因其形式化的程序而被认为具有心的状态。塞尔论证的要点在于,任何纯粹的形式模型都不足以产生意向性,因为形式特性本身不能构成意向性,它们本身没有任何因果力,它们只是在机器运转时具有产生下一步形式化的能力。在塞尔看来,大脑操作的关键并不在于其突触系列的形式投影,而在于系列的真正特性;而所有的强人工智能都是在描绘认知的投影而不是认知本身。所以,塞尔的中国屋论证包含着以下的结论。首先,机器是可以思维的;实际上,我们就是这样的机器。其次,人工的机器,如果具有象我们一样的神经系统的话,也是可以思维的。而且,例示某个计算机程序的数字计算机也是可以思维的;因为我们就例示着各种各样的计算机程序,而我们是能够思维的;但是,任何东西都不能仅仅因为是一个具有正确程序的计算机而具有思维能力:
因为形式符号的操纵本身不具有任何意向性,它们是没有意义的,它们甚至都算不上是符号操纵,因为符号是不能将任何东西符号化的。用语言学的术语来说,它们只有句法而没有语义[(Searle,1980,p.517)]。
只有那些设计并使用计算机、给出输入并解释其输出的人才具有这样的意向性。中国屋论证表明,给一个本来具有意向性的人编制一些形式化的程序,并不能增加他对事物的理解,不能给他带来更多的意向性。
所以,塞尔所反驳的是强人工智能的中心论点:心之于大脑正如程序之于硬件。塞尔进一步从三个方面指出这一类比的不当。首先,程序与硬件的区分意味着同样的程序可以实现于各种不同的硬件中,纸、石头、水等等,皆无不可,而在塞尔看来,这些东西是无论如何不可能具有意向性的。塞尔的这一指责显然是正确的。因为如果程序与硬件的区分是可信的,那么心就不是人和某些动物所特有的属性,任何一个东西,一堆石头、一些木料、一卷纸,只要被赋予正确的程序,它们就会具有人所具有的心的状态!其次,程序是纯粹程序化的东西,而意向性则不是这样。一个信念可以在不同的语言中有不同的句法表达形式。第三,心的状态与事件完全是脑的操作的结果,而程序却不是计算机运行的结果。这一点在我看来也十分重要。实际上,认为计算机具有心的状态与认为一本书具有心的状态是一回事。
3 计算是计算机的固有属性吗?
如果说计算机不具有理解力的话,那它至少具有计算能力吧。但是塞尔对于这一点也作出了否定的回答。
在他的新作《意识之谜》的第一章的附录中,塞尔对强人工智能提出了新的反驳。他发现,中国屋论证对强人工智能让步太多,他现在要提出一个更深刻的论证来说明强人工智能根本就是说不通的。塞尔指出,计算机只不过是一个复杂的电子回路,而它之具有符号特性正如书本上的墨迹具有符号特性一样:“是我们设计、编制、印刷和制作了这些系统,才使得我们能够将这些东西当作符号来对待和使用”[( Searle,1997,draft,p.12)]。“简言之, 句法不是系统的物理所固有的,而是存在于观察者的眼中。”[(draft,p.12)]也就是说,计算机的计算特性并非其固有属性,而是相对于观察者和使用者的相对属性。所以,塞尔进一步指出:“大脑是一个数字计算机吗?”这样一个问题缺乏明确的涵义。如果它所要问的是“大脑在固有的意义上是否是一个数字计算机”,那么答案是无足轻重的“不”,“因为除了心的思维过程以外,没有任何东西能在固有的意义上成为一个计算机;某物是一个计算机只是相对于某个外部的使用者或解释者所赋予的计算解释而言”[(draft,p.13—14)]。如果所要问的是“你能赋予大脑一个计算解释吗?”答案是无足轻重的“是”,因为我们“可以赋予任何东西一个计算解释”。也就是说,“你永远不能在自然中发现独立于人类解释的计算过程,因为你所可能发现的任何物理过程都只相对于某种解释才是计算的。”所以,塞尔结论说:
以其唯物论和脑的机器观而感到自豪的强人工智能远不够唯物。大脑确实是一个机器,一个有机的机器;而它的过程,诸如神经激活,则是有机的机器过程;但计算却不是一个象神经激活或内燃那样的机器过程;计算是一个只相对于有意识的观察者和解释者才存在的抽象的数学过程。象我们这样的观察者发现了将计算植入硅电子机器的方法,但这并不能使计算变成电的或化学的东西[(draft,p.14)]。
塞尔的这一论证与中国屋论证是不同的论证,他本人认为这一新的论证比原来的中国屋论证要深刻得多。对这一论证本身似可作进一步的争论,但它至少使我们从一个新的角度来评价强人工智能。
4 强人工智能与意识——计算机能感到疼痛吗?
塞尔的中国屋论证以及他新近关于计算机的计算属性的论证的确能够反驳强人工智能,但这并不意味着这一论证真正揭示了强人工智能的根本错误。实际上,计算机之所以不能理解,是因为它没有意识或感觉。塞尔本人后来十分明确地认识到了这一点:
我曾经以为我们在认知科学中所犯的主要错误是:认为心是植入大脑硬件的计算机程序。现在我相信,其中的错误要深刻得多:我们忽视了意识在心的研究中的中心地位[(Searle,1995,p.331)]。
人工智能在意识或感觉方面的失败并非没有引起人们的注意。例如,甘德森(Keith Gunderson)就指出, 人工智能的成功之处在于能够具有心的智慧方面的特征(sapient features of mentality), 其失败之处则在于不能具有心的感觉特征( sentient
features of mentality )。 他因此将心的特征区分为可程序化的(
program—receptive)特征和不可程序化的(program — resistant)特征。但他并没有就此得出结论说,计算机能够思维而不能感觉。相反,他认为,让计算机产生感觉的任务与让计算机产生思维的任务有所不同,它不能靠设计新的程序来实现,而要靠设计新的硬件来实现[(Gunderson,1971)]。这样的说法显然不会受到功能主义者的欢迎,因为如果心的状态是依赖硬件的,那么功能主义就被证明是失败的。
但无论如何,即使那些不相信“意识在心的研究中的中心地位”的人也不能不承认,人工智能的最大困难在于不能使计算机产生真正的感觉。在某些人看来,对付这一困难的唯一办法就是贬低意识或感觉在心的概念中的重要性甚至否认意识或感觉是一个统一的概念。例如,迪奈特在“为什么你不能让一个计算机感到疼痛”(Why you can't makea computer that feels pain)一文中就认为,计算机不能感到疼痛并不说明计算机有问题,而是说明人们的“疼痛”概念有问题:
用机器人来例示任何疼痛理论都会遭到借助于关于疼痛性质的坚不可摧的直觉的有力反驳,但是相信这样的怀疑论的论证是十分短见的。因为机器人模型不能满足所有的直觉要求可能不是因为疼痛现象的任何不可改变的神秘性,而是因为我们关于疼痛的日常概念的不可改变的松散无序[(Dennett,1978,p.228)]。
迪奈特关于我们关于疼痛的日常概念的观点与取消唯物论有十分密切的关系。而意识或感觉在心的概念中的地位问题亦不是本文所能探讨的。在这里,我们至少可以说,意识或感觉是人工智能所真正要解决的问题。
5 结论
从特灵测验那里,我们首先发现了明显的行为主义倾向。因为特灵测验所依据的假设是:只要一个计算机具有正确的输入和输出,我们就可以认为它具有相应的心的状态。但这并不是强人工智能唯一的更不是其根本的谬误。
从更根本的意义上来说,我们从强人工智能那里可以看到笛卡尔二元论的发扬光大。首先,心与物的划分被具体化为程序与硬件的划分;其二,心可以独立于物而存在,正如程序可以独立于硬件而存在一样;其三,心是一个实体,它可以具体表现为一个程序;其四,心的本质是思维或计算,是符号的形成和操作;其五,心是对言语行为的唯一解释,就象程序是对输出的唯一解释一样。这就是为什么特灵测验会表现出行为主义倾向。强人工智能所唯一不同于笛卡尔的地方是将意识的地位大大贬低了。这样,强人工智能承袭了笛卡尔二元论的整盆洗澡水,却恰恰弃掉了那个唯一有生命力的婴儿——心的意识本质说。
强人工智能所受到的极为有力的批评使得我们难以相信,计算机会因为适当的程序而具有心的状态。也就是说,心的本质并不在于那些能够程序化的东西,换言之,那些不能被程序化的东西倒可能是心的状态中最为基本的东西。而更加引起我们注意的是,意识或感觉正是最不可能被程序化的东西。那么,这是否意味着意识或感觉正是心的状态中最为基本的东西呢?
注释:
〔1〕我非常感谢塞尔教授在我1996年11 月访问伯克利时赠与我本书尚未发表的书稿。这里的引文所注明的页码乃根据其1996年11月8 日的书稿。