认知逻辑研究中的几个问题_人工智能论文

试论认知逻辑研究中的若干问题,本文主要内容关键词为:若干问题论文,认知论文,试论论文,逻辑论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

中图分类号:B819

文献标识码:A

文章编号:1001-4667(2003)06-0109-07

随着认知科学和人工智能研究的进步,认知逻辑也引起了越来越多的学者的关注。不断有新的认知逻辑系统被构造出来。认知逻辑的研究对象也由最初简单的单主体认知逻辑过渡到多主体认知及自认知逻辑等。然而,对认知逻辑的研究热情和关心只局限于一个十分狭小的研究群体之中,认知逻辑只是一部分从事哲学逻辑研究的学者们关心的对象,而研究认知科学和人工智能的学者对认知逻辑的研究成果并不关心。即使是在研究哲学逻辑的学者中间,真正关心认知逻辑的人也为数不多[1]。人们对于认知逻辑的这种冷淡态度并非完全由于认知逻辑不为其他学科的学者了解,认知逻辑的研究本身还存在着这样或那样的问题,这些问题的存在直接影响到认知逻辑在认知科学中的应用。本文试就认知逻辑中存在的一些问题做出粗浅的分析。

一、操作可行性的缺失问题

所谓可操作性是指,人们可以根据一种程序或算法来完成预定的任务。例如,在买了一台新的家用电器设备之后,我们不必知道电器设备的构造和工作原理,只要根据说明书给出的操作步骤,就可以知道如何使用这台电器设备。如果没有这样一份说明书,我们就不知道该如何使用这台电器设备。虽然这只是一个简单的例子,但它却说明了可操作性的重要作用。认知逻辑研究的是认知语句的逻辑结构和关于认知语句推理。若想使认知逻辑能够用于实践领域,具有可操作性,对于认知逻辑来说是十分重要的。然而现有的认知逻辑理论却没能为人们提供一份使用说明书。

人的认知活动是运用心智的过程。心智的具体运作方式对我们来说仍然是个迷。神经科学家已经能够追踪细胞内部的极为微弱的化学变化,并且发现了信息在神经网络中传播时神经元所产生的许多有规律的变化。然而,所有这些发现都无法说明意识、直觉、思想等的具体过程,在从事人工智能研究的学者中流行着一种观点,认为:思想包括意识、直觉等,不过是大脑生理活动的产物,或者说,是神经网络中的电化学变化使得大脑产生了思想;所以,尽管人脑的结构要复杂得多,但在原则正它与一台计算机没有本质的区别。然而这仅仅是一种猜测而已,没有直接的证据可以证明这种观点。即使这一猜测是正确的,我们也不知道,也许永远无法知道,大脑的神经网络中的电化信息是如何转变成为思想、概念、直觉和意识的。

认知逻辑不是根据大脑的工作机制建立的。认知逻辑与家用电器的说明书不同,家用电器说明书的编写者对于该电器设备的构造和工作机制是清楚的,而认知逻辑理论的建立者对大脑的构造和工作机制却不清楚,研究大脑的构造和工作机制不是逻辑学家的任务,我们也没有理由要求逻辑学家在构造认知逻辑理论之前必须把实际的认知过程完全弄清楚。实际上,我们不必要求电器设备说明书的编写者一定懂得电器设备的工作原理。因为,即使电器设备说明书的编写者不懂得电器设备的工作原理,只要说明书中所叙述的操作步骤正确,我们仍然可以根据说明书来学会如何使用电器设备。同样,即使认知逻辑理论的构造者不了解实际认知活动的工作机理,只要认知逻辑能够为实际的认知活动提供有效的帮助,则其仍然不失为一种极为有用的工具。遗憾的是认知逻辑做不到这一点,因为认知逻辑不像设备说明书所描述的步骤那样具有可操作性。

认知逻辑研究的是认知语句的逻辑结构,所谓认知语句是指包含有“知道”、“相信”(可以分别用K和B表示)这两个模态算子的语句。例如,Kα表示“知道命题α”, Bα表示“相信命题”。多主体认知逻辑用给模态算子加下标的办法区别不同的认知主体。例如,表示“主体i知道命题α”,表示“主体i相信命题α”。认知逻辑系统中的定理在一定的语义解释下是有效式。这些有效式表现了认知语句之间的逻辑关系,可以说,认知逻辑系统中的一条定理反映了一个在认知语句之间进行有效推理的规律。认知逻辑系统的定理是在认知语句之间进行有效推理的有力工具。但是,通过什么途径我们才能获得这些定理呢?到目前为止,我们还没有获得这些定理的能行方法。

认知逻辑是一种公理系统。一般说来,公理系统中定理的证明没有可操作性。这里所说的“可操作性”是相对于构造证明而言,而不是相对于判定证明而言。对于一个给定的公式序列,我们可以根据系统的公理和变形规则对公式序列中的公式逐个进行检查,判定该公式序列是否可以构成一个正确的证明。但是对于一个给定的公式我们却没有能行的方法判定它是否系统中的定理,对于一个已知的定理也没有能行的方法构造出它的证明,当然,这里说的只是一般情况,不排除个别的系统,这些系统的定理是能行可判定的,定理的证明是能行可构造的。例如,可以用真值表的方法判定一个公式是否命题演算系统的定理,在欧几里德几何中,可以用确定的算法证明系统中的某些定理。我们从经验可以知道,计算容易,证明难。计算之所以容易并不是因为计算简单(计算可以是很复杂的),而是因为计算可以依据能行的算法进行,或者说,计算是能行可操作的。但是对于证明,一般来说,没有这样的算法,即定理的证明不是能行可操作的。系统中定理的证明有时非常简单,只需要一、两个步骤。但即使是构造这样的证明也没有可操作的规则可依循,证明的构造过程需要凭借经验、直觉或洞察力来完成。

由于缺乏操作可行性,现有的认知逻辑系统无法成为可用于实际认知过程的工具。

要求认知逻辑可用于实际的认知过程,这的确过于苛刻。认知逻辑是随着认知科学和人工智能研究的发展而引起逻辑学家重视的。如果认知逻辑能够应用于人工智能领域,那么它将具有不可低估的应用价值。人工智能是用计算机来模仿人的智力,使得计算机能够完成一些过去由人脑才能完成的需要智能的工作,如开药方、提供专业咨询、证明数学定理等。人工智能的所有成果都必须能够在计算机上实现。计算机是按照程序工作的,计算机的每一个内部动作都是按照程序的指令完成的,因此,具有可操作性是计算机对程序的最基本的要求之一。要想使认知逻辑能够用于人工智能领域,应该使认知逻辑的定理证明,或者是根据认知逻辑进行的推理,可以由计算机来完成。而要实现这一目的,就应该有一个能行可操作的方法,或者说,应该有一个一般的(相对于系统的所有定理,而不只是某些特殊的定理而言)算法,使得认知逻辑中定理的证明可以用可操作的方式构造出来。这样的可操作方法是否存在?如果存在的话,怎样找出这样的方法?这些可能是关心认知逻辑的学者们需要研究的课题。

对于认知逻辑系统,现在还不能以能行可操作的方式给出其定理的证明,但是将来不一定总是如此,也许将来有一天,人们能找到适当的算法,使得认知逻辑的定理可以用计算机来证明。是不是做到了这一点,认知逻辑就可以有用武之地了呢?未必。还有一个因素需要考虑,就是计算的复杂度。现有的认知逻辑理论还是比较简单的,如单主体认知逻辑、自认知逻辑、双主体认知逻辑等。如果能建立一个认知逻辑系统,该系统可以同时处理不同的认知推理,则该系统结构的复杂性将会大大增加。如果再要求这样的系统能够处理缺省推理和非单调推理的话,那么系统的结构势必非常复杂。这样系统即便可以被计算机处理,由于计算的复杂程度,可能也将导致难于将其用于实际的目的。

认知逻辑能行可操作性的缺乏阻碍了它在人工智能领域中的作用。

二、语义学方法的适用性问题

“知道”和“相信”是哲学认知论和认知科学中的重要概念,很多问题都与这两个概念相关,例如,当某个行为主体决定采取某个行动时,他(它)应该事先知道一些事情,并且相信该行动可以产生他所预期的后果;当某人说“恐龙曾经是地球的主宰”或“每个人都应该遵守法律”时,他也表明了他的主观态度,即他相信他所说的话是真的。认知逻辑处理的是包含有“知道”、“相信”这样的模态词的认知语句的逻辑性质和关系问题,而人工智能技术的核心是关于知识获取和知识表达的。因此,很多人认为,将认知逻辑应用于人工智能的研究是最自然不过的事情。用认知逻辑研究人工智能真的像人们所想象的那样自然吗?答案恐怕是否定的。

每个人都知道“知道”和“相信”这两个词是什么意思。但是可能没有人知道,一台机器,哪怕是运算速度最快的计算机,知道某件事情或相信某句话是什么意思。当我们说“A知道p和“A相信p”时,我们是说,主体A对于命题p具有某种主观的状态或态度。包含有“知道”、“相信”这类语词的语句也可以称为主观语句。知道和相信属于意识的范畴。没有意识的事物是不能知道什么,或相信什么的。心身关系问题是一个复杂的哲学问题,此处不拟展开讨论。但是笔者相信,现有的数字计算机,即使是像“深蓝”那样“聪明”的计算机,也是没有意识的。所以,当说到某智能计算机系统“知道”什么,或“相信”什么时,我们不过是在隐喻的意义上使用这两个词罢了。

虽然在日常生活的层面,我们都知道“知道”和“相信”这两个词的意思,但是在智能系统状态的层面,我们却没有办法把这两个词的意义说清楚。我们不知道一个智能系统(包括人、其他智能动物和智能计算机系统)知道或相信某件事情时(如果计算机系统能够知道或相信的话),他(它)是处于一种什么样的状态,也不知道该系统不知道或不相信某事时是处于什么状态。当然我们也就不知道这两种状态之间有什么区别。因此,认为一个计算机系统不能相信,或不能知道的观点缺乏足够的证据(虽然相反的观点也没有证据),有武断之嫌。可以退一步,如果一个计算机系统处理认知语句的方式在直觉上和人类处理这类语句的方式相类似,我们就承认,不管该系统是不是真的能够知道和相信,它具有处理认知问题的能力。下面分析一下认知逻辑是如何处理“知道”和“相信”这两个模态词的。

认知逻辑理论分为三个方面:语形学、语义学和元理论。其中,语形学研究如何用公理和变形规则构造形式系统,语义学则对形式系统的公式做出解释,元理论主要研究形式系统的可靠性、完备性和一致性等方面的问题。认知逻辑对“知道”和“相信”这两个概念的解释是在其语义学中进行的。

目前,认知逻辑的研究大多用可能世界语义学方法作为解释认知逻辑系统的工具。可能世界语义学是由美国哲学家和逻辑学家克里普克(S.Kripke)为解决模态逻辑系统的语义解释问题提出的,所以这种语义学方法建立起来的模型常被称为克里普克模型。在模态逻辑中,模态命题不是它所包含的原子命题的真值函项,或者说,一个模态命题的真假不能由它所包含的原子命题的真假来确定。例如,命题“必然p”的真假不能由p的真假来确定。以下用“□”表示“必然”,用“◇”表示可能。为了解决模态命题的语义解释问题,可能世界语义学引进了“可能世界”和“可达关系”的概念。可能世界是世界的可能状态,现实世界是诸多可能世界之一。可达关系是可能世界之间的某种关系。可能世界语义学的基本思想是,命题□p在可能世界w中为真,当且仅当,p在所有与w有可达关系的可能世界w’中都为真;◇p在可能世界W中真,当且仅当,存在一个与W有可达关系的可能世界w′,P在w′中为真。可能世界语义学对各模态逻辑系统的成功解释使得逻辑学家们将这种方法广泛应用于广义模态的逻辑的研究之中。

认知逻辑对克里普克语义学进行了修改,以使之适用于对认知逻辑系统的解释。出于不同的考虑,逻辑学家们对克里普克语义学做出的修改方案也不同,以下对两种较有代表性的修改方案做出简要的分析。

第一种方案这样定义知道逻辑系统的解释模型[2](p.71):

一个克里普克知识结构(或模型)M是一个多元组

其中S是一个非空状态集,π:S→(P→{true,false})是对每个状态而言的真值赋值函数,称为可达性关系。

在这个模型中,S是可能世界的集合;函数π确定了在每一个可能世界中哪些原子命题是真的,哪些原子命题是假的,所以每个可能世界是一个由(在其中为真的)原子命题所确定的状态;i表示认知主体,m是认知主体的个数,确定了相对于主体i而言,哪些可能世界到哪些可能世界之间有可达关系。在这样的模型中,一个“知道”命题的真是按照以下方式定义的。

这段定义的意思是,“主体i知道命题”这个命题在可能世界s中是真的,当且仅当,在所有的与s有可达关系Ri的可能世界t中,是真的。

下面分析一下这样的模型是怎样解释“知道”的。

在模型M中,S的任一元素s对应于一个命题集合。如果把集合中的命题理解为知识的话,那么s就是一个知识的集合,它表示认知主体可能具有背景知识。的意思是,对于知识背景s,命题是真的。是背景知识到背景知识的可达关系。在这样的解释下,相对于s是真的,当且仅当,对于所有与s有关系的t是真的。

用可能世界语义学为认知逻辑建立模型有以下问题:

第一,将主观命题处理为客观命题。在这样的模型中,命题的真假完全由知识背景之间的可达关系决定,而与主体i是否真的知道命题没有直接关系。当然只有将主观命题处理为客观命题,才有可能用可能世界语义学的方法为认知逻辑系统建立模型。但是,对认知语句的这种处理方法很不自然,而且也与我们关于“知道”、“相依”这些语句的理解有相当的距离。关于这一点,我们可以在下面的分析中看出来。

第二,模型中的S是s中的任一元素,它不一定是主体i的知识背景,根据对模型的定义,我们也没有任何理由要求s一定是i的知识背景。如果s是张三的背景知识,而i是李四的,那么的意义可以理解为,对于张三,命题“李四知道4”是真的,假定s不是i的背景知识,那么对于任何S中的元素t都有成立,或不成立,都没有道理。说得通俗一点,对于张三,命题“李四知道4”的真假与张三有关系,而不能仅仅由李四的知识状态决定。这与我们通常对“知道”一词的理解是不一致的。从常识来看,“李四知道”这个命题的真假只与李四有关,而与其他人没有关系。

通过上述分析可知,这样的模型无法对认知语句做出令人满意的解释。

第二种方案对第一种方案进行了修改[3]。它为每一认识主体设定了一个可能世界,例如令是主体a所认识的世界,是主体b所认识的世界。并且将现实世界从其他的可能世界中独立出来,即不把它作为一般的可能世界处理。经过这样的改造,第二种方案在定义认知语句的真假时区分了两种情况:1.在可能世界中,认知语句何时为真;2.在现实世界中,认知语句何时为真。第二种方案对认知语句在一般可能世界中为真的定义仍然存在着第一种方案中所存在的问题,但它对认知语句在现实世界中为真的定义却没有第一种方案所产生的问题。现在的问题是,能不能因为我们通常只在现实世界中讨论认知语句的真假就认为第二种方案克服了第一种方案所产生的困难呢?似乎不行,因为在现实生活中,没有人会用认知逻辑系统去进行实际的推理的。认知逻辑研究的目的主要是为人工智能研究提供工具。然而计算机是无法区分现实世界和可能世界的。一个可能世界就是一个命题集合,而各个可能世界在计算机面前都是平等的。所以第二种方案并没有真正克服第一种方案所产生的困难。

使用可能世界语义学解释认知逻辑系统还有一个难于解决的问题,就是如何确定可能世界之间的可达关系。在确定认知语句真假的过程中,起着关键的作用。然而可能世界的语义学方法都没有给出确定的方法或原则。所谓“确定”包括两个方面:第一,在具体的模型中确定是一个怎样的集合;第二,确定应该具有什么性质。确定具体的需要确定的定义域、值域以及中所包含的元素。这样的工作自然不是逻辑学家的任务。然而,给出的性质却是逻辑学家责无旁贷的。在定义认知语句的真假时,的性质至关重要。实际上,的性质反映了“知道”(或“相信”)这样的认知算子的性质。对于认知算子可以有不同的理解,所以在不同的模型中的性质也可以有所不同。但是的性质不应该是随意给出的。在有的语义理论中,是等价的,即Ri同时具有自返性、对称性和传递性。而在有的理论中,具有传递性,或持续性、欧性等等。逻辑学家选取的性质时不是(或主要不是)出于对认知算子的意义的考虑,而是出于对他们所构造的系统的考虑。根据系统的需要选取的可以使认知逻辑系统既具有可靠性,又具有完备性。但是这样选取的并不能恰当地反映“知道”和“相信”这些算子的语义性质。建立既可靠又完备的逻辑系统自然是逻辑学家的追求。但是由于选取的任意性,这样的逻辑系统,相对于为认知科学提供有力工具这样的目的而言,并没有坚实的语义基础。

通过上述分析可以看出,用可能世界语义学方法为认知逻辑建立模型还存在着一些问题。这些问题可能是在使用该方法的过程中产生的,也可能是可能世界语义学方法本身所决定的。我们能用可能世界语义学方法来把握和刻画“知道”、“相信”这样的概念吗?无论如何,若想使认知逻辑不仅仅是逻辑学家手中的游戏,必须使认知逻辑具有坚实的语义基础,否则认知逻辑难于应用于人工智能的实践之中。

三、公理系统的构造问题

认知逻辑理论的语法部分是一种公理系统。公理系统由两部分组成:1.一组初始公式,即公理;2.若干条变形规则,即推演规则。认知逻辑系统大多是在模态逻辑基础上变化而来的,或者说,是仿照不同的模态逻辑系统而构成的。认知逻辑将模态逻辑的必然算子□换成知道算子或相信算子(注:也有人用其他字母,如L、M等,表示认知算子。这些表示方式都是直接将模态算子变成认知算子。);将模态逻辑系统的必然化规则变成认知概括规则,如将“由α推出□α”变成“由α推出”;将经过变化的模态逻辑公理直接作为认知逻辑系统的公理,如将模态逻辑的公理,并将其作为认知逻辑系统的公理。如此构造的认知逻辑系统与模态逻辑系统有一种对应关系。例如,模态逻辑的最小正规系统K与认知逻辑的极小系统(注:m表示认知主题的个数。)对应,模态逻辑的系统对应。

认知逻辑属于广义的模态逻辑,以模态逻辑为基础构造认知逻辑系统似乎也是顺理成章的事情。然而,如此构造的认知逻辑系统却会产生十分棘手并且令人讨厌的问题,例如所谓的“逻辑全知”问题。认知逻辑系统大都有如下的(或类似的)结果:

第一个结果的意思是,如果命题α是真的,那么主体i就知道α。第二个结果的意思是,如果命题α蕴含命题β,那么若主体i知道了α则他(它)一定知道β。这样的结果与我们的常识大相径庭。任何一个认知主体,不管他是人还是计算机,只要不是上帝,他就不可能知道所有的真命题。另外,一个人知道命题α,但他很可能不知道α所蕴含的全部命题。“逻辑全知”问题使得认知逻辑的可应用性受到了怀疑。为此许多逻辑学家试图解决这个问题。然而他们的努力却没有收到令人满意的效果。实际上,“逻辑全知”问题产生于公理K和认知概括规则。公式K是认知逻辑极小系统的公理,许多认知逻辑系统都是在极小系统的基础上扩张而成的。尽管一些认知逻辑系统对K做了一定的修改,但它们与K都是大致相同的。认知概括则也是一条被普遍采用的规则。然而,只要采用了K和认知概括规则,那么系统就不可避免地会产生“逻辑全知”问题。

为了避免现有的认知逻辑学所遇到的困难,我们应当采用什么样的公理和变形规则来构造认知逻辑系统呢?对这个问题的回答已经超出了逻辑学的范围,甚至超出了逻辑哲学的范围。因为认知逻辑的研究涉及到认知语句和认知语句之间的推演,并且其目的是服务于人工智能研究,所以也许我们把这个问题放到人工智能哲学的背景下讨论更加合适。然而在人工智能哲学的背景下,我们先要解决的也许不是这个问题,而是人工智能需要公理化的认知逻辑系统吗?

人工智能理论是关于如何使计算机学具有智能化特点的理论,它的最高目标是使计算机系统能够模拟人脑的智能。人工智能专家在编制程序时需要的是算法而不是形式演绎系统。在此需要指出的是,算法和演绎是不同的两回事,并且算法也不依赖于演绎系统。假设一个程序可以使计算机具有能够智能化地处理认知语句的特点,认知逻辑的公理系统是不是最终会在该程序中体现出来呢?也许是,也许不是。人工智能专家在编写程序时并不需要把程序限制在任何一个公理系统之中,所以他也不必一定先要有一个认知逻辑的公理系统。

人工智能所处理的关于认知语句的推理并非全都是演绎的。人工智能专家麦克德莫特(注:D.麦克德莫特(Drew Mcdenott),美国耶鲁大学计算机科学系教授。)指出:“遗憾的是,你越是想推进逻辑主义方案,你发现演绎就越少。你会发现,情况原来如此:许多推理看起来是那样简单明了,可见它们是演绎的,而结果却含有非演绎的成分。”[4](p.283)如果情况真的如此,那么认知逻辑的公理系统究竟能为人工智能研究提供多大帮助呢?尽管可能世界语义学有缺陷,但是它对编写程序可能都比公理系统更有帮助。另外,认知逻辑系统不能保证它的推理都是有效的。这里所说的“有效”是相对于经验和直觉而言的。许多认知逻辑系统都有可靠性,但是这种可靠性是相对于特地为系统定制的语义学而言的。脱离开这种特定的语义解释,系统不能保证推理的有效性。例如,由α推出就是与经验和直觉相悖的。通过上述分析可知,认知逻辑的公理系统并不是人工智能专家所必需的。笔者无意抹煞逻辑学家们在认知逻辑研究中取得的成就,并为得出这样的结论而感到遗憾。

认知逻辑的发展现在还处于较为初始的阶段。认知逻辑理论中存在某些不足也完全是正常的。然而我们也应该注意到,认知逻辑的对象和目的具有某种特殊性。这些特殊性很可能使我们手中已有的方法不再适用。逻辑学家在构造精致的认知逻辑公理系统和建立完备的语义理论之前,也许应该对自己所使用的方法做一番认真的思考。方法的问题也许应该由哲学家,而不是逻辑学家来思考。但是,不管由谁来思考,这个问题都是不能回避的。

收稿日期:2003-05-30

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

认知逻辑研究中的几个问题_人工智能论文
下载Doc文档

猜你喜欢