“计算机科学哲学”研究论纲,本文主要内容关键词为:计算机科学论文,哲学论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
中图分类号:TP3-02 文献标志码:A 文章编号:1009-2854(2004)04-0016-08
本研究论纲的出发点是,随着计算机科学(和技术)突飞猛进的发展以及它对人类社会生活(特别是人们的观念)的冲击,建立一门以计算机科学的哲学问题为对象的新科学哲学——“计算机科学哲学”,已日益成为必要与可能。这里我们就建立计算机科学哲学的必要性和可能性,它的研究对象和主要内容以及研究方法等,作纲领性的论证。
一、建立计算机科学哲学的必要性与可能性
哲学研究发端于科学的发展以及这种发展对哲学引发的挑战。在当今的现实世界中,从学理的角度讲,再也没有什么比计算机对人们哲学观念的挑战更大的了。因此,计算机科学哲学研究的必要性主要体现在两个方面:一是为了应答计算机对传统和现时哲学观念的冲击和挑战;二是为了适应计算机科学自身进一步发展的内在需要。
我们先看第一方面。总起来说,计算机和计算机科学对人们的传统和现时哲学观念的挑战,主要表现在以下几个方面:
(1)对存在论(ontology)的挑战。一般意义上的存在论是关于事物的实在性的研究,它企图把真实的(或实际存在的)与不真实的(如假冒的、幻觉的、瞬息的)东西区分开来。但是在计算机“虚拟现实”(Virtual Reality,简称VR)情境下,“虚拟的‘现实’是你能够触摸和感受的一种实在,就像我们用真实的感官来看和听一样——不仅仅是你的心智的眼睛或耳朵。我们现在可以把‘心智之手’加入我们的思维中。事实上,通过戴上数据手套伸入屏幕,我们的真手就会变成一种技术上的隐喻,使有形的事物都能清晰可见。”[1]如果真是这样,那么存在论就必须面对如下问题:首先,什么是实在或实体?传统概念要么是指物质实在(如人之外的自然物),要么是指精神实在(如柏拉图的数学的“形式”、弗洛伊德的“潜意识”),但随着虚拟现实问题的提出,实在概念是否必须发生根本变化?实在概念要不要包括“虚拟物”以及在虚拟世界中具有代理软件功能的专家系统?也许,“实在论”的概念也将发生很大的变化。就虚拟现实而言,把网络空间作为一个现实的(现象学的)世界,这个世界有它自己独特的实体,这就是实在论?或者,把网络空间和虚拟现实处理成与使用者的经验分离开来的硬件和(或)软件的配置,这就是非实在论?
其次,什么是真实和不真实?存在论想要在真实的与不真实的东西之间找出差异,并从“不真实的”中区分出“真实的”意义是可能的吗?虚拟现实与物理实在是什么关系?虚拟世界作为参与者用计算机控制的输入——输出装置能与之交互的一种场景或经验,似乎与物理实在没有紧密的关系,因为能被视觉化的信息均可输入参与者能够经验到的虚拟世界中。也就是说,网络空间当中有许多种虚拟世界。而且,虚拟世界表征各种事物,因而这些事物便具有“人工在场”的意义。那么,海德格尔的“在场”(presence)概念必须赋予新的意义?
再次,“决定论”将再次面临冲击,也许比当年相对论和量子力学对它的冲击更大。就“规律”而论,虚拟现实的规律与物理实在的规律是同样的吗?网络空间的建筑物也许比物理实在的建筑物具有更多的维度,因而它们也许会体现出不同的“规律”。更为严重的问题是,在计算机技术面前,我们能坚持一种“技术决定论”吗?计算技术的发展必然会引起社会的变革。而个体作为社会中的一员,他没有任何真正的自由意志或自由选择,而只能参与其中使用计算技术,否则就会被淘汰。显然,计算技术对传统决定论——不管是“弱的”还是“强的”决定论——构成了真正的挑战。
(2)对认识论的挑战。计算机对认识论的冲击首先莫过于主体和客体概念了。当计算机开始出现的时候,人们自然就提出了“机器能否思维吗?”的问题。随着第一个真正的“专家系统”(Dendral系统)的诞生,作为“智能主体”(或“认知主体”、“记忆主体”等)的计算机概念便不胫而走。专家系统的创始人之一费根堡姆认为,他的专家系统作为一个可以和人们一起解决一些世界上最具挑战性的问题的“智能主体”,必将获得其应有的地位:“我们要想想,我们是一个智能主体,它们是另一个智能主体,我们和它们的能力可以互相补充。我们需要设计我们的系统,以使我们和它们可以一起工作,可以获得更好的成果。”[2]还有计算机科学家认为在电脑空间中有多个智能主体。那么,计算机本身能被称为过去只有人类才能享有的“主体”之美名吗?所谓“人工生命”——能模拟生物学意义上的生命形式的、具有人工生命的计算机软件——也算是一种主体吗?客体的概念面临的问题也许更为严重。随着“赛伯空间”(或网络空间)、“虚拟世界”(或虚拟环境)等时髦用语的流行,也在逐步改变人们先前的客体观念。赛伯空间通常作为新型计算的标志,“但其含义并非仅限于此。该词冠以‘空间’蕴意深刻,正如Lakoff和Johnson所说,有‘居于其中’之意。‘空间’并非一系列物体或活动,而是人在其中体验、行为和生活的介质。”[3]因为计算机是一种能从事计算的机器,那么我们可以把它称为“计算客体”?似乎顺理成章的是,这种计算客体就不再是被动的东西而是具有主动性和能动性?进而言之,主体与客体之间的关系也在发生深刻的变化。所谓“人机交互”(研究人如何存取计算机的资源)、“界面”(两个系统之间通信的场所)等术语,正预示着主体(人脑)与客体(计算机或机器)之间相互作用的方式有了新的途径(如界面就意味着人与数字机器之间的连接点)。
计算机革命对认识论范式的影响是直接的。就“知识”概念本身的意义来说,电子网络中的知识将具有什么意义呢?有人认为:“在电子网络背景中根本没有像知识的概念之类的东西。那里的全部东西就是人们知道或不知道的程序,或者没有告知的程序;或者是人们已发现的或没有发现的全球性超文本的位置。未来的人文科学将不会有柏拉图式的观点;相反,可能会坚持某种维特根斯坦式的观点,即不问意义,只问用途。”[4]这种说法有道理吗?就知识的获得来说,传统的“经验”概念正在被赋予新的涵义。虚拟现实本质上是人类的一种新形式的经验吗?虚拟的经验与真实的经验有什么不同?“实时处理”(发生和处理一个事件的同时性)对于人来说是一种新的反应方式?就知识的表征来说,电子网络对知识表征的影响是什么?计算机的表征方式与人的表征方式是相同还是不同?所谓“框架”(frame)、“构架”(architecture)、“蓝本”(script)、“图式”(scheme)等表征形式是人和计算机所共有的吗?虚拟现实所表征的是什么?人和计算机都用“符号”来表征吗?从过去抽象符号(自然语言、意象等)到今天的数字符号(比特和字节)的表征有什么不同?就人的思维方式来说,多媒体技术使我们从过去的印刷词语到电子词语,字处理现已成为“思想处理”的新工具,而“超文本”则打破了印刷词语所要求的线性的、序列的思维方式,必然要求一种非线性的(离散的)、自由联想的、整体论的思维方式。“由于有了计算机的支持,哲学已经明显转向整体主义,转向关联和联想,转向把具有启示意义的各种组合拼装在一起的方法。多媒体、超文本、虚拟现实表达并强化了对综合性的整体研究。”[5]
(3)对价值论的挑战。计算机对人性的挑战应该说是可怕的。当计算机“思维”似乎已不构成问题的时候,人们就提出了“人计算吗?”的问题;今天,当“计算”似乎无处不在、无时不有的时候,一个更古老的问题将再次触及人们最敏感的神经:“人到底是什么?”首先,人的价值主体的地位在计算机时代将如何确立?当计算机不仅能思维而且具有意识、情感——这在许多计算机专家看来只是一个时间问题或正确编程的问题——的时候,它们也是“价值主体”吗?人怎样对待机器,机器又怎样对待我们?有人说:“我们所能预期的只能是机器对待我们的方式,会和我们现在对待其它动物的方式一样,把我们当作奴隶,利用我们来生产能量,或是将我们关进动物园作为它们观赏的玩物。”[6]这是不是天方夜谈?进而言之,在数字文化中“意义”的性质如何?海德格尔和麦克卢汉都将“技术”视为20世纪的中心问题。前者赋予技术以一种实在的身份,而后者则发现凡意义都逃脱不出电子媒体的网眼。有人认为,在印刷文化中有可能对包含意义的文本进行思考,而在数字文化中可能性则不大。“意义”是电子文本永远可望而不可及的。这种说法站得住脚吗?
我们再来看计算机科学哲学研究必要性的第二方面:计算机科学的发展内在地需要一种哲学研究。我们想任何一位严肃的计算机科学家都不会否认这一点。首先,从计算机科学史来看,计算机的发展(无论是其设计还是制造)从本质上所依据的是“概念”,亦即使得计算机能够计算的原理或构架(architecture)是什么?直截了当地说,就是“什么是计算机?”人们能给出真正的计算机的合理定义吗?这实质上是涉及到计算机科学的“基础问题”(foundations of computer science)。而任何一门科学的基础问题,就是这门科学自身内在的哲学问题。既然计算机依据的是概念,对技术的依赖性没有那么大(或者说计算机的本质凌架于技术之上),那么哲学思维方式——无论是计算机科学家还是哲学家——就是不可避免的了。
其次,从计算机发展的现状来看,某些不适当或不合理的哲学观念实际上已经严重制约了计算机科学的发展。这里仅指出一个。例如,软件与硬件相对独立或分离的观念(在心智哲学被称为“功能主义”)。此观念致使一些计算机科学家得出“硬件不要紧”或“构架无所谓”说法。他们只注意开发软件,在设计方法的考虑中忽视硬件。而且,这种观念还致使人们把人脑和心智的关系比作硬件和软件的关系,这样就容易在计算机开发中忽视对人脑(神经网络)工作方式的参照。现在有的计算机科学家已经意识到这一点(例如“联结机”的研制就基于此种考虑)。
至于计算机科学哲学研究的可能性,简要地说几句就可以了。这主要是因为伴随着计算机的诞生和计算机科学的发展,哲学家们(也包括少量计算机科学家,如西蒙)早就敏锐地感受到了计算机对哲学将发生的可能的影响,他们自觉并富有成效地进行了关于计算机科学的哲学问题的研究。例如,普特南在20世纪50年代末他开设的《数理逻辑》课程中,就一直在讲解“图灵机”的概念,并把计算理论应用于心智哲学,于60年代初创立了“功能主义”理论。哲学家德雷福斯长期以来更是以研究人工智能的哲学问题为己任,他的名著《计算机不能做什么?——人工智能的极限》出版于1972年,并持续不懈地追踪人工智能的新发展,相继写出了《计算机仍然不能做什么?》(1992)、《超越机器的心智》(1996)等影响很大的著作。现在,许多著名哲学家,如塞尔、福多、丹尼特、萨伽德等,都为计算机科学的哲学问题的研究作出了杰出的贡献。对于我们来说,既然计算机科学本身已经比较成熟,而且对其哲学问题已经进行了长时期的研究,那么建立作为一门学科的计算机科学哲学,当然就是顺理成章的了。
二、计算机科学哲学的研究对象和主要内容
虽然原则上我们可以把计算机科学哲学界定为关于计算机科学的哲学问题研究,但作为一门学科要能够成立,还必须尽可能准确地规定它的研究对象。由于目前尚没有可供参照的观点,我们只好尝试性地提出我们的如下定义:
计算机科学哲学是关于人脑(或心智)与计算机(或机器)的相互作用关系的过程、机制及其规律的研究。为了理解这一定义,我们需作出两点说明:
第一,我们提出人脑与计算机的相互作用,而没有像传统上提主体与客体的相互作用,是因为在现今的计算机时代,人脑或心智(Brain-Mind)和计算机或机器在主客体概念中空前地被凸现出来。传统的“主体”概念把具有实践性、能动性、社会性的人作为主体,这原则上是不错的。但即便把这样的“人”作为主体,也必须通过人的“心智”——顺便说一下:目前西方学者往往把“Brain”和“Mind”在同等意义上使用——来起作用。因此,我们突出心智在主体概念中的地位,正是为了强化主体的能动性。就“客体”概念来说,在这样一个计算时代,我们面前的各种客体(其性质与特性)已经发生了根本的变化,特别是我们要面对一个在一定意义上能思维的“计算客体”——计算机。作为人的心智所面对的客体,已经不再是无机的、被动的、消极的事物,而是具有——至少在模拟意义上——有机的、自主的、积极的实体(正如人工生命、虚拟现实等所显示的那样)。一句话,我们的定义丝毫没有贬低主体和客体的地位和作用。
第二,定义中“相互作用关系的过程及其规律”的涵义不同于计算机科学“人机交互”概念。“人机交互”(human-computer interaction)简单说是指人如何存取计算机的资源,实际上是一种计算机设计观即交互式设计。由于传统的“界面”只着眼于人—机以及居于人机之间的空间概念这两方面。而交互设计则要超越于传统界面层次。这种交互包括人、机、虚拟世界、计算机网络以及各种各样的物和行为。说到底,人机交互是不断扩展的计算“构架”中的一种。而我们的提法在论域上是哲学的,是从宏观上考察人脑与计算机之间相互作用的过程、机制和规律。目标是为了找到一条能把人脑与计算机二者沟通进来的道路,最终实现人与机器的协同发展。
明确了研究对象后,我们就可以概述一下它的主要内容了:
(1)关于计算机科学的性质与特征。从哲学的高度对计算机科学的学科性质与特征进行考察。图灵、丘奇(A.Church)和波斯特(E.Post)差不多同时(约1937年)独立发明了通用计算机这一概念,这是科学史上多人同时创立某一重要理论的辉煌例子之一。计算机科学的理论本质上是数学(如图灵关于“可计算的”定义),“计算”理论是以数学和逻辑思想为基础的;计算机科学在一定意义上——如“发明”而非发现的意义上——不同于一般自然科学;计算机科学是一门构造“模式”的学科;计算机科学注重应用工程(人工智能);计算机科学是“认知科学”——作为跨学科的统一性、整合性科学——中的主导学科。
(2)关于计算机概念的本质。通用计算机——意即足以模拟任何计算装置的计算机——是计算理论的核心思想。所有计算机(以及所有其他类型的计算装置)就其所能与所不能而言,本质上是相同的。一个通用计算机,只要编程恰当,就可模拟人脑的功能。到目前为止,计算机领域仍然是基于图灵机和冯·诺伊曼概念的串行计算机占主导。串行计算机能处理数字和符号,至少在原理上是可以广泛应用的。但如果进行实时处理则显得太慢。并行计算机是基于人脑的并行处理原理去构造类似于人或动物脑的神经网络的神经计算机。协同计算机的概念来源于跨学科的“协同学”。它利用了自发模式形成和模式识别之间深刻的相似性。按其倡导人哈肯(H.Haken)的观点:“协同计算机的构造方法是自上而下的,人们首先辨认出所期望的性质,然后建立算法,这种算法最终导致技术上的实现。”[7]量子计算机是设想利用量子效应来建造功能更为强大的计算机。因为量子力学的定律引发了一系列关于通用计算机的问题。量子力学与数字计算机十分拟合,“量子”一词与“数字”一词基本上传达的是同一概念(如量子现象像数字一样仅以离散的状态存在)。如果量子计算机确实能够做到可以同时搜索无限多种可能性或并行计算,那么与现有普通计算机相比,在数量级上将更为强大。
(3)关于计算机硬件与软件(程序)的关系。从哲学上阐明计算机硬件与软件的关系的本质,是计算机科学哲学的基本问题。计算机是硬件和软件的有机结合体,但理解计算机的困难,主要是理解软件的困难。软件看起来是无形无质的,这使我们很难理解它的功能。计算机能理解软件让它理解的事情——这可以是我们人类所能理解的任何事情。软件是浓缩的知识,使计算机能把语言——无论是自然语言还是编程语言——变成“行为”。但现今关于“机器思维”的论争中一个重要问题是,如果计算机只会做程序安排其做的事情,那么原则上机器是不能思维的(因为程序本身不能发明新的规则或改变既定的规则)。我们认为,从理论上说,设计出能自学习和自适应的计算机,并编写出能从“经验”中提高的程序——计算机利用“反馈”从错误中吸取教训——是完全可能的。
“程序”概念从理论上说,一个计算机程序在形式上相当于一组差分方程。在每一个操作周期,计算机程序就将机器的新状态限定为机器当前的状态(它存储的所有内容)连同它所接收的任何新输入(信号)的函数。而且,这些差分方程不只是能够操作数字,还能处理各种符号。而从哲学上说,程序是纯粹按照形式的、句法的结构加以确定的。关于硬件在程序实现中的作用问题上,有两种不同的观点:一是简称为“硬件不要紧”(hardware did not matter)观点,因为同一类硬件能够运行无数种不同的程序;另是简称为“硬件事关重大”(hardware really matter)的观点,因为它关系到开发功能更加强大的计算机。程序与“意义”、“意向性”的关系,是一个重大的哲学问题。从编程角度讲,计算机工作的先决条件是,有限个意义明确的对象和意义明确的规则。在特定的意义明确的范围内,计算机可以执行人能从事的工作。但相对于人对信息内容的直观感受来说,计算机却不能区分有意义的信息和无意义的信息。而程序与意向性的关系更为复杂。一般说来,程序本身并不知道它所指涉或“关于”的事情,因而就无所谓“意向性”(正如塞尔的“中文屋论证”所表明的那样)。计算机程序能复制和再现科学发现这一假定提出了进一步的科学哲学问题。西蒙说:“我对科学发现的模式的持久兴趣的一个主要动因就是想表明,与现象学家的断言相反,可以设计程序去发现科学规律,发明新概念。”[8]有人认为这一假定已得到了某种证明。如Lenat的“自动数学家”(AM)程序发现了算术的基本定理和素数的概念;Langely的BACON.3程序再次发现开普勒的行星运动法则,伽利略的加速度法则,欧姆的电流法则以及理想气体法则。[9]也有人认为,计算机的真正神奇在于它不仅能处理概念的表征形式,而且能处理概念本身。计算机是一种具有想像力的机器,可以从我们为它输入的概念出发,演绎到我们人脑至今未到过的远方。于是,计算机到底能否作出像科学家一样的科学发现,是计算机科学哲学的一个重要的理论问题。
(4)关于计算机与人脑的关系。从哲学的角度来看,计算机与人脑的关系本质上是“人脑是计算机”或“计算机是人脑”的问题。这是我们这项研究中最困难的问题。因为计算机科学哲学的最终目的,就是要研究如何实现人(人脑)与计算机(机器)相统一的问题。从历史上看,思维过程的机械化(或设计一种能思维的机器)已有长久的历史。这要追溯到莱布尼茨(他梦想一架万能的思维机器)和发明机械计算器的其他人。随着电子计算机的出现,人们就理所当然地认为,人脑是像计算机那样工作的,并导致了强有力的所谓“计算机隐喻”(computer metaphor)观。计算机隐喻本身也有一个演变过程。在早期也可以说是“弱的”意义上,其含义是指计算机有“隐喻”意义上的——而不是真的——思维能力;而现在则出现了“强的”意义:人脑和计算机都是按规则操作“符号”,因而人的思维不过是一种“计算”。说到底人脑就是计算机。目前,计算机隐喻的地位和作用已成为认知科学讨论中的迫切问题。一种观点(如塞尔)认为,计算机隐喻是误导的:“把计算机比作人脑,较之先前那些对人脑的机械性隐喻,大概既不高明也不逊色。我们知道,把人脑说成是一台计算机同把人脑说成是一部电话交换机、一套电报系统、一台水泵或一台内燃机是一样的。”[10]。另一种观点则认为,计算机隐喻是人脑的“好隐喻”。[11]这一隐喻是由人工智能的创始人西蒙、纽威尔提出的,也被称为“物理符号系统假设”(简称“PSSH”)。该假设认为:一种物理符号系统,而且唯有这类系统才能具有思维能力。物理符号系统是这样一类系统,它能输入输出符号,把它们存储在存储器中,对存储器中的符号进行组合和限定,把一组组符号加以对照以了解它们的相同之处和不同之处。根据这一假设,计算机显然是一个物理符号系统,它的物理性质和运转方式可以很容易地证明它完成这些过程(仅有的这些过程)的能力。人脑也是(但并非显而易见)一个物理符号系统。它无疑能完成列入这种系统界定范围内的那些过程,它也还能完成别的一些过程。从哲学上说,符号处理模型是“计算机隐喻”的直接结果。它极力倡导计算机模拟。主张适当编制了程序的计算机能够思维。这一模型所引起的主要哲学问题是:人脑的表征与计算机的表征有何区别和联系;“表征”与“计算”是否就是心智的本质;“表征”是否需要像传统哲学那样预先假定“实在”?(或者说表征必定是实在的反映吗?)
人工神经网络模型——统一人脑与计算机的新模型——是基于人脑工作原理的启发而构造的,也被称为“联结主义”(设想大脑的某些区域是通过修正联结神经元突触的强度来掌握信息的)。虽然人的视觉系统神经元的速度比不上现有计算机晶体管的速度,但在识别物体的速度方面,人远胜于计算机。这两种工作模式的差别促使计算机科学家去探索通过不同的途径设计大规模并行计算机——即能像人脑那样充分利用并行性,同时执行上千百万种运算的计算机。一个神经网络是由人工神经元组成的一个模拟网络,它在任何计算机上都可加模拟。人工神经网络模型的主要哲学问题是:联结主义是否是通往心智的好模型?联结主义与符号处理模型是根本对立的吗?联结主义会取消“常识心理学”吗?
对“虚拟现实”技术的反思,首先涉及到的是虚拟现实的存在论问题。我们采纳海姆的看法:“虚拟现实的形而上学,处理如在场、实在的程度、对象化(第一、第三人称)、模拟对实在、心智与感官材料的比率、模拟的伦理学、虚拟环境的评价,以及虚拟现实的中央协调等问题。”[5](P.170)其次是“虚拟”、“模拟”与“真实”的哲学涵义。出现在虚拟现实中的东西不受通常的物理限制,因而有可能导致古典“唯名论”的复兴(虚拟实存的价值在整个哲学史中一直存在争论,尤其是在邓斯·司各脱的中世纪末期和唯名论开始的年代更甚)。虚拟现实中的“在场”是对海德格尔在场概念的拓展。
(5)关于电子网络与知识表征的研究。网络技术的发展不可避免地提出了“网络认识论”问题。网络和数字技术中涉及到具有三重性的知识范畴:如何获得和使用数字技术的知识;关于过去的知识和经验;知识的使用即对知识的存取和传播。知识的性质并非独立于知识得以传播和保存的各种技术,因而有必要重新讨论知识的分类问题,如知道什么与知道如何之间的区别;知识与信息之间的区别(“信息”及其“数据”本来是相当中性的技术用语,在今天它们却常常代替“知识”一词来指示我们保存下来的文化知识);操作性知识与思辨性知识之间的区别;私人知识与集体知识之间的区别;私人知识(规范的、评价的意义上)与客观知识(纯描述的、事实的意义上)之间的区别等。
电子网络对知识表征的影响表现在,“电子文本”(或数字化文本)中的概念是由非语言实践所支撑的,那么视觉思维与文本思维、视觉知识与文本知识有何不同?书写文本的逻辑与图画(图像、表格、图表、地图)逻辑的关系如何?“超文本”作为在信息海洋中导航的一种方法,它能使读者找到他们自己穿越知识丛林的道路。超文本较之传统的线性文本的优点是形成离散性思维方式,其缺点是“转向”和认知过量。这同时还涉及到电子交流与语言交流的相互作用。人们能用任何可以数字化的东西进行写作(把图像、声音和传统的书写语言串在一起而写作),语言符号在交流方面不再有任何优势。于是就出现了如下三种重要现象:与图画和声音相区别的“文本”之逐渐变小的重要性——“柏拉图意义”的丧失;作者与读者相区别的丧失;以及时间和空间距离的丧失。
(6)关于计算机价值观的研究。网络世界似乎在一定意义上超越了人的尺度,从而引出了广泛的价值和伦理问题。关键是这样一个问题:有客观的计算机属性吗?它涉及到什么是计算机的“概念”。有一种观点(如塞尔)认为,某物是不是计算机,这并非一件客观事实,而是取决于人们对这一问题持何种态度;计算机的定义是相对于某些特殊的解释而言的。但也有人认为这些看法是对“科学”的误解。与此相关的问题是,计算机能否处理“价值观问题”。一种观点认为,如果机器具备了“学习”能力,就同样存在赏罚问题,所有的学习算法都离不开评价与赏罚的机制。当机器具有多个可学习的部分时,学习算法就存在责任局部化的问题。更复杂的学习机器不仅能修改自己的行为方式,还能自行修改评价体系,此时机器也要处理价值观问题。多台这样的机器以非集权的分布方式进行合作时,就需要处理群体中个体间的评价,即广义的伦理问题。与之相反则断言,人与机器的最大区别是后者根本不会产生价值问题。最后还要探讨人本位的价值观与机器本位价值观的协调问题。有一种假设是,一旦机器智能从整体上超过人类,将会有一个机器主导的社会。在这样的社会里,机器和人都要用机器本位的价值观和机器的标准来衡量。另一种观点则提出,由于我们可把人类文化纳入机器的智能秘方,产生的机器将不完全是人工智能,而是由人工思维作为支柱的“人类智能”。一旦造出这样一种机器,断掉其电源是否合乎道德?我们认为,当我们赋予机器以人类的价值观时是要谨慎一些,但机器本位价值观的概念是值得讨论的。
(7)关于人工智能的地位和作用。将要着重探讨计算机科学与人工智能的关系以及人工智能的性质、目标和作用。我们倾向于把人工智能与“人的智能”(human intelligence)统一起来加以理解。从定义上说,人工智能不是对计算机进行研究,而是对人的思维和行为所体现的智能进行研究。计算机通常是智能的工具,因为智能理论一般能通过计算机程序表达出来。使计算机能够完成那些人类需要使用智能去做的事情。从学理上讲,人工智能更属于工程技术。关于人工智能与人的智能的关系,要研究是否有可能概括出既包括人的智能也包括人工智能都在内的所谓“通用智能理论”;关于智能与意识、理解力的关系;“图灵测验”能否作为机器智能的测验标准问题。
人工智能中的“常识知识问题”通常有两个方面:一是常识知识在智能系统解决问题过程中起何种作用,二是如何在计算机系统中“表征”常识知识,使计算机具备像人那样的常识知识或背景信息。常识知识问题说到底是人工智能的可能性问题:如果计算机不具备像人那样的常识背景的话,那么人工智能——就其让计算机模拟人的智能活动这一意义上——就是不可能的。人工智能还涉及到与逻辑的关系。人工智能的历史经验表明,它不仅应该使用逻辑,而且需要两种形式的逻辑:一是现今计算机遵循的布尔逻辑或二进制逻辑。运用这种逻辑的计算机是离散的,并且按照预定的程序得出精确的、重复性的结果;另一种是新形式的类似麦卡锡的“情景演算逻辑”或勒内特的“情态算子”逻辑那样的新逻辑形式。这种逻辑将会利用情景的背景知识作出自然的推理。
三、计算机科学哲学的方法
作为一门哲学学科的研究方法,应该满足两个要求:一是符合一般哲学方法论原则,二是要体现计算机科学的特点。为此我们认为计算机科学哲学的方法主要有:现象学方法,进化论方法,探索法,跨学科的方法。随着我们探索的深入,其方法将会更加完善。
(1)现象学方法。胡塞尔的现象学是我们计算机科学哲学的重要方法论。众所周知,胡塞尔最伟大的成就是关于意向状态内容的理论,它说明了一切心理活动的指向性。作为将“心理表征的指向性”置于哲学之中心地位的第一位思想家,他被誉为“人工智能研究之父”。正是在胡塞尔的启发之下,人们将他的现象学方法运用于对计算机的理解,从而有可能找到了一条将人的“意向性”与计算机的工作原理沟通起来的桥梁。这里,以丹尼特的“意向系统方法”最为著名。
根据丹尼特的这一方法,首先是把所有从最简单的到最复杂的实体——如分子、动植物、人工制品(如恒温器)等——都叫做“意向系统”;而把那种能看到这些实体的自主体身份(伪似的或者真实的)的视角叫做“意向立场”。“意向立场是这样一种策略,把一个实体(人、动物、人造物、其他任何东西)看作似乎是一个理性的自主体,它通过考虑自己的‘信念’与‘愿望’来对‘行动’加以‘选择’。”[12]意向立场的关键之处在于为了预测其行为而把某个东西看作自主体,并把特殊的信念和愿望赋予自主体。我们认为,丹尼特的这一方法的主要价值在于能对计算机的行为提供“解释”。例如下国际象棋的计算机。有成百上千个不同的计算机程序可以把一台计算机变成一位国际象棋手。我们可以用同一种简单的解释策略来看待这些计算机:只要把它们看作理性的自主体,它们想赢,知道国际象棋的规则和原理以及棋子在棋盘上的位置就行了。因此,总的来说,现象学方法有助于我们合理地看待计算机的行为,避免过去那种看待计算机的“人类中心主义”(这种看法把视人脑为机器、视思维为计算的观点粗暴地加以拒绝)。
(2)进化论的方法。这种方法是把“进化”的哲学观与从进化的观点开发计算机相结合的方法。目前在计算机科学界,已有不少这样的尝试。如埃德尔曼(G.Edelman)提出的“神经达尔文主义”理论。其假设是:神经联结器实际上是彼此竞争地寻找并保持它们在网络中的位置的。他的被称为“达尔文第三”(Darwin Ⅲ)的神经网络,能选择对具体输入值做出最佳反应的子网络。这种“自然选择”概念不同于其他的网络理论。它假设大脑是由不同的子网络构成的,而且将只选择那些能产生所要的反应的子网络。法国人工神经网络专家尚热克斯(J.P.Chaneux)提出了一种被称为“突触的选择性稳定”理论,用以解释为什么我们在适应了一贯的环境刺激之后,却失去了而非获得了感官灵活性。因为大脑和中枢神经系统中的神经联结的成长、发展和固定,是根据优先选取使用的模式而定的。我们用习已为常来锻炼我们的神经系统,就像运动员锻炼自己的肌肉一样。联结机的研制者希利斯近期提出了“模拟进化”的方法,以取代传统上的工程设计方法。其要义是在计算机上模拟生物进化的过程(或使软件“进化”)。他认为:“模拟进化本身不是一种解决思维机问题的方法,但却向我们指出了一条正确的方向。关键的概念是把分层体系设计的复杂度重负转移到计算机的组合能力上。本质上,模拟进化是一种探索法搜索技术,搜索空间为所有可能的设计方案。”[13]之所以要模拟进化,主要是因为人脑正是进化的产物。人脑充分利用了两种机制的优越性:它既是学习的产物,又是进化的产物。我们认为,既然计算机科学家如此重视进化的意义,那么我们进一步从哲学的高度探讨进化论对开发、理解计算机的意义,就是至关重要的了。
(3)启发式方法(heuristic method)。这种方法较好地体现了计算机科学方法与哲学方法的统一。西蒙和纽威尔在构想《逻辑理论家》程序时,曾从数学家波尔亚(G.Polya)那儿借用启发式这一术语。这是一种明确表达出来的解决问题的方法。比如,如果你证明Y,并且知道X蕴含Y,那么你可以去证明X而不是Y。(这种特殊的启发式对那些曾在中学学过几何的人是很熟悉的:当试图证明一个几何图形的两边相等时,可以看看包含这些边的三角形是否全等。)然后他们确定好搜索策略,这个策略包括从一个全局命题表中取出一个命题,然后对它应用所有可能的启发式。每种启发式可能引入一个新的需证明的命题,这个新命题将加入命题表或取代其中的一个命题。比如,如果需证明的命题是“苏格拉底必有一死”,给出公理“所有人都必有一死”,便可以应用启发式以命题“苏格拉底是人”代替“苏格拉底必有一死”作为需证明的命题。
在计算机科学中,一个“规则”,如果趋于(而不是确保)得到正确的解,即为启发式。启发式几乎总是行之有效(它往往比算法更实用,如“旅行推销员问题”就有许多有效的启发式)。利用启发式去搜索可能性的集合,这在计算机程序设计中极为有用。从哲学上说,启发式通常是计算机解某些问题时发现创造性的解——这类问题的解通常在“搜索空间”即可能性的一个大而有限的集合之中——的一种方法。正是在启发式方法这一点上,我们可以找到计算机和人在问题解决中的共同性。
(4)跨学科的方法。这是目前“认知科学”(cognitive science)所倡导的一种方法。由于在认知科学的跨学科研究中,计算机科学是其中最重要的学科之一,所以在我们的计算机科学哲学中,运用跨学科的方法应该是富有成效的。从总体上说,运用这一方法是由我们的研究目的所决定的。既然我们要研究人脑与计算机的相互作用关系,那么首先就需要计算机科学家和哲学家的密切合作。由于我们要研究一门关于计算机的科学哲学,故而哲学家理当起主要作用。事实上,正是由于有了不少哲学家的预备性研究,我们才可能提出建立一门计算机科学哲学的问题。目前,已有许多计算机科学家认识到了哲学家工作的价值。例如著名计算机科学家维诺格拉德(T.Winograd)在分析人工智能发展史的经验教训时指出:“正如计算机发展初期某些哲学家,如德雷福斯所指出的那样,人工智能的主要尝试依赖于一种关于人的智能与行为的观点,该观点含蓄地认定所有智能均可用某种机制创制出来,这种机制天然地类似于语言中所凸现出来的对事实有意识的逻辑操作。看来趋势上不可避免之物却是建立在对智能基础的错误理解之上的。尽管业界多数认为基于哲学的批评是不准确和不相关的,但时间流逝已使之看上去比现时可见的更技术性的指标要更发人深省和更具预见性。”[3](P.244)显然,人工智能问题并非是我们达到每秒数百万次逻辑推导的技术水平或发明新算法就能解决的问题,而是在于我们对“智能”进行构想的某些基础性的东西。因此,哲学家将会对审查我们的基本假定,确立人工智能的新思路、新起点作出贡献。当然,哲学家要虚心地向计算机科学家学习,必须尽可能真懂计算机特别是计算机的“概念”。避免过去曾出现过的某些错误,如在关于“计算机的局限性”的讨论中,把算法的局限性等同于计算机本身的局限性;把国际象棋说成是体现了人类独有的思维而计算机则不能的武断观点,等等。最后还要指出,跨学科的方法不只限于计算机科学和哲学,与心理学家、神经科学家、语言学家和人类学家的合作也有助于我们的研究。
收稿日期:2004-04-19
标签:计算机科学论文; 计算机的发展论文; 哲学研究论文; 系统思维论文; 符号计算论文; 计算思维论文; 心智模型论文; 关系处理论文; 虚拟现实论文;