人工智能会超过人类智能吗?,本文主要内容关键词为:人工智能论文,人类论文,智能论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
我们应当怎样判定人工智能的历史地位?怎样估计人工智能的发展前景?怎样认识人工智能和人类智能的相互关系?与其说是技术问题,不如说是哲学问题。我们必须突破具体科学的局限性,从哲学和世界观的高度俯瞰人工智能,建立起一种有别于传统智能观的新观念来。
(一)
长期以来,人们一直把人工智能仅仅看成是人的产物,但是人工智能不仅是人的产物,在更广泛、更深刻的意义上,它是自然进化到一定阶段的产物,即进化到智能生物阶段的产物。列宁说:“对于那种看来完全没有感觉物质如何跟那种由同样原子(或电子)构成但却具有明显的感觉能力的物质发生联系的问题,我们还需要研究再研究。”[1] 这个思想很重要,它表明列宁并不认为智能是自然界给予人类的一种突如其来的恩赐,而把智能看成自然进化的结果。虽然他在这里仅仅提到了感觉问题。
在辩证唯物论看来,一切发展变化,都是物质的发展变化。从最简单的机械位移到最复杂的社会运动都遵循统一的客观规律。因此,由人类引发的包括人工智能在内的一切变化(即所谓“第二自然”),同样是自然界进化过程的一部分。它可能是其中的一个环节,也可能是其中的一个分支,但决不可能独立于自然的客观进化过程之外。
从控制论和信息论的观点来看,自然界的进化过程并不是从一种物质形态或物质结构向另一种物质形态或结构的进化。就其本质来说是一定量信息对物质、能量进行的组织和控制方式的进化过程。控制论从热力学第二定律中引入了关于熵的概念,把信息定义为负熵。在热力学中,熵是混乱性和无序性的度量。而在控制论和信息论中,负熵是组织性和有序性的度量。自然界的进化过程,也就是从混乱到组织,从无序到有序的发展过程。把组织与混乱,有序与无序作为哲学范畴,可以准确地描述包括生物和非生物系统、技术系统、人类社会乃至人类思维在内的任意客观存在的物质系统的发展变化。人类之所以比其它动物具有更高的进化水平,并不是由于两者在物质材料和能量需求方面有什么本质区别,而在于人类拥有更多的信息,因而导致了对物质和能量的不同的组织和控制方式。使得物质、能量和信息能够统一成为具有更高有序性的生物系统。美国科学家卡尔·萨根曾经仔细地研究过DNA 中的信息含量同生物的发展程度之间的关系。他发现,越是高级的生物,DNA 的信息量就越大。细菌的DNA信息量约为几百万比特,而人类DNA的信息量却在二百亿比特以上。[2]而包含在DNA中的遗传信息仅仅是人类所拥有的信息中的极小一部份。所以我们常说人脑是高度组织起来的物质。
毋庸置疑,以人类为标志的,以蛋白质为载体的智能是自然界进化的最高物质系统。但是,从智能的进化进程来看,这种蛋白质智能却只是智能发展过程的最初阶段。在自然界进化的过程中,虽然智能首先表现为蛋白质智能,但并不意味着蛋白质是一种神秘的特殊物质,更没有理由把它看成是智能存在和发展的唯一载体和最高形式。既然没有感觉能力的“原子(或电子)”可以构成蛋白质这样的智能形式,为什么又不能构成另一种智能形式呢?因此,这里所坚持的仍是辩证唯物论而不是“特创论”!
人工智能系统目前以硅磁材料作为信息载体,在计算机软件的组织和控制下运行。但这还远远不够,现在的人工智能系统尚未具备一个进化系统所必须的自我更新和自我复制特性。其原因在于第一,信息载体的信息记录密度还不够高,因而信息量离一个进化系统仍有很大距离。第二,对一个进化系统所需要的巨量的信息本身,还缺少一个相应的强有力的组织手段,否则大量的信息不能被有效利用。这两个问题能不能在可以预见的将来得到解决呢?答案是肯定的。事实上,当前正在兴起的纳米技术和自生软技术已经使我们看到了人工智能系统自我进化的曙光。
纳米技术是在微电子技术的基础上发展起的新兴技术。[3] 纳米技术使人类能够直接把握单个原子。美国科学家已经用单个原子排列成了“IBM”字样。[4]这就是说纳米技术的诞生使得人工智能系统有可能以原子的密度来进行信息存储,使人工智能系统的信息记录密度达到甚至超过人脑的记录密度。
人工智能系统不仅需要拥有巨量的信息资源,还要具有信息不断延续的特性。否则,便不能实现遗传和进化。人工智能理论认为,生物作为一种可以自我进化的系统是由信息(DNA )指示蛋白质生成器(ribosome)去制造出蛋白质(protein)而形成的。由于它能自我生成与更新,所以可以永久生存,不断进化。而大量的人工产品如汽车、飞机、以及非人工智能计算机等,由于产品本身缺少传递再制造的信息与生成器,所以损坏以后不能再自我生成,更谈不上自我进化。要使它们具有不断进化的生命力,就必须用软件的方式实现信息的遗传和继承,使其象生物系统一样自我繁殖,自我进化。具有这种特征的软件系统就是自生软件系统。[5]
自生软件不仅为人工智能系统的自我进化开辟了道路,而且还把人工智能系统纳入了同其它自然种群没有区别的物竞天择、优胜劣汰的进化过程,从而把智能进化乃至生命进化的自然过程推向一个崭新的发展阶段。
如果我们从直接的因果关系上看,人工智能确实是人类的创造物,作为结果,它依赖于作为原因的人类智能。但如果我们追溯智能发展的历史,展望智能发展的未来,人工智能显然又是其中承先启后的环节。我们没有任何理由认为这两个物质过程之间存在有不可逾越的鸿沟。不管人类创造这个神奇东西的目的是什么,人工智能的发展结果都是人类无法按照自己的主观愿望进行控制的。它只遵循它自身固有的客观规律。就像资本主义创造了强大的生产力但却没有办法控制它的发展方向一样。人类自以为主宰着世界,其实这只是一种肤浅的幻觉。了解西方哲学史的人都知道黑格尔先生的宇宙发展观:在辩证法的原则支配下,绝对精神把自己外化为自然,自然又通过人的意识回归绝对精神,进程完全由内在规律支配。如果把这种头足倒立的辩证法颠倒过来,我们是不是可以从这位伟大哲人的智慧中获得一些发人深省的启示呢?
(二)
人脑作为思维的器官,是一切思维和智能的源泉。然而,由于人脑结构的极其复杂,其功能不仅与脑的静态结构有关,还与神经细胞的动态结构有关。因而对思维和智能进行微观层次的研究十分困难。使思维和智能被蒙上了一层神秘主义的面纱。虽然人们普遍承认思维和智能都是大脑的机能,但却又同时假定在思维和智能中存在着一个人类独有的主观世界,它不能归结为纯粹的自然过程,如不能归结为人脑的物理和化学的活动过程。直到目前为止,这种人类思维和智能的超自然论思想,仍然是许多人科学地理解思维和智能问题的严重障碍,也是许多人为人工智能的发展设定最终界限的基本依据。这种观点认为,即使人工智能系统能够实现对人类智能的模拟,它也不能实现对人类智能的全面模拟。很明显,这种超自然论思想实际上是不可知论在思维和智能研究领域里的表现。
辩证唯物论认为,不管人的思维活动和智能活动如何复杂,归根到底,仍然是物质的运动的一种形式。和其它任何一种物质运动形式一样完全是可以被认识的。因而也是可以被模拟的。精神的东西不仅是由物质的东西产生的,而且完全可以用物质的东西再现出来。只有这样地认识问题,才能真正把唯物主义贯彻到底。从这一意义上讲,人工智能将肩负起把不可知论从思维领域中彻底逐出的历史重任。
脑电生理学的研究表明,人脑神经细胞不论大小,形状如何,都全部采用两类电信号——动作电位和分级电位来处理和传导信息。而神经化学的研究则证明,人脑神经元的突触之间的信息传递是靠化学信号完成的。这类传递化学集中的物质大约有20多种,基本上可以分成兴奋性物质和抑制性物质两大类。人类的各种心理现象都和以上两种物理变化和化学变化相关。[6]
上述科学发现告诉我们,人类思维和智能活动中的那些原本以为非常神秘的特性,如社会性、主观能动性以及各种情感特性都是在普通的生物电过程和生物化学进程中实现的,都是信息处理的宏观反映。人脑不过是一个精密而复杂的天然信息处理系统。尽管这个系统的许多规律还没有被充分地了解和认识,但它的一切活动都是物质的运动,却再一次在科学上得到了证明和肯定。既然我们认为世界是可知的,那么人类为什么不能象认识其它客观事物一样实现对思维和智能的认识呢?为什么不能把思维和智能活动的结果按照它的条件再产生出来呢?
有一种看法认为,用这些物质过程来解释人的思维和智能活动,是把高级运动归结为低级运动,把生命运动归结为物理的或化学的运动,因而是一种倒退。这种看法是非常片面的。运动形式的高级与否,并不是由物质结构的层次来规定的。不同层次的运动,如原子的运动和分子的运动之间,并无高低之分。运动的高级或低级(简单或复杂)是按系统的有序程度的高级或低级来划分的。电子的、机械的、化学的或是其它的非生命的系统,只要它们承载着足够的信息,具有高度的有序性,就同样是一种复杂的高级运动形式。
诚然,恩格斯在上个世纪曾经说过:“终于有一天我们可以用实验的方法把思维‘归结’为脑子中的分子和化学的运动;但是难道这样一来就把思维的本质包括无遗了吗?”[7]在恩格斯生活的那个时代, 人类对大脑的认识几乎等于零,对分子和原子一级的生理过程闻所未闻,对控制论、信息论等科学更是一无所知。我们不应当忽略了这一点。恩格斯在当时能预见到对脑的研究有可能发展到微观层次,这已经是非常了不起的了。对一百多年以前的人,我们还能苛求些什么呢?
(三)
在人工智能目前的发展水平上讨论人工智能同人类智能的相互关系似乎还为时过早,但只要我们承认人工智能的自我进化,承认人类智能的非神秘性和可模拟性,这一问题终究是不可回避的。
就我们目前已有的宇宙知识来说,人类是最高级的智能系统。而且人类的智力随着每个个体人的不断学习和整个人类的不断进化,还会不断地提高和发展。这种发展事实上可以被看成是没有止境的。但是,这只是问题的一个方面。从另一方面来讲,我们又不得不承认地球上的人类,就宇宙的时空范畴讲仅是局部的、瞬时的现象,它不是宇宙发展的极限。大量事实已经表明,无论是一个个体的人还是一定时期内的整个人类,他的自然智力(即一个不使用任何工具的裸人所表现出的智力)是存在许多局限性的。自本世纪以来,人类的自然智力的这些局限性,已经使人类在大量信息的世界中手忙脚乱,力不从心。并且由于进化的本质是信息的增加。进化的程度越高,产生的信息量就越大,人类智能信息处理能力同等待处理的信息之间的矛盾将会更加尖锐,如果不能有效地缓解这一矛盾,后果是极其严重的。在这种历史背景下,在人工智能的当前发展水平上,人类同人工智能系统的关系只能是一种共存共荣,唇齿相依的关系。通过人工智能系统突破人的自然智力的局限性,达到对人脑的部分代替、延伸和加强的目的,使人能够去完成单靠人的智力无法完成的复杂任务。因此在某些方面,人工智能系统超过它的生物原型,这是理所当然的,也是人类所期望的。
目前的人工智能系统当然是十分幼稚的,在处理意外事件和具有组合爆炸性质的问题方面的能力离实际要求差距甚远。美国在越南战争中依靠机器去决定国策和军事行动,就是滥用人工智能的一个声名狼藉的例子。因此,在目前和今后相当长的时间内,人类智能和人工智能作为智能运动的两个矛盾方面,将按照对立统一的原则构成人—机复合系统。在这一系统中,它们相互促进,共同解决在发展的过程中所遇到的困难。但人仍将是主要的矛盾方面。这种人—机复合智能,我国的一些学者把它称之为“大成智能”,意即集人类智能和人工智能之大成。[8]
如果在稍微遥远一些的将来,人工智能系统进化到了十分高级的阶段,按照《新华文摘》1994年第7期苟志效的一篇文章的说法, 由于智能科学和仿生学的发展,2030年就有可能出现劳动型的智能动物。这种说法有可能过于大胆了一些,但将来的人工智能系统不仅有与人类相当的智能和自我意识,甚至就连外部形态也足以乱真,真的以“人”的身份和面貌参与到人类社会之中则是完全可能的。到那时候,它们和人类之间的关系究竟会如何变化呢?具体的细节现在我们很难预料,甚至连设想也是很困难,因为这种关系的确定并非仅仅取决于人类,它同时也取决于人工智能系统。截至目前为止,科幻小说或电影中的机器人,许多都会作出背叛人类的举动。最典型的情节是:机器人由于受到自我意识和死亡等问题的困扰,为了延长已被人类设定的有限生命,而不惜一切代价向人类发动进攻。以至著名科普作家阿西莫夫在50多年前就提出“机器人三法则”来规范人类和机器人之间的关系。[9] 这些科幻作品和阿西莫夫的机器人法则也许不太严肃,但其思想背景是值得深思的。它们反映了人类的一种心态,隐含着对具有自我意识和独立人格的非人类智能系统的承认。我们不能否定这是现代人类对自身前途的一种看法,不能否定它们在一定的程度上反映了人类的某些深层的忧虑和困境,反映了人类对自身是“万物灵长”的信念的动摇。
(四)
现在,我们正站在21世纪的门槛上。在我们跨进新世纪的时候,特别需要仔细地审视我们已有的观念,哪怕它们看起来是如此的合情合理,令人赏心悦目。否则,在新的世纪到来的时候,观念和现实的冲突将有可能使我们自己将自己置于一个尴尬甚至是痛苦的境地。像人工智能这样直接涉及到人类在自然界中的地位的问题,更是尤其应当引起重视,我们不能背负着人类沙文主义的包袱跨进一个新的时代。即使将来有一天,人类智能在竞争中不幸失败,这对于一个彻底的唯物主义者来说又有什么关系呢?凡是现实的,都是合理的;凡是合理的东西,都注定要转化成现实,不管它现在看起来是多么的不可思议。
100多年前, 赫胥黎在同威尔伯福斯特大主教进行的那场著名的人猴论战中说:一个人没有理由因为猴子做他的祖先而感到耻辱。同样,人类也没有理由因为有了另一种比他高级的智能系统而耿耿于怀,更没有理由因为自己的智能也同样受到自然规律的支配而寝食不安。人类的伟大,并不在于它的超自然性,也不在于它的不可愈越性,而在于它作为自然进化过程中的一个普遍环节,破开荒地有可能孕育出超过自己甚至取代自己的东西来。还有什么样的成就能比创造出比创造者还要完美的东西而更加崇高和伟大的呢?
注释:
[1]《列宁选集》第2卷,第41页。
[2]参见(美)卡尔·萨根《伊甸园的飞龙》。
[3]参见《计算机的发展仍深具潜力》,1995年2月15日《计算机世界报》。
[ 4] 参见《量子元件将导致一场电子技术革命》, 《新华文摘》1993年第7期。
[5]参见《自生软件系统的理论和方法》,1993年2月6 日《计算机世界报》。
[6]、[7]参见《科学智慧面临自我挑战》,《新华文摘》1994年第7期;《神经科学——生命科学的排头兵》,《新华文摘》1995年第3期。
[8]参见《我们正面临第五次产业革命》,1994年2月23日《光明日报》。
[9]参见《有意识的机器人》,《奥秘》1994年第9期。