论机器伦理_伦理学论文

论机器伦理_伦理学论文

机器伦理刍议,本文主要内容关键词为:刍议论文,伦理论文,机器论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

      中图分类号:G301 文献标识码:A 文章编号:1674-7062(2016)01-0096-06

      随着现代科学技术的快速发展,机器(人)与人的差异在逐渐缩小,人类对机器的依赖越来越深。为了使机器更好地为人类服务,机器伦理①是我们必须认真思考的问题。本文试图就机器伦理的必要性、主要障碍与解决的可能性以及实现路径等问题做出初步探讨。

      一 机器伦理的必要性

      机器是人类智慧的结晶,它们在许多方面已经超越了人类。在机器能力日新月异的当代,至少有以下三个方面的原因突显了机器伦理的必要性。

      第一,机器力量的日益强大及其潜在的巨大破坏力。比如,现有的民用飞行器一般都可以载客数百人,并装载大量燃料,一旦失事就会导致巨大的人员伤亡和财产损失。飞行器对人类产生破坏作用主要源于两个方面的因素,即机器本身的故障以及人为因素导致的破坏。2009年法航447航班坠海事件可能是由于这两方面的综合因素造成的,而2014年的马航失联客机则可能主要源于人为因素。

      为了最大程度减少机器故障导致的事故,就需要提高机器的安全性能。飞机的基本目标是把乘客安全地送达目的地,对飞行器本身的技术性能而言,这主要是制造商的责任与义务,属于工程伦理学的研究范畴。对于机器伦理来说,我们更需要关注的是第二方面,也就是如何避免(特别是主观故意的)人为的因素导致的事件。比如,劫机者通常需要改变飞机的航线和目的地,如果马航失联客机与歹徒劫机有关的话,这次事件跟“9·11事件”一样,客机都受劫机者的威胁,完全偏离了既定的航线。如果飞机具有伦理判断能力,认为航线的改变可能导致重大事故,从而拒绝诸如此类的操作,飞机自主地按照原定目标飞行,从理论上可以避免重大事故的发生。

      美国达特茅斯学院哲学系教授摩尔(James H.Moor)把内在地按照某种伦理规则运行的机器,根据其伦理判断与行为能力从低到高区分为隐性道德行为体(Implicit Ethical Agent)、显性道德行为体(Explicit Ethical Agents)以及完全道德行为体(Full Ethical Agents)。[1]根据摩尔的分类,我们可以把具有一定的伦理判断及行为能力的飞机归为显性道德行为体。在摩尔看来,显性道德行为体在避免灾难的情景中可能是最佳的道德行为体。因为人类在获取与处理信息方面可能不如计算机,而且在面对复杂问题时,需要快速做出抉择,在这方面计算机比人类更有优势。因此,为了避免飞机被劫持而导致类似于马航失联航班事件以及恐怖袭击事件等情况,将现有的大型飞机发展为显性道德行为体可能是最有效的方式之一。

      第二,机器自主程度的不断提高。目前许多国家都在积极研发军用机器人,而军用机器人的一个重要发展趋势就是自主性在不断提高。比如,美国海军研发的X-47B无人机可以实现自主飞行与降落。韩国、以色列等国已经开发出了放哨机器人,它们拥有自动模式,可以自行决定是否开火。显然,如果对军用机器人不进行某种方式的控制的话,它们很可能对人类没有同情心,对目标不会手下留情,一旦启动就可能成为真正的冷血“杀人机器”。为了降低军用自主机器人可能导致的危害,必须让它们遵守人类公认的道德规范,比如不伤害非战斗人员、区分军用与民用设施等。虽然现有技术要实现这样的目标还存在一定的困难,但技术上有困难并不意味着否定其必要性与可能性。

      需要强调的是,机器伦理不是去阻碍技术的发展,而是要让技术更好地为人类服务。在机器拥有越来越强的自主性的背景下,人对机器的控制逐渐减弱,这就必然要求机器自身对其行为有所控制,从而尽可能减少或避免机器产生的负面影响,而机器伦理就是实现机器自我调控的重要手段。

      第三,人类对机器依赖及其可能产生的负面效应。如果没有各种机器的参与,现代社会将是无法想象的。随着拥有越来越强大智能的机器人的涌现,微软公司创始人比尔·盖茨(Bill Gates)甚至预言,机器人将会像个人电脑一样走进千家万户。[2]目前,儿童看护机器人在韩国、日本和一些欧洲国家得到广泛重视。日本和韩国已经开发出了实用的儿童看护机器人,具备电视游戏、语音识别、面部识别以及会话等多种功能。它们装有视觉和听觉监视器,可以移动,自主处理一些问题,在孩子离开规定范围还会报警。[3]精确的量化研究表明,在跟机器人相处几个月后,幼儿像对待小伙伴那样对待机器人,而不是把它们看作玩具。[4]显然,儿童看护机器人可以作为幼儿的亲密玩伴,特别是对缺少小伙伴的幼儿来说可能更重要,因为它们的效果比一般的玩具要好得多,可以让他们更开心。而且,儿童看护机器人可以减轻家长的负担,使他们能有更多的自由时间。我们可以大胆地估计,将来儿童看护机器人会走进中国家庭,人们对儿童看护机器人的依赖也会逐渐加深。

      但是,机器人是否可以取代,或者说在多大程度上可以代替成人的照顾呢?如果把孩子完全交给机器人,会发生什么样的情况?虽然机器人技术的发展会使得儿童看护机器人做得越来越好,但是,把儿童完全交给机器人看护确实存在一定的风险,因为家长的照顾与机器人的看护有着根本性的区别。如果孩子从小与机器人一起长大,他们可能会认为与机器人在一起的世界是真实的,与人类在一起的世界反而让他们更难接受。对于幼儿的健康成长来说,家人的关爱是无法替代的,机器人只能起到辅助作用。现在已经开发并投入使用的助老机器人也面临类似的伦理问题。

      那么,如何消除或减少这些潜在的风险?通常可以想到的办法就是给看护机器人的应用设定一个限度,从而避免家长把儿童长时间交给机器人看护而导致不良的后果。目前,不少国家在工业机器人领域制定了一些安全准则与法律法规,但对于儿童看护与助老机器人的应用限度还缺乏相应的政策与法律法规。

      二 机器伦理的主要障碍与解决的可能性

      简言之,机器伦理研究的主要目标就是让机器具有一定的道德判断与行为能力。由于人类道德行为的复杂性以及当前科学技术发展的局限性等原因,使得机器伦理的实现面临着诸多障碍。

      第一,伦理理论选择的困境。伦理学是一个古老的学科。从总体上说,传统的西方伦理学可以划分为三大理论系统,即理性主义、经验主义和宗教伦理学,不同的理论系统遵循不同的道德原则。19世纪中下叶以来,西方伦理学还经历了一个从古典到现代的蜕变过程。[5]中国的伦理思想也经历了一个从古代到近现代的转变过程,历史上有多种流派此起彼伏,理论形式与西方相比也存在一定的差别。面对古今中外形形色色的伦理流派与理论,对于机器伦理来说,应该选择何种伦理思想作指导?从理论上讲,似乎每一种伦理理论都有其合理性与局限性,而且伦理思想跟不同的社会文化、经济发展水平等因素颇为紧密。因此,要为机器寻找一个完善的、能够解决所有伦理困境、让所有人都满意的伦理理论完全是不可能的。当然,这并不是伦理相对主义的表现。因为伦理相对主义认为不存在正确的伦理理论,伦理无论对于个人还是社会都是相对的。大多数伦理学家都拒斥伦理相对主义,因为它使得我们无法评判别人的行为。

      尽管寻找一个普适的伦理理论是不可能的,但伦理学家仍然相信确实存在大家都认为是错误的行为,比如奴役和虐待儿童都是不对的。大多数伦理学家也相信,原则上对所有的伦理困境来说都存在正确答案,而且,对于一些有争论的领域,我们可以尽量避免机器自主做出决定,而由人类来抉择。更重要的是,在特定的案例与情境中,什么是伦理上可以允许的,什么是不可以允许的,人们一般可以达到广泛的一致。而且,人们总是在某个具体领域中使用机器,在某个特定领域之中讨论哪些是伦理上可以接受的,哪些是不可以接受的,相对于寻找一个普适的伦理理论而言要容易得多。[6]也就是说,虽然在机器伦理中找到普适的伦理理论与原则有相当的困难,但具体到某个技术领域,从技术操作和机器功能的角度看,确实存在着某些可以明确界定的伦理原则。对工程师和科学家来说,可以把这些伦理原则理解为某种限制。就大型客机来说,客机可以拒绝飞行员明显是错误并可能导致严重后果的操作,并采取进一步行动,比如及时向地面指挥中心报告,并转为自动驾驶等。

      第二,哲学语言的模糊性与计算机程序的准确性之间的矛盾。在确定某些伦理原则之后,要真正在机器身上实现,还需要做大量的工作。许多伦理学原则与概念内涵丰富,比如尽量减少伤亡、不能虐待、战争中不伤害平民,等等。如何在计算机程序中界定“伤亡”“虐待”等术语,显然并不是那么容易的。计算机程序对准确性要求很高,要使机器伦理真正得以实现,这些基本的术语究竟意味着什么,必须给予清楚界定。

      如何在计算机当中实现伦理原则,这是哲学家、计算机科学家需要思考的关键问题。有三种逻辑及其混合模式可能会起到关键性的作用,即道义逻辑、认知逻辑与行为逻辑。[7]这三种逻辑形式原则上为在计算机软件中实现伦理原则提供了理论工具。事实上,如何通过计算机程序实现某些伦理理论,学者们已经做出了初步尝试。比如,美国哈特福特大学计算机专家迈克尔·安德森(Michael Anderson)和康涅狄格大学哲学系教授苏珊·安德森(Susan Anderson)等人开发了两种伦理顾问系统,一个是Jeremy——基于边沁(Jeremy Bentham)的行为功利主义(Act Utilitarianism),另一个是W.D.——基于罗斯(William David Ross)的“显而易见的义务”(prima facie duties)理论。系统程序实现了这两种伦理理论的核心算法,其目标是从一系列的输入行为中判定伦理上最正确的行为,并做出相应的评价。实验表明,两个顾问系统都直截了当地实现了它们各自的伦理理论。[8]当然,安德森等人的研究还是比较初步的,两个伦理顾问系统对伦理困境的深入细致的分析还存在一定的困难。但是,这项研究毕竟是在机器中实现伦理理论的良好开端。总的来说,从理论上实现机器伦理主要有人工智能、心理学、社会学以及哲学等几种路径,具体内容在下一部分展开论述。

      第三,情感与道德之间的关系问题。情感与道德之间的关系问题一直是哲学家关注的一个重要话题。休谟认为:“在任何情况下,人类行动的最终目的都决不能通过理性来说明,而完全诉诸人类的情感和感情,毫不依赖于智性能力。”[9]也就是说,在休谟看来,道德领域主要是情感,而不是理性在发挥作用,这也是情感主义伦理学的基本立场。另外,现代认识神经科学也证明了情感在道德活动中的重要作用。[10]

      人们一般倾向于认为机器虽然擅长快速计算,但对于复杂的人类情感问题却难以把握。林德宏指出:“人之情,既是对客观世界的反映,又是主观的内省。人的感情的变化没有固定的模式,具有很大的不确定性。感情是人的最复杂的要素。”[11]不过,从计算主义的角度看,不仅大脑和生命系统是计算系统,而且整个世界事实上就是一个计算系统。[12]也就是说,情感、意识等一般认为只有人类才具有的特质,也可以在机器身上得以实现,只不过是实现程度或何时能够实现的问题。计算主义的观点得到不少学者的支持,也引起了相当多的争议,计算主义的支持者对一些引起争议的问题也做出了回应。[13]虽然计算主义可能存在一定的缺陷,但以此为基础的人工智能研究取得的成果说明它确实具有一定程度的合理性。我们相信,随着认知科学和人工智能的进一步深入发展,在机器中模拟人的感情并不是天方夜谭。

      另外,较低层次的机器伦理可能并不需要情感的因素。瓦拉赫(Wendell Wallach)等学者根据自主性和敏感性两个维度,从低级到高级将机器伦理分为“操作式道德(operational morality)”“功能式道德(functional morality)”和“完全道德行为(full moral agency)”等三个层次。操作式道德属于工程伦理的研究范畴,即工程师自觉地用他们的价值观影响设计过程,并对其他有关人员的价值观保持敏感性。因此,操作式道德主要控制在工具的设计者和使用者手中。功能式道德领域包括具有高自主性但伦理敏感性低的系统,或者是低自主性但伦理敏感性高的系统。自动驾驶系统属于前者,人们相信复杂的飞行器可以在各种情况下安全飞行,不需要人类较多的介入。[14]即使人类的道德判断与情感密不可分,但实际上人类的情感对道德判断的影响并不完全是正面的,甚至有可能会有负面影响。较低层次的机器伦理如果没有感情的投入,可以做到更为客观和理性。对于航班安全性的判断而言,客观与理性是必需的,并不需要情感的涉入。对于儿童看护机器人或助老机器人来说,可能需要更多的情感因素,这有待于机器人技术的进一步发展。

      三 实现机器伦理的理论进路

      目前,机器伦理的研究主要是在理论层面上进行的。总的来说,来自不同领域的学者主要从以下三个方向的理论进路考察机器伦理实现的可能性。

      第一,人工智能进路。目前,人工智能的路径基本上是依据某种伦理理论,编写出计算机程序,然后分析程序运行结果是否达到预期目标。比如,美国卡内基梅隆大学的麦克拉伦(Bruce M.McLaren)设计了两种伦理推理的计算模型,这两种模型都是基于案例进行推理,体现的是所谓决疑术(Casuistry)的伦理方法。但是,麦克拉伦认为,他设计的两个模型并不是为了让它们做出伦理抉择。虽然研究结果是做出了伦理决定,但做出最终的抉择是人类的义务。而且,计算机程序做出的决定过分简化了人类的义务,并假定了“最佳”伦理推理模式。他强调,他的研究只是开发一些程序,为人类面临伦理困境时提供相关的信息,而不是提供完整的伦理论证和抉择。[15]

      尽管已经有不少学者设计出了一些计算机程序,在一定程度上也可以实现预期目标。但是,学者们大多都认为自己的研究成果只是阶段性和探索性的,对于真正圆满地解决实际问题还有较大的差距。事实上,学者们在设计程序的过程中所依据的基本理论、预期目标与最终结论都存在较大的差异。而且,在现有的实现机器伦理的人工智能路径方面,主要是关注于伦理推理过程,而且设计的理论模型总的来看都比较简单,更何况伦理推理模型的结果如何通过机器具体地展现出来还需要更详尽的研究与试验。

      通过人工智能路径实现机器伦理的另一种方式是艾伦(Colin Allen)等人称为“自下而上的进路(Bottom-up approaches)”。艾伦等人把“运用某些道德原则或理论作为选择哪些行为合乎道德的判断准则”称为“自上而下的进路(Top-down approaches)”,“自下而上的进路”不把某些道德理论强加于机器,而是提供可以选择和奖励正确行为的环境。这种方法着力于开发道德敏感性,日积月累地从现实经验中学习培养道德意识与判断能力。该方法就像在社会环境中成长的小孩子,通过识别正确与错误行为来获得道德教育,而不必给他提供一个明确的道德理论。[16]自下而上的进路具有明显的灵活性、动态性,但对于机器的学习、理解等能力要求较高,可能需要较长时期的努力才能在一定程度上实现。

      尽管通过人工智能进路实现机器伦理的方法尚未成熟,从事相关研究的学者对自己的研究及其结果都比较谨慎,但大家的态度普遍比较乐观。我们相信,人工智能进路是实现机器伦理最基本的模式。

      第二,心理学、社会学进路。这种研究进路主要是通过研究社会现实中人类的行为与思考方式,把人工智能与人类伦理推理中的社会、心理等因素整合起来进行考察,从而使机器伦理与人类伦理更为接近甚至一致。

      人类的道德推理不是一个单纯以功利为目的的过程,还包含了一些心理和文化的因素。对道德推理过程的研究发现,这个过程包含了合乎规范的结果与直觉判断之间的斗争。因此,有的学者倡导义务论的道德规则。比如,一个车队(那里无法使用飞机)正在给非洲某个闹饥荒的难民营运送食物,但此时你发现第二个营地有更多的难民。如果你让车队直接去第二个营地,而不是第一个,你可以营救一千人,但第一个难民营的一百人就会死亡。你会让车队直接去第二个难民营吗?从功利主义的角度看,应该让车队去第二个营地,但63%的人并不选择让车队改变方向。这种结果用功利主义是无法解释的。因此,美国南加州大学的德甘尼(Morteza Dehghani)等人试图提出一种可以联接人工智能路径与心理学路径的伦理推理模型,用以体现关于道德决策的心理学研究成果。[17]

      德甘尼等人的研究对于我们更准确地理解人类的伦理推理机制是有益的,但事实上人类的伦理推理得到的结果并不都是令人满意的,有时甚至会是错误的。社会学进路的机器伦理研究试图让机器伦理的推理方式与社会中大多数人相一致,但社会学意义上的大多数人的伦理判断并不都是合理的。实际上,让机器完全按照人类的方式进行伦理推理其实并非在所有情况下都是必要的。在伦理推理方面,我们完全可以期望机器比人类更理性,做出更为正确的判断与推理。另一方面,社会学、心理学的研究路径提醒我们,在机器伦理的研究中必须充分考虑不同国家、不同民族的社会文化传统与心理特质,从而提高机器伦理的合理性与可接受性。

      第三,哲学进路。哲学进路的机器伦理研究通常为某种伦理或逻辑理论的合理性、局限性及其实现的可能性进行论证。如前所述,在机器伦理当中应该遵循何种伦理理论,是一个颇有争议的问题。比如,伦理学的功利主义强调人类道德行为的功利效果,而义务论则强调“义务”与“正当”,这两种理论倾向是相互对立的。在机器伦理中,功利主义与义务论都有各自的支持者。

      美国佛罗里达国际大学的格劳(Christopher Grau)讨论了在机器人伦理当中实行功利主义的推理模式是否合理的问题。他把机器人与机器人的互动,和机器人与人类的互动区分开来,认为两者应该遵循不同的伦理原则。机器人与机器人之间应该以功利主义的伦理哲学为主导,但是,在机器人与人类的互动过程中,不能以功利主义为主导原则,还必须考虑正义与权利等问题。[18]美国特拉华大学的鲍尔斯(Thomas M.Powers)讨论了一种康德式机器(Kantian machine)的可能性。与格劳强调功利主义伦理思想所不同的是,鲍尔斯认为康德的义务论伦理思想有一定的合理性,他详细探讨了康德的形式主义伦理学应用于机器伦理的可能性及其挑战。[19]不过,鲍尔斯虽然采用的是康德的义务论,但他更看重的是康德伦理思想所具有的形式化特点。其实,对于不同伦理理论的选择,抽象的讨论固然是必要的,但结合具体的领域与场景进行考察可能更具有针对性。

      逻辑学虽然属于哲学学科,但与其他哲学的分支学科相比,逻辑学与计算机科学关系更为紧密,甚至可以扮演伦理学与计算机科学的中介角色。比如,著名逻辑学家冯·赖特(von Wright)于20世纪50年代创立的道义逻辑为机器伦理提供了一种重要工具。美国伦斯勒理工学院的阿寇达斯(Konstantine Arkoudas)和布林斯约尔德(Selmer Bringsjord)等人论证了道义逻辑应用于机器伦理的可能性。[20]更进一步,他们认为道义逻辑可以对道德准则进行形式化,从而保证机器人的行为合乎道德规则。[21]另外,在伦理学的分支学科中,元伦理学致力于使伦理学成为一门严密的科学,关注于对伦理概念、术语、判断等进行严格的逻辑分析。因此,元伦理学与逻辑学关系颇为密切。对于计算元伦理学(computational meta-ethics)应用于机器伦理的可能性,已有学者进行了初步的尝试。[22]在元伦理学的发展历程中,由于其研究脱离道德实践、注重逻辑分析等特点曾受到一些学者的质疑,但是,机器伦理的勃兴有可能为元伦理学的研究注入新的活力。

      必须强调指出的是,上述三种研究路径的区别是相对的,而且相互之间也可以做到协调统一。显然,在机器伦理的理论研究与实验实践过程中需要同时应用多种进路,部分已有的研究已经体现出了这一特点。

      借用库恩对科学发展阶段的划分,我们可以认为当前的机器伦理研究还处于“前范式”时期,也就是还处于学科发展的早期阶段。即使机器伦理研究尚不成熟,但与以往的对科技现象及效应的哲学反思相比,机器伦理具有更加明显的前瞻性与主动性。现有的科技伦理研究大多是在某种科学技术产生了一定影响特别是负面影响之后才出现的,而机器伦理研究则是在人工智能、机器人技术产生较大的影响之前就广泛地开展了。

      现代科技日新月异,其高速发展的势头似乎任何人都无法阻挡。人类对现代科技的高度依赖,以及科学技术产生的众多负面影响等种种因素,使得人们不得不思考如何保证现代科技健康发展的问题。在对核技术、信息技术、克隆技术等进行的伦理反思中,主要关注于科学技术实践活动以及从事研究的科学家与工程师,研究者主要是哲学家,而机器伦理更侧重于研究技术本身,显示出更强的交叉学科特点。事实上,从事机器伦理研究的既有来自人工智能、机器人学、计算机科学技术领域的科学家,也有从事伦理学、逻辑学、科技哲学等领域研究的哲学家。只有不同领域的学者共同协作,才能将机器伦理研究推向深入。

      ①本文所讨论的机器伦理同样适用于机器人,所以文中对机器人与机器并不严格区分,西方研究机器(人)伦理的学者亦如此办理。

标签:;  ;  ;  

论机器伦理_伦理学论文
下载Doc文档

猜你喜欢