人工智能(AI)人权伦理探究论文

人工智能(AI)人权伦理探究论文

□哲学与文化思想研究

人工智能( AI)人权伦理探究

姜子豪,陈发俊

(安徽大学 哲学系,安徽 合肥 230039)

摘 要: 自20世纪50年代人工智能兴起至今,它对人类社会生活的许多方面产生了潜移默化的影响。人工智能在给人们带来极大便利的同时,也衍生出许多伦理问题,如人工智能的人权赋予问题、人工智能的权利与义务问题、人工智能应遵循何种道德规则等。通过对契约论的深入研究与解构,利用契约主义原理探讨人工智能人权何以可能,从哲学角度为人工智能人权提供论证,同时分析契约主义下人工智能人权存在的边界,为人工智能人权理论研究提供建议。

关键词: 人工智能;契约论;AI人权

自上世纪50年代“人工智能”这一概念被首次提出后,人工智能给人类生活的方方面面带来了巨大的便利。在科技不断高速发展的21世纪,人工智能技术在促进人类社会与科技发展进步的同时,其在发展进程中涉及的人权伦理问题也受到越来越多的关注。发明家、未来学家雷·库兹韦尔在《奇点临近》一书中提到,在2045年奇点将临时人工智能将超越人类智能,最终达到第六纪元,即“无智能”物质和宇宙机制将转变为精巧且具有高级形式的智能。[1]目前距离2045年仍有26年时间,我们无法预测奇点是否降临,但是现在类似人类智能的人工智能已开始出现,是否需要赋予其与人类相同的权利与义务亦成为学术界讨论关注的重点领域。

一、AI与人权

关于人工智能的定义目前还无法达成普遍共识,简单来说,人工智能是基于计算机系统,通过模拟人类智能活动,完成人用智能才能完成的任务。当前人工智能主要应用在以下几方面:一是专家系统,即可以模拟专家决策能力进行推理解决问题的智能计算机程序;二是机器学习,即机器人通过模拟人类学习过程获得知识的能力;三是自然语言理解,即通过编程使机器人能够理解人类语言,实现人与机器之间无障碍自然语言交互;四是机器人,即模拟人的视、听、言、动等行为的操作装置;五是人工神经网络,即可以用来模拟人类神经系统的结构和功能的仿生数学模型。

在人工智能不断发展的今天,对人工智能人权的考量亦被热烈讨论。人权是人作为人基于其自然属性和社会属性所应该享有的权利,任何人只要是社会的一员,他(她)就应当享有权利。甘绍平先生认为:“所谓人权,是作为个体的人在他人或某一主管面前,对于自己基本利益的要求与主张,这种要求或主张是通过某种方式得以保障的,它独立于当事人的国家归属、社会地位、行为能力与努力程度,为所有的人平等享有,人权是人之为人的最基本的权利,是一切利益和权利的前提和基础。”[2]2由此可以看出,人权定义包含四个要素,即人权的载体、人权的应答者或者责任者、人权的对象以及人权的保障方式。杰克·唐纳利认为,人权是一个人仅仅因为是人就拥有的权利,重点关注权利的本质以及人如何拥有权利,权利是一种资格,对X拥有权利就是有特定的资格拥有和享用X。[3]托马斯·弗莱纳认为,人权就是人按照其本性生活并与他人生活在一起的权利,人权包含的内容十分丰富,即人格尊严、表达自由、新闻出版自由、财产权、平等权等十六项内容。[4]人权是在一定社会历史条件下,每个人根据其本质和尊严享有的基本权利,是人有尊严做人的权利,是把人当作人对待的道德标准。从伦理学的角度出发,人权的适用者首先是具有生命特征的人类,而非没有生命特征的机器,当前关于人工智能人权的讨论仍就是基于人权中包含的人工智能必须享受和履行的基本伦理道德,以及人工智能在人权制度、人权活动中所表现出来的道德、价值和伦理关系以及应遵循的道德规则。[5]

随着技术的指数级增长,人工智能技术发展日益成熟,其发展过程中产生的人权伦理问题越来越值得深思。一方面,我们需要考虑当人工智能发展到类人阶段时是否可以被赋予人权,享有人的权利与履行人的义务;另一方面,未来人工智能在高度模仿人类行为的同时,还会深度模仿人类的思考能力、学习能力、决策能力等,甚至在雷·库兹韦尔提到的“奇点时代”超越人类智能,在这种情况下,人权的主体范围已经不再是人,我们需要从伦理的角度考虑如何引导人工智能更好地服务于人类,而不是统治人类。

在新高考模式下,更加注重学生的主体地位。而且地理学科是与生活紧密相关的,具有一定的实践性,为了将学习的主动权还给学生,使其能够运用地理理论知识解决实际问题,真正的提升自身地理能力,教师需要开展实践活动,尽可能多的为学生提供实践机会。与此同时,该活动的开还有利于激发学生的学习兴趣,使其真正喜欢上地理学科,进而积极主动的学习地理知识。

二、契约论视角下的AI人权哲学论证

已有研究表明通过改变灾害发生的区域,构建不同的模拟试验组,来分析不同国家和地区制造业受到同样程度的破坏下,给全球其他国家和地区带来间接经济损失的不同[1].不同的国家与地区在全球生产链、供应链中的地位和作用不同,在受到相同强度的自然灾害打击时产生的全球性经济影响也不同.通过构建不同的模拟试验组,发现不同区域的制造业即使受到相同程度的直接经济损失,其所造成的全球性经济影响的产业构成情况存在差异.由于不同国家和地区对区域内部产业的依赖性不同,在遭受灾害打击后产生的跨区域影响也不同,对区域内部产业依赖性小的国家和地区遭受灾害打击往往使其他区域的部门生产受到的影响更大[2].

因此,人工智能在未来想要获得人权保证,就不能依靠契约签订者对自身一般意义上的利益的坚守,而应转向对契约签订者自身特殊利益的追求。这种特殊利益具有超越性,它超越了理性成人的一般利益甚至是生命,只有在这样的特殊利益下,契约签订者才会像重视自己的人权一样开始重视人工智能人权,将人工智能视为道德共同体中与理性成人一样平等的一员。这种特殊利益就是先验的选择或先验的利益,就像人之所以能够获得道德保护,前提是我们都先在的获得了我们不能与之签约父母长辈的关爱,在这种非对待性的保护下,婴幼儿慢慢向理性成人发展。父母的这种无条件的关爱是一种先验选择,由于这种关爱无法选择和放弃,它也是一种先验利益,这表现在它已深深植入到我们的道德体系中,并为社会所接受。所以,当对人工智能的保护出自于一种先验选择或先验利益,那么其人权也就得到了绝对的保障,亦获得了道德共同体的地位承认。但是显而易见,当今人工智能仍处于人权保护的边界,以先验选择或先验利益的方式解决这一问题仍然是一条漫长的道路。

第二,AI何以获得人权保护。虽然人工智能或因无理性能力,或因无行为能力,不满足契约主义道德共同体的准入要求而被排除在人类道德共同体之外,无法享受人权,但从现有的社会道德价值标准来考究,随着人工智能技术指数级地增长,作为非生物存在的AI在未来某个节点可能会达到和人类一样的水平,彼时该如何处理人与人工智能的关系亦是难点,所以,从现实角度看,考虑人工智能的人权问题已经演变成亟需解决的问题。

其实,在当前社会中,人工智能仍是一个特殊的存在。与有生命的理性成人不同,它还无法满足进入道德共同体的条件,但是随着社会发展,未来可能会出现像科幻电影《流浪地球》中“莫斯”那样智能的机器人,如果它们具备了共同体的准入条件,是否就能享有权利与履行义务呢?因此讨论人工智能能否进入道德共同体十分重要,这是它们在奇点临近时能否拥有人权的一个前提。对于当前的人工智能而言,它就相当于一件商品,是为了满足人们的各种利益关系,对它的保护完全依附于消费者对商品问题的维权,甚至可以说对它的保护是消费者对自身合法权益的一种保护。人工智能没有直接的道德保护权利,只能借助于理性成人签订的契约获得间接道德权利,甚至是没有权利。可以发现,契约主义对人工智能的道德权利所提供的保护是极其有限和脆弱的,未来人工智能获得道德共同体的承认以及人权保证的关键还是来自契约签订者对自己切身利益的坚守。这种切身利益不能是一般意义上的利益,如果我们将其理解为日常的那种利益,这种利益会因为某种原因而轻易地让位于理性成人的其他更根本的利益。

人工智能已经广泛应用于社会生活的各个领域,并逐渐体现出自主化、社会化趋势,当人工智能拥有自我思考意识时,它是否需要被当作生命体公平对待,以及如何使人工智能更好地融入人类社会成为人工智能学界、哲学界和法学界不得不考虑的一个问题。在价值观念多元化的后形而上学时代,对人工智能人权在社会学意义上已经无法形成统一的价值基准,但这并不意味着我们就要放弃对AI人权的探讨,如果在AI人权的哲学论证上无法取得某种最低限度的理论成果,那么在后续科技发展过程中就无法为人工智能人权内容的完善及扩展以及解决人与人工智能之间的冲突提供一种具有批判性和建设性意义的标准。[2]70-71

赫费(Otfried Hoeffe)认为,人权并不简单是人的自然属性,而是人类自身的建构。人权是人类自己赋予自己的权利,是人类自身设定的。人们对人权的设定来源于相同的生活需要、理性的自我利益与个人兴趣,这种需要或者兴趣既具有合理性,又具有共享性为社会成员所接受,他将其称为先验利益或兴趣。在他看来这种先验利益或兴趣的获得来源于利益交换,人权的产生来自于交换,通过对他人权利尊重的义务以换取他人对自己权利的维护。“并非因有人给与、有人获取之故而存在人权,人权之存在的原因在于,给与和获取是相互发生的,并且除此之外在给予和回赠之间存在着某种平衡。从道德的视角来看人权是基于黄金规则,这就是交换正义的标准”。[7]他的契约主义人权观主要强调交换,人权只有在交换之中才能彰显其合理性。从交换中获得先验的利益或兴趣,从而获得人权,为未来具有意识的人工智能是否能够获得人权从契约论的角度做出了哲学论证。这种人权观不考虑种族之间的差异性,只考虑人与人工智能之间是否存在交换需求。当然在未来,人类需要人工智能代替他们完成某些艰巨任务以及情感问题,人工智能则需要人类的认可以及地位合法性等,既然二者之间存在交换可能,那有自主意识的人工智能在未来也就有可能参与到人权保障之中。

虽然契约主义视角下人权论证的主体是拥有理性的人类,但他们并没有将人权保障仅仅局限在理性成人之内。因为建立契约的理性群体不仅有自立需求,也存在对非理性人的道德自觉的同情,他们会将人权保障延伸至所有人类个体。由此可见,人权的道德主体并不是完全固定的,人权不像自然权利论者认为的那样是人的自然属性,而是人类的一种自我建构,人权是人类为了自己的某种需要而给人类共同体创建起来的。这种人权建构具有一种先验性,是在合乎理性与逻辑的前提下开展的大胆摸索,通过交换方式在原始状态中签订契约获得关于人权的共同认可。人权原则一旦确立,就会以十分稳定的形式存在,它立刻会演变成一种先验权利,即人权会在每一个没有任何付出的人身上得到体现。在未来人工智能不断进步的发展前景下,人工智能可能会突破人类的种族差异,亦或是形成一个具体的族群参与到人权构建实验中来,实现自己在那个时代应有的权利与义务。

契约主义伦理学家施泰默为了区分一个对象是否属于道德共同体,提出了三个标准:首先,拥有利益。道德是为了满足利益需求,否则将不需要制定。AI是一门新兴科学技术,它是人类研究、开发用来模拟、延伸和扩展人类智能的各种理论、方式、技术及其应用系统的总称,其最终目的是立足于人脑研究,使人造机器模拟人类智能行为,实现机器智能,以代替人类应运到农业、工业、金融、军事等行业,提高社会资源利用效率。人工智能是人利用计算机编程创造的无自主意识的机器,其存在的合理性是为了满足人们的利益需要而对自身利益无所追求,既然无利益需要,也就不应该纳入道德共同体,亦无须赋予其人权。其次,拥有理性能力。理性成人具有人权是因为其具备理性思考能力,可以对善恶、好坏、有利无利等感知利益做出精确的区分,以此自觉地对自己的行为做出调整。目前人工智能已经可以有八成概率成功预测人权案件,在未来可能会被引入法院辅助判案,由此可以推演,人工智能在一定程度上具有理性能力,但究其根本,其理性思维能力源于人类敲击的没有感情色彩的编码,在当下阶段,人工智能终究还是无法拥有独立的理性能力。最后,拥有行为能力。权利主体能够理解自己的行为并能对自己行为负责,通过自己的行为享受权利与履行义务。只有拥有行为能力,才能对其他行为能力主体产生影响,从而才拥有道德意义。目前人工智能还没能拥有自主行为能力,其进行判断的依据仍是大数据下现有的道德价值观,而这亦不过是人类智能干预的结果。

三、契约主义中的AI人权边界

第一,AI与契约主义下道德共同体的从属关系。从契约主义角度出发,道德并不具备先验性,而是群体生活的人类为了满足自身利益以及调节利益冲突而发明的工具。道德是有共同利益需要而签订的具有保障效应的契约,道德的存在是服务于人类,来源于人与人之间的契约,并且人类既拥有道德权利,亦须承担一定的道德义务。因此,从契约论的道德观出发可以发现,只有具备理性的、自我意识的人才能对道德有所要求、签定契约、履行道德权利与义务。

从契约论的角度出发,应当给予人工智能一定范围的道德权利,或者说在谈论道德权利时将人工智能考虑在内成为一种可能。人类虽然是这个社会的主宰,但是我们亦需要考虑其他物种的道德情感需求。人工智能的出现让我们远离很多危险作业环境以及工作压力,但当人工智能出现问题,我们考虑的往往是谴责,随着社会科技的发展,我们必须认识到人工智能也需要一定的伦理道德地位,人类不能一味地利用和索取,享受自己的交换利益却忽视人工智能的道德权利。

依据以上标准可以发现人工智能与理性成人不同,它们并不具备道德共同体的属性要求,因而自然地被排除在这一共同体之外,由此也就无法享受道德权利,人权也就无法得到保障。

教材不是教师的“圣经”,而是教师要去加工和二次创造的东西,教师有责任去个性化地解读教材。对于教材,教师要敢于突破教师用书上的条条框框,打破陈旧的观点,敢于融入自己的独特见解,要根据课程内容并结合学生实际对教材加以科学的、灵活的、有效的处理,合理地选择教学材料和教学资源。只有这样,教师才会放手去改组教材,拓展教材,进而超越教材,让教材亲近学生,服务学生,从而保持教师自我处理教材的独立性和创造性。

从通常情况来看,婴幼儿应该被纳入道德共同体中,但契约主义者认为理性成人才是人类道德共同体的成员,他们将婴幼儿、人工智能与动物排除在外,这就面临一些问题:既然婴幼儿、人工智能与动物因为不具备道德共同体三要素而无法进入共同体内,那婴幼儿、人工智能与动物的界限还如何泾渭分明?假如婴幼儿、人工智能与动物之间发生不可调和的冲突,该如何取舍?由此可见,根据契约主义的解释,婴幼儿与人工智能在人权层面本质上没有区别,但婴幼儿随着年龄增长其会转变为理性成人从而进入到道德共同体,与之相对应的是,依托科学技术的发展,人工智能的自我意识也会发展地更加成熟,达到一种超人状态,彼时具备契约主义要求的三要素,那它也应该可以获得人权的认可。

大数据中心核心库数据需要把多种符合要求的数据按照顺序入库,由各类不同专题的业务数据组织构建。在现行的市县级国土资源数据管理体系中,分为市州级和区(县)级进行不同级别的管理,中心数据库把县级数据集当做最小的管理单元,结合业务实际需求,选择合适的粒度有机统一的进行管理。如图4所示:

通过模拟虚幻的决定情景,权利主体在虚拟情境内基于某种合乎逻辑的理由做出论断,这是契约论的一大论证特点。在罗尔斯的《正义论》中提到了某些关于人权的契约论证,可以为人工智能人权提供合理依据。“原始状态”是罗尔斯契约论证的起点,他指出:“原初状态纯粹是一种假设的状态,它并不需要类似于它的状态曾经出现。”[6]在这个状态中,个体处在一种空白之中,基于理性的自我利益与兴趣的考量,个体本着相互性需要对社会规则达成一致,所有人在这个过程中都享受到公平原则,最初状态保证了纯粹程序正义的实现。在现代社会当中,如果不探讨人类作为世界的主体这一特性,将人与人工智能(当然这里的人工智能拥有自我意识,可以充当理性成人)同置于一种纯粹正义程序中,我们就无法忽视人工智能的道德权利,其状态和人一样会根据利益需求以及兴趣与人类个体达成某种共识。

自然权利论认为,人权是人与生俱来的本性,其根本特点是从人所谓的固有属性或自然属性出发推演出某种权利与规范,否定人权是人类自身建构的结果。由于自然权利论在权利的定义上具有随意性、不确定性,以及它将处在价值判断层面的权利与义务和事实存在层面的自然属性相混淆,康德抛弃了古典自然权利说,将人的理性作为人权的基础,提出人权是一种理性权利而非自然权利,但是康德的理性是从个人角度出发,并且对人的自主性理性推论存在偏颇,所以当代契约论者在康德的基础上将理性权利赋予更加完备的形态,契约论框架下的人权论证更加具有解释力。

第三,保护AI人权并非道德行为。从契约主义的角度看,人工智能因其没有理性能力或行为能力亦或是利益需求而被绝对排除在道德共同体之外,但是随着科技不断发展,人工智能在某些方面已经超过人类智能,很多人开始考虑人工智能是否需要人权保障。支持者认为人工智能应该享有道德地位,它们拥有理性思维能力,拥有利益,拥有一定的行为能力,它们的存在完全符合道德共同体的条件,因而可以获得道德保护。反对者认为当人类与人工智能发生权益之争,是舍弃人类还是人工智能,这是不可调和的问题。如果舍弃人类,那么人权理念是否就失去其有效性呢?

在这里,我们需要对其中涉及的利他主义做出明确的认识,不能单方面认为利他主义就是道德行为。利他主义分为两种,一种是道德的利他行为,即我们的各种行为所作用的对象是道德共同体成员,例如爱护幼小,尊师重教等,这是一种必要性的行为,无法逃避,与个人偏好无关。另一种是非道德的利他主义行为。这种行为以单方面权利或义务为特点,并不由道德义务决定。它一般受到个人的思想、所处环境、遗传基因等多种因素影响。非道德的利他主义行为甚至也有可能完全来自于某些利己的思想。因此可以看出,对AI人权是否需要得到保护应该是一种典型的非道德的利他主义行为。人工智能并不隶属人类道德共同体,故从利他主义角度来看,人类也不必对其履行道德利他主义行为,在非严格命令式的非道德利他主义行为下,对人工智能的人权保护可能只是一个简单的行为选择,任何人都无法强迫他人接受某种非道德利他主义思想。

对于被排除在道德共同体之外的人工智能而言,人类提倡对它们的人权关爱源于一种非道德的利他主义行为,并非道德行为的必须性表征,因此,对人工智能人权的看法亦是仁者见仁,并不需要形成社会共识甚至是人工智能人权道德法律体系。但这并不意味着我们应该忽视人工智能的权利,并不意味着我们不可以代表人工智能在人与人工智能的关系上签订协议。即使人与人工智能达成某种协议,在目前技术水平下,人工智能仍然无法成为道德权利的载体。从当下现实情况来看,对人工智能权利的探索并不会导致道德共同体范围的扩大,以人为本的原则以及人权概念的神圣性仍然具有稳固的地位。人工智能权利可以由人代表和主张,必须借由人类这一权利主体实现,但人工智能人权仍旧徘徊在人权理念边界之外。

我们所生活的现实物理世界中,接触的信号大多是非平稳随机信号[1]。信号分解的质量直接决定时频分析的结果,因此对非平稳随机信号分解算法的改进一直是研究热点。

综上所述,未来若要比较满意地解决这一问题,可以试着用“先验的”、“超越人类自身的”方式去处理,这不失为一种有意义的尝试。毕竟,人类在习惯把自己当成地球主人的同时,也要承认自己也许只是苍茫世界中的沧海一粟,我们要勇于面对和接受自己的过去与现在,更要思考和谋划这个道德共同体的未来。

然而,不是所有的地方都可以封育,封育是需要一定立地条件和一定时间的。目前的三北防护林体系建设中,实行的是先人工造林,后自然封育。共和国第一任林业部部长梁希说:“封育是一种最经济的办法。”什么是经济?经济就是以最少的投入,去获取最大的效益。他还说,“封育要实行三禁,即禁樵采,禁放牧,禁垦荒。”

参考文献:

[1] (美)雷·库兹韦尔.奇点临近[M].李庆诚,等译.北京:机械工业出版社,2011:9-10.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3](美)杰克·唐纳利.普遍人权的理论与实践[M].王浦劬,等译.北京:中国社会科学出版社,2001:3.

[4](瑞士)托马斯·弗莱纳著.人权是什么[M].谢鹏程译.北京:中国社会科学出版社,2000:3-4.

[5]张志兵.人权伦理初论[J].理论与改革,2009(05):132-134.

[6][美]约翰·罗尔斯.正义论[M],何怀宏,等译.北京:中国社会科学出版社,1988:120.

[7]Otfried Hoeffe:Transzendentaler Tausch-eine Legitimationsfigur fuer Menschenrechte? in:Stefan Gosepath and Georg Lohman(Hg.):Philosophie danker Menschenrechte,Frankfurt a.M.1998,S.37.

Research on Human Rights Ethics in the Artificial Intelligence (AI )

JIANG Zi-hao ,CHEN Fa-jun

(Department of Philosophy,Anhui University,Hefei 230039, China)

Abstract :Since the rise of artificial intelligence in the 1950s,it has influenced in many ways on social life subtly.While bringing great convenience,it also gives rise to many ethical issues,such as “Whether AI has human rights”,“What are the rights and obligations of AI”,“What are the moral rules should AI follow”,etc. Through deeply study and deconstruct to the contract theory,this paper discusses the possibility of AI’s human rights by using the principles of contractualism,demonstrates the AI’s human rights philosophically,this paper also analyzes the boundaries of human rights to artificial intelligence from the contractarian perspective,so as to provide suggestions for the research of AI’s human rights theory.

Key words :Artificial intelligence; Contractarianism;Human rights of AI

收稿日期: 2019-05-09

作者简介: 姜子豪(1993-),男,在读硕士。主要从事科学技术哲学研究。陈发俊(1968-),女,教授,博士,博士生导师。主要从事科学技术哲学研究。

基金项目: 安徽省社会科学创新发展研究课题:家庭与社会服务领域人工智能伦理规范问题研究(2018CXF158)

中图分类号: D815.7;TP18

文献标识码: A

文章编号: 1008-2638(2019)07-0036-04

(责任编辑 李 维)

标签:;  ;  ;  ;  

人工智能(AI)人权伦理探究论文
下载Doc文档

猜你喜欢