人工智能法益位阶研究
袁 曾*
[摘 要] 人工智能的快速发展已经对人类社会的整体结构造成了冲击,但现行法律规范缺少对于人工智能领域的统一价值标准,有必要针对法律所保护的利益尤其是人工智能法益做出准确的价值位阶判断。价值判断的核心理念是梳理人工智能法益位阶顺序,确保人工智能技术发展以人为本,人工智能的发展必须适用服务于人类整体利益的价值导向,并基于此设计法律伦理框架。该框架包括承认人工智能有限法律人格,对人工智能法益设定原则性的法益阈值范围,明确具体案件裁判适用的个案利益判断原则、比例原则,引入阿列克西比例原则,在法律无法穷尽列举法益的情形下,对人工智能案件的法律适用提供理论证成。法律以实现利益与解决利益的冲突为核心,在确保人类整体利益和促进人工智能发展之间保持平衡。
[关键词] 人工智能法益 有限法律人格 比例原则 法律主体
人工智能达到人类智能的奇点已临近,妄图通过限制人工智能的发展以获得人类安全是违背事物客观发展规律的。现阶段人工智能理论研究的焦点在于人工智能的安全性、道德地位以及伦理体系,(1) 参见王利明《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期,第6页。 但就目前理论研究特别是法学理论的前瞻性而言,人工智能理论研究已跟不上人工智能技术几何倍数的发展速度。世界各国有关人工智能的立法体系分散、统一理念缺位,调整范围集中于技术领域而整体协调性缺乏。同时,涉及人工智能的大部分条文调整范围狭隘,已脱节于科技的高速发展。例如,我国并无统一的人工智能发展法,人工智能相关问题多由法规、规章予以规制,法律位阶较低,有关人工智能发展的新领域缺乏价值标准一致的规范,对可能引发的相关问题无法有效地防范和控制。构建有效促进人工智能发展的法律体系是当代法学研究必须解决的问题之一,但该种规制体系应当如何构建?又当遵循何种原则?
法益(legal interests),是指法律所确认和保护的利益。(2) 参见刘芝祥《法益概念辨识》,《政法论坛》2008年第4期,第95页。 法律作为国家调和个体与群体利益的机制,必须在利益发生冲突时,做出明确的价值判断,并确保其稳定性。法律需要以增进人民福祉为目的,但囿于法律技术的先天缺陷,立法者无法在事前对尚未出现的利益或潜在利益冲突做出明确的界定。例如在数十年前,当时的立法者还不能预见上市公司高管的身体健康状况会与散户的利益发生密切联系。随着实践的不断发展变化,新的法益不断产生,在不同的法益之间,甚至同一类型法益之间,必然会存在矛盾。但立法者可以针对矛盾产生的机理做出原则性的安排,将不同类型的法益从法律的角度做出不同的位阶判断,以平衡不同的利益群体。(3) 参见王利明《民法上的利益位阶及其考量》,《法学家》2014年第1期,第80页。
本设计在地磅两侧安装红外定位一套,车辆上磅红外定位通过电源线发出信号与电脑连接,系统会显示车辆上磅的顺序,系统将控制信号灯进行转换,完成称重后系统将会进行提示(称重完毕)。安装红外定位可以避免驾驶员利用磅房视线不足压边称重,防止称重作弊。
我咕咚一下跪在了地上。这一下果然管用,听见动静的马兰停下了手,一脸疑惑地望着我。我高高地举起右手说,我对天发誓小兰,我绝对没有动过李金枝,要不然天打五雷轰——
法益背后的深层价值目标冲突,更需要法律根据统治者的价值取向与需求,明确其界限与位序。起草《法国民法典》的波塔利斯曾说:法为人所用,非人为法而生。笔者认为,在进行人工智能立法时,首先必须明确价值导向,确定有关人工智能发展的核心理念。该种核心理念即确保人工智能技术发展以人为本,科学技术的发展必须适用服从人类整体利益的价值导向与法律伦理设计。该理念需要提升对其规范的法律层次,加大对人类整体利益的法律保障强度,确保人工智能良性渐进式发展。
袁曾:人工智能法益位阶研究
一、人工智能法益位阶建构基础
法律最重要的目的与任务,就是保护法益。(4) 参见张文显《法益保护与比例原则》,《中国社会科学》2017年第7期,第91页。 法律的重要意义在于确立秩序价值,法律秩序也是法律满足的基本需求与评价标准。(5) 参见周永坤《法理学:全球视野》,中国人民大学出版社2016年版,第183页。 法益必然包括对某些干涉的禁止,例如刑法通过适用刑罚损害部分法益,而保护另一部分法益。由于利益的客观本质,法律无法事先设定利益,只能对利益进行现实选择并做出价值判断。经过法律的选择并加以保护的实然状态利益,才是法益。
(一)法益位阶的体系核心是伦理规则
目前认知科学研究发生的最重要变化,是之前被认为应该被排斥在科学研究领域之外的那些因素,如意识、意向性,特别是内在意向性,已经成为科学研究的主要问题。(6) 参见蔡曙山《关于哲学、心理学和认知科学的12个问题——与约翰·塞尔教授的对话》,《学术界》2007年第2期,第8页。 有学者认为,人工智能本质上是一种演绎逻辑,只对数据进行处理加工,只是对人类的认知行为的模拟,其无法感悟自身行为的意义与后果。(7) 参见甘绍平《机器人怎么可能拥有权利》,《伦理学研究》2017年第3期,第126页。 1984年,约翰·塞尔(J.R.Searle)教授提出了“中文屋论证”(Chinese Room Argument, CRA)用以否定“图灵测试”对于人工智能的检验标准,其认为计算机自身并不足以产生认知、思维、语义或理解,仅是对认知的形式模拟和模仿,计算机是完全没有任何智能的。(8) 参见蔡曙山《关于哲学、心理学和认知科学的12个问题——与约翰·塞尔教授的对话》,《学术界》2007年第2期,第13页。
但笔者认为,虽然目前阶段人工智能尚无法对自己行为的意义产生理解,但并非人工智能无法产生自我意识。根据人体工程学的观点,人类大脑的模式识别能力与并行机制是人类思维的支柱,通过足量计算,大脑的组织方法已经实现了部分模拟,美国杜克大学米格尔·尼克勒斯团队早在20世纪90年代就已经实现通过将传感器植入猴子大脑使其控制机器。(9) 参见[美]雷·柯里维尔《奇点临近》,李庆诚等译,机械工业出版社2017年版,第116页。 人工智能一旦具有强人工智能属性,可以分享大量的神经元连接和神经传递素浓度的大容量模式,将拥有远超人类基于语言的学习交流模式。(10) Hans Moravec,“When will Computer Hardware Match the Human Brain? ”, Journal of Evolution and Technology , 1998(1),p.6.约翰·塞尔本人曾特别提出对于将来出现的“某种生物化学特征的计算机”所代表的智能需要重新定义。(11) 参见蔡曙山《关于哲学、心理学和认知科学的12个问题——与约翰·塞尔教授的对话》,《学术界》2007年第2期,第13页。笔者注:笔者认为,约翰·塞尔的观点论证了人类不是人工智能,但并未回答人工智能是否具有或部分具有法律人格的论点。
上述例证涉及人工智能法学理论的关键性问题——人工智能是否具有法律人格?这对人工智能权利、义务的确定,乃至社会伦理规则的调整至关重要。人工智能已经初步具有自主意识,并且在自我学习进化的道路上发展极快,则人工智能是否即具有同人类相同的人格?人类社会公民的权利、义务,人工智能是否应平等地享有?如何减少具有高度自我意识的强人工智能主体对人类发展的威胁,需要明确的伦理规则进行规制,人类如何对待人工智能,实质考量的是人类伦理的反身性。
NOD∕SCID免疫缺陷小鼠白血病模型的复制及其鉴定………………叶振策,李 渊,韩艳君,周 玥,丁继超(96)
对于已确定HIV感染的孕妇,主动提供预防艾滋病母婴传播咨询与评估,由孕产妇及其家人在知情同意的基础上做出终止妊娠或继续妊娠的决定。
陈志龙将传统意义上的法益概括为:生命、身体、自由、财产和名誉等。(26) 参见陈志龙《刑法之法益概念(上)》,《台大法学论丛》1986年第1期,第125页。 也有学者以法益主体为依据将法益划分为国家法益、社会法益与个人法益,并认为国家法益是指以国家作为法律人格者所拥有的公法益,社会法益是指以社会整体作为法律人格者所拥有的社会共同生活之公共利益,而个人法益是由自然人所拥有并由刑法加以保护的重大生活利益。(27) 参见张明楷《法益初论》,中国政法大学出版社2003年版,第240页。 传统法益的内容并非亘古不变,随着社会的发展,新的法益会随着实践的变化而不断出现,但具有同质化的新法益会促使传统法益的内容不断扩大。例如,财产一直是刑法所保护的传统法益,中国刑法并没有明确区分“财物”“财产性利益”,但在人工智能时代,数据能否被作为“财产”这一利益主体对待?根据九届全国人大常务委员会《关于维护互联网安全的决定》,将侵犯公民数据资料构成犯罪的,依据刑法追究刑事责任。由此可见,部分新的法益通过解释等方法就可以基于传统法益获得法律的保护。
(二)利益冲突需要法益衡量
法益冲突的实质是利益冲突和价值冲突(15) 参见梁迎修《权利冲突的司法化解》,《法学研究》2014年第2期,第61页。 ,法律应以实现利益与解决利益冲突为核心。(16) 参见彭诚信《现代权利理论研究》,法律出版社2017年版,第251页。 法律的重要使命是调整利益,其平衡的方式一般是通过设定权利,达到利益合法化的目的,并以法律强制力加以保障。相对于权利,法律一方面肯定法益的合法性,另一方面,却无法提供与权利一样规范清晰的保护。随着实践的变化,法律所保护的利益也在发生变化。(17) 参见张平华《人格权的利益结构与人格权法定》,《中国法学》2013年第2期,第44页。 实践中,不同利益主体间肯定会存在利益矛盾,因此,在确定法益位阶的过程中就必须明确阐释法益大致的边界范围。如果法治是当代人类社会进步的必然选择,则其必然会以利益的冲突与实现为核心。与人工智能快速发展带来的法律制度冲击相比,在现阶段就脱离人工智能技术在现阶段的发展实际来尝试讨论人工智能应当享有哪些具体的权利为时尚早,但从法律应当保护的利益角度去着重分析法律应当体现的保护价值却能为立法以及司法实践提供指导。例如,人工智能需要适配大量数据以进行学习运算,而数据的利用可能与自然人的隐私产生冲突,在保护技术发展与人格权益之间,法律在何种程度上保护人类的数据权利是法律必须做出的位阶判断。
从现实角度分析,法律把每类主体的每种利益均上升为法益从而实现保护,是极为不现实的。例如,不能为了满足某些精神疾病者拥有的杀人快感而放任其追求快乐的权利。而当人工智能的发展利益以牺牲人类利益实现时,该两种利益就必然存在冲突。“冲突发生时,为了重建法律应然的和平状态,就必须有一种权利向另一种权利让步,或者二者在某种程度上各自让步”。(18) [德]卡尔·拉伦茨:《法学方法论》,陈爱娥译,商务印书馆2003年版,第279页。 上述观点印证了法益的优先地位之争的客观现实,例如,无人驾驶汽车在路面行驶时,实际上就涉及了汽车与行人的路权之争。当无人驾驶汽车在斑马线遇到行人时,依据设定的原则,是否必须减速停车让行人先行,还是凭借高度智能的预判认为不存在危险从而加速通过?在涉及个人权利与智能机器权利相冲突的情况下,是坚持个人利益优先还是智能利益优先?如果抛开利益的因素去分析权利乃至法益,该种机制在现实中必然是没有基础的。虽然法律对于法益位阶并无明文规定,但随着当代法学方法论的发展,一些用来指导法益衡量的方法原则,已被提出并不断地完善,对裁判的客观性和合理性提供了有力保障,有关该部分内容将于本文第四章详述。
(三)法益位阶的核心是优位取舍
此外,对于大学生来说,每次运动持续20-45分钟对于提高心血管系统机能和有氧工作能力较为适宜,对于运动时间的选择来说,高血压患者应避开早、晚,其他则无特殊要求。运动频率以每周三次或以上为宜,同时结合每次运动的强度、持续的时间、个人的身体恢复情况以及对运动的适应能力等因素综合考虑。
日本法学家大冢仁明确提出需要将保护多个法益为目的的法律规定体系化,将最优位的法益作为第一标准,其次考虑从属法益。法益位阶体现了立法者在法律上的优先价值,在司法判决遭遇此罪与彼罪、重罪与轻罪之的选择时,根据法律所保护法益的位阶划分,强化不同的解释方法及其限度,保护其处于优位的利益。法益位阶的功能对于指导涉人工智能案件的判决具有重要意义,一是罪与非罪的标准,二是罪责轻重的标准。现实需要在法益的位阶上排出优先次序,明确法律所保护的优先利益。单独的法益无法独立支撑具体的实质侵害、犯罪构成等核心要素,对人工智能行为主体、样态以及行为的法律调整,必须体现对主要法益即人类法益的充分考量——这是贯彻落实以人为本的法律政策需要,同样是最大限度地实现法的正义目的并且促进科学技术健康发展的保障。价值取向应当与公共政策共同作用,使法益位阶效能最大化。在法律并没有明确规定法益位阶的情况下,法院需要探究立法目的以进行妥当的利益平衡。(21) Basil Markesinis, Foreign Law and Comparative Methodology :A Subject and A Thesis , Hart Publishing House, 1997,p.235.若人工智能未侵害人类法益,则人工智能的行为无社会危害性,若行为侵害的法益不存在,则行为不具有社会危害性;人工智能行为所侵害的人类法益的性质及程度决定了其危害性的大小程度;在人工智能的行为侵害的法益竞合时,行为所侵害的主要法益的性质与侵害程度决定了其社会危害性的基础。
二、人工智能法益位阶效用范围
边际效用是经济学概念,指经济作用在一定值上达到最大效用,超过这个值,经济作用能起到的影响越来越小。涉及人工智能法益,必须准确界定其合适的法律主体资格、明确评价标准基点,并为其定位合适的权利义务阈值,确保法律在实践中的效用最大化,在边际效用上更好地发挥法律的指导性作用。
(一)人工智能法律人格有限
人格,在法律上表现为法律人格,即主体资格——法律上的人是法律规则的人格化行为结果,该人格是行使权利、履行义务的资格。权利主体、权利能力与人格的含义是相同的,(22) 参见施启扬《民法总则》,中国法制出版社2010年版,第63页。 法律人格是所有法益的基点,只有具有权利主体的资格或地位,才有权利能力,其外在表现就是法律上的地位平等与行为自由。明确人工智能的法律人格地位,对于处理法益冲突意义重大。确定人工智能法益与人类法益位阶的重要依据就是人工智能的法律人格——即人工智能是否具有法律上的权利义务地位。如果人工智能具有完全独立的人格地位,可能造成现行法律的困惑,例如,与世界冠军对弈的“阿尔法狗”计算机究竟能否在法律上等同于人?那么两台“阿尔法狗”是否可认为是两个人?
根据法学界主流观点,拥有法律主体地位应满足以下要求:一是可以提出应诉的要求,二是裁判者授予法律救济时应将损害纳入考量范围,三是其利益能够通过法律救济得到实现。(23) 参见袁曾《人工智能有限法律人格审视》,《东方法学》2017年第5期,第52页。 越来越多的国家在对待人工智能的人格问题上取得了突破。2016年2月,美国国家交管局给予谷歌无人驾驶汽车以“司机”地位,变相承认了人工智能的拟制法律人格。同年5月,欧盟议会法律事务委员会要求对人工智能机器赋予“电子人”(electronic persons)的地位。2017年7月,美国众议院通过了《自动驾驶法案》,并对《美国法典》第49条进行了修正,对无人驾驶的安全标准与豁免条款做了详细规定。当前,人工智能早已参与到司法裁判中,法院在裁决时考虑人工智能受到的损害并无难度,法律救济通过停止侵害、排除妨害等救济措施满足人工智能的利益要求并非不可能。作为存在计算、学习、复制能力的特殊实体,人工智能具有过去传统机器无法比拟的类智慧性。据此,笔者认为在目前的发展阶段,结合技术实际,将人工智能视为具有独立思考能力、可以做出意识表示的特殊主体较为妥当。即使进化到拥有完全自我意志的程度,由于其工具属性的本质,仍应仅存在有限的法律人格,适用特殊的法律规制。
包括国际贸易理论与实务、电子商务、外贸英语函电、外贸英语口语、国际市场营销、商务英语视听说、商务英语翻译、外贸单证制作与实训等,该类课程旨在培养学生基本的英语语言运用能力和国际贸易专业知识和实践技能。
(二)人类共同利益优先于人工智能法益
在无明确法益位阶顺序的规定下,法官应当依照何种原则对存在冲突的权利或法益进行取舍,最早出现于德国行政法中的比例原则提供了有益借鉴。行政法下的比例原则,指行政机关对公民个人利益的干预,不得超过实现行政目的所追求的公共利益。(33) 参见周佑勇《行政法基本原则研究》,武汉大学出版社2005年版,第51页。 比例原则的最大意义在于使法官在裁判中,对于冲突的权利做出理性客观的裁决,以最大限度地减少主观臆断的可能。后来德国法院将比例原则提升到宪法位阶,使得该原则囊括了德国公法、私法在内的所有法律领域。以德国法下的比例原则为例,其包括三项具体内容——适当性原则、必要性原则以及相称原则。
评价任何客观存在,均需要首先明确评价的基点。例如德国在《基因科技法》中明确规定了其立法目的——在确保人类福祉下推动基因科技的研究。其出发的基点在于确保人类的整体福祉利益,而在目前有关人工智能的立法中,却并无此类明确指向评价人工智能法益位阶,因此,必须首先确定人工智能法益的正当性标准。虽然创设该种标准极其困难,但为其设定原则性的标准范围显然更符合人类的整体利益。根据法学家拉兹的理论,对于利益的证成,应当通过个人的利益保护公共的利益(common good),或通过公共的利益保护个人的利益,而正是保护了个人的利益,民众才会保护公共利益。(25) Joseph Raz,“Rights and Individual Well-Being”, Ratio Juris 2, 1992,p.135.同时,当立法者肯定多数群体价值取向的同时,并不同时意味着与多数群体意见相反的少数群体的意见是不妥当的,保护人工智能法益在不侵害人类整体法益前提下的自由,能够有效防止人类多数群体的专治。在人工智能法益位阶中,应采用相似观点——人工智能的发展应该服从人类的整体利益,而人类整体利益的保护将同样促进人工智能个体的发展。笔者认为,这就是法律调整人工智能法益的终极价值。
不同法益按照次序不同构建了法律保护阶梯次序,法益位阶是客观现实,反映了不同法益间在立法上的关系,意即优位法益应优先于低位法益得以实现。(19) 参见姜涛《基于法益保护位阶的刑法实质解释》,《学术界》2013年第9期,第102页。 若承认法益位阶有先后的划分,法官在平衡冲突的利益时,就能够通过法益位阶的优位顺序,确保具有优位性的法益得到优先保障。这种“位阶论”已在司法实践中得到实证,美国最高法院在“美联邦诉卡罗琳工业公司”案(20) United State v.Carolene Products Co., 304 U.S, 144 (1938). 中做出裁决,对权利的先后顺序做出了划分,与言论、出版、宗教等权利相关的法律,在立法时适用“严格审查”,对与经济自由相关的法律只进行“合理性审查”,权利的位阶决定了其立法审查的严格性。在设计人工智能发展与人类发展的利益取舍上,同样应当依据法律的权威性明确法益的先后划分。
(三)人工智能法益阈值范围
适当性原则是指行政主体采取的措施应当有助于目的的实现。根据适当性原则的内涵,在两种权利X、Y间发生冲突时,如果存在某种措施Z,能够以干预其中X权利为手段实现保护Y的目的,但从实际分析这种干预并不能达到该种目的,就不应当采取Z这种措施。当Z措施并未实施,并不会对Y造成实质性损害,而当Z措施被实施,则Y权利未被实现,X权利反而会受到侵害。(34) Robert Alexy,“On the Structure of Princiiples ”, Ratio Juris 3, 2000,pp.294-304.根据适当性原则,首先要确定人工智能行为的有害性,即法益侵犯性。在立法明确该有害性之前,不可能存在其违法的问题。例如为了保护普通市民健康,禁止某些剧毒农药的售卖,设置法规的前提就是确认该药物具有一定的危害性。如果行为没有法益侵害性,对之适用刑罚就不可能符合适当性标准。人工智能的法益衡量应遵循适当性原则,即法益位阶的衡量标准应为无社会危害性,应有助于人类社会的共同发展、有益于人类人身安全的保障、有利于科学技术的良性发展。
1.完全新型的人工智能法益
笔者认为,完全新型的人工智能法益是很难完全列举的,只能根据发展的基本规律并结合法律要求,提出相应的判断标准:一是新型人工智能法益必须具有确切的实在性,而不是不切实际的幻想或理论,也就是说,对上述的法益侵害能被外界所感知;二是新型的人工智能法益可以被公众享有,这也可以被视作具有重要的价值;三是新型的人工智能法益必须具有高度的被管理可能性;四是该法益主体仅靠自身难以提供完善的保护,必须借助法律的力量。根据上述标准,人工智能自我运算学习、利用数据、采用神经元模式进行复制的权利,均属于新型的、应当受到保护的法益。
消防中介组织和政府之间的互动也能带来许多优势。 第一,消防中介组织能够给予政府技术上的支撑,由于消防安全问题日趋复杂化,政府财政收入有限,公安部门的技术难以满足当前变化多端的环境形势,需要依靠消防中介组织的先进专业技术,才能更大程度杜绝安全隐患,避免不必要的损失。 第二,对于消防监督执法部门而言,借助消防中介组织的力量,通过合理有效的管理,可以弥补当前消防监督力量不足的局面。
康德提出,人类的价值可以分为外在价值与内在价值,即对人类自身有用与无用的区别。类似于尊严、爱情、自由这类内在价值,体现的是人类的基本追求,失去了上述追求,人类将无异于他物,上述价值体现的是人类的本质。例如,人类可以使用货币购买小麦,货币体现的就是工具价值。对于货币而言,人只有外在价值,外在价值体现的是工具性价值,其最终的目的是服务于人类的内在价值。法律价值代表着法律具有的、有意义的、满足人们需要的功能与属性。(12) 参见胡正良、孙思琪《论〈民法总则〉对〈海商法〉修改之影响》,《中国海商法研究》2018年第1期,第6页。 因此,人工智能本质上作为一种工具,其存在的终极意义是服务于人类的内在价值需求,应当发展机器伦理以应对人工智能技术发展对人类丧失内在价值追求的威胁。(13) Michael Anderson, Susan Leigh Anderson,“Machine ethics: Creating an ethical intelligent agent”, AI Magazine , 2007(4),p.15.美国加州大学伯克利分校的拉塞尔教授提出,应当将人类的内在价值写入人工智能编程语言,避免工具对人类的威胁。(14) Stuart Russell, Moral Philosophy Will Become Part of the Tech Industry , http://time.com/4026723/stuart-russell-will-ai-overtake-humans, 最后访问时间: 2019年8月11日。人类已经逐渐认识到内在价值等伦理规则对于人工智能发展的重要意义,2015年,日本庆应义塾大学在“阿西莫夫三原则”基础上提出了新的“机器人八原则”,新增了“保守秘密、适用限制、安全保护、公开透明、责任”等基本原则。人工智能不仅应当承担一定责任,更应将人类社会的伦理准则内化于人工智能的准则,建构完整的法益位阶核心。
综上所述,笔者认为,人工智能的法益范围应当至少包括以下几项:一是机体存在的法益,维持人工智能在妥善范围内的存在是人类发展的需要;二是社会存在的法益,包括有限的人格权(姓名权、隐私权等)、身份利益(荣誉、著作权等)、财产利益(享有智力成果等收益的权利),以及法律范围内的自由价值(运算、复制、从事科研活动的自由等),法律效力只有在具体的法律关系与社会关系中才能得以实现;三是符合公共利益的法益。根据《民法通则》第7条的规定,民事活动不得损坏社会公共利益。维护社会公共利益是法律的基本原则,为了解决利益间的冲突,法律赋予社会公共利益以优先性,在上述意义下,社会公共利益是协调人工智能利益与人类整体利益的参照标准。即,人工智能的创设、发展、应用,应当且必须满足社会公共利益的需要与价值判断。
三、人工智能法益位阶建构的具体适用
根据国务院《新一代人工智能发展规划》的要求,为实现人工智能相关发展链式突破,必须从法律的高度完成人工智能相关理论的模式建构,进行恰当而具有价值指引性的路径选择。如果法律仅仅指明保护利益,却不指明利益的判断程序、利益与权利的关系、确定标准等重要内容,利益就是毫无必要的术语。(28) 参见彭诚信《现代权利视域中利益理论的更新与发展》,《东方法学》2018年第1期,第100页。 笔者认为,针对人工智能与人类发展的冲突问题,根本解决办法是为人工智能的发展设定符合人类利益的法律原则,法院依据原则性的指导,在涉及人工智能的具体案件上做出裁决。适用以原则的规则化为核心的鉴别要素为基础,构建直接作为裁判依据的个案规范。(29) 参见彭诚信《论禁止权利滥用原则的法律适用》,《中国法学》2018年第3期,第249页。 在现阶段《人工智能发展法》等特别法缺位的现实下,最便捷的解决办法是对人工智能法益与其他法益。特别是人类法益进行比较衡量,法官据此做出最优选择。从上述角度分析,个案中法益位阶的具体确定与立法时的法益价值考量均可借鉴应用。
2.基于传统但赋予人工智能法益的新内容
(一)个案法益平衡原则
法益平衡,是在法益存在冲突的情况下,法院通过比较不同的利益位阶,确定何种利益应当受到法律的优先保护。由于法益位阶往往较为宽泛,特别是法律政策在不同的历史进程下有不同的体现,因此有必要赋予个案中的法官一定的自由裁量权,由其根据具体情况结合法律原则,做出法益位阶的判断。裁判的过程就是进行法益价值衡量与取舍的过程。例如,对于人工智能犯罪中“过失”的认定标准,是否在个案裁判中同样适用“应当预见而没有预见”的标准,上述预见在事后又如何进行判定?有学者提出利用技术对人工智能进行检测,从而“预见”人工智能可能出现的严重危害社会的行为,如果没有检测,就属于应预见而未预见。(30) 参见刘宪权《人工智能时代刑事责任与刑罚体系的重构》,《政治与法律》2018年第3期,第88页。 上述观点忽略了现阶段人工智能技术发展的现实,在弱人工智能时代,此种检测能够将责任主体限定在有检测义务的主体上——比如人工智能的生产销售企业。但在强人工智能时代,人工智能具备了自我思考与发散思维的能力,此时仍然将生产或者销售企业的检测作为承担义务的基础,其承担的极有可能是无限责任。例如,特斯拉汽车厂生产的无人驾驶汽车,在其销售之前必须要取得3C认证等强制性检测证书,但在出厂后,其并不能对每一台销售后的车辆进行全时监控,其适用的驾驶技术很可能在不同驾驶员的操纵下造成路人的人身伤亡,此时仍然特斯拉等制造企业承担主要责任显然有失公平,不利于企业在人工智能技术发展层面投入更多的资金。在此类案件中,赋予司法者以立法者的权威,依据个案实际情况,在确保人类法益得到满足的情况下,同时确保人工智能法益得到实现,确保法益冲突实现最优平衡。
笔者认为,考虑个案法益平衡,有以下几个关键性的要素需要予以考量:一是与基本法律价值相关的生命、健康利益。各国立法均将其视为人类最为重要的公共利益,在生命健康权与其他法益发生矛盾时,毫无疑问人类的生命健康权将拥有无可争辩的优先地位。我国《侵权责任法》第2条将生命健康权列为民事权利之首,印证了法律做出的价值选择。二是人格尊严特别是与人类社会伦理秩序基础相关的法益需要特别考虑。人格尊严是人的基本要求,人的存在并不仅是维持生命,同时必须有尊严地生活。在实践中,人工智能的某些行为将来必然涉及人工智能法益与人类法益的冲突,如与陪伴机器人结婚、生殖性克隆、人工智能做出侮辱他人人格尊严的行为。在上述情形下,人格尊严特别是人类伦理应当得到首先保全。三是社会公众的整体利益。边沁认为,国家存在的意义就在于实现社会公众的幸福。在衡量人工智能法益位阶时,必须考虑其所涉及社会公众的整体利益与受影响程度。若某种法益关系到社会公众整体利益,该法益的地位就更为重要。四是法律本身体现的关注程度,尤其是法律明确要求予以保护的法益。若法律对相关法益做出了明确列举,可以视作此类法益更应受到重视。例如,根据法国1989年第89-462号法律,每年冬季为法定修缮时间,房东不得因租客未支付房租而将其驱赶,租客的人身安全在此类情况下优先于房东的财产利益。(31) 参见王利明《典型合同立法的发展趋势》,《法制与社会发展》2014年第2期,第162页。
但个案法益平衡同样有着局限性,在个案中,对纷繁复杂的具体权利均做出明确的排序显然不切实际,法律很难就所有的法益位阶做出明确清晰的先后顺序目录——正如博登海默所言,人不可能凭据哲学方法对应当得到法律承认和保护的利益,做出普适性的权威有序安排。(32) 参见[美]E.博登海默《法理学:法律哲学与法律方法》,邓正来译,中国政法大学出版社1999年版,第400页。 另外,高位阶的法益并不存在绝对的优位,某些法益拥有更高的位阶,并不代表其在任何案例中均具有优先性。从唯物辩证法的角度分析,任何权利或者法益只能具有相对优位,并非不受任何限制。法官通过个案中的法益进行衡量时,除了需要考虑法益位阶外,仍需要结合其他因素综合考虑再做出判断。
(二)诉诸比例原则
虽然法益概念缺乏绝对明确的界限,但是承认立法者享有一定的创造空间,并无损于法益概念的价值。(24) 参见克劳斯·罗克辛《对批判立法之法益概念的检视》,《法学评论》2015年第1期,第56页。 在立法与司法中,必须做出价值取舍,以应对不同法益间可能发生的冲突,在能动与克制间寻找到恰当的平衡。人工智能法益位阶通过设定符合立法者要求的价值准则,在理论论证环节,明确此类价值取舍以做出明确限定。
(3)水面线以下开挖(蓄水后)。尾水渠水面线以下开挖,沿水流方向逆向进行分段进行施工,分1~2层进行,梯段小于10m,单个爆破块的宽度不宜大于50.0m,施工时先顺水流方向抽一个先锋槽,让地表水及下泄生态流量顺利过流,保证开挖在干地进行,先锋槽完成后,两边同时开挖,开挖渣料采用液压反铲挖装,自卸汽车运输直接上坝或运往渣场备料。
1.适当性原则
法益是法律保护的利益,而非所有利益,任何法律条文都无法穷尽式地列明其保护的利益类目。在讨论人工智能法益时,可以先分析利益的具体构成,进而考虑法益的限制。通过考量特定利益对公共利益等造成的影响加以限制,进而划定法益的范围。而人工智能的阈值范围,即人工智能在给定的法律和实际的可能性中,在最大程度上被实现的范围——哪些人工智能法益应当受到保护?作为法律的保护对象,有些法益曾经未被社会认为属于利益,现在由法律确认成为新型的法益,有些传统法益在新的背景下内涵与外延均发生了新的变化。笔者认为,在人工智能时代,人工智能的法益至少应包括以下两种:一种是完全新型的人工智能法益,另一种是基于传统但赋予人工智能法益的新内容。
2.必要性原则(最小侵害原则)
IgD型MM的治疗方法与其他类型的骨髓瘤相似,以化疗和自体造血干细胞移植为主[1, 5-6,11]。在应用硼替佐米、来那度胺等新药及进行自体干细胞移植治疗之前,IgD型MM患者的中位生存期不足2年[6];另有文献[12]报道,这类患者的中位生存期只有21个月,3年及5年的生存率分别是36%、21%。大剂量化疗后联合自体干细胞移植可以改善患者的总体生存率,延长其无病生存时间[8, 13-15]。研究[13]表明,单纯化疗患者的疾病总体生存期可达2年,化疗加自体干细胞移植患者总体生存期可达5.1年。
必要性原则指在应当采取适当手段中,应选择对当事人侵害最小的手段。若有X、Y两种措施能够实现Z的结果,但是对结果Q而言,Y与Z属于较轻微的干预措施,则出于Z与Q均最大限度被实现的要求,不应采取X这项措施,以满足必要性原则的要求。例如,在德国法律中,为了避免消费者误食外观上近似巧克力的工业制品,可以选择完全禁止生产该产品的手段(X),同样可以选择要求所有产品必须标明禁止食用的标识(Y)。(X)与(Y)两种手段都可以实现误食的目的(Z),但相较于干预市场自由(Q)而言,(Y)的调整程度显然较(X)更为轻微,因此,立法者选择(Y)作为适当手段。笔者认为,有关人工智能法益位阶的考量,应当遵循必要性原则,采取对于人工智能发展干预程度最小、负担最少的措施。
3.相称原则(狭义比例原则)
相称原则采取的必要措施与其追求的结果之间呈现比例,该原则处理的是采取手段的结果与目的的关系,要求行政机关对期冀保护的利益和可能损害的利益进行比较,如果采取一项措施损害的利益大于其所保护的利益,那么,就不得采用该行政措施。适当原则和必要原则是事实上可能性的最大化,体现的是帕累托最优。而狭义上的比例原则,是法律上可能性的最大化,将被立法者设为目标的利益,与权利主体所受的损害进行比较,如果损害大于利益,则不采取此限制措施。法学家阿列克西认为可以将宪法上的基本权利视作原则,依据比例原则,对相互冲突的基本权利进行衡量。(35) 参见钱福臣《解析阿列克西宪法权利适用的比例原则》,《环球法律评论》2011年第4期,第47页。 法益从其本质分析,是指被法律所确认和保障的利益和价值。相互冲突的法益应在法律与事实的可能范围内,以最佳化的结果实现,出于此目的,对法益的衡量必须使存在矛盾的法益维持恰当的比例。在考虑人工智能法益位阶时,需要准确设计比例原则的逻辑框架,并以可操作、可视化的形态体现。下文对狭义比例原则在人工智能法益位阶中的适用做了详细论证。
(三)阿列克西比例原则在法益位阶中的适用
按照分析实证主义理论,法律是一种带有理论讨论结构的社会实践。(36) George Pavlakos, Law ,Rights and Discourse :The Legal Philosophy of Robert Alexy , Hart Pressing, 2007,p.1 .规则和原则均可以成为判决这种实践的依据,但规则与原则具有显著不同。(37) 参见陈敬根《岩礁国际法律地位的路径重构》,《政治与法律》2018年第9期,第133页。 根据阿列克西的观点,明确的规则是判决的直接理由,原则若需要成为判决的理由,则必须转换为规则,其中转换的机制就是比例原则下的权衡商谈。原则是在给定的法律和实际的可能性中,最大程度上得到实现的规范。原则的满足依赖于实际与法律的双重可能,原则具有更多的开放性,而规则具有明确性。若法官需要有效地在案例中适用相应规范,则必须严格按照规范的构成要件严格执行。在存在矛盾的原则或规则间发生冲突时,适用不同的解决方法必然产生不一致的应然判决。规则间的冲突,如果不从一个规则中推断适当的例外,就需要宣布至少一个规则为无效。但如果适用对抗的原则,如一个允许而另一个禁止,则两个原则中必然需要抉择分量更重的一个。值得注意的是,并非分量上较轻的原则无效,也并不必须推断出例外,分量上较轻的原则在某些特定的环境下也会有可能优先于其他原则。
根据阿列克西的观点,确定原则形成权利之进路,适用优先关系的方法,再根据原则间的碰撞法则创造规则。原则本身并非一成不变的,每当原则成为具体应然判决的重要理由时,该原则就是规则的理由,而规则是该判决的确定理由。(38) 参见彭诚信《从法律原则到个案规范——阿列克西原则理论的民法应用》,《法学研究》2017年第4期,第97页。 阿列克西原则理论所要解决的问题,在于寻找和确定优先条件与变量,将优先条件与变量确定为寻找连接案件基本事实与优先原则的中点,原则的规则化便能够路径化呈现。通过具体的优先条件与变量确定存在矛盾的原则中优先适用的原则,进而填补法律漏洞。如果将阿列克西理论以法律逻辑予以表述,则可以简化为:若在X情况下,原则P1优先于原则P2[即(P1,P2)X],且在X情况下将导致法律后果W,那么,一个将X作为条件从句并且将W作为结果主句的有效规则就适用:X>W。例如,适用至人工智能法益位阶时,若人类整体法益优先于人工智能法益,则在具体案件中,人类整体法益优于人工智能法益的位阶成为与优先原则具有相同法律后果的条件,从而实现利益权衡的理性最大化。
综上所述,原则间的碰撞法则使一个原则在分量上处于优先位置,从而变成规则,人工智能法益位阶的具体内容可以作为具体判决的直接理由适用。每个原则就其自身而言,均可能同其他原则形成矛盾。法律通过限制一个原则以满足另一个原则的可能性,但并不通过宣布其中的一个无效而将其从法律制度中排除出去。这就意味着,原则需要依据具体案件事实做出优先判断,形成原则间有条件的优先关系。规则冲突在效力层次上不构成问题,而原则间的对抗则通过分量得到解决。
结 语
作为法律所保护的利益,人工智能应当受到法律的保护已经成为共识。但将一切形式的利益均以法律的名义进行保护,既模糊了法益的边界,形成人类社会对于人工智能的恐惧,同时也损害了法律意义上的价值选择。改变以人类法益为唯一的利益模式去探索解决快速发展的人工智能带来的冲击,对解决现行思维体系下的一些法学理论困境,形成法益保护的多重机制具有较强的现实意义。本文探讨的各项内容,并非可以直接适用的特殊规则,而是提出处理人工智能法益与人类法益价值冲突时的主要考量因素和解决路径。虽然人工智能法益的保护需要得到高度重视,但如何在确保人类福祉的前提下,促进人工智能更好更快地发展,是法律必须予以明确并做出选择的价值判断。
“天上甘露美,昌乐西瓜甜”。昌乐西瓜得益于昌乐古火山口集群区的优势,土壤富硒且沙化程度高,以“早熟、皮薄、沙瓤、脆甜”而闻名。昌乐西瓜清甜多汁,口感爽脆,生津消渴,是绝佳的纯天然饮品,富含维生素A、B1、B2、C等多种维生素,以及硒、钾、钙、铁等有益人体的矿物质,常食昌乐西瓜对人体大有益处。
The Study of Legal Interests Level of Artificial Intelligence
Yuan Zeng
[Abstract] The rapid development ofartificial intelligence(AI) impact the overall structure of human society, but the current legal norms lack a unified value standard for the AI. It is necessary to make an accurate value judgment on legal interests especially on AI to help the law provide legal protection.The core concept of value judgment is combing the rank of AI legal interests. Development of AI technology should consider the interests of whole human beings’ value firstly, and design law ethical framework based on such a concept.The framework includes admitting the limited legal personality of AI, setting the threshold value range of AI in principle. It is important to clarify the value judgment in specific cases and introduce a proportionality principle.In the case of the law could not enumerate each legal interest, the Alexi Narrow Proportion Principle provides theoretical evidence for legal application in AI cases.The law takes the realization of interests and the resolution of conflicts of interests as the core factor, and maintains a balance between ensuring the overall interests of human and promoting the development of AI.
[Key Words] legal interests of AI, limited legal personality,proportional principle, legal subject
* 上海交通大学法学博士后,本文系2018年度国家社会科学基金重大项目“大数据时代个人数据保护与数据权利体系研究”(18ZDA145)的阶段性研究成果,并获得2019年上海交通大学凯原法学院前沿交叉基金项目“新科技生态下的法律工程学应用研究”(WF118119003/001/042)的资助。
责任编辑:徐菁菁