人工智能致第三方损害的责任承担问题研究:一个法经济学的视角论文

人工智能致第三方损害的责任承担问题研究:一个法经济学的视角论文

人工智能致第三方损害的责任承担问题研究:一个法经济学的视角

吴维锭,黄植蔚,李 力

(北京大学,北京市 100871)

摘 要: 对于人工智能的法律地位私法学界形成了主体论和客体论两派观点,主体论主张赋予人工智能以一定的主体地位,客体论则将人工智能定性为财产或工具。对于人工智能造成的第三方损害,主体论认为应当由人工智能承担独立责任,而责任财产则来源于制造者或者使用者预先缴纳的资金池,资金池之外制造者或使用者无须承担更多的责任,而客体论认为制造商或者使用者应当对人工智能造成的损害承担无限责任。现有的主体论和客体论之争停留在主观应然层面,缺乏客观实然的分析。法经济学视角下法律规则在效率上存在优劣之分,区分的标准有“更安全地从事活动”和“从事更安全的活动”两种范式。主体论和客体论构造的法律规则在人工智能的不同应用领域效率不同,在自动驾驶车领域客体论更有效率,而在智能投资顾问领域主体论更有效率。

关键词: 人工智能;法律责任;法经济学;自动驾驶车;智能投资顾问

一、问题的提出

早在1956年的达特茅斯(Dartmouth)会议上,人工智能(AI)的概念就正式被“人工智能之父”约翰·麦卡锡提出① See Gail Gottehrer, “The Impact of the Artificial Intelligence Revolution on the Law”, Women Lawyers Journal, Vol.103,Issue 2 (2018), 17,p.19. 。虽然关于人工智能的具体内涵,一直没有统一的定义② See George S.Cole, “Tort Liability for Artificial Intelligence and Expert Systems”, Computer/Law Journal, Vol.10, Issue 2(April 1990), 127,p.131. ,但是通常都认为人工智能具有两大特征:第一,智能性。人工智能具有智能,能够完成需要人类智能的活动。比如根据《牛津电脑科学解释词典》,人工智能“是信息技术的一部分,它处理创建能够解决需要人类智能的问题的程序”③ Daniel Eszteri, “Liability for Operation and Damages Caused by Artificial Intelligence-With a Short Outlook to Online Games”, Studia Iuridica Auctoritate Universitatis Pecs Publicata, Vol.153, 57, pp.58-59. 。美国国会2017年通过的《美国人工智能未来法案》(Future of Artificial Intelligence Act)也认为人工智能“可以解决需要类人感知、认知、计划、学习、交流或身体动作的任务”④ 该法案第三条先是在a款分三项定义了人工智能(artificial intelligence)、人工一般智能(artificial general intelligence)和狭义人工智能 (narrow artificial intelligence),又在b款中赋予了特定机构根据需要对a款中的定义进行修改的权力。参考“FUTURE of Artificial Intelligence Act of 2017”,https://www.congress.gov/bill/115th-congress/house-bill/4625/text,2018 年 11 月 22日最后访问。 ;第二,自主性(autonomous)⑤ 在后文将会看到,正是对人工智能自主性的认识差异导致了主体论和客体论的分野。 。人工智能具有深度学习能力,能够通过传感器和激光从所处的未知环境中获取数据自我学习① Thomas Kirchberger, “European Union Policy-Making on Robotics and Artificial Intelligence:Selected Issues”, Croatian Yearbook of European Law and Policy, Vol.13, 191, pp.189-199. 。这种学习能力使得即使是人工智能的制造者也无法预知在特定的环境中人工智能将做出何种反应。例如欧盟2017年通过的《机器人民事规则》(Civil Law Rules on Robotics)认为智能机器人拥有“通过传感器和/或通过与其环境(互联性)交换数据以及分析这些数据来获得自主的能力”和“通过经验和互动学习的能力”② “European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics”,http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-%2F%2FEP%2F%2FTEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0%2F%2FEN#BKMD-13, last visited on November 23,2018. 。

岩石的硬度与组成岩石的颗粒间的胶结硬度中存在的较大差距,会严重影响到岩芯的采取率。首先,结胶性弱的岩石容易被钻具自带的震动产生损坏,使其岩石结构遭到破坏,松散的地层岩石极易受到钻具的冲洗液的冲刷。其次,岩石在遭受钻具的震动后容易产生破碎或岩芯堵塞互磨的现象,再加上外部风化的影响严重影响岩芯采取率。最后,由于岩层的结构问题还会产生相应的护壁困难,若护壁不好,还会影响到岩芯的采取率。

正如新制度经济学派所言,“技术等非制度因素决定着制度安排的变迁”③ (美)科斯、诺斯等:《制度、契约与组织——从新制度经济学角度透视》,刘刚等译,经济科学出版社2003年版,第2页。 ,作为技术因素的人工智能对法律制度的影响无可避免。围绕着人工智能,私法学界提出了诸多有价值的学术问题④ 参见王利明:“人工智能时代对民法学的新挑战”,《东方法学》2018年第3期,第4-9页;李晟:“略论人工智能语境下的法律转型”,《法学评论》2018年第36卷第1期,第98-107页。 ,比如法律人格问题⑤ 比如孙占利:“智能机器人法律人格问题论析”,《东方法学》2018年第3期,第10-17页。 、知识产权问题⑥ 比如易继明:“人工智能创作物是作品吗?”,《法律科学(西北政法大学学报)》2017年第35卷第5期,第137-147页;陶乾:“论著作权法对人工智能生成成果的保护——作为邻接权的数据处理者权之证立”,《法学》2018年第4期,第3-15页。 、自动驾驶车交通事故责任问题⑦ 比如郑志峰:“自动驾驶汽车的交通事故侵权责任”,《法学》2018年第4期,第16-29页。 和智能投资顾问问题等⑧ 比如郑佳宁:“论智能投顾运营者的民事责任——以信义义务为中心的展开”,《法学杂志》2018年39卷第10期,第62-72页。 。但是从现实来看,随着自动驾驶车和智能投资顾问等技术的逐渐使用,人工智能造成的第三方损害责任承担问题亟需探讨:自动驾驶车失灵致路人损害⑨ 比如2018年3月,美国一辆Uber无人驾驶车在亚利桑那州坦佩发生一起致人死亡的撞车事故。 、智能投资顾问失误做出错误建议导致顾客经济损失、医疗机器人错误诊断造成的患者损伤⑩ See Jessica S.Allain, “From Jeopardy to Jaundice:The Medical Liability Implications of Dr.Watson and Other Artificial Intelligence Systems”, Louisiana Law Review, Vol.73, Issue 4 (Summer 2013), 1049, p.1060. ,这些损失由谁承担?现有观点或者认为人工智能损害属于产品责任应当由制造者承担严格责任⑪ See Bryant Walker Smith, “Automated Driving and Product Liability”, Michigan State Law Review, Vol.2017, Issue 1(2017), 1, p.71. ,或者认为人工智能类似于雇工应当由作为雇主的使用者承担替代责任⑫ See Robert W.Peterson, “New Technology-Old Law:Autonomous Vehicles and California's Insurance Framework”, Santa Clara Law Review, Vol.52, Issue 4 (2012), 1341, pp.1358-1359. ,还有比较前卫的观点认为人工智能具有自主性应当独立承担责任⑬ See John Frank Weaver: 《Robots Are People Too:How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws》, Praeger, 2013, p.29. 。各种不同的责任规则的区分根本上是“主体论vs客体论”的观念之争。但是面对人工智能造成的第三方损害究竟应该采用何种责任规则及观念进行规制?

虽然法律作为一种价值载体“从来不是一元自足的闭塞体系,而是多元竞争的开放体系”⑭ 谢晖:“论法律价值与制度修辞”,《河南大学学报(社会科学版)》2017年57卷第1期,第1-27页。 ,但是面对具体的法律问题我们却往往只能选择其中的“一元”。现有文献对所主张的责任规则进行说理时多是站在法学内部进行循环式的主观论证,而从主观角度无法评判各种规则孰优孰劣。为此,本文试图运用法经济学的研究范式从经济效率角度对主体论和客体论进行相对客观的检视,分析两种观念及其具体规则在解决“人工智能第三方损害责任问题”上的优劣。需要指明的是,本文仅仅试图在人工智能法律问题争论中引入法经济学的视角和建立一个分析框架,文中所做的具体结论并非关键。

二、人工智能致损的法律责任争议

(一)法律责任之争:主体论和客体论的分野

关于人工智能在运行过程造成的第三人损害,学界提出过多种责任规则,比如产品责任、替代责任和人工智能责任等。这些责任规则依据责任承担主体可以区分为人工智能责任、制造者责任和使用者责任。

实施习近平总书记“长江大保护”战略要坚持尊重自然、顺应自然、保护自然的理念,把修复长江生态环境摆在压倒性位置,进一步修复水生生物重要栖息地和关键生境的生态功能;坚持上下游、左右岸、江河湖泊、干支流有机统一的空间布局,把水生生物和水域生态环境放在“山水林田湖草”生命共同体中,全面布局、科学规划、系统保护、重点修复。大保护必须统筹山水林田湖草整体保护,拯救濒危物种,尤其要强化长江流域鱼类和珍稀特有水生物种保护,严格渔业资源管理,禁止非法捕捞,加大增殖放流力度,促进珍稀特有物种种群的自然恢复,全面加强水生生物多样性保护。

制造者责任即由制造者承担第三人损失,其有多种具体形式。第一种是产品责任① 参考龙文懋:“人工智能法律主体地位的法哲学思考”,《法律科学(西北政法大学学报)》,2018年第36卷第5期,第24-31页。 。人工智能不论多么智能,在本质依然是产品,受到《产品质量法》的规制。依据我国《产品质量法》第四十一条第一款“因产品存在缺陷造成人身、缺陷产品以外的其他财产损害的,生产者应当承担赔偿责任”,如果因为人工智能本身缺陷导致第三人受损,生产者应当承担赔偿责任;第二种是生产者过错责任② See Thomas Kirchberger, European Union Policy-Making on Robotics and Artificial Intelligence:Selected Issues, Croatian Yearbook of European Law and Policy, Vol.13, 191, p.203. 。如果人工智能致第三人损害的根本原因在于制造商的技术人员的软件设计错误,那么制造商由于其技术人员的过错应当承担责任。

使用者责任即由使用者承担第三人损失,其也有多种具体形式。第一种是雇主责任③ See Jason Chung&Amanda Zink, “Hey Watson-Can I Sue You for Malpractice-Examining the Liability of Artificial Intelligence in Medicine”, Asia Pacific Journal of Health Law&Ethics, Vol.11, Issue 2 (March 2018), 51, p.67. 。人工智能与使用者之间的法律关系实际上是雇佣关系,后者是前者的雇主。依据我国《侵权责任法》第三十四条第一款“用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任”,人工智能因执行工作任务造成他人损害后应当有相当于用人单位的使用者承担法律责任;第二种是机动车交通事故责任,这种形式主要适用在自动驾驶车交通事故中。虽然自动驾驶模式下使用者无法操控汽车,但是其仍享有运行利益④ 郑志峰:“自动驾驶汽车的交通事故侵权责任”,《法学》2018年第4期,第19页。 。而且鉴于自动驾驶汽车的发动键是使用者按下的⑤ See Jeffrey K.Gurney, “Driving into the Unknown:Examining the Crossroads of Criminal Law and Autonomous Vehicles”,Wake Forest Journal of Law&Policy, Vol.5, Issue 2 (June 2015), 393, p.414. ,其实际上处于对汽车支配地位,所以需要承担交通事故侵权责任;第三种是参照动物侵权责任规则⑥ See Sophia H.Duffy&Jamie Patrick Hopkins, “Sit, Stay, Drive:The Future of Autonomous Car Liability”, SMU Science and Technology Law Review, Vol.16, Issue 3 (Winter 2013), 453, p.118. 。人工智能与动物十分相似,可以类推适用相关法律。依据我国《侵权责任法》第七十八条“饲养的动物造成他人损害的,动物饲养人或者管理人应当承担侵权责任,但能够证明损害是因被侵权人故意或者重大过失造成的,可以不承担或者减轻责任”,人工智能致第三方损害的其管理人即使用者应当承担严格责任。

人工智能责任即由人工智能本身对所造成的第三方损害负责。这种法律观点认为由于人工智能具有学习能力,能够随着时间“进化”。人工智能通过从所处环境中获取信息和数据然后做出反应,这种反应即使是其制造者也无法预知① See David C.Vladeck, “Machines without Principals:Liability Rules and Artificial Intelligence”, Washington Law Review,Vol.89, Issue 1 (March 2014), 117, p.121. 。由于这种不可预测性,人工智能可以被视为一种替代原因(superseding cause)② “指由于第三人的行为或其他外力等不可预见的因素介入,打破了原来的因果链条(chain of causation),并成为导致结果发生的最近的一个原因,从而使得原来的行为人,虽然其先前的疏忽是造成该损害结果发生的一个实质性因素,但由于该原因的介入而免于承担责任。”参考薛波:《元照英美法词典》,北京大学出版社2017年版。 ,打破了制造者和使用者与受害人的损失之间的因果关系链条,所以制造者和使用者都无需为第三方的损害负责③ See Weston Kowert, “The Foreseeability of Human-Artificial Intelligence Interactions”, Texas Law Review, Vol.96, Issue 1 (November 2017), 181, p.183. 。相反,应当赋予人工智能一定的法律地位,由其本身承担责任,而责任财产来源于预先设置的资金账户。

“从事更安全的活动”范式的精髓在于让活动的全部成本(包括外部性成本)都体现在活动的表面价格中,以便于让行为者能够正确地根据自己的效用函数决定是否从事该项活动。该范式认为“生产者-使用者”关系架构下,生产者拥有产品的全部成本信息,而使用者则处于信息劣势。生产者为了能够取得更大的销售额,有故意隐瞒产品实际全部成本信息、降低产品销售价格的激励,以吸引效用值介于实际成本和销售成本之间的顾客购买产品。但是对于这部分顾客来说购买产品行为是无效率的,因为其购买产品后承担的实际成本高于该产品带来的效用,即“买得不值”。从整个社会角度讲也是不效率的。

随着电力系统智能化程度的不断深入,作为其基础的电力系统感知数据变得越来越重要。电压互感器量测数据是重要的感知数据源头之一,是实现电力系统智能分析与控制的前提条件[1]。错误的量测数据不仅可能导致自动装置误动和拒动,还可能误导调度人员做出错误决策,严重影响电力系统安全稳定运行。然而,电压互感器故障是无法完全避免的,因此,亟需一种行之有效的电压互感器故障识别方法,当电压互感器发生故障时,能及时准确地识别出故障,避免错误测量数据造成不良影响。

面对人工智能造成的第三方损失责任承担问题,现有的三类责任规则各有依据,不分轩轾。如果透过这些规则的表象,往更深层次挖掘,可以看到两种哲学观念——主体论和客体论之间的冲突。制造者责任和使用者责任的支撑观念是客体论。客体论认为人类才是万物的主宰和宇宙的中心,所以只有人才能成为主体。人工智能尽管由人类创造具有智能,但是这种智能与人类理性相去甚远,因而只能视为人类的工具或者财产,相对于人类只能居于客体地位④ 参见李扬,李晓宇:“康德哲学视点下人工智能生成物的著作权问题探讨”,《法学杂志》2018年第39卷第9期,第43-54页。 ;而主体论恰恰相反,认为客体论对人工智能的认识停留在弱人工智能时代⑤ Daniel Eszteri, “Liability for Operation and Damages Caused by Artificial Intelligence-With a Short Outlook to Online Games”, Studia Iuridica Auctoritate Universitatis Pecs Publicata,Vol.153,57,p.73.也可参考(英)玛格丽特·A·博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社 2006年版,第56页。 ,根本没有意识到人工智能强大的学习能力和自主性。人工智能不同于以往的工业普通机器人⑥ 参考梁志文:“论人工智能创造物的法律保护”,《法律科学(西北政法大学学报)》2017年第35卷第5期,第156-165页; ,后者的行为已经被编程预先设定好,只能做机械运动,行为具有可预测性。而人工智能可以从周围环境获取数据和自我学习,虽然其开始于算法编程,但是会一直“进化”,往后的行为不具有可预测性⑦ See Ryan Calo, “Robotics and the Lessons of Cyberlaw”, California Law Review, Vol.103, Issue 3 (June 2015), 513, p.554.也参见刘宪权,胡荷佳:“论人工智能时代智能机器人的刑事责任能力”,《法学》2018年第1期,第40-47。 。人工智能的“智能”已经超越人所能控制和预知的范围,应当赋予其一定的法律人格。且从法律主体的历史变迁来看,作为非人的法人也被赋予了法律人格,足见人类之外的物体包括人工智能在法律人格获得上的可能性⑧ 参考张玉洁:“论人工智能时代的机器人权利及其风险规制”,《东方法学》2017年第6期,第56-66页。 。

腹腔镜胆囊切除手术使用的麻醉方式和手术的结果之间关联性紧密,根据临床研究显示,不科学的麻醉方式会让手术效果不佳,需要再次手术治疗,对患者的生命安全产生了很大的威胁,降低了医疗服务质量[3]。针对于此种情况,需要结合患者疾病的具体情况,结合患者的身体情况等进行综合性的分析,进而选择最为科学、最为有效的麻醉方式,这样才能够①确保麻醉的效果,②保证患者的生命安全,确保手术的顺利进行[4]。

(1)客体论之理据

客体论的理据主要有三类。第一类是“人是目的”理据。依据康德哲学,世界存在两种不同的“存在者”。一种存在者为“事物”(Sachen),不具有理性,只具有相对价值,只能作为“手段”(Mittel)。另一种存在者是“人”(Personen),具有理性和绝对价值,为“目的本身”(Zwecke an sichselbst)⑨ 参考(德)康德:《道德形而上学基础》,孙少伟译,九州出版社 2006年版,第 83-84页。 。康德的这种二分法意味着只有人才能成为主体,人之外的一切存在包括人的创造物都只是客体而从属于人;第二类是“欲望主体”理据。法律预设的主体不仅仅是理性主体而且是欲望主体,他虽然具有理性能够进行算计、判断和选择,但是却无法避免受到情感和欲望的影响。“权利是欲望在法律上的代名词,自由欲望的主体也就是有着各种各样权利诉求的主体。”⑩ 龙文懋:“精神分析视野下的人权批判——科斯塔斯·杜兹纳精神分析法学评述”,《环球法律评论》2013年第1期,第92-101页。 人工智能虽然具有理性,但是这种理性与法律预设主体的理性有着本质的不同,后者的理性受到欲望的影响而前者是纯粹的理性。人工智能不具备欲望,而抽离了欲望就会成为无欲无想的空壳式的存在,从而无法作为适格的利益负担者,因为无欲无想的主体是感受不到快乐和痛苦的,而快乐和痛苦正是法律上的利益所在。所以人工智能不能成为法律主体① 龙文懋:“人工智能法律主体地位的法哲学思考”,《法律科学(西北政法大学学报)》,2018年第5期,第27页。 ;第三类是“要件缺失”理据② See Lawrence B.Solum, “Legal Personhood for Artificial Intelligences”,North Carolina Law Review,Vol.70,Issue 4 (April 1992), 1231, p.1262. 。这种理据的展开形式如下:首先,要素X是法律人格的基础。第二,没有人工智能可以拥有要素X。第三,人工智能虽然可以产生用X识别的行为,但这一事实仅表明人工智能可以模拟X。事物的模拟不是事物本身。要素X包括灵魂、意识、感觉、道德和自由意志等。客体论也还有其他的理由,比如人工智能并没有独立的财产,无法独立承担责任,而民事主体在财产、意识、责任上的独立是近现代民法的基本观点③ 参见尹田:“民法基本原则与调整对象立法研究”,《法学家》2016年第5期,第17页。 。

翠姨的母亲常常替翠姨解说,人矮点不要紧,岁数还小呢,再长上两三年两个人就一般高了。劝翠姨不要难过,婆家有钱就好的。聘礼的钱十多万都交过来了,而且就由外祖母的手亲自交给了翠姨;而且还有别的条件保障着,那就是说,三年之内绝对的不准娶亲,借着男的一方面年纪太小为辞,翠姨更愿意远远的推着。

(2)主体论之理据

主体论的理据可以概括为历史论据和实践论据。历史论据考证了民事主体概念的历史流变,认为“自然人格”并不等同于“法律人格”,一方面具有自然人格并不意味着具有法律人格,比如古代的奴隶便不具有法律人格④ 参见李拥军:“从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁——对法律‘人’的一种解析”,《法制与社会发展》2005年第2期,第45-52页。 。另一方面,不具有自然人格也可能拥有法律人格,比如法人制度的兴起⑤ 历史上,寺庙、轮船和家庭神像等都曾经被认定为主体,参见Lawrence B.Solum, “Legal Personhood for Artificial Intelligences”, North Carolina Law Review, Vol.70, Issue 4 (April 1992), 1231, p.1239. 。法律人格的赋予标准中,自然人格的伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素,所以民事主体制度中尚有人工智能的存在空间⑥ See Mark A.Chinen, “The Co-Evolution of Autonomous Machines and Legal Responsibility”, Virginia Journal of Law&Technology, Vol.20, Issue 2 (Fall 2016), 338, p.378. 。人工智能具备独立的意志,再通过为其设定资金账户充实其责任基础,便能独立承担损害赔偿责任,成为“法律上的人”。历史论据的第二条进路是考察权利发展史,从权利的发展历史来看,权利主体范围是变动不居的,某一群体是否被法律体系接纳为权利主体关键取决于该群体的实力和社会影响力。人工智能的更新速度远远超过人类的进化速度。随着社会的大量运用,人工智能在社会中影响力将不断提升,最终获得法律主体地位⑦ 参考张玉洁:“论人工智能时代的机器人权利及其风险规制”,《东方法学》2017年第6期,第57-58页。 ;实践论据则将目光转向现实,从立法和司法出发,通过事实证明赋予人工智能民事主体地位的可行性。欧盟2017年通过的《机器人民事规则》考虑将人工智能定义为“电子人”(electronic persons),由其独立对所造成的损失承担责任⑧ See “Civil Law Rules on Robotics”, supra note 7, at paras 59(f). 。现实中也有国家开始承认人工智能的主体地位,比如2010年宠物机器人帕罗获得日本户籍,户籍本上父亲一栏为其发明人⑨ 参考郭少飞:“‘电子人’法律主体论”,《东方法学》2018年第3期,第38-49页。 ;2017年智能机器人索菲亚被沙特阿拉伯授予国籍。

(二)评论

1.客体论与主体论的冲突实质:法律主体的要件

单独看客体论或主体论,似乎都有道理,但是两者导出的结果却相互矛盾。一个可能的解释是客体论和主体论并不在同一个层面进行论辩,换句话说,客体论和主体论的辩论并没有形成冲突点。但是这样草率的结论并不能使人信服。从逻辑关系的角度,如果客体和主体是矛盾关系① 逻辑学界普遍认为,概念间矛盾关系与对立关系的划分,以同一属概念下的两个种概念外延间关系的不同为依据,即两个互不相容的种概念的外延之和等于属概念全部外延的是矛盾关系,小于属概念全部外延的是对立关系。参考许绍吉:“矛盾关系与对立关系划分依据的商榷”,《探索》1985年第3期,第59-61页。 ,客体论就等于“非主观论”,即主要在于论证人工智能为何不能成为法律主体,与论证人工智能为何能成为法律主体的主体论形成矛盾关系。所以客体论和主体论的冲突点在于对法律人格确立标准的认识差异。客体论的三点理据中“欲望主体”理据实际可以归入“要件缺失”理据,而“人是目的”理据则类似宗教信仰无法纳入理性辩论的范围,因而可以认为客体论下人工智能无法成为法律主体的原因在于其缺乏一些要素,而这些要素是法律主体必要的,包括意识、感觉和欲望等生物特征。主体论的关键理据则仅仅在于历史论据,实践论据以事实证明论点的论证方式也无法进入理性辩论的范畴。所以主体论下人工智能能够成为法律主体的关键在于拥有意识能力、独立财产和责任能力以及随着社会应用率的提升人工智能作为一个群体实力崛起的过程。人工智能具有智能,而通过设定资金账户等手段,人工智能就能承担独立的法律责任,拥有法律人格。

2.客体论和主体论的评价困难

客体论认为民事法律主体必须具有意识、感觉和欲望等生物特征,而主体论认为民事法律人格的获得仅仅需要意识、财产和独立的责任能力以及作为一个群体社会影响力的增强。那么在民事法律人格的构成要件这个问题上是客体论正确还是主观论正确?这个问题似乎颇难做出判断。因为这里充满了主观因素,而主观应然领域必然意味着对错难辨。

事实上自孔德创立实证主义以来,知识便被区分为真与假两种类型,前者是指能够得到反复验证的知识,而后者则相反。在实证主义思潮的影响下,理论研究范式也被分为了“实然”(is)与“应然”(ought)两类。学者更加注重事实和价值的区分,以及实证和规范的不同层次② 比较有代表性的文献参考Herbert Hovenkamp, “Positivism in Law and Economics”,California Law Review,Vol.78,Issue 4 (July 1990), pp.815-852; J.M.Balkin, “Too Good to Be True:The Positive Economic Theory of Law”, Columbia Law Review, Vol.87, Issue 7 (November 1987), pp.1447-1489. 。19世纪以来,实证主体渗透到了法学领域,法学实证主义流派兴起③ 参见(美)E·博登海默:《法理学:法律哲学与法学方法》,邓正来译,中国政法大学出版社2017版,第129-130页。 。这种学派的宗旨即倡导对法律的非价值判断研究方法④ 参见(英)哈特:《法律的概念》,张文显等译,中国大百科全书出版社,第181-189页。 。而实然和应然的区分也使得法律论述科学化⑤ See Rodolfo Sacco, “Legal Formants:A Dynamic Approach to Comparative Law”, American Journal of Comparative Law,Vol.39, Issue 1 (Winter 1991), pp.1-34. 。

同时,法经济学并不否认正义理念在法律解释中的价值,而是倡导先用效率的眼光观站在法律体系外看待法律,然后再回归法律体系内部对法律进行正义审视。法律工作者是运行中的法律制度的一部分。当他们描述法律时,他们的解释就变成了所描述的法律的一部分。法经济学使得法律工作者得以脱离这一框架,把法律作为一个客体来进行研究,考察某种解释是否有效率,然后再进入这一框架运用诸如正义的理念解释法律,也即再度成为这一制度的一部分。法经济学视野下“价值”和“事实”之分,使法律工作者可以用两步走的解释方法,即可以对法律制度用更超脱的看法来解释之。这样他们就可以对法律的实际动态运作持一种比较超脱的外在看法⑦ (美)马太:《比较法律经济学》,沈宗灵译,北京大学出版社2005年版,第10页。 。

万姐坐在床边,轻轻地说:“以后别再做傻事了。你可以恨男人,但不要恨孩子。他是你身上的肉啊!”老公从青岛回来后,我开始安于自己新的身份——母亲。而我也是从那时才发现,万姐特别喜欢做衣服,而且都是小孩儿的衣裤。

三、法经济学视野下的人工智能法律地位

(一)法经济学的理念和基本观点

理念的概念至少可以追溯到古希腊哲学家柏拉图,在《理想国》一书中柏拉图借用“洞穴比喻”论述了隐藏在变动不居的现象背后的理念的永恒不变性。由此理念代表着事物本质和表象更深层次的因素① 参见徐凤林:“柏拉图为什么需要另一个世界?——舍斯托夫对柏拉图哲学的存在主义解释”,《求是学刊》2013年第40卷第1期,第5-11页。 。法经济学的理念即法经济学方法、范式和结论背后的本质。而从实质内容来说,法经济学的关键理念是效率。

首先,法经济学认为“法律分析应集中研究效率而不是正义,效率应成为法律解释的关键”② (美)马太:《比较法律经济学》,沈宗灵译,北京大学出版社2005年版,第3页。 ,“私法分析中效率优于分配”③ (美)罗伯特·考特、托马斯·尤伦:《法和经济学》,史济川等译,格致出版社2012年版,第7页。 。因为正义是一种“主观”价值,而效率则是“客观”价值④ See Heidi Li Feldman, “Objectivity in Legal Judgment”, Michigan Law Review, Vol.92, Issue 5 (March 1994), pp.1187-1255. 。在公认的经济学范式[帕累托(Pareto)和卡尔多·希克斯(KaldorHicks)的范式]⑤ 根据帕累托(Pareto)的标准,外在情况改变在以下情况下才算有效,即至少有一个人变佳,而没有人变坏。根据希克斯(Kaldor Hicks)的标准,外在情况的改变之有效在于受损失者可以由胜者加以补偿(财富最大化)。 中,仅承认两三个效率观念。而实际上却存在许多种评价正义的观念。这样一来,人们在效率领域能够找到更大的一致性,在正义问题上却难以形成统一观点。法律解释不应受正义指引,它应由效率指引。法律工作者与政治家相反,他们的作用不是有助于使蛋糕切得更公平,因为分配问题不应属于法律工作者的专业分析范围,这些问题属于政治领域。如果法律工作者卷入分配问题并将它们引入法律解释过程,他们就将会以自己的价值判断代替合法的政治民主程序所实施的判断。也就是说,一个关注正义的法律工作者就丧失了客观性和中立性⑥ Robert D.Cooter, “Best Right Laws:Value Foundations of the Economic Analysis of Law”, Notre Dame Law Review, Vol.64, Issue 5 (1989), 817, p.826. 。

人工智能是否应当获得法律人格这个问题在主体论和客体论眼中成为了一种价值之争,论者采取哪派观点完全取决于个人的主观信仰。对于人工智能法律人格的问题似有必要脱离“应然”领域,引入“实然”的研究方法。而法经济学无疑是这样一种进行法律实证分析的工具⑥ 当然,法经济学中也涉及主观领域,比如“效率”的概念就有至少有帕累托(Pareto)和卡尔多·希克斯(Kaldor Hicks)两种观点。但是这不妨碍法经济学整体上的“实然”性。 。

比较“更安全地从事活动”范式和“从事更安全的活动”范式,前者是在要从事特定活动并且要避免外部性损害的前提下寻求成本最低的法律规则方案。后者则不寻求必须从事特定活动也不寻求必须避免外部性损害,而是强调寻找能够使得外部性成本体现在活动价格中的法律规则方案。

(二)法经济学的研究范式

卡拉布雷西认为法经济学的研究范式可以归入两类,第一类为“更安全地从事活动”范式,第二类为“从事更安全的活动”范式⑨ (美)盖多·卡拉布雷西:《事故的成本——法律与经济的分析》,毕竞悦等译,北京大学出版社2008年版,第62页。 。这两种范式也是评价相互竞争的法律规则之间何者更有效率的两种标准。

1.“更安全地从事活动”范式

交通优势度的概念最早由金凤君提出,他认为区域交通优势度的评价指标与集成需要从“量”“质”“势”3个方面综合考虑。本文在总结、借鉴交通优势度相关研究的基础上,延续“量”“质”“势”的概念,建立机场优势度评价指标体系(见图1),具体维度内涵与计算方法如下:

“更安全地从事活动”范式实际上是卡拉布雷西就事故法的不同责任规则的相对效率问题提出的,这种范式认为,把事故的责任施加到原本(即假设事故还未发生)能以最低成本避免事故的发生的一方的法律规则是更优即更有效率的规则。正如波斯纳总结的,“法律上,事故责任应该归咎于能以最低成本避免事故而没有这样做的当事人”① (美)波斯纳:《法律的经济分析》,蒋兆康译,中国大百科全书出版社1997年版,第20页。 。

“更安全地从事活动”研究范式可以回溯到“科斯定理”。但事实上科斯从未总结过科斯定理,而是由斯蒂格勒根据科斯的《社会成本问题》② See R.H.Coase, “The Problem of Social Cost”, Journal of Law&Economics, Vol.3, pp.1-44. 一文进行总结的结果③ 参见卢现祥、朱巧云:《新制度经济学》,北京大学出版社2012年版,第133页。 。科斯的研究始于“外部性”问题。庇古福利经济学解决如工厂生产造成的环境污染等“外部性”问题的传统方法是税收和罚款,以此实现外部成本内部化。而科斯看到了外部性问题的“相对性”:“问题通常被想成是A对B造成损害,则我们应该如何制约A?但这种想问题的方法是错误的,我们所处理的问题是相对的,若想避免对B造成损害则势必对A造成伤害。故真正的问题是:应该允许A损害B,还是允许B损害A?核心所在,乃是怎样避免较大的损害。”④ SeeR.H.Coase,supra note 60,at p.2. 在看到问题的相对性后,科斯进一步分析假设有交易成本和没有交易成本的两种情况下,产权的设置或者法律规则的配置对于总体的社会成本有何影响。最后的结论是“当交易费用为零时,只要允许自由交易,不管产权初始界定如何,最终都能实现社会总产值的最大化,即帕累托最优状态”,而“交易费用为正的情况下,可交易权利的初始安排将影响到资源的最终配置”,前者即科斯第一定理,后者为科斯第二定理⑤ 参见卢现祥、朱巧云:《新制度经济学》,北京大学出版社2012年版,第137-139页。 。科斯定理的前述表述是偏经济学的定义,波林斯基则从法学的角度做了新的同义表述:“如果交易成本为零,不论法律规则如何选择,有效率的结果都会发生”;“如果存在正的交易成本,有效率的结果便不是在每种法律规则下都会出现。在这些情形中,较优的法律规则是能够使交易成本的影响最小化的规则。这种影响包括实际产生的交易成本,也包括为了避免交易成本而导致的无效率的选择。”⑥ (美)波林斯基:《法和经济学导论》,郑戈译,法律出版社2009年版,第10-12页。

因为现实生活是一个正交易成本的世界,由科斯第二定理可知,“合法权利的初始界定会对经济制度运行的效率产生影响,权利的一种安排会比其他安排带来更多的产值”⑦ (美)科斯:《社会成本问题》,载科斯著《企业、市场与法律》,盛洪等译,上海三联书店1990年版,第92页。 ,所以能够实现社会产值最大化的法律规则最有效率也是法经济学眼中的最优规则。借用波林斯基的话说,较优的法律规则是能够使交易成本的影响最小化的规则。

2.“从事更安全的活动”范式

“从事更安全的活动”范式认为“一旦事故成本(外部性成本)反映在活动的价格中,一些从事相对危险的活动而其价格不反映事故成本的人将转向更安全的行动”,“无论如何转变,都会减少事故成本,因为更安全的活动某种程度上本应替代危险的活动”⑧ (美)盖多·卡拉布雷西:《事故的成本——法律与经济的分析》,毕竞悦等译,北京大学出版社2008年版,第62页。 。所以存在多个法律规则的情形下,最有效率的规则应该是能够使得外部性成本(包括事故成本)反映在活动价格中的一类规则。

随着我国现代化建设的快速发展,勘探技术的更新和进步早已迫在眉睫,而岩土工程勘察钻探技术和取样及测试是一项难度较大的工作,除了要提高其投资力度,还要将科研成果投入到实际的岩土工程当中,结合不同的地质情况给予具体分析,有力推动我国钻探水平的提高,促进岩土工程经济、安全的快速发展。

“从事更安全的活动”范式理论基础在于“没有人比自己更知道什么对自己更好”⑨ 同上,第59页。 ,只要个人充分知道替代性活动和每一活动的全部成本(内部性成本和外部性成本)都体现在活动价格中,个人就可以比别人更好地决定自己的需求。相反,若活动价格未包含外部性成本将导致如果活动价格包括了外部性成本便不会从事该活动的那部分群体从事该活动,从而导致更多的社会成本。因为对于这部分群体来说,这种活动对其产生的效用(utility)低于该活动的全部成本。所以有效率的法律规则应该能够使得活动的全部成本囊括在活动价格中。

或许用一个例子能够更加明晰地说明这一范式的精髓。假设某汽车的内部性成本为100元① 包括各种汽车生产成本和费用,以及生产商的利润。 ,发生交通事故的概率为10%,事故发生后的损害赔偿额为50元,所以选择该汽车出行的完全成本为105元。现在有一个人A,假设在他的眼中该汽车带给他的效用为103元。假设现在有两种法律规则,第一种法律规则是生产者严格责任,即汽车发生交通事故的全部损害赔偿都由生产商承担。第二种法律规则是使用者严格责任,即汽车发生交通事故的全部损害赔偿都由使用者承担。现在考察这两种法律规则的相对效率和对各方主体的影响。第一种规则下,生产者会把汽车的价格定在105元,因为他想要获取的利润是确定的,从而需要把所有的成本考虑在销售价格中。这样一来,A就不会选择购买该汽车出行,因为该汽车带给他的效用只有103元(低于105元);第二种规则下,生产者无须承担交通事故损害赔偿这一外部性成本,为了多出售汽车,他会将汽车价格定在100元而不是105元。这样,A将选择购买该汽车,因为(他认为)该汽车带给他的效用超过售价。但是,其实A没有考虑到,选择该汽车的整个成本是105元(因为交通事故成本由A承担),如果A考虑到了外部性的事故成本,则其不会购买该汽车(因为效用只有103元,低于全部成本105元)。那么A做了一个不效率的选择。所以综合两种法律规则,第一种更有效率。需要指明的是,在上述事例中隐含了一个假设——生产者拥有外部成本的全部信息,而使用者顾客则没有。

在法经济学的眼中法律制度是一套激励体系,更进一步说,是一种隐含的定价系统,而非强制制度。传统的法律工作者对法律系统持有的是一种“命令理论”(imperative theory),认为大部分人将会做法律要求他们做的,特别是存在违法责任时。而法经济学则用一种“激励理论”(incentive theory)解读法律,认为人们对待违法责任的态度与对待价格的态度无异。如果责任规则发生了改变,预测事故的频率会增加还是减少实际上与评估消费者需求曲线(consumer demand curves)非常相似,这种预测在价值上是中立的⑧ See Robert D.Cooter,supra note 57,at pp.829-830. 。

现在将研究的视野拉回到本文的“人工智能致害第三人的责任承担问题”,对这个问题的已有的法律规则根据承担责任的主体可以区分为三类:制造者责任、使用者责任和人工智能责任。借用法经济学的研究范式,本文拟对上述三类规则的相对效率进行分析,考察哪种规则是法经济学眼中的最佳规则。但正如卡拉布雷西所说的,“适合于作业事故的体制可能不适合于机动车事故,这既是因为我们的需要不同,又是因为所涉及的事故结构需要不同的体制以实现同样的目标。只有在每个领域根据经验仔细地研究,才能找到最合适的体制。”对于三类规则效率的讨论有必要建立在具体的应用领域中,因此下文区分“自动驾驶车交通事故致行人损害”和“智能投资顾问致投资者损害”两类问题展开具体研究。

高寒沙区降水量少,风沙大,这样的恶劣环境下在沙丘(地)造林,成活率和成林率是技术上的难题。已往的造林常采用裸根苗或机械固沙这两种措施。裸根苗造林技术育苗周期长、沙丘上不易挖穴、栽植难度大、受造林季节限制,不适宜长期在高寒沙区推广使用。机械固沙措施采用麦草、粘土、草绳、石砾、尼龙网和PVC编织袋等材料做沙障,短期内可以达到固定流动沙丘的目的,然而其有效作用期限短,结合生物固沙措施才能发挥最佳治沙效果。

四、实例讨论:自动驾驶汽车和智能投资顾问

(一)自动驾驶汽车

当前对于自动驾驶并没有统一的概念界定② See Markus Maurer, J.Christian Gerdes, Barbara Lenz&Hermann Winner: 《Autonomous Driving:Technical, Legal and Social Aspects》, SpringerOpen, 2015, p.2. 。根据《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》,自动驾驶是指自动驾驶车辆上,不需要测试驾驶员执行物理性驾驶操作的情况下,能够对车辆行驶任务进行指导与决策,并代替测试驾驶员操控行为使车辆完成安全行驶的功能。对自动驾驶车发生交通事故致路人损伤的责任承担问题,现在有三种可能的归责规则① 参见陈景辉:“人工智能的法律挑战:应该从哪里开始?”,《比较法研究》2018年第5期,第136-148页。 。第一,利用产品责任规则,由制造商就自动驾驶汽车的缺陷承担事故的损失② 参见陶盈:“机器学习的法律审视”,《法学杂志》2018年39卷第9期,第55-63页。 ;第二,由自动驾驶车使用者承担事故责任,因为使用者对自动驾驶汽车的运行享有利益。而且一旦运行起来,只有使用人能够控制和支配汽车③ 参见许中缘:“论智能机器人的工具性人格”,《法学评论》2018年36卷第5期,第153-164页。 ;第三,由于自动驾驶汽车具有独立意识,整个交通运行过程实际是由人工智能自身控制,制造商和使用者对于汽车的可能反应都缺乏预见,所以应当由自动驾驶汽车本身承担事故责任④ 参见司晓,曹建峰:“论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点”,《法律科学(西北政法大学学报)2017年35卷第5期,第166-173页。 。而责任财产来自事先设置的资金账户或者购买的保险⑤ 人工智能承担责任实际上类似于受害者承担最终责任,即使人工智能赔偿账户能够在一定程度上弥补受害人的损失,这种弥补毕竟限于人工智能所有的有限的赔偿金,赔偿责任不能及于制造商和使用者。 。前述三种法律规则哪一种最有效率从而构成法经济学视角下的最优规则?这需要结合法经济学的范式进行仔细分析。

⑤在穿越具有水土保持功能的设施时,部分设施恢复不合格。如,穿越佳县的八宝山淤地坝后没有夯实、梯田毁坏后没有恢复等,没夯实的地方在雨季极易造成损毁,八宝山淤地坝在一场强度不大的降雨过后就发生了较大面积的垮塌。

1.“更安全地从事活动”范式考察

1.法律责任:制造者责任、使用者责任和人工智能责任

此种范式下需要分析两个层面的问题,第一个是“存在哪些行为可以避免交通事故的发生”;其次是前述中“哪个行为成本最低”。确定成本最低行为后,则将行为义务课加给行为成本最低的行为主体,即可达到最优。那么哪些行为可以避免交通事故的发生?对行人来说,可以选择不出行,或者避开特定的街道;使用人则可以选择随时守在方向盘前紧密注意随时可能发生的事故、购买更安全的自动驾驶汽车或者周期性保养汽车;而制造商则可以开发出更安全的软件或者对汽车进行周期性的维护。比较上述行为的成本,可以直接排除“行人选择不出行”方案,因为当步行被视为一种“天经地义的行为”时,这种方案显得“太过昂贵”⑥ (美)盖多·卡拉布雷西:《事故的成本——法律与经济的分析》,毕竞悦等译,北京大学出版社2008年版,第118页。 。同样行人避开特定街道的方案成本也十分高昂,这种成本主要是搜集信息的成本。剩下的使用者行为和制造商行为方案因为缺乏必要的实际信息很难判断何者的行为成本更低,实际上这个问题也是“更安全地从事活动”范式下无法解决的。从目前来看,只能说让使用者或者制造商承担法律责任是更优规则。那么我们暂时搁置这种实证性争议,将两种行为方案纳入到“从事更安全的活动”范式下进行考察。

2.“从事更安全的活动”范式考察

在设计相关的电气产品时,充分利用智能化技术能够使电气产品得到更好的改进。所以,在设计电气产品的过程当中,对于相关的影响因素便可以通过应用相关的智能化技术加以消除,替换人工操作的方式,充分发挥计算机技术应有的作用,这样就能够有效节省人力,使电气工程的设计工作具有更高的效率与质量。就现阶段而言,使用较为普遍的智能化设计有专家系统和遗传算法两种,其中,遗传算法基本上就是对操作的相应对象加以直接的控制,能够在很大程度上增强产品在运行方面的能力。而专家系统则主要是此领域中的专家基于自身的相关经验而进行推断,其都可以使电气产品得到有效的改进。

2.客体论与主体论的分野

新意见阶层即网络草根使国家治理增加了实质性的主体,草根阶层自身由原来的被动治理转向为主动治理,由原来的被治理者转向治理者。大数据技术采用的“流处理”和“批处理”模式使草根民众组成的新意见阶层在民主价值的指引下,在不断更新、变化的数据中探寻相关价值数据,同时排除制约、阻碍民主发展的因素。

假设让使用者承担智能汽车肇事的法律责任。自动驾驶车制造商会倾向于将汽车的外部性成本(即交通肇事赔偿)排除在销售价格之外,因为价格低了买的人也会更多。出于信息不对称,顾客在决定是否购买智能汽车时并不会考虑到需要承担的外部性成本,误认为汽车的销售价格即全部成本。这样那部分效用值介于销售价格和完全成本之间顾客就会购买该汽车,误认为“买得值”,而实际上考虑到隐形的外部成本后“买得并不值”,从而导致不效率;相反,假设由制造商承担智能车交通事故责任,汽车的销售价格与包括外部性成本的全部价格相等① See Matthew U.Scherer, “Regulating Artificial Intelligence Systems:Risks, Challenges, Competencies, and Strategies”,Harvard Journal of Law&Technology, Vol.29, Issue 2 (Spring 2016), 353, p.398. 。因为制造商为了保持一定的利润,会尽量通过合同关系将这部分外部性成本转嫁给购买者。这样一来,汽车给使用者的购买行为符合其自身需求,产生效率的结果。

经过两种范式的考察,我们最终可以认为,制造商承担自动驾驶汽车交通事故的赔偿责任这一安排,即产品责任进路,最有效率,是法经济学视角下的最优规则。换句话说,主观论在自动驾驶汽车致害第三人场合相较于客观论更有效率。

(二)智能投资顾问

智能投资顾问是金融领域的一种产品,通过预先设计的算法模型,依据投资者自身的理财需求、资产状况、风险承受能力、风险偏好等因素,运用现代投资组合理论,为顾客提供理财顾问服务。与传统人工投资顾问不同,智能投资顾问的整个服务过程是在没有人工介入情况下独立完成的,通过顾客键入的个人信息给出理财建议② 参见高丝敏:“智能投资顾问模式中的主体识别和义务设定”,《法学研究》2018年40卷第5期,第40-57页。 。然而这种智能投资顾问并非百分百准确无误,可能在特殊的情况下给顾客造成损害③ 参见许中缘:“论智能机器人的工具性人格”,《法学评论》2018年36卷第5期,第158页。 。那么由哪方主体承担顾客的损害?与自动驾驶汽车相同,也有制造商责任、使用者责任和人工智能责任(实际是受害者承担责任)三类法律规则。

1.“更安全地从事活动”范式考察

首先需要明确避免顾客损害,各方主体有可以采取哪些行为?智能投资顾问的制造商可以选择周期性检修智能投资顾问或者研发更加安全可靠的产品;使用者金融公司则可以选择对智能投资顾问做出每一投资建议进行复核,也可以周期性维修智能投资顾问,还可以购买更加安全的产品;而受害者顾客,则可以主动电话询问来自智能投资顾问异常的投资建议。那么上述哪一行为的成本最低?显然受害者的“一通电话”是成本最低的行为。一方面是因为“一通电话”的客观费用低于制造商和使用者的行为成本。另外一方面,受害者处于发现错误投资建议的最低信息成本地位。首先,一旦智能投资顾问出售给制造商,制造商几乎无法预测产品可能的错误建议,即发现错误的成本极其高昂。其次,使用者金融公司筛查智能投资顾问的每一建议的成本也远远高于顾客就自己获得的特定一个投资建议进行审视的成本。由此,最有效率的法律规则应该是由顾客自己承担智能投资顾问错误导致的损失,换句话说,由人工智能承担法律责任是最有效率的规则。

2.“从事更安全的活动”范式考察

从城市土地利用集约程度的角度出发,设计各种情景仿真方案的土地利用面积变化率水平,且设定某类用地面积变化率以其用地转入率和转出率之差为准。情景方案设计结果如表1所示,基准利用方案以SD模型初始模拟结果为主,其余两种情景模拟方案的参数值增减量均是以基准利用方案相关用地面积变量值和《城乡用地分类与规划建设用地标准》(GB50137-2011)中各种人均用地量指标为参照标准进行。

如果观察得仔细,就会发现人工智能承担损害赔偿责任与受害者自身承担赔偿责任是有区别的,因为人工智能也有“财产”用来赔偿受害者,这样受害者并不需要完全承担损失。而人工智能的财产,来自于由制造商或者使用者事先设置和缴纳的资金账户(包括保险形式)。

制造商承担缴纳义务和使用者承担缴纳义务两者之间在效率上是否存在区别?不妨运用“从事更安全的活动”范式进行分析。首先,假使由制造商承担资金缴纳义务,则制造商为了获取固定的利润会通过合同形式把这部分成本纳入智能投资顾问的销售价格中,这样销售价格等于包含了外部性成本的全部成本,作为购买者的使用者做出的购买决定符合其主观效用值,也是有效率的;其次,假设由使用者支付全部资金。这时使用者的信息弱势地位就被消除了,因为通过公开的法律提示 (即使没有制造商通过合同价格的提示),使用者便能够把外部性成本计算入智能投资顾问的真实全部成本中,然后依据个人效用函数做出有效率的购买决策。综合来说,不论由制造商还是使用者承担缴纳义务,只要法律明确规定,都能达到有效率的结果。

经过上述范式的考察,我们得出结论,由智能投资顾问本身承担所造成的损害并且明确规定由制造商或者使用者承担资金缴纳义务的法律规则最有效率的。从而,在法经济学看来,智能投资顾问致害第三人场合,客体论优于主体论。

结论

近年来,关于人工智能的法律地位的讨论及其热烈,论者分为了客体论和主体论两大阵营。两大阵营构建的论证体系都十分精巧,且都自认为正义掌握在自己的笔下。但是却没有人回答“法律之手插在谁的口袋里,手心里捏着谁家的正义”① 冯象:《木腿正义——关于法律与文学》,中山大学出版社,1999年版,第24页。 。借用麦金泰尔的话,你们口中的正义到底是“谁的正义”?正义的概念如此难以琢磨以至于稍微集中的意见也难以达成。这也导致了客体论和主体论谁也说服不了谁。来自实然领域的法经济学看到了传统法学论证的这种缺陷,倡导符合效率而不仅仅是符合正义的法律论证方式。通过法经济学的“更安全地从事活动”和“从事更安全的活动”两种范式在人工智能致害第三人责任承担这一具体问题上的运用,我们获知了客体论和主体论的优劣,即客体论和主体论并非一方绝对优于另一方,这需要区分具体场景进行具体分析。在自动驾驶汽车交通事故导致第三人损害场合,客体论比主体论更有效率。而在智能投资顾问遭致投资者损害领域,主体论则比客体论更加富有效率。本文对于自动驾驶汽车和智能投资顾问相关问题的分析结论或许存在商榷之处,但是这并非文章的重点。因为本文的目的在于把法经济学的分析方法引入关于人工智能相关法律问题的探讨中来,为未来人工智能法律问题的进一步研究提供一种新视角。

科技与法律之间的互动关系是一个永恒的主题,“制度对技术产生影响,而技术对制度也产生影响”② 参见卢现祥、朱巧云:《新制度经济学》,北京大学出版社2012年版,第137-139页。 ,构建合适的法律规则将对人工智能产生重大影响。1981年的时候,雷曼-威尔齐格就开始了对人工智能致害第三人的法律责任问题的研究。总结多种可能的责任规则后,他并没有提供一个最终答案。在文章结尾处,他认为这个问题最好还是留给将来的几代人回答③ See Sam N.Lehman-Wilzig, “Frankenstein unbound:Towards a legal definition of artificial intelligence”, FUTURES,Volume 13, Issue 6 (December 1981), pp.442-457. 。现在37年过去了,如果雷曼-威尔齐格是正确的,那么这个问题是我们这一代法律人必须交给时代的答卷。

Research on the Liability for the Third Party Damage Caused by Artificial Intelligence:a View of Law and Economics

Wu Weiding,Huang Zhiwei&Li Li
(Beijing University,Beijing 100871,P.R.China)

Abstract: As for the legal status of AI,there are two schools of views in private law circles:subjectivism and objectivism.Subjectivism advocates giving AI a certain subjectivity,while objectivism defines AI as property or tool.For the third-party damage caused by AI,the subjectivism holds that AI should bear independent responsibility,while the liable property comes from the pool of funds paid in advance by the manufacturer or user.The manufacturer or user except the pool of funds need not bear more responsibility,while the objectivism holds that the manufacturer or user should bear unlimited liability for the damage caused by AI.The existing controversy between subjectivism and objectivism remains at the level of subjectivity,lacking objective and realistic analysis.From the perspective of Law and Economics,there are advantages and disadvantages in the efficiency of legal rules.The criteria for distinguishing legal rules are two paradigms:to engage in activities safer and to engage in safer activities.The legal rules constructed by subjectivism and objectivism have different efficiency in different application fields of artificial intelligence.Objectivism is more efficient in the field of automobile,and subjectivism in the field of intelligent investment consultant is more efficient.

Key words: artificial intelligence;legal liability;law and economics;automobile;intelligent investment consultant

中图分类号: F069

文献标识码: A

文章编号: 1007-3558(2019)02-0040-12

收稿日期: 2019-03-20

基金项目: “中国政法大学国家级创新创业项目”(编号:201610053003)

作者简介: 吴维锭(1995-),男,湖南岳阳人,汉族,硕士,助教,从事民商法研究;黄植蔚,广东河源人,汉族,博士,教授,从事国际私法研究;李力,湖南岳阳人,汉族,博士,副教授,从事经济学和金融学研究。

(责任编辑:尹俐)

标签:;  ;  ;  ;  ;  ;  

人工智能致第三方损害的责任承担问题研究:一个法经济学的视角论文
下载Doc文档

猜你喜欢