摘要:国务院于2017年发布的《新一代人工智能发展规划》明确指出,人工智能发展的不确定性已对法律秩序、伦理秩序、个人隐私等带来风险和挑战。要求通过积极的法律法规创制活动,抑制人工智能发展的法律风险,保障人工智能安全、可靠、可控地发展,维护社会制度和伦理准则。但“人工智能+X”的法律规制却因为“人工智能”智能化程度的不同而产生新的、更为复杂的法律责任界定问题,现行侵权法、合同法、刑法及行政法等法律规制的局限性日益显现。因此,研究人工智能法律责任问题并探索新的责任框架必要而迫切。基于此,本文主要对类型化人工智能法律责任体系的构建进行分析探讨。
关键词:类型化;人工智能;法律责任体系;构建
前言
当前,人工智能(Artificialintelligence)发展势头极其迅猛,其通过各种形式冲击、影响着社会生活的各个方面,引起国内外多学科专家学者的广泛关注“。人工智能+X”中的“X”所涉领域包括但不限于制造业、金融业、能源领域、医疗领域、教育领域、司法领域、公共管理领域甚至基因科学领域等“。X”指向的领域千变万化,现阶段这些领域尚在法律规制范围以内,过错责任、过错推定责任、严格责任或无过错责任等法律责任的划分以及责任承担主体都是明晰的。
1、人工智能法律责任构造Ⅰ——民事责任维度
人工智能民事责任可以由过错推定责任、替代责任和严格责任为主,补充责任为辅共同构成。
(1)“三类人工智能”(即人造程序),如语音识别、图像识别、语义分析、智能搜索、大数据营销等——过错推定责任。过错推定责任是过错责任的一种特殊表现形式,是指根据法律规定推定行为人有过错,行为人不能证明其没有过错,就应当承担侵权责任。适用过错推定责任较典型的是产品责任,因产品的质量问题给消费者造成损害的,法律推定生产者、运输者、仓储者、销售者未履行其应有的注意义务,需承担法律责任。当然,如果这些主体满足责任排除条件,证明自己没有过错,就可以免除法律责任。因为“三类人工智能”仅仅是人造程序,只是人类(自然人、法人或其他组织)的工具,所以可以类比适用产品责任,推定设计者、生产者、销售者在未履行法定注意义务时承担相应的民事责任。
(2).“二类人工智能”(即人造机器或人造机器人),如无人驾驶车、无人机、生活服务智能机器人——替代责任或代理人(教练)责任。因为“二类人工智能”具有一定的自主学习能力,其系统行为就可能部分脱离编程者、设计者或制造者的控制范围。美国交通部在其发布的《联邦自动驾驶汽车政策》中强调,汽车制造商及其他机构应遵循健全的产品开发流程,使得安全风险(包括网络安全风险)降到最低。高度自动化汽车系统应具备相关的识别、保护、探测、反应及恢复功能,从而做出风险管理决定,解决风险和威胁,对网络安全事件快速反应并从中总结经验。该项性能指引还鼓励行业内车辆网络安全相关信息的分享,从而有助于相互吸取经验教训。
2、人工智能法律责任构造Ⅱ——刑事责任维度
从人工智能的可行性思路到可行性方案再到付诸实践,人类关注不可谓不多。关于新技术的思考、评价与预测,正面与负面始终并存。“尽管人工智能有着各种特殊问题,但是我们仍然有理由相信法律制度能够在不阻碍创新的前提下,控制人工智能带来的公共危险。”人类与人工智能长期共存已是不争的事实,而越来越先进的人工智能给刑法规制提出了更为严峻的问题——如何界定“人工智能”的刑事责任,如何对危害社会的“人工智能”科以刑事处罚,是否可以前瞻性地教育“人工智能”不要在社会生产生活中实施违法犯罪行为,等等。
(1)“三类人工智能”(即人造程序)——无刑事责任能力。人工智能技术的刑事责任应当与其自主性程度高度匹配。
期刊文章分类查询,尽在期刊图书馆人造程序本身没有辨别和控制能力,所以不存在风险,或者说,人造程序本身不具备可受刑法处罚性,因此,它在法律规制中尤其是责任承担条款中不具有可责性。当且仅当人(包括自然人、法人和其他组织)将其作为犯罪工具使用来实现人的犯罪目的的情况下,才有可能被纳入刑法规制的范畴。
(2)“二类人工智能”(即人造机器或人造机器人)——限制刑事责任能力,类似于公司的刑事责任能力。当刑事犯罪的构成指向不作为(例如不履行法律义务、不善待被看护人等),而这些合理义务恰恰是“二类人工智能”的责任时,“二类人工智能”就要承担相应的刑事责任。这类似于父母有责任照顾年幼的子女,却未尽抚养义务,则有构成遗弃罪的可能。当刑事犯罪的构成指向作为,即“二类人工智能”作为人(包含自然人、法人和其他组织)的代表而实施指令行为时,其经授意的行为引致的刑事责任由“实际控制人”承担。
(3)“一类人工智能”(即人造人)——完全刑事责任能力。在刑法语境中,刑事责任的基本构成是具备外部事实成分要求(犯罪行为)和内部心理因素要求(主观方面)。有学者指出,强人工智能产品(类似本文的“一类人工智能”)在设计和编制的程序范围外的行为相比于传统理论对于“行为”的定义,除了不满足自然人犯罪主体需具有生命体的要素外,其他均符合,因此,其在设计和编制的程序范围外实施的犯罪行为可以成为刑法意义上的“犯罪行为”。对“人造人”的定罪量刑及其他相关主体的刑事责任承担都具有积极意义,值得深入研究。此外,现代刑法除惩罚功能之外的威慑、警示、教育功能如何作用于“一类人工智能”亦有待进一步探讨。
3、人工智能法律责任构造Ⅲ——行政责任维度
行政登记是特殊情势下主体承担或免于承担民事责任和刑事责任的主要依据。
(1)“三类人工智能”(即人造程序)——不承担行政责任。“三类人工智能”本身不具备责任能力,不属于法律意义上的行政相对人,因此不需要承担行政责任,但是,行政登记是必须履行的前置程序。未来,人工智能行政监管机构可以在“三类人工智能”领域适用快速审批程序,比如建立一个类似流水线的审批程序。这一点可以参考美国食品药品管理局关于已获批准的药物再次申请类似同种类新药的新药审批简报制度。
(2)“二类人工智能”(即人造机器或人造机器人)——严格遵守行业准入和登记备案制度。除了基础的登记备案程序之外,国家行政监管机构应当根据使用领域和智能水平等对人造机器或人造机器人行业实施严格的行业准入制度。对行政主体来说,怠于行使权力或滥用行政权力都需要承担相应的行政责任,作为行政相对人的“二类人工智能”的开发设计者、生产者、销售者和使用者可以就具体行政行为提出行政诉讼。对于行政相对人来说,应当在行业主管机关登记备案,同时签署安全责任书及强制保险协议书,否则,行政相对人将失去有限责任保护,并接受相应的行政处罚。
(3)“一类人工智能”(即人造人)——承担行政责任。除遵循行业准入和登记备案制度外“,一类人工智能”因其类似于行政相对人中的自然人,会被赋予更多功能并被授以更多现在仅由自然人才享有的权利,所以其行政违法行为会被追究行政责任。行政机关或其他行政主体依法定职权和程序对违反行政法规尚未构成犯罪的行政管理相对人可以给予行政制裁。
结语
无论类型化的依据有何变化,只有在类型化框架内将“人工智能+X”归入恰当的门类,进而填充式地探讨各类主体的法律责任时,法律责任才显得更加清晰,而唯有明晰的法律责任才是规制人工智能发展风险的最低保障。
参考文献:
[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(5):128-136.
[2]蔡曙山,薛小迪.人工智能与人类智能——从认知科学五个层级的理论看人机大战[J].北京大学学报(哲学社会科学版),2016(4):145-154.
论文作者:李亮
论文发表刊物:《基层建设》2019年第1期
论文发表时间:2019/3/29
标签:人工智能论文; 责任论文; 行政论文; 刑事责任论文; 法律责任论文; 领域论文; 程序论文; 《基层建设》2019年第1期论文;