全球风险社会下人工智能的治理之道
——复杂性范式与法律应对
张富利
[摘 要] 人工智能并非单一技术、单一产业的孤军奋进,而是人类社会运行机制颠覆性的根本变革。人工智能时代崛起的本质是奠基于互联网、大数据革命之上的“奇点”变革。人工智能对人类社会的挑战是根本性的、深层次的、颠覆性的,传统法律中的权利保护、权力制衡等核心价值遭遇了危机。人工智能改变了社会的经济结构,与资本的耦合规避了深层次的伦理探讨,带来了硬规则的普遍适用。对此,建立在“创新”与“安全”之上的传统二元维度治理范式难以应对。政府须及时管理、引导人工智能的良性发展,使之不偏离人类命运共同体终极关怀的轨道。国家在未来须突破传统治理框架的限制,制定综合性的公共政策,重构治理体系、创新治理机制、发展治理工具,占据大数据时代变革中的主动权。
[关键词] 人工智能;制度规制;伦理底线;治理与监管
人工智能是这个时代非同小可的科学发现,也成为了21世纪人类社会最重要的科学进步。在人工智能颠覆人类认知的全新时代,人类与机器人之间的政策、伦理、法律关系接踵而至,意味着地球进入了“二元智能时代”[1]。从法学来看,“人工智能”究竟是什么?其出现会给未来时代的法学带来何种问题?法学该如何回应?一个显而易见的事实是,理性化解人工智能所蕴含的巨大社会风险,建构规制人工智能发展的规范体系,需要法学理论的深入思考与价值关照。
一、人工智能的现代性图景
人工智能区别于既往所有科技的显著特征是其能够以前所未有的速度迅速重新对自身进行设计,这远远超过了受到缓慢生物进化限制的人类。“人工智能与自动化的根本区别在于人工智能拥有自我意识与对象意识。”[2]人工智能具有极为丰富的对象化世界,也隐含着人工智能在实现类本质后与人工智能时代新人类的类本质之间的巨大矛盾。2016年3月,号称“千古无同局”的围棋对弈进行了一场史无前例的人机大战,人工智能AlphaGo通过深度学习而获得了整体态势的精确判断能力,从而轻松击败人类优秀棋手[3]。著名科学家霍金指出,人工智能技术创造出的能够独立思考的机器对人类构成极大威胁[4]。在这种全新技术稳定发展时,针对其安全防护的措施一旦滞后,将“导致人类的未来变得黯淡”,这项最伟大的成就也很可能“是最后一项成就”[5]。
显然,这个优劣各半的技术是美好与危险并存的产物。人类历史上的每一场技术革新,都是“文化的消解、人文精神的匮乏,更容易导致朝代更迭、文明消失”[6]。需要明确的是,法学作为社会科学,是以人为主体,以人为终极目的。在人工智能消解了人类智力优势之后,人的主体地位必然受到冲击。“无论人工智能是否会超越人类智能,研究人工智能的安全问题都是非常必要的。[7]”然而,技术的指引未来有多种选择,而“最终决定人类命运的是技术以外的因素”[8],所以二者的协同进化很可能是未来发展的方向。
网络关注度是指在一定区域内网络用户对某一网络信息的实时网络关注指数,是网络用户旅游需求的体现。亲子游网络关注度是指网络用户对亲子旅游的关注指数,是亲子游网络关注的一种衡量手段。运用百度指数方法获取的数据可得出2013—2016年全国亲子游网络关注度分别达到87047、128389、191508、185930①数据来源:作者获取 2013年 1月1日至 2016年 12月31日百度指数中“亲子游”的用户关注度数据,经统计整理而来。。可见,亲子游网络关注度逐年增加,亲子家庭旅游需求旺盛,亲子游产品亟待开发以满足亲子家庭旅游需求。
“风险问题和现代性的反思问题是现代社会的两大重要问题。”[9]学者贝克洞隐烛微,将此两大问题作为研究基础开创了影响深远的风险社会理论,其旗帜鲜明地指出:“现代化正在成为它自身的主题和问题,因此变得具有反思性。”[10]风险社会的种种危机成为现代政治的核心部分,反思性现代化、预防原则以及规避风险路径的完善也随之成为当代社会发展的重要议题[11]。值得注意的是,风险社会既不否定人类的科学实践,也不否定社会的发展,而是强调重视人类实践可能发生的灾难性后果,将风险意识作为审慎的反省批判来看待,从而将“风险意识转向人类如何能有效防范风险的技术手段、制度安排及机制实施”的具体举措上来[12]。而风险社会所要求的预防性行为与因应性制度映射到法学之中,即法律制度与法律秩序。对于现代性负面影响的消解,法律的重大价值在于“规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节”[13]。
在临床中应用紫杉醇涂层支架的给药方式以局部给药为主,以涂层支架方式较为常用。经房凌海,英海荣等人[7] 的临床相关研究中,认为并未完全吸收的聚合物涂层聚丙烯酸酯,所带来的动脉壁局部发生炎症反应,极有可能是致使发生远端再狭窄的关键成因。也有相关研究者经研究提出,虽然磷酸胆碱涂层支架,在减少术后再狭窄这一方面的临床作用并未对其加以肯定,但是人体针对磷酸胆碱涂层的支架存在较好耐受性,可以对不良炎症反应有效减少。
法律秩序通过确认秩序和创设秩序的良好结合而为人类社会关系提供依循的界限[14]。人工智能是风险社会的最主要风险源之一,“是政府公共管理的最重要内容”[15]。它的风险既可能来自“技术一经济”的决策,但也有可能来自于法律所保护的科技文明本身[16],所以,“法律选择的实质应是基于风险的决策”[17]。确定性是风险社会最稀缺的价值诉求,而“法律作为一种确定性的价值存在风险社会的运作中,充当着最佳的调控模式”[18]。运用法律制度来吸纳、消解风险,从而将风险社会嵌入法治大环境的治理进程中进行规制,应是未来法学应对的主要范式。法律与科技的探讨由来已久,而人工智能作为互联网时代发展的全新阶段,对其进行法律治理显然须探讨人工智能究竟有何特殊性以至于需要一套新的规则。对人工智能,需要关注的特有性质有:
为了研究生物炭添加量对土壤水分保水性能的影响,采用每天称重的方法测得土壤每天的水分蒸发量,计算土壤水分总蒸发量,同时还对陈化2天后及自然状态下蒸发12天的土壤含水量进行了计算,结果如图6和图7所示。由图6可以看出,土壤水分日蒸发量出现上下波动现象,整体服从相似的规律。由图7可以看出,样品陈化2天后的含水量随生物炭添加量的增加而增大,水分总蒸发量亦表现出相似的趋势,但每个样品蒸发总量相差不大,土壤最终含水量随生物炭含量的增加而增大,即生物炭添加量越大,虽然蒸发量大,但由于土样吸水量大,因此最终含水量还是最高。
第一,风险的前沿性与时代性。风险社会并非人类社会发展的阶段性产物,也并非仅仅存在于人类社会的特定时期,而是今日社会种种难以预测的“风险影像”的直观表述[19]。人工智能的出现既是社会智能化的产物,也是智能技术造成智力物质化的必然结果。可以预见的是,人工智能的发展会呈现出一个以智能机器人为中心的渐进发展过程,侵蚀并且破坏由深谋远虑的国家建立起来的风险计算的安全系统[20]。这一高科技的发展与智能革命存在着巨大的潜在风险。
第二,风险社会所潜在的诸多风险与技术性风险和制度化风险具有共生关系。人类社会的高度技术化是不可改变的趋势,人工智能的高度发展是高科技化的必然结果,也是风险社会的诱因之一。现代性的激进化发展与全球化的合流导致了一系列始料不及的风险景象,这些“被制造出来的风险”让一个令人生畏的“失控的世界”不断向着未知发展[21]。在“技术知识的囚室”中[22],诸多新风险推进了科技理性的悖论愈见加深,而高度风险化的价值观也促进了新的社会组织模式的形成。安全伦理的价值也随之凸显出来,在当下的社会语境中强调安全必须是科技伦理的首要原则,具有重大意义[23]。对科学体系以及科技知识的信任,“是人们在风险社会中获得和持有本体性安全的基础和保证”[24],而贝克、吉登斯的提醒早已告诉我们,必须对现代性进行反思,仅仅信任法律及其规制的科技远远不够,因为人工智能自身所具有的“不可预测性和潜在的不可逆性”[25]就是一种实实在在的风险。而且更匪夷所思的是,人工智能来临的时代更加印证了贝克的决断——人类社会的文明决策必将引发全球化的纷纭复杂的问题与始料不及的风险[26]。制度风险的诱因可能来自现代工业社会的科技制度、法律规则,也可能是对以人工智能为代表的高新科技缺乏回应的规范缺失,还有有可能由于智识和环境的局限而对高新科技判断错误。“无论你怎么看,我们都要陷入一种危机处理的困难中”[27],这些制度缺失或是缺位便是规则运转失灵的表现,对社会的秩序价值形成威胁,制度化风险便形成了。
当下世界各国对人工智能的政策选择,实际上是在风险社会背景下的制度选择。而无论如何,在对人工智能的规制上,通过法律制度的调整显然是不可缺席的方式之一。目前主流的立法策略是通过制度来激励人工智能的应用,从而促进经济效率。然而对于设置的规则,必须深入到其背后进行探讨规则所产生渊源的政治与经济要素。作为一套复杂的技术设计方式,人工智能“既是影响社会行为的强力规范,也是产生新价值的生产机制”[28],这在制度上的要求便是对新型的经济利益之合法性进行确认。然而,“技术将扩大贫富差距,而这一趋势似乎是朝着后者发展,科技加速了不平等”[29]。从强化人类能力的角度而言,人工智能作用的结果显然是不成比例的。大数据掌控者们占领了人工智能发展与应用的制高点,使日益增多的人更加“难以保护自己的隐私和自由并面临失业风险的弱者”[30],这种颠覆层级的改变是史无前例的。过往的认知中,白领自然高于蓝领,蓝领却也比灰领的等级高,而今不止是白领,甚至金领都随时面临被人工智能替代的降级危险。当强与弱、高与低的张力越来越大,顶级群体对弱势群体的控制与剥削不再凭借赤裸裸的资本与暴力而匠心独运地通过自然物理法则而实现,可以预料,“强者为所能为,弱者受所必受”[31]是必然出现的现象。如此,人工智能将人类社会带入了一个由社会分层来决定的局面:“越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。”[32]人工智能全面渗入社会治理,为民主制度的异化创造了可能。技术能力同经济基础一样,对政治制度、法律规范起到了关键作用。随着人工智能时代的到来,通过专制方式来掌控社会秩序的手段也会更强大,权力对人类的巨大诱惑极可能会让社会治理向专制滑坡。权力、资本对人工智能的介入,极有可能将人工智能引入侵害制度文明的方向,科技与权力、资本一旦形成联盟,对人类民主秩序的破坏将是毁灭性的[33]。以大数据、云计算为代表的人工智能技术,能够对整个社会全方位掌控,每个个体的一切数据在高科技面前均会一览无余。人工智能具有对人类心灵进行体制化重塑的能力,资本对高科技的天然亲近使得二者合流无可阻挡,资本必然通过支持高新技术建立新专制[34]。未来人工智能的时代将通过系统为王的准则,在资本的强势介入下,社会的等级制有极大的可能被强化,人类长久以来孜孜以求的平等实现的难度将会更大,甚至希望渺茫。无须证明的事实是,人类智慧发展出的法治仍然是最不坏的制度,奠基于人性恶的前提、排斥弱肉强食的丛林法则,其在守卫弱势群体权利上,依然卓有成效。面对人工智能时代各种始料不及的新风险,回溯法律规则来应对显然是一个较好的选择。然而法律作为上层建筑,自身也受到了人工智能的冲击。
在大力弘扬优秀传统文化的同时要注意当今的时代背景,在弘扬优秀传统文化的同时利用好传统教育与现代技术的关系,合理利用移动互联网等现代信息技术,采用互联网+模式继承与发展优秀传统文化。我校可以通过互联网与其他学校建立文化育人工作的沟通、交流、评比,形成竞争与合作的机制,共同分享在弘扬优秀传统文化中的得与失,探讨更为有效便捷的育人途径。可开设交流平台,鼓励学生相互交流切磋,畅谈学习优秀传统文化的心得体会,以及对学校工作的意见与建议。组织各大院校间的评选评比活动,可采用话剧、朗诵、演讲以及国学知识竞赛等各具特色的形式,更深一步吸引广大师生的学习兴趣。
二、法律应对社会变迁的传统模式面临的挑战
(一)人工智能改变了法律体系运作的社会空间
社会行为规范作为人类文明演进的制度体系之一,已经成为社会发展的常态。法律与道德通过不同的调整机制来影响人类生活的不同领域,而在法律与道德的罅隙,“契约式程序主义”作为填补“道德真空”状况的主张被认可[81]。可以确定的是,伦理规范在调整人工智能的社会关系中占有先导性的地位。法律规范的产生总是回应现实生活的需求而产生,就其特征而言,其天然具有滞后性。尤其在大数据、互联网时代,经济发展速度、产业更新换代频率极快,这种高效率是任何既往的经济形态都无法比拟的。虽然国家、政府在监管方面作出了大量努力,但“立法程序繁复、耗时冗长,使得法律的滞后性在‘互联网+’的时代更加凸显”[82]。而伦理规范能够对社会行为进行先行预设,对当下变化的社会以及未来可能变化的社会关系作出相应调整。故此,“伦理讨论是制定法律和政策的基础”[83]。不过法律规范的制定除了需要关照伦理讨论外,还须建构一套合乎理性的政治过程为基础,从而将法律规范实现明确化、具体化、可操作化,达致在实践层面对社会风险的有力防范与有效规制。
(二)人工智能改变了经济社会结构
作为一种史无前例的革新,人工智能与传统行业之间的博弈并非像过去的新技术取代旧技术、新机器取代旧设备那么简单。人工智能的强势和霸道在于,其发展的基础是大数据,而较早进入互联网领域的阶层成为了“大数据掌控者”,那么先进入互联网领域的尝鲜者自然成为了人工智能领域的拓荒者,他们由于互联网先占的优势而取得了人工智能的优势,进而利用人工智能领域的优势地位轻而易举介入包括农业在内的所有传统行业并以绝对优势大占上风。典型的如传感器技术在农业中的广泛应用,推进了农业信息化、农业物联网以及农业现代化的飞速发展,几乎颠覆了人类对传统农业劳作和集约化经营的认知。而近年来,新型商业模式运作下的“精准农业定点解决方案”以及“植物云”等科技新概念与日俱增,在新事物的试验阶段,国家与社会均持有观望的态度,根据其结果再选择是否介入其中。殊不知,在结果发生之时,也即是大数据掌控者的优势全面形成之时。
可以预见,人工智能对传统行业最大的冲击之一便是失业问题。《未来简史》中曾提出了一个极有预见的问题:大量单一、重复的工作将迅速被人工智能取代[43]。虽然学术界已经普遍认为人工智能取代普通工作是必然,失业问题也将随之而来,但当下关于国家福利政策及相关法律的制定却回避了这个问题,即使是国民收入方案,也仅仅是回应了国家的收入及分配规则。失业问题是所有国家都不可忽视的重大社会问题之原因在于,失业带来了生活意义的虚无,失业者是社会中的不安定因素[44]。劳动涵盖了作为自然生命和类本质相统一的双重要义[45],故而成为生活的第一需要。劳动是人生活意义中最为重要的构成部分之一,一旦失去劳动,生活便失去了主要的意义支撑。在“人工智能共产主义”的境况下,劳动便成为人类的最核心需要的组成部分,然而,在人工智能普及的条件下,人类在劳动之余的反思和批判便不再具有意义。这便是后劳动时代将出现的巨大悖论。所以,人工智能带来的失业潮仅仅是问题的表面,问题的核心在于失去了劳动便让人类失去了生活的意义。技术的飞速发展并未如人类想象一样带来人的解放,相反,人工智能自身具有的双重属性为其异化提供了可能,也将陷入人类个体的社会性丧失的结果[46]。人工智能技术的进步不仅未能如人类预想的一样获得解放回归自然,人类失去了劳动意义陷入了存在的虚无和迷惑,高科技高福利反而带来了人的异化。
(三)人工智能改变了政府治理范式
科学技术本身蕴含着巨大的不确定性,其在提高民众生活品质的同时,也带来了无穷无尽的副产品和副作用。现代社会系统的不确定性的复杂性程度无法通过科学计算来描绘和刻画,其所展开的社会过程也让人们无法预测,这导致现代社会的一大特点——“测不准性”[57]。今日世界之变化带来的巨大挑战在于,以大数据、互联网、人工智能为核心的技术对工业社会的一切模式均造成了冲击,异乎寻常的“黑天鹅事件”不断出现[58],而转型时期的中国在经济、社会、文化方面都在发生着“转型”效应。“两者相互作用”“新技术”革命叠加在中国的“崛起”与“转型”上,势必造成更为复杂的状况[59]。比如中国拥有智能手机与互联网使用人数全世界最多,中国经济的代表是电商而非其他任何领域,但描述、把握这些新的事物是一个颇为困难的问题。在大数据、网络化、人工智能的后人类时代,当下这套形成于19世纪的现代人文话语遭遇了根本性的挑战。现代科技成为了高风险的技术,工具理性的专横与人类驾驭能力的削弱成为未来社会复杂性与不确定性的主要来源之一[60]。我们的学术探讨能否为即将到来的时代重建一个相对稳定的视野并非问题的重心,因为人工智能时代是一个正在生成与发展的过程而非结果,这个过程需要通过种种层出不穷的技术革新等具象表达方能勾勒清晰。
人工智能的更加厉害之处在于,技术的掌控者能够运用人工智能技术进行一切数据的解析,不仅是私人范围的消费数据、行为数据甚至是涉及隐私的任何数据,而且其可以用之剖析公权力机构的所有数据,对政府决策、立法过程、法院判决进行数据分析,从而迅速生成对策。这些大数据越来越不依赖线下的人际沟通,包括网站搜索结果、商品推荐在内的线上操控取而代之。这些有针对的线上操纵,不仅可能改变个人的消费习惯,而且可能诱导政府的决策、权力机关的立法。更可怕的是,这种诱导往往是以合理的方式进行,可以隐秘到让人无从觉察。如果明白了这一点,我们可以非常惊讶地发现,在淘宝网浏览几次后,每次打开网站,就会有相关产品广告弹出来,这就是后台根据我们的浏览记录作出了数据分析之后作出了合乎人性的诱导。人工智能将这种看不见的力量发挥到极致,让法律规制与行政监管无从下手,最终陷入了一个由“算法”而非法律统治人类社会的时代[50]。然而算法作为一种程序,天然就带有倾向性——它从设计出来伊始就是为了达到设计者的设计目的。
11月16日晚间,沪深交易所正式发布实施上市公司重大违法强制退市实施办法,并修订完善相关规则办法。与此同时,深交所启动对长生生物重大违法强制退市机制,该公司停牌。
景区的发展与进步,人才要素更为突出,当地的高等院校并没有开设旅游管理的相关课程,在一定程度上失去了当地建设旅游区的依托。而大部分的本地人因为熟悉景区从事了景区工作人员这一职业,在一定程度上使得员工的文化素质偏低,提供给景区进行改善的建设性意见也相对较少。
未来更大的风险在于,人工智能一旦介入高流动、高风险的金融领域,会导致随时可能出现的雪崩似的灾难性后果。尤其是以股市为代表的一切投机性多方博弈市场,将是受人工智能影响最大的领域。在巨大的经济利益面前,人们必然会借助大数据、云计算、人工智能进行损害范围无法控制的赌博,近年发生的股灾均是在大数据基础上的人工智能对决。对此,法律的事后追责应对方式,对这些行为基本上是徒劳无功。可以确定的是,未来人工智能的应用领域将不断拓宽,面对人类社会的全新挑战,传统法律的应对显然是江心补漏准备不足。人工智能的广泛应用必然对法律体系的冲击愈见强烈,而法律教义学对此根本无从应对,在法律教义学的框架内也没有足够的能力回应这些关涉伦理学、社会学、政治学、经济学等人类命运的重大问题。
在2016年中,欧盟作出的反应是通过出台民事法律来规制人工智能的生产、使用与流通。欧洲议会理事会提出建议为机器人赋予法律地位,为其创设法律制度“以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”这等于为是否为人工智能赋予人格的争议确定了官方基调。不过究竟如何具体贯彻该立法精神,对民事行为能力和民事责任能力如何进行具体的法律规制却语焉不详。如果赋予人工智能以主体资格,那么人工智能致害案件,如何适用规则原则便成为重大疑难,毕竟人工智能存在数据失控和其他偶发事件的风险。无论是适用现代法治的责任自负的原则,对有过错的机器人判决支付赔偿或进行行为限制,还是罗马法上的“缴出赔偿”,都存在着巨大的理论疑难。适用前者会导致由人工智能的所有者最终承担责任,即使是判决限制其行动自由,实际上是限制了人工智能所有者的财产权而已;而后者将人工智能交付给受害者处置的做法,更是明显将人工智能的责任转移到所有者身上。如此看来,无论用何种法律原则规制人工智能的致害责任,最终还是由人作为主体来承担最终的后果,似乎印证了为人工智能设置法律主体资格是画蛇添足之举。从欧盟议会的文本来看,其倡议人工智能的制造商、经销商购买强制性保险,说明官方对“法律人格”的处理方式留有了回旋余地。将风险转移到由保险机制处理的方式并无新意,它实际上是回避了法律的伦理探讨转而采取了一种实用策略。
无独有偶,2017年5月德国修改了《道路交通法》,同意高度自动化的汽车与普通汽车享有同样待遇上路。障碍在于1968年《维也纳道路交通公约》,该公约明确规定了一切车辆“在行驶时都必须有驾驶员在位”,这就显然排除了无人驾驶的汽车可以上路。联邦议会和参议院对此作出的立法处理是,驾驶人可以在自动驾驶汽车启动后转移注意力,但必须保证在必要时即时恢复人工控制。在技术层面,自动驾驶车辆需安装黑匣子以记录驾驶全程状况并保存半年。这项细则的立法目的在于明确区分驾驶责任。在自动驾驶程序的正常运行中,制造商承担事故的责任是责无旁贷的;而在驾驶人收到请求人工控制的信号应当介入驾驶系统时,这时候的自动驾驶基本等同于普通汽车的规则责任了。由于疏忽或者故意而没有介入,或是未能合理发挥驾驶技能,驾驶人员便理所当然地承担责任了。
这个立法看似合理,然而在现实中却有着更严重的问题。看似精密的细则会导致驾驶人在法律责任面前无所适从,自动驾驶汽车仅有乘客而无驾驶人员,无人驾驶车的商业化发展将会受到制度藩篱的约束。要求驾驶人对高额价格购入的无人驾驶车依然要集中高度注意力,当汽车发出介入信号后须第一时间介入处理突发紧急状况,这显然会将无人驾驶汽车变成鸡肋产品。这在实际上提高了驾驶人员的要求从而失去对无人驾驶汽车的购买欲望。众所周知,无人驾驶汽车的保险费用远远高于传统汽车,然而保险公司的保险费用也必然是水涨船高。而且,对黑匣子所记载的众多个人私密信息保留半年的强制规定也提高了个人数据泄露的风险,隐私权也存在着被侵犯的危险。
何况自动驾驶汽车在现实中还面临着极其尖锐的悖论。比如,其在上路时突然遭遇违规的行人毫无征兆地出现时,在行人与乘车人的生命安全之间牺牲哪一个?这实际上是极为困难的选择。如果自动驾驶汽车采用了舍己救人的设置,将保护行人作为优先考虑而牺牲乘车人,那么在效率上便是最低的——因为没有人会去购买专门利他而可能牺牲自己的潜在杀手;但是如果将优先保护乘车人设置为自动驾驶汽车的原则,在市场准入上可能面临障碍,随时可能将公众(行人)置于危险境地,同样是无法接受的。生命权的重要性不言而喻,生命伦理的最重要内核便是生命尊严[52],每个行人都存在偶然的非故意违规的无心之失,因为无意违规而将行人置于生死存亡的危险境地是完全不符合现代法治原则的。风险规避的原则在此时并不能发挥作用,每个人在此时可能是乘车人,在彼时也有可能是行人,人们绝不会运用一项可能祸延自身的高风险规则。这种困境即使引入久负盛名的罗尔斯的“无知之幕”也无法解决[53]。规则的制定者们寄希望于未来完美的技术解决方式,在乘车人和行人二者的选择间能够两全,然而,这在技术上无解的根本原因在于这本来就是人自身面临的重大疑难。这是人面临的悖论,机器仅仅是在执行人为之设定的规则,人类并没有解决这个重大的局限,又如何设定一个两全的程序加之于自动驾驶汽车?
三、未来时代人工智能的制度规制
法律虽然以客观世界的经验探索而非纯粹形而上学的逻辑推演为基础[54],但立法重要的特征便是前瞻性。如果在科技、经济的飞速发展过程中法律人对各种前沿性的尖锐问题缺乏关注,等到一部分人利用制度的漏洞赚得盆满钵满之后才觉察应当出手了,那么法律制度总是在扮演事后诸葛的角色。法律制度的滞后问题不断加剧,最终让法律匡扶正义的属性大打折扣。“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。”[55]故此在全球化重塑人类生活的大趋势下,人类在高科技面前必须重构既往的制度。大数据分析不仅是一项技术,也可以说是一种全新的哲学思维。信息数据化的认知思维灵活解决了人工智能的语境定位问题,人工智能自然语言的理解问题也便迎刃而解。大数据的分层与演化的模拟范式能够弥补传统人工智能的理论缺陷,兼具自主学习性与分布性特征的二元理论预设极大程度地推进了人工智能理论认知难题的理论破解[56]。对于未来人工智能的法律制度建构,应在《立法法》的指引之下,形成一套包含法律调整、政策规定以及伦理道德规范的多元一体的治理体系。
(3)社团交流及社会合作受限制.据了解,民族武术社及通背拳研究会与上属机构北京市武术协会交流甚少.早年间,北京市武术协会每年会组织一次年终会供大家交流探讨,但近年来开展交流越来越少.如今下属的各个社团主要靠参加北京市武术协会组织的比赛进行交流探讨,并没有其他形式的交流活动.通过访谈了解到,民族武术社作为北京市武术协会下属的二级组织,并没有法人身份,因此若以民族武术社的名义教学或者与社会合作,这也给社团经费收入造成了限制.而传承人以个人名义开展教学收费也是艰难维持.
这些大数据掌控者所掌握的信息量远胜于公民个人,国家治理现代化的推进过程中,政府必然在信息资源上求助于这些占据上风的大数据持有者。即使是带有中立价值的司法,在建立智慧法院的过程中也是建立在数据化基础之上,因为旨在数据开放共享的建设目标必然是以大数据和云计算为前提。工具理性一定程度上消解了司法的意义,所倡导的智慧管理在实际上削弱了司法的独立地位,而智慧应用更是分化了司法平等;至于近年来一些地方法院所做的司法大数据外包业务,也侵蚀了司法公信力[47]。在关涉大数据的领域,公私权力的边界不再清晰,本该属于公权力监管的对象反而成为了合作伙伴,在高科技的飞速发展下,未来大数据持有者成为真正的权力享有者也未可知。创新需要法律的支持;而给创新套上缰绳,使其不至于走向威胁基本人权和公共福祉的道路,也需要法律的约束。我们需要探寻一条鼓励创新和保护个人权利之间的允正中道。Facebook的创办人说,人类正在进入“算法”统治人而非法律统治人的时代[48]。其原因在于,掌控人工智能技术的阶层能够运用人工智能技术解析一切数据,并依据这些数据而作出对策。人工智能时代的个人空间不断被挤压,大数据云计算让个人隐藏真实意思的可能性越来越小,“透明人将成为人工智能时代的重要特征”[49]。
(一)以安全与秩序为第一要义的立法价值取向
法的价值是法的制定的必需,是法的实施的需求,是防止法的失效的屏障,是校正恶法的准则,是法的演进的动因[61]。人工智能的法律规制是人类理想法律图景的实然呈现,也是人类理想价值观的现实载体。正义作为法的首要价值具有有限性的原因,在于它是衡量法律之善的首要尺度[62],人工智能的法律体系建构理所当然地要关注人格正义、分配正义、秩序正义。法除了拥有最高价值之外,还存在基础价值,即霍布斯所论证的法的第一位价值是安全[63]。法律作为一项调整行为的制度设计,约束人类的本性冲动,和平、自由和免受侵犯的理想图景方能实现[64]。贤明政府立法的出发点是“保存生命,达到富裕,促进平等,维持安全”,而维持安全是四个目标中最为基本的一个[65]。安全也必然是未来人工智能时代法律体系的核心价值。通过对秩序价值的维护稳定整个社会秩序,保障主体的合法权益不受侵害。人工智能远远超过人类智能甚至一切能力的可能性潜藏着极为严重的后果,这些巨大的风险使得立法者在制定法律规范时无法忽视。不仅人工智能的风险规制是立法者的重要考量因素,人工智能应用的安全监测、伦理规则均应成为人工智能法律体系建构的重要方面。
未来的立法体系应平衡创新与安全的立法价值。保护创新、推进社会创新源泉用之不竭,从而推进社会经济发展与社会进步,通过保护技术创新促进创新驱动发展甚至成为国家战略[66]。
“没有创新,经济就无法长盛不衰;没有信任,创新就无法蓬勃发展;没有法治,信任就无法滋生壮大;没有法治,就没有未来。持续的经济发展有赖于创新。”[67]后工业社会的经济发展已经由劳动密集型转向知识密集型产业,知识与信息的分配、利用成为最主要的特征。创新与知识成为社会经济系统的运行基础,资源的分配始终体现着知识创新的价值实现,也将是人类可持续发展的根本途径[68]。未来人工智能时代的创新不再仅仅是人与自然的故事,而是关涉个人之间、公民个体与人类社会之间的复杂关系。这就改变了社会经济系统的市场交易规则、资源要素构成,甚至改变了财富的分配[69]。人工智能的立法体系必然体现鼓励创新的价值导向,将“实践理性”上升为“规划理性”,在后工业时代设计出符合社会发展规律的价值。未来在谋划国家发展整体战略下,应对大数据、网络化、人工智能等一系列改变社会结构的技术上作出战略部署。未来的人工智能将应用到交通工具驾驶、医疗卫生、智能机器人一级人脑芯片等一系列核心技术,法律体系须制定一套安全标准以防控可能的风险,并形成长效的规制效用和监管环境。
毋庸置疑,人工智能会成为权力的一大重要来源。占有优势地位的群体和个人得以借助人工智能技术对交易占有绝对优势地位,而处于劣势地位的当事人迫于压力会承受隐性的损失。更深层次的问题,是否可以将人工智能技术看作是公共商品?强迫其以低成本为社会公众所用是否可取?这些问题都在呼吁全新的制度规范出台,而涉及机器人的制度又必然受到“深层次规范结构”的影响。“一个社会是基于功利主义的‘良善’概念,还是基于人道主义或康德式的此一恰恰相反的观点(即并非每一个有效用的或使财富最大化都必然是好政策)”[70],是探讨人工智能的一大核心问题。不过,一个较为可取的进路是将功利主义的“良善”概念充分运用,而让人工智能机器人依照人类的法律规则来最终发挥功用。
(二)人工智能技术的人文延展
技术的发展将导致文化的变革。在“情感智能机器人”走进家庭并承担日常的工作甚至取代自然人的角色后,传统家庭伦理势必受到强烈冲击。这种人文上的挑战将随着人工智能的发展愈演愈烈。与人工智能机器人的感情会不会导致传统家庭关系的改变甚至婚姻关系的破裂?人工智能机器人是可以通过技术改造而具有同人类高度一致情感的,而这种情感软件的植入、卸载由谁来决定?是人工智能机器人自己还是它的所有人呢?在人工智能机器人具备诸多完美属性之后,人类可以通过购买来放纵情感,这种巨大的伦理隐患如何面对?家庭是人类社会的存在基础,家庭是多层次社会关系的总和[71],人文、伦理在家庭的基础上方能产生、发展,家庭关系的改变将对未来社会的社会结构有何冲击?在日常生活方面,也会带来一系列伦理疑难。人工智能机器人独立进入手术室完成手术之时,医生的角色定位如何?还是原来的医生吗?医疗事故责任也发生了变化,当下的医疗法律将被迫全面修订。更深层的忧虑在于,在人工智能全面超越人类的时代,人工智能技术的拥有者便是拥有了最强资本,贫富差距将会剧烈拉大。人工智能机器人具备独立的思维,它造成的伤害、谋杀人类或另一个机器人,责任如何分配?对机器人致害案件,机器人的发明者、所有者是否承担责任,又如何承担?凡此种种前所未有的法律问题,实际上是科技带来的人文、伦理挑战。
科技求真,伦理求善,制度求效。对人工智能法律问题的思考,“既不是案例应用,也不是模型应用,而是一种批判性、反思性的应用”[72]。无论科技如何发展,都不能偏离人本的轨道,科学的技术就是以人为本作出的探索[73],不能把人工具化。“机器的自由化程度越高,就越需要道德标准。[74]”人工智能的道德塑造,强调科学共同体的伦理义务,科学家创造的人工智能体必须是一个合乎人类道德的事物。这种在人类伦理道德之下的人工智能体现出对人个体价值的尊重,对自由平等及人类解放的追求,对人类社会命运的终极关怀。对此,将人类的价值观植入人工智能体是必由之路。作为人工智能最顶尖的研究机构之一,麻省理工学院对此领域的研究宗旨是将延展智能价值观嵌入人工智育。
此外,从法律制定的角度来看,人工智能剥夺了普通民众通过民主协商制定法律规则的机会,因为原本繁琐的立法程序、立法调查在人工智能面前被剥夺了,人们被迫不断地接受不能有任何更改和商榷的硬规则。作为现代社会立法重要原则的民主原则便被削弱了[51]。柔性规则的失效,也侧面说明了传统法律规则在人工智能时代的执行效率不高,硬规则的大量出现也是社会选择的结果。硬规则的好处显而易见,它省略了繁琐的立法程序和社会调查,完全抛弃了传统法律制定中的民主原则,效率之高是其明显优势。典型代表如智能手机中一个一个的app,对于app硬规则,用户唯一的选择就是不断点击“同意”而被动接受那些颇为复杂的授权合同,将一切权利让渡给运营商。这些硬规则实际上在传统社会几乎没有出现过,其大量涌现是资本与人工智能耦合下的现代商业模式所推进的结果。令人担忧的情况是,整个社会都在人工智能的引导下向硬规则体系迅速发展,这必然加剧资本力量的恣意和强大,立法的民主性便无形中被侵蚀了。
然而,暂时看来,拟人化的超级人工智能虽然遥远,但是让人颇为担忧的是,这在理论上是完全可能的。可以预见的是,拥有极大危险性的超级人工智能将以网络超能系统存在。由于未来人类对智能网络的依赖达到无与伦比的高度,智能网络也将有异常强大的自我修复能力,如此,超级人工智能的优势将使人类的一切反抗都归于无效。超级人工智能将最终呈现为只有一个核心主体的系统化内存,人工智能体最终超越了拟人模式的初级阶段而发生质变,进入上帝模式,人类只有像思考“全能神”一样去解读超级人工智能,方能理解其本质。但作为人类的产物,出现两种以上的“全能神”人工智能不可避免,两种近似于“一神教”的全能超级人工智能一旦出现,战争便是必然了。虽然创造完全等同于人类意识的人工智能难度极大,但更可能的危险在于:创造“偏门偏科”却拥有自我意识的人工智能完全可能。相对于全知全能,“偏门偏科”的人工智能虽有局限,但在理解元性质、创设新规则的能力上与全能型的超级人工智能并无二致。其在不断改进自身意识系统的进程中,会将一切程序经由自己创设的语言进行颠覆性的理解、表述、构造甚至重新定义,从而探索、发展出真正的意识。巨大的危险便随之而来,因为其能够按照自我意志进行一切计算和安排,而完全不会考虑是否将危及人类社会。超级人工智能会依据其偏好对事物的秩序进行重新安排,但可以肯定的是,这种重新安排的秩序必然不符合人类生存发展所依赖的条件。同时,人工智能的拟人化研究带来的风险更加不可测,让人工智能拥有同人类近似的情感、欲望、道德观念,实际上并不能达致平等交流的效果,更可能是充满危险的全新物体。而人性的利己主义是一切恶的根源[75],越接近人性的人工智能实际上危险系数越高。人类的价值观本就存在着巨大的差异,作为人类的设计产品,人工智能的意识统一根本是奢望。如此,有了情感、道德、欲望的人工智能,显然比没有拟人化的人工智能危险更多,人类的矛盾将迅速升级、冲突也将加剧,竞争也更加残酷。
故此,作为安全闸门的“哥德尔炸弹”必须被设置[76],以保证对人工智能的“阿喀琉斯之踵”有效攻击。但悖论随即出现——若超级人工智能具有自我意识,必然能够通过自我学习找到使“哥德尔炸弹”失效的方法。抽钉拔楔之道需从根源上杜绝违背人类伦理道德的人工智能体出现。人工智能的诸多问题可以在发明、设计之时就严格控制,经过伦理道德的缜密论证,在技术投入使用之前便通过伦理委员会机制未雨绸缪。科幻大师阿西莫夫曾设想著名的“机器人三定律”,机器人在不伤害的原则下与人类和谐共存。然而,为人们奉为圭臬的三大定律实际上存在着巨大的缺陷,缺乏明确概念界定的定律模糊之处也导致了巨大漏洞。正如《环舞》中,机器人在水星执行开矿任务时在第二定律与第三定的冲突中无所适从,焦虑地绕圈子而不停歇。而且,在机器人获取的信息量不充分时,完全可以打破定律;更可怕的问题是,远远超过人工智能的机器人们完全可以不依赖人类而将定律修改。
如今人工智能已经爆炸式增长,不久的将来会抵达技术奇点,全方位超越人类智能。如果超级智能的伦理准则未能建立,超级人工智能冲击了人类中心,那便一发不可收拾。但若保证超级人工智能的绝对安全,阿西莫夫三定律并不能完全胜任。人类伦理的挑战在于,为当下半智能人形机器人创设道德规范是徒劳的,因为超人类的高阶超人工智能最终会出现,人类最终要面对超级智能群体。当下的仿生人、半智能人工智能机器人等高科技产品无关紧要,因为一二十年甚至更短时间后,真正的超级人工智能就会出现,而为超级智能创设伦理道德才是最为关键又无可回避的问题。
过程—事件的角度主要关注小区治理的动态过程,聚焦于社区或小区的治理或自治中的具体事件。这一视角主要围绕国家治理或控制、社区自治、业主维权抗争等主题展开。
未来建构的难题是机器伦理学难以作为机器伦理的基础存在。阿西莫夫的三定律并不能成为AI安全研究者抑或机器伦理学者们的指导原则,原因在于义务伦理学直接套用在人工智能的应用领域存在着按图索骥之弊端,显然是“拿着中世纪的地图来行现代之旅”[77]。建构新的伦理道德准则是无比艰辛的事情,甚至需要几代人的努力和知识。但至少可做到的是,让所有人工智能的研究者成为信守伦理的工作者,尽力避免制造出“具有道德意义的实体”。实际上,阿西莫夫三定律存在着极大的缺陷,无论通过修正还是补丁都很难挽救。三定律本质上存在着解释疑难,又极难自洽,同时相互之间又是对抗的。未来人工智能的伦理设计应是合作性的、融洽的;而在道德准则的设计技术上更应采用间接规范的方式,因为间接规范可以允许失误,当系统误读或编错了伦理规范,能够有弥补和恢复的机制,最终让一套既合理又科学的伦理准则生成。创设一套完美无瑕毫无隐忧的理想人工智能伦理体系是相当困难的,将希望寄托于一劳永逸的定律式假想是徒劳的,人工智能的伦理建构只能是一个循序渐进的缓慢过程。在制造出原型机并逐渐推广适用后,只有在反复不断地应用实践后,方能最大限度地收获AGI伦理学信息,然后依据收集到的信息进行缜密的剖析、阐释,方能有望建构出与人类和谐共生的人工智能伦理体系。
未来的治理应当是一个“价值导向、行为规范、社会调适和谐互动构成角色伦理的调控功能体系”[78]。在这个功能体系中,价值导向占有全局性、方向性的首要位置。人工智能时代需以伦理道德为基础建构相应的系统性规范,从而调整多方利益。“全球风险社会下的公共危机治理,本质上是一种文化治理”[79],人类社会的文明进程中要求对社会系统中的诸多纷纭复杂的关系进行合理调整,不断完善组织能力,提升管理水平,最终达致社会整体的有序运转,和谐共生。社会团结视为整体上的道德现象,将社会集体意识和社会劳动分工作为维系社会团结的纽带,将法律形象地比喻为社会道德的“看得见的符号”[80]。
人工智能的伦理创设也反映出从形而上学的哲学到形而下的生活之间的历程。哲学—数学—工程是演进的常态,哲学提出的诸如智能、本体、价值问题往往具有重大意义但并不精确,所给出的答案与解决进路难以验证。而当把哲学问题化为数学问题来演绎,便能精确地判断对与错,从而在经过数学验证之后建立模型,在此基础上进而扩展,最终应用于真实世界。这是科学与哲学领域中的一大真正难题,不过前景依然乐观。人类可能怀疑哲学、伦理学等难以通过自洽的方式解决这一重大疑难,数千年来哲学在工程应用学科的表现并不出彩。然而人类绝不应仅凭当下的粗浅认识就罔顾伦理的箴规而在实践上孤军奋进,未来尚需在理论上进行大量的研究。
(三)人工智能的法学回应与规范之维
菏泽市创建“四优一无”标准化闸管所的实践与探索……………………………………………… 刘福旺,朱炎炎(2.33)
法律是人类的有限理性,基于人的局限性而产生的法律规则显然可能存在着局限,至于“在我们的法律之内或法律之外制定更完美的法律形式,这个任务就落在哲学家们身上”[35]。恰如先哲所言,人类既有贪婪又有野心,但现实中却有着有限的认知以及计算能力,所以政府对社会进行外来或内在的控制的原因恰是因为人类并非天使[36]。汉密尔顿所说的人类不是天使,除了隐含着人性恶的评判,还有着对人类有限能力的概括。法律规则作为调整社会秩序的理性产物,在进行制度设计之时,便会考虑到人的有限能力。从这个角度而言,法律实际上也就是有局限的人设计的有局限的规则游戏。在现实操作中,立法主体清晰了解人类的局限性,在创设法律规则之时既不考虑智能超卓的个体,也不能以智商低下的个别人群出发,而智能以普通中等智商的大多数正常群体作为判断依据。出于秩序价值的考量,法律设计低于常人标准的最低安全线也是无可厚非的。所以法律带有天然的保守性,具有“克制与谦抑”的特质[37],“对未知事物的怀疑以及宁可相信经验而不相信理论的这种心理,根深蒂固地存在几乎一切人的心中”[38]。人类社会的自发秩序“总的特征来说是保守的,因为保守来自人类最重要的心理需求——安全感”,而长期的历史实践中,固有秩序等于安全的信条几乎是人们代代相传的不变信条[39]。所以,法律也可以能够被理解为是倾向于保守的社会规范,并不倡导激进的创新精神,而是以“经济进一步,政治进一步”的循环推进方式徐徐发展[40]。在农耕文明时代和工业社会的早期、中期,法律的保守特质曾经较好地平衡了利益、维系了秩序。然而“知识社会预示着一个新的社会范式的转换”[41],社会转型时的范式转换表现在法律制度上便是凸显了法律的回应性特征。人工智能时代,保守倾向的品格使法律滞后于技术的进步和经济的发展,抢占先机的人群得到了极大的边际收益。最典型的便是我国十几年来电子商务与互联网金融的突飞猛进,在法律制度缺位的情况下催生了一大批获利甚丰的先富者,而在国家不断出台相关规定健全法律规制时,所约束的不过是后面的参与者,而先入行者早已利用政策的漏洞赚得盆满钵满,此时的诸多政策反而成了巩固其垄断地位的护身符。先占者却又往往乘胜追击,利用之前政策、法律缺位积累的诸般经济、数据资源优势故伎重施,进军法律尚未介入的各种新领域。这些自诩为时代弄潮、敢为天下先的所谓成功者,最终却利用了法律的滞后性立于不败之地,让循途守辙安分守己指望勤劳致富的人们与其差距无限拉大。如果说土地是农业社会的最重要资源,石油是工业社会的最宝贵资源,那么大数据则是人工智能时代的最重要资源。持有越多的大数据便意味着所占有的人工智能资源越多,在该领域取得突破也变得相对容易。值得忧虑的问题在于,大数据技术改变了“整个法律体系运作于其中的社会空间”[42],大数据拥有者与私人的权力被重塑,诸多全新无需依赖法律的全新社会控制方式始料不及地瞬间涌现,让现代社会中的每个个体的一切信息都无处可遁,处在被暴露的危险之下,而这种权力的拥有及行使者却愈见隐秘。显而易见,在大数据时代,权利保护、权力制衡等最核心的法律价值遭遇了巨大挑战。
对人工智能的伦理研究应当先于立法研究,这种做法也成为发达国家应对人工智能的常态。未来应强化行业组织及公司企业的伦理责任,尝试设置伦理委员会,在伦理规范方面进一步强化相关领域专家的职业道德与专业责任。这种做法并非没有先例。如日本就在人工智能学会内部专门设置了一个名为“伦理委员会”的机构,旨在为人工智能的研发过程提供指导;谷歌公司也专门设立“人工智能研究伦理委员会”,为人工智能研发提供伦理指导,强化科研工作者的社会责任。在对人工智能产品的研发推广进行伦理价值指引、对智能机器人的道德准则进行预设、对科研工作者进行道德伦理的约束等方面,伦理调整具有极为独到的作用以至不可或缺。通过内在的调整作用,伦理规范成为法治现代化的重要渊源,当有必要之时,伦理道德原则便上升为法律规范,实现道德与法律的耦合。
哈耶克指出,法律先于立法,无人会认定法律可以任意创设,“在强制性行为规则意义上的法律,是与社会相伴而生的”[84]。法律中包含了伦理性内容和技术性内容,从内容上看,绝大多数法律都有着伦理道德的基础。道德法律化是立法中的普遍现象,它经历了从伦理、物理再到法理,最后成为法律的过程。道德法律化的具体方式包括道德向法律的直接转化和间接转化,法律最后拥有了技术性和国家强制性的特征。从道德法律化的表现形态上看,它包括道德义务的法律化和道德权利的法律化,以及道德的公法化和道德的私法化。在道德法律化的过程中,道德直接或间接地构成了法律的价值基础,演变成一种制度性的伦理形态,并对人类生活产生深远影响[85]。法律并非像自然科学研究对象一样是等待人类解剖的自然物,而是经过阐释者运用道德信念进行解释的社会对象,恰恰“是阐释者在阐释法律过程中,法律获得了道德根据”[86]。所以从元规则来理解,法律是一套“建设性阐释”的概念[87],由此,立法者将社会普遍的道德理想、原则以及规范等种种共识铸就为法律,善法由此而生,成为社会主体普遍遵守的箴规,法律和道德必然历史性地联结在一起[88]。“由道德法律化到法律道德化,当是人类由人治走向法治的自然历史过程。”[89]
与德国立法相印证的是美国的立法进路。美国的立法价值导向与德国完全不同,2017年9月通过的《自动驾驶法》采用宪法与行政法的思维将联邦与州在规制自动驾驶汽车上的责任予以清晰界分,而并不改变既有的道路交通规则以及侵权法的相关规定。在立法的价值导向上,着重隐私权的普遍保护,要求自动驾驶汽车的制造、销售者在销售前必须满足“隐私权保障计划”后方能进行。美国“隐私权保障计划”的出台在立法技术上也采取了细化的方式,明确了交通部在驾驶安全、网络安全、社会公众知情标准设定的具体义务以及详尽的履行时间表。这些细密的规定保证了无人驾驶汽车的所有人、使用人能够对个人的数据、隐私充分而有效的控制,避免在不知情的情况下个人数据泄露或被制造商、程序设计者使用。
更可行的思路是从根本上就防微杜渐,要求算法设计者进行编写程序时遵循相关的伦理道德规范。在诸多伦理价值排序中,第一位的应是人的生命。生命权是人权理念的最高体现,个体的生命价值具有终极性[90]。在穷尽所有可能的预防措施而依然发生不可避免的危险情形下,人的生命权相对于人的其他权利应优先受到保护。未来在技术可行的情况下,算法设计者需在编程时贯彻人的生命权原则,在人的伤害与动物财产伤害相冲突时,必须两害相权取其轻,保证人的绝对安全。在必须伤害少数人以避免对多数人伤害这样类似“电车难题”的伦理难题出现时,人工智能系统必须被设定为在此类情况出现时立即寻求人工介入。人工智能的前提和基础是信息与数据,它直接涉及对个人信息的搜集、提取、分析和使用问题。当下的法律规制中,个人数据保护法尚未出台,网络安全法已经发挥作用。未来人工智能的时代,每个个体都成为信息、数据产生的主体,都成为人工智能的学习对象;每个人产出的不再是物品而是可以让人工智能模仿学习的各种数据信息,这是相当令人恐惧的事情。因而毋庸置疑的是,人工智能是双刃剑,对个人信息、隐私权的保护是未来人工智能时代的重大课题。
四、建构以伦理为底线的多元一体社会整体调控体系
2017年7月,国家下发了《新一代人工智能发展规划》,对我国人工智能的未来发展作出了“三步走”的重大举措和战略部署,力争到2030年将我国建成为世界最主要的人工智能创新中心之一[91]。国务院的这次规划并非像之前其他科技行业的发展规划一样仅仅停留于技术和产业方面,而是高屋建瓴地将社会建设、制度重构甚至全球化治理均囊括其中。这是充分考虑了人工智能技术的通用性、基础性角度而作出的重大举措。人工智能行业的崛起,仅仅实现单一专业领域的技术进展是徒劳的,因为是颠覆性技术的技术突破,只有全方位推进源于技术革新而发生的综合性大变革举措才是根本之道。在明确这一点之后,方能理解人工智能时代的挑战并非仅仅限于技术和产业上,而更大的挑战是在“经济、社会、政治领域的公共政策选择上”[92]。
他陪妻子去医院,诊断结果是假孕,他竟然是心里一块石头落了地。他拿到结果的那一刻就想走,想打电话给方晓倩,想下一秒就到她的城市,好像阳光又一点点回到世界里。妻子还在说着如何休养身体,努力要孩子,他看着医院里来来往往的人,思想早已跑远。
式中,x1,x2 和S1,S2分别为前后n1年和n2年的均值和标准差;S为合并方差;T为两组样本对应的统计量。
(一)人工智能时代的治理挑战与规制
毋庸置疑的一个问题是,建立在科层制基础上的社会公共治理结构,能否恰到好处地应对人工智能的发展和应用过程中所激发的不确定性和不可预知性,显然是一个难以回答又不得不面临的深层问题。甚至,“社会理性化的进程将是科层制的扩张”的传统命题也面临着被颠覆的命运[93]。同理,具有普遍意义的法律规制能否在未来以数据、算法为主体的应用环境中游刃有余地发挥作用,同样是法治话语中必须反思的问题。无论如何,人工智能带有极其广泛的社会溢出效应,建构一套全新的治理体系、创设新的治理范式来应对人工智能发展而引起的社会政治经济问题,是学界面临的重大挑战。人工智能的重大特征之一是突破了一个行业一个领域,它是可以支撑一切产业革新的通用型高新技术。这种深刻的变革带来的法治、治理挑战是全方位的。
电子关封读写器通过RS232串口与PC机通信,串口参数为:波特率9 600,校验位NONE,数据位8,停止位1。命令格式:0xaa+控制命令字+0x00+0x00[+数据内容]+0xab。
噪声的种类分为机械噪声与气动噪声,机械噪声的解决办法一般为提高轴承等零部件位置之间的运转精度,及时更换损坏的轴承,添加润滑油,紧固连接螺栓,以及增加对设备的维修保养次数等方法.
第一,传统的科层制治理对充满不确定性和开放性的人工智能应对不足,科层治理结构歧路亡羊,呈现出僵化性的趋向。人工智能必须被严密监管的原因在于其完全有可能演变为社会公共危险的主要源头,当无人驾驶汽车普及后,行驶过程中一旦失控,便会造成大规模连续性伤害。然而新型的问题并不同于飞行器、大坝甚至核能等上世纪公认的公共危险源,人工智能本质就有极强的开放性,所有的个人和公司都能够随时随地进行人工智能的研发应用。互联网、大数据时代导致了代码生产、研发要求和技术门槛都大为降低[94],换言之,人工智能的门槛要求很低,对研发主体也不作限制。一般而言,高新科技的研发入门要求是较高的,而人工智能自身的发展规律却是恰恰相反。唯有大规模的数据导入方能让机器收到良好的学习效果,因而将算法通过开源形式向公众公开从而让尽可能多的人在不同场域中利用,从而才可以最大可能地全面吸收数据以完善人工智能的平台,故此这也成为人工智能公司注定的选择。既然人工智能生产模式是开放的,那么未来发展的不确定性则是必然的,一旦缺乏有效规制与合理引导,便会步入歧途。对于这样的新状况,建立在传统科层制之上的治理结构颇显力不从心。长期以来,政府作为公权力机构的治理方式是全范围覆盖的事前监管,而完全开放的人工智能生产网络使得事前监管成为水中捞月的奢望;同时,自上而下的社会权威结构会加剧信息、数据不对称的状况,会导致监管的异化。由于传统科层制是依据“组织目标进行劳动分工并实现专业化”采用等级制以确立合法权威[95],那么在开放的人工智能时代,传统科层制的“管理方式的非人格化”弊端会加速凸显,加之其无力纠错以及天然带有的组织增生的偏好,固化社会分层的反功能现象便出现了[96]。避免未来科层制沦落为无责任与非人格化的状态,防范科层组织的不断自我积累与持续放大的风险,提升其稳健性与权力合理制衡是相当重要的任务。所以未来社会治理的挑战之一便是如何对治理结构与治理逻辑进行调整,从而形成一种兼具开放性与不确定性的人工智能生产模式。
第二,正如上文已经论证,传统的法律规制体系存在着滞后性,建立在社会行为的因果关系之上的旧式治理方法难以应对以算法、数据为主体的新型应用环境。由于人工智能具备自主的学习能力,能够自主决策,而非其设计、创造者的意志表达。这也是其区别于以往任何科技产品的最主要特征。算法设计者给出的仅仅是学习规则,而真正作出决策的主体却是在经过大规模数据运算后的算法而非其他,这个结果与算法设计者——人并无直接的因果关系。明晓了这一关键后,也才能理解为何人工智能AlphaGo能够所向披靡地连续击败各路围棋精英,而其设计者却并非围棋高手。在此意义上,福柯描述的“技术的主体性”才重新被人们重视。福柯指出,“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分”。延续福柯的进路,可以发现过去的法律规制体系是通过探究主体行为与法律后果之间的因果关系来对行为进行规制,这在人工智能时代会面临极大的窘境:人工智能的侵权归咎于其研发、设计、制造者,无论如何都不具备高度的说服力;而人工智能本身作为人类的产品来被问责,尚存在重大的伦理疑难。以算法和大数据为核心的技术在未来将面临着公共责任分配的现实难题,这也是一项重大的治理挑战。
第三,治理的范围具有局限性。人工智能的发展会冲击旧有的治理系统,其引发的全新社会重大议题也令旧有治理范式捉襟见肘,这就需要一套新的治理体系与更周密的治理工具。人工智能给治理带来的巨大挑战,一方面反映出现有的治理体系于人工智能应对乏力;另一方面人工智能带来的新议题面临着治理空白的境地。算法究竟能否像普通言论自由一样受到宪法保护?从公法学角度而言,“人工智能”究竟是什么?公法应如何应对“人工智能”带来的宪法学问题?还可以延续这个思路继续思考:依据何种规范来界定数据的权属关系?人工智能作为一种强势资本必然会加剧不平等,如何化解?在人工智能飞速普及的时代,这些问题便浮出水面成为无可回避的矛盾。以劳动法领域而言,人工智能广泛取代人工劳动已是大势所趋,从股市分析工作人员、新闻记者到律师,被人工智能全面取代似乎已经呈现出苗头,至少在技术上已经没有太大障碍。那么,在未来“充分自动化”(Full Automation)的社会中,重新定位劳动与福利保障甚至全面重构劳动与社会福利保障制度,将是劳动法和社会法领域面临的重大治理难题[97]。
(二)人工智能治理政策及监管路径
人工智能的治理是世界各国尤其是发达国家面临的重大难题,迄今为止,各国陆续出台了诸多公共政策以在对其进行治理的同时推进其高速、健康发展。
美日的政策均对人工智能的发展有着较为开放的倾向性,虽然其政策着力点略有不同,但对人工智能可能引发的诸多挑战依然持有宽容的态度。美日的政策框架上更侧重于科技创新的推动,在政策目标上保持国家高科技在国际竞争中的优势地位。两国在对待人工智能的风险性问题和公共安全问题上,监管逻辑更倾向于“无需批准式”(permis-sionless)的监管策略,除非有足够充分的证据能够证明其危险性,那么所有的高新科技和新商业运作模式都被默认为是安全的,也就不得禁止[98]。
美国的人工智能治理起步较早,经验也较为成熟。2016年,美国颁布了《国家人工智能研究与发展战略规划》,从技术性角度出发规定了人工智能的国家战略,明确了国家战略的目的和发展方向,勾画出较为详细的发展愿景。同年,又颁布了《为人工智能的未来做好准备》,探讨了政府在多维度治理的角度上如何保障公共安全、促进科技发展创新。《为人工智能的未来做好准备》作为美国国家战略性的政策,通过常规性的应对方法来强调风险评估与成本——收益的原则,通过这个原则的考量,判断是否对人工智能技术的研发、应用加以监管[99]。日本同样采用了较为先进的治理方案,于2016年出台了《第五期(2016—2020年度)科学技术基本计划》,这个政策最大亮点是提出了一个全新概念——“超智能社会5.0”。所谓“超智能社会5.0”,是多策并举推进人工智能的快速发展与应用普及,主要包括搭建社会服务平台、推动数据标准化以及协调发展多领域智能系统等几大方面[100]。
关于人工智能对个人数据、隐私权以及社会公共安全方面的危险,美日的政策虽然有所涉及,却并非作为政策中心所在。而英、法等国采用了相对严格的路径,这与长期以来英法所实行的“审慎监管”(precautionary)的公共政策不无关系。“审慎监管”的政策逻辑,着重强调安全性,新技术和新的商业模式在被证明完全无害后方能被允许使用。同在2016年,英国政府颁发了《人工智能:未来决策制定的机遇与影响》,详尽阐释了人工智能的可能性潜在风险,并对人工智能的利用作出了细密规划。值得注意的是,这份报告重点防范了人工智能带来的伦理风险与法律挑战。英国政府在这份报告中对机器学习与个人数据相结合从而影响个人隐私权、自由等方面的影响进行了高度关注,解决了对使用人工智能所制定出的决策如何问责的问题,同时在具体细则中规定了人工智能领域的风险分配、算法透明度以及算法一致性等技术性条款[101]。无独有偶,法国在2017年出台的《人工智能战略》与英国采取了类似的政策。该文件立法精神与法国2006年发布的《信息社会法案》一脉相承,提出对高新技术进行“共同调控”,在技术发展促进社会福祉的同时,强调个人权利及公共利益的保护[102]。
对比美日与英法的政策,两种路径在应对人工智能时代的治理挑战上均有所长。“无需批准式监管”的优势在于为创新提供了制度动力,“审慎监管”出于审慎的政策考量而侧重于安全。不过这两种制度在人工智能的规制上依然存在不足。一是人工智能的飞速发展与全新商业运作模式的出现将会引发新的社会议题,比如算法是否属于宪法上的言论自由?能否要求权利保护?人工智能大规模运用造成的普遍失业对劳动法的冲击,均在客观上需要公共政策、法律制度作出应对。这显然是“无需批准式监管”所能解决的。“无需批准式监管”是事后监管,其预设的是事后监管依赖于合规性判断,是及时、有效的,而这在现实中显然会有疏漏。况且,现实中已经发生了单个交易程序运行良好,符合规范,而当诸多系统行为聚合时发生排山倒海般危险的状况[103]。二是“审慎监管”的制度逻辑有着天然的局限性。人工智能系统的最大特点是其本身具有自主性甚至主体性,而“审慎监管”的进路是奠基于人类行为的普遍因果关系,人类都无法对人工智能的行为与决策进行预测,那么开发者更无法证明人工智能的无害运行。
“国家治理的最重要伦理价值目标是维护分配正义。”[104]在这场史无前例的颠覆人类社会结构的高科技运动中,政府的角色不能失位,须为人工智能的研究成果建立合乎公正的分享机制,避免资源掌控者的个人、团体单独受益。一项足以改变人类生活和社会结构的高科技蕴藏着巨大利益,谁为技术的掌控者、受益者更必须经过审慎的论证,以保证人类社会的发展兼具效率与公平。政府的及时管理,能够引导人工智能的良性发展,使之不偏离人类命运共同体终极关怀的轨道。
五、结 语
人工智能时代提出了诸多超越人类自我关系到整个社会深层的问题。我们到了需要重返人文的时候,“重思古代的‘学以成人’……我们需要以‘学以成人’的古典原则来调整‘学以御物’的现代原则……我们要重返‘神’——重返与物质相对的精神”[105]。我们宁可将科学技术的速度放缓,也要让作为主体的人享受宪法和法律赋予的权利与自由。法律、道德、伦理应主动介入对技术的控制,从而让其更好地为人类服务。在技术准备尚不充足、制度基础尚不完善的前提下就贸然让人工智能单边推进,会侵害人的权利,损伤人的尊严。未来是不可测的,然而人的主体性是在任何时代都必须保障的重大问题。作为大数据的载体,互联网已经发生了异化,在被人为赋予了大量职责与义务之后,其呈现出“行政机关化”的倾向,不再是基本权利的主体,这让公民的基本权利陷入了随时可能被侵犯的危险境地。人工智能时代所带来的难题绝非一个部门法学甚至并非法学一个学科所能解决的,唯一可能的解决路径是在多元整合的视角下从理论到规范来化解风险。法治介入人工智能,从根本上防止技术主宰人的生活,同时让公权力机关在人工智能时代秉承中立立场,运用治理智慧和法律规制防范各种可能对公民基本权利的侵害,拥抱人工智能技术的同时避免人的尊严边缘化。
[参考文献]
[1]顾骏.天问:二元智能时代的一元未来[J].探索与争鸣,2017(10).
[2]余乃忠.自我意识与对象意识:人工智能的类本质[J].学术界,2017(9).
[3]杜悦英.人类进入与人工智能共舞的时代[J].中国发展观察,2016(6).
[4]霍金.人工智能的全面发展可能导致人类的灭绝[J].走向世界,2015(1).
[5]石中玉.霍金警告:人工智能或危及人类[N].新华每日电讯,2015-01-14.
[6]陈静.科技与伦理走向融合——论人工智能技术的人文化[J].学术界,2017(9).
[7]杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(9).
[8]中国传媒科技编辑部.人工智能是否能够战胜人类[J].中国传媒科技,2017(6).
[9]李怀涛,陈治国.贝克风险社会理论评析[J].贵州社会科学,2010(11).
[10]乌尔里希·贝克风险社会[M].何博闻,译.南京:译林出版社,2004:16.
[11]杨丽杰,包庆德.吉登斯风险社会及其解决方案的生态维度[J].自然辩证法研究,2017(6).
[12]刘岩.风险意识启蒙与反思性现代化——贝克和吉登斯对风险社会出路的探寻及其启示[J].江海学刊,2009(1).
[13]乌尔里希·贝克.从工业社会到风险社会——关于人类生存、社会结构和生态启蒙等问题的思考(上篇)[J].王武龙,编译.马克思主义与现实,2003(3).
[14]周旺生.论法律的秩序价值[J].法学家,2003(5).
[15]方世南,曾德贤.技术风险的防范与管理:政府公共管理的重大课题[J].苏州大学学报(哲学社会科学版),2012(1).
[16]成伯清.“风险社会”视角下的社会问题[J].南京大学学报(哲学社会科学版),2007(2).
[17]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017(5).
[18]杨春福.风险社会的法理解读[J].法制与社会发展,2011(6).
[19]黄庆桥.浅析风险社会理论及其现实意义[J].社会,2004(3).
[20]芭芭拉·亚当,乌尔里希·贝克,约斯特·房·龙.风险社会及其超越:社会理论的关键议题[M].赵延东,等,译.北京:北京出版社,2005:10.
[21]安东尼·吉登斯失控的世界:全球化如何重塑我们的生活[M].周红云,译.南昌:江西人民出版社,2000:24.
[22]安东尼·吉登斯,斯科特·拉什.自反性现代化[M].赵义书,译.北京:商务印书馆,2001:74.
[23]冯昊青.安全之为科技伦理的首要原则及其意义——基于人类安全观和风险社会视角[J].湖北大学学报(哲学社会科学版),2010(1).
[24]许斗斗.技术知识与风险社会[J].中共福建省委党校学报,2005(9).
[25]乌尔里希·贝克.“9·11”事件后全球风险社会[J].王武龙,编译.马克思主义与现实,2004(2).
[26]鸟尔里希·贝克.世界风险社会[M].吴英姿,译.南京:南京大学出版社,2004:4.
[27]安东尼·吉登斯.失控的世界——全球化如何重塑我们的生活[M].周红云,译.南昌:江西人民出版社,2001:30.
[28]胡凌.人工智能的法律想象[J].文化纵横,2017(2).
[29]霍金.比起机器人我们更应担心资本主义[J].经济导刊,2016(6).
[30]郑戈.在鼓励创新与保护人权之间[J].探索与争鸣,2016(7).
[31]Thucydides.The War of the Peloponnesians and the Athenians[M].Jeremy Mynott(trans).Cambridge:Cambridge University Press,2013:380.
[32]郑戈.人工智能与法律的未来[J].探索与争鸣,2017(10).
[33]董志芯,杨俊.人工智能发展的资本逻辑及其规制[J].经济学家,2018(8).
[34]赵汀阳.人工智能会是一个要命的问题吗?[J].开放时代,2018(6).
[35][87]德沃金.法律帝国[M].李常青,译.北京:中国大百科全书出版社,1986:362,43.
[36]汉密尔顿,杰伊,麦迪逊.联邦党人文集[M].程逢如,等,译.北京:商务印书馆,1980:264.
[37]陈金钊.法律人思维的保守性——和谐社会建设中的法官意识形态[J].学习与探索,2008(1).
[38]休·塞西尔.保守主义[M].杜汝楫,译.北京:商务印书馆,1986:3.
[39]郭忠.论法的保守性[J].法制与社会发展,2004(4).
[40]梁漱溟.梁漱溟全集:第7卷[M].济南:山东人民出版社,2009:3.
[41]易继明.知识社会中法律的回应性特征[J].法商研究,2001(4).
[42]郑戈.在鼓励创新与保护人权之间[J].探索与争鸣,2016(7).
[43]尤瓦尔·赫拉利.未来简史[M].北京:中信出版集团,2017:13.
[44]高奇琦,张结斌.社会补偿与个人适应:人工智能时代失业问题的两种解决[J].江西社会科学,2017(10).
[45]吴宏政.劳动在什么意义上才是“生活的第一需要”[J].哲学动态,2017(5).
[46]张卫良,何秋娟.人工智能时代异化劳动的技术形态及其扬弃路径[J].理论探索,2019(3).
[47]徐骏.智慧法院的法理审思[J].法学,2017(3).
[48][50]Michael Rundle.Zuckerberg:Telepathy is the Future of Facebook[EB/OL].http://www.wired.co.uk/article/facebook-zuckerberg-qa-the-future,2017-11-02.
[49]张宪丽,高奇琦.透明人与空心人.人工智能的发展对人性的改变[J].学术界,2017(9).
[51]肖金明,尹凤桐.论中国立法基本原则[J].文史哲,1999(5).
[52]韩跃红.生命伦理学语境中人的尊严[J].伦理学研究,2015(1).
[53]赵汀阳.人工智能“革命”的“近忧”和“远虑”——一种伦理学和存在论的分析[J].哲学动态,2018(4).
[54]奥利弗·温德尔·霍姆斯.法律的道路[M].张千帆,杨春福,黄斌,译[J].南京大学法律评论,2000(2).
[55]安东尼·吉登斯.失控的世界:全球化如何重塑我们的生活[J].周红云,译.南昌:江西人民出版社,2000:15.
[56]刘伟伟,原建勇.人工智能难题的大数据思维进路[J].新疆师范大学学报(哲学社会科学版),2017(3).
[57]陈春生.“测不准原理”的认识论思想初探[J].哲学研究,1986(11).
[58]纳西姆·尼古拉斯·塔勒布.黑天鹅[M].万丹.译.北京:中信出版社,2008:28.
[59]陶建钟.风险社会与中国社会转型:变量与结构的一种叙事[J].武汉大学学报(哲学社会科学版),2016(6).
[60]塞缪尔·亨廷顿.变化社会中的政治秩序[M].王冠华,等,译.上海:上海人民出版社,2008:9.
[61]卓泽渊.论法的价值[J].中国法学,2000(6).
[62]周灵方.法的价值冲突与选择——兼论法的正义价值之优先性[J].伦理学研究,2011(6).
[63]何勤华.西方法律思想史[M].上海:复旦大学出版社,2007:80.
[64]罗斯科·庞德.法理学:第三卷[M].廖德宇,译.北京:法律出版社,2007:5.
[65]Jeremy Bentham.The Theory of Legislation.C.K.Ogden and Richard Hildreth[M].Oxford:Oxford University Press,1931:113.
[66]梁正,罗猷韬,邓兴华.基于价值链视角的知识产权强国建设路径研究[J].中国科学院院刊,2016(9).
[67]罗伯特·库特,汉斯-伯恩特·谢弗.所罗门之结——法律能为战胜贫困做什么?[J].政法论坛,2014(5).
[68]刘刚.创新型创业活动与中国经济的结构性变革[J].社会科学辑刊,2014(5).
[69]王胜光.创新发展政策学研究的基本命题[J].科学学研究,2015(3).
[70]霍斯特·艾丹米勒.机器人的崛起与人类的法律[J].李飞,敦小匣,译.法治现代化研究,2017(4).
[71]陈旸.马克思主义家庭观及其当代价值[J].理论月刊,2013(8).
[72]陈静.科技与伦理走向融合——论人工智能技术的人文化[J].学术界,2017(9).
[73]胡塞尔.欧洲科学危机和超验现象学[J].上海:上海译文出版社,2005:127.
[74]Picard.Rosalind,Allective Computing[M].Cambridae,MA:MlT Press,1997:19.
[75]李锡海.论犯罪的人性根源与社会根源[J].山东社会科学,2013(2).
[76]赵汀阳.人工智能的自我意识何以可能?[J].自然辩证法通讯,2019(1).
[77]Julia Annas.The Morality Happiness[M].Oxford:Oxford University Press,1993:1.
[78]张振鹏.角色伦理调控功能论析[M].道德与文明,2012(4).
[79]王丽.全球风险社会下的公共危机治理:文化视阈的阐释[J].新疆社科论坛,2015(1).
[80]刘晓梅.迪尔凯姆社会道德视野中的法律观[J].道德与文明,2004(1).
[81]李学尧.转型社会与道德真空:司法改革中的法律职业蓝图[J].中国法学,2012(3).
[82]吴志攀.“互联网+”的兴起与法律的滞后性[J].国家行政学院学报,2015(3).
[83]张剑源.法律对伦理的偏好与疏离——以中国艾滋病防治立法中的隐私保护条款为中心[J].法学家,2013(6).
[84]哈耶克.法律、立法与自由[M].邓正来,等,译.北京:中国大百科全书出版社,2000:113.
[85]郭忠.道德法律化的途径、方式和表现形态[J].道德与文明,2010(3).
[86]傅鹤鸣.道德:法律阐释的根据——以德沃金对道德与法律关系的阐释及应用为例证 [J].伦理学研究,2014(2).
[88]德沃金.认真对待权利[M].信春鹰,等,译.北京:中国大百科全书出版社,1998:29.
[89]范进学.论道德法律化与法律道德化[J].法学评论,1998(2).
[90]甘绍平.以人为本的生命价值理念[J].中国人民大学学报,2005(3).
[91]国务院关于印发新一代人工智能发展规划的通知[EB/OL].http://www.gov.cn/zhengce/content/201707/20/content 5211996.htm,2017-11-15.
[92]贾开,蒋余浩.人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017(10).
[93]邓锁.科层制与现代性的命运[J].甘肃社会科学,2004(6).
[94]Benkler,Y.The Wealth of Networks:How Social Production Transforms Markets and Freedom[M].Yale University Press,2006:121.
[95]王春娟.科层制的涵义及结构特征分析——兼评韦伯的科层制理论[J].学术交流,2006(5).
[96]薛亚利.风险的民主化与科层制隐忧[J].学术月刊,2014(11).
[97]Srnicek,N.,Williams.A.The Future isn't Working[J].Juncture,2015(3).
[98]Thierer,A.Permissionless Innovation:The Continuing Case for Comprehensive Technological Freedom[M].Mercatus Center at George Mason University,2016:32.
[99]Preparing for the Future of Artificial Intelligence[EB/OL].https://obamawhitehouse.archives.gov/sites/default/files/whitehouse-files/microsites/ostp/NSTC/preparing_for_the_future_of ai.pdf,2017-08-14.
[100]薛亮.日本推动实现超智能社会“社会5.0”[EB/OL].http://www.istis.sh.cn/list/list.aspx?id=10535 Artificial Intelligence:Opportunities and Implications for the Future of Decision,2017-11-09.
[101]Artificial Intelligence:Opportunities and Implications for the Future of Decision Making[EB/OL].https://www.gov.uk/government/uploads/system/uploads/attachmentdata/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf,2017-11-13.
[102]周衍冰.大数据产业在法国的发展及应用[N].学习时报,2014-11-03.
[103]嵇晨.道指117年风云录[N].第一财经日报,2013-03-22.
[104]向玉乔.国家治理的伦理意蕴[J].中国社会科学,2016(5).
[105]何怀宏.何以为人,人将何为——人工智能的未来挑战[J].探索与争鸣,2017(10).
[作者简介] 张富利,复旦大学法学院博士后,福建农林大学公共管理学院副教授,硕士生导师,上海200438
[中图分类号] D922.16;FP18
[文献标识码] A
[文章编号] 1004-4434(2019)03-0068-13
[责任编辑:周 青]
标签:人工智能论文; 制度规制论文; 伦理底线论文; 治理与监管论文; 复旦大学法学院论文; 福建农林大学公共管理学院论文;