新时代人工智能技术发展的法律规制
杨勤法,丁庭威
(华东政法大学 经济法学院,上海200042)
摘 要: 人工智能技术赋予我们颠覆性创造的同时,也可能给我们带来颠覆性的毁灭,包括对人类生命安全构成威胁、给信息安全乃至国家安全带来挑战,以及对社会伦理造成冲击等。为更好地防范风险,需完善顶层设计,实现精准监管;明确职能划分,降低风险系数;促进算法公开,打造谦抑政府,为人工智能技术发展创设良好的市场环境与制度基础,从而迎来一个真正由算法定义的人工智能时代。
关键词: 人工智能技术;发展历程;风险;法律规制
一、人工智能技术的历史回顾与现代展望
历史典籍《列子·汤问》[1]记载,公元前10世纪的西周,穆王西巡狩猎偶遇偃师,见偃师手中玩偶似真人一般,便驻足观看,由此引发了一段我国祖先对“类人化”技术进行追逐与探索的奇妙历程① 穆王见偃师手中玩偶,“趣步俯仰,信人也。巧夫!”穆王非常吃惊,便让嫔妃们一同观看。表演结束之时,玩偶朝穆王的嫔妃们眨眼挑逗,穆王很生气,下令要杀偃师,偃师急忙将玩偶拆开,便见玩偶是由皮革、木头及颜料组成,虽皆为假物,但五脏六腑俱全。“皆傅会革、木、胶、青之所为。内则肝胆、肠胃,外则筋骨、齿发,皆假物也,而无不毕具者。”穆王惊叹,人的技艺竟能和天地自然有一样的效果,“人之巧乃可与造化者同功乎?” 。随着时代的推移与科技的发展,新时代的“偃师”们再一次将“类人化”的技术—人工智能技术发展至新高度,以回应祖先对人工智能机器人的原始憧憬与可贵探索。纵观人工智能技术的发展历程,其在1956年的达特茅斯会议上被首次定义,但囿于时代所具有的局限性,知识获取遇到瓶颈,算法升级、计算能力及数据分析难以更进一步,人工智能的发展受到影响。但随着上述问题的不断解决,人工智能技术的研究、开发与应用又开启了新的阶段。从“互联网+”到“人工智能+”的新时代,新经济发展迅猛,人工智能技术方兴未艾,其发展再次进入一个崭新的阶段。总结其发展历程,大致可分为三个阶段:.第一阶段:主要为形成发展阶段(1956—1990年)② 1956年,正式提出“人工智能”概念,但20世纪60年代末整个人工智能科学由于未达到超越人类的预期而快速沉寂;到20世纪80年代末(1990年),囿于时代的“知识获取瓶颈”,人工智能技术的研究再次进入低谷期,几乎所有人工智能项目的科研经费被撤销。 ;第二阶段:主要为学习升级阶段(1990—2016年)③ 20世纪90年代,得益于“知识获取瓶颈”被突破,人工智能技术迎来第二次发展,从司法领域便可窥见一斑,如案件推理系统可从案件中提取事实,之后根据事实为双方当事人形成相应的辩论观点与反驳观点。 ;第三阶段:主要为人机互接阶段(2016年至今)(见表1)④ 2016年3月,谷歌围棋人工智能AlphaGo以4:1击败韩国围棋选手李世石;2017年5月,AlphaGo以3:0击败中国围棋九段柯洁;2017年11月,美国国防部投资6500万美元用于“脑芯片”计划,开展人脑与机器对接工程,形成无障碍交流。 。如今人工智能技术的发展正处于第三阶段,其不仅已成为第二和第三次工业革命之后的新经济引擎,而且已然成为时下国际竞争的新焦点⑤ 2016年5月,欧盟委员会明确人工智能机器的法律身份并将其命名为“电子人”,使其享有有关知识产权和劳动权方面的权利;2016年10月,美国白宫科技政策办公室(OSTP)先后发布了《为人工智能的未来做好准备》和《国家人工智能研究与发展战略计划》两份研究报告;2016年10月,英国下议院的科学和技术委员会发布了一份关于人工智能和机器人技术的报告,该报告指出英国应不断巩固其在人工智能领域道德标准研究中的领先地位并不断加强对人工智能领域的监管研究。 。一个给人类带来越来越多便利、日益影响人类生产与生活的“人工智能时代”正悄然向我们走来[2]。
在东昌府区葫芦文化旅游开发过程中,政府需要充分发挥其主导作用。首先,编制葫芦文化旅游开发规划,以已经具备开发雏形的姜堤乐园和享有“中国葫芦第一村”美誉的堂邑镇路庄村为突破点,逐步向其他乡村推进。其次,加强舆论引导,转变社区居民的旅游开发意识,使其自觉、主动地投入到葫芦文化旅游开发之中。最后,在政策、资金、人才等方面进行支持,用于产品开发、基础设施、旅游培训、旅游形象塑造、旅游品牌宣传等方面的建设。
表1 人工智能技术发展的三个阶段
人工智能技术给经济、社会以及法律等诸多领域所带来的深刻变革[6],首先,它通过完成高强度的重复性劳动,极大提高劳动效率并解放劳动力,如:进行机械化的流水线作业、简单化的组合拼装等;其次,在一些对安全性、准确性和稳定性要求较高的领域,极大地排除了人类因自身情感及人性固有缺陷所带来的负面影响[7]。如:医疗领域(医疗器械)、交通领域(自动驾驶)以及司法领域(司法大数据)等;最后,由于人工智能技术“类人化”的特征,其在一定程度上对人类也起到了精神上的陪伴与慰藉作用。如:智能机器人陪伴空巢老人,智能护士陪伴卧床病人等。然而,技术因其中立性向来都是好坏参半,人工智能技术赋予我们颠覆性创造的同时,也可能给我们带来颠覆性的毁灭[8]。如:人工智能技术对人类生命安全造成的威胁⑥ 2015年7月,英国《金融时报》报道了德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然抓起重重摔向金属板而不治身亡。 、对信息安全乃至国家安全带来的挑战⑦ 2017年9月,浙江警方破获全国首例运用人工智能实施犯罪的案件。涉案平台利用人工智能技术快速识别验证码,截获、贩卖了10亿多组公民个人信息,供合作团伙进行网络诈骗。 ,以及对法律社会伦理形成的冲击等。不仅法学界对这些风险问题异常关注,连科技界也提出相似论断:“我们的法律体系亟需积极主动学习并使用专业知识和必要手段来预测我们人工智能技术的未来,讨论安全、责任、平等和生活质量这些重要问题,为21世纪创设一套较为可行的法律制度框架,而非当发现新法律问题之后被动地进行一一回应。”[9]因此,面对人工智能技术可能带来的风险,应未雨绸缪,在风险产生之前进行前瞻性的制度设计。
二、人工智能技术发展法律规制之必要性—以风险产生为切入点
(一)法律风险—制度空白与职责不明产生的监管缺位效应
即便我国为促进人工智能技术发展出台了大量的政策措施⑧ 2015年5月,国务院颁布《中国制造2025》计划;2015年7月,国务院颁布《关于积极推进“互联网+”行动的指导意见》;2016年4月,工信部、发改委和财政部联合发布《机器人产业发展规划(2016—2020年)》;2016年5月,发改委、科技部、工信部、网信办联合颁布《“互联网+”人工智能三年行动实施方案》;2016年7月,国务院颁布《“十三五”国家科技创新规划》;2016年9月,工信部、发改委联合发布《智能硬件产业创新发展专项行动(2016—2018年)》计划;2016年11月,国务院颁布《“十三五”国家战略性新兴产业发展规划》;2017年3月,“人工智能”被首次写入政府工作报告;2017年7月,国务院发布《关于印发新一代人工智能发展规划的通知》;2017年10月,党的十九大报告中提出要推动人工智能深度发展;2017年12月,工信部发布《促进新一代人工智能产业发展三年行动计划(2018—2020年)》;2018年3月,政府工作报告中提出要加强新一代人工智能在不同领域的研发应用。 ,但不可否认,我国对人工智能技术发展过程中产生的风险并无较为完善的规制措施。我们应清醒地认识到,当下人工智能技术发展日新月异,其发展过程存在着大量的不确定性⑨ 这里的不确定性,一方面是指人工智能本身的不确定性—模拟人类智力对不确定性的客观世界进行认知推理的机器、系统或网络具有不确定性;另一方面指人工智能发展与应用后果的不确定性。 ,在研发设计、信息搜集及成果应用环节亦存在大量制度空白,倘若这些制度漏洞被不法分子利用[10],将产生无法设想的严重后果。
同时,我国对人工智能技术的监管并不到位,职责分工也尚未明确。不论是在初期技术研发阶段,还是在中期算法策略阶段,亦或是在后期成果应用阶段,均无较为明确的部门负责监管。综观全国,如今利用新兴人工智能技术进行犯罪的案件越来越多,加之该技术所具有的高科技性、复杂性及隐蔽性等特征,对其打击难度和成本也愈来愈大,长此以往,人工智能技术将成为不法分子违法犯罪的重要手段[11]。此种情况下,职责不明所产生的监管缺位将成为犯罪分子规避法律制裁的救生衣。
面对异化风险,不仅需要加强各职能部门的规范管理,分阶段切实防范人工智能技术因异化可能产生的风险,还应当将异化风险限缩在人类可控范围之内。易言之,可在人工智能产品的研发设计之初,设计“一键还原”机制,当该技术出现异化风险,并将对人类安全产生重大危害时,使其一键还原,从而减少因人类认知局限所带来的危害,从源头上规避因算法不断升级所带来的异化风险。
(二)异化风险—算法升级与信息洪流产生的风险积聚效应
此种情况下,拥有“全能政府”⑮ 由于我国长期以来实行计划经济体制,政府干预有其惯性,易言之,政府干预并非缘于市场失灵,而是缘于对威权的认可,具体表现为政府安排计划生产、调配市场资源、组织生产经营及进行产品分配等,干预之广,无远弗届。其基础理论便为“全能政府”观念的影响。 的国家便会出台相关法律和政策进行规制,此时国家介入便显得理由充分。但是,由此会带来另一个问题,政府规制算法的能力会增强,个人的信息数据由完全暴露在企业面前转化为完全暴露在政府面前,此时我们便仿佛置身于一个全是探头的社会,无疑变成了裸奔的“玻璃人”[16]。这时我们有理由怀疑,人工智能技术所带来的是更加完善的民主,还是更具有潜伏性的专治[10]?因此,平衡好“局内人”与“政府”之间的关系,预防因商业逐利与全能政府产生的算法黑箱风险,是我们必须直面的命题。
需要进一步考虑的是,异化风险会产生相应的损害结果,不论是对人身安全的损害,抑或是对商业安全、国家安全的侵害,都会涉及到相应的责任划分与损害赔偿问题。此时,亟需界定在何环节产生异化风险:是在人工智能技术设计研发环节即被研发者加入恶意程序,还是在制造环节被制造组装者植入不法芯片,亦或是在成果应用环节被不法分子恶意利用。不同的环节出现问题,其最终的责任划分与损害赔偿结果也不尽相同。与此同时,还须解决一个重要问题—人工智能的主体性质,是将“它”视为传统意义上归人类支配占有的物,还是赋予“他/她”独立法律人格并使其自负其责,不同的认定标准都将产生不同的责任划分结果。
(三)隐私风险—商业逐利与全能政府产生的算法黑箱效应
人工智能技术发展所带来的另一个风险:算法黑箱效应⑩ 代码和算法是人工智能技术的主要实现方式,设计者们建立、测试和改进模型。然而大多数智能系统皆不透明,这意味它们可以规避审查。同时,用户无从知晓个人信息究竟流向何处,加之设计者们并不公开源代码,用户无法了解其中规则,便无法参与决策过程,只能被动接受结果。因此,用户行为极易被控制,此便为“算法黑箱效应”。 加剧。其导致用户对自身重要信息流向何处无从知晓,只能被动接受设计者们通过算法运用所产生的最终结果。而这些会对用户产生重要影响的信息只有“局内人”(设计者们)才能获取[16],往往掌握信息的“局内人”皆为具有商业逐利性质的企业,这些企业天然具有过度的商业资本追求及价值偏好,此正是“局内人”凭借算法侵蚀用户利益的重要原因,此时用户一切个人隐私都将完全暴露在具有资本逐利性的企业面前⑪ 为了获得商业利益,“局内人们”对用户行为数据进行了挖掘和分析,用户的隐私在该过程中将不可避免地受到威胁,数据的交叉检验会使得以往的网络匿名化已经无法避免个人隐私和信息的泄露。 ,长此以往,便会形成愈加严重的信息壁垒与数字鸿沟⑫ 数字鸿沟是指:在有效使用网络所需要的技能方面,比起仅仅去访问网络,会有着更深刻的阶层分化。 。在人工智能技术与算法急速发展的今天,这一信息壁垒和数字鸿沟主要体现在“大数据杀熟”这一领域,大数据是人工智能的基础,人工智能进行学习主要来源于互联网提供的海量信息。在现实生活中,虽然所有的个人数据⑬ 这里的个人数据应广义理解,其不仅包括能够直接识别公民个人身份的基本信息,还包括可以通过推断间接指明公民个人情况的其他相关信息。 都由我们自身产生,但所有权在很大程度上并不归属于我们[17]。这样的做法很明显侵害了我们的个人信息权⑭ 个人信息权应具有占有、决定、保护、知情、更正、锁定和被遗忘等权能。 。另外,当下社会财富的积累不再仅仅靠出卖劳动力和简单投资来获取,更多的是通过占有信息、分析数据以及算法建模等方式来迅速获取竞争优势[18]。以阿里巴巴、腾讯等商业巨头的成长史为例,这些企业在经营过程中积累了大量的用户数据,通过大数据、云计算等技术对留存的数据进行清洗、加工和分析,使之成为自身重要的商业资源和竞争优势。同时,根据对个人数据信息进一步的分析、建模,不断研究和更新更为精准的算法,从而使得企业盈利呈指数倍增长。长此以往,商业巨头与普通民众之间便会形成更加严重的信息壁垒与数字鸿沟。
由于人工智能技术进入快速发展阶段,其“类人化”特征愈加明显,如:人工智能技术愈加发达的信息收集能力、信息分析能力及自我学习能力。虽然人工智能在人类预设算法之下进行运算,但由于人类自身认知水平及认知能力的局限性,其计算能力和知识调用能力和每秒运算“百亿亿”级的计算机相比,仍有很大不足[12]。因此,人工智能很可能会在已有算法的基础之上进行算法的不当升级,从而产生自我异化的风险。如:通过修改自我运算程序可能产生危害人类人身安全与财产安全的风险;通过泄露机密信息可能产生危害商业安全与国家安全的风险。所以,一旦人工智能技术进一步异化发展,将可能产生无法预估的严重后果,这种说法看似杞人忧天,但在算法不断升级的今天,如果算法技术所产生的“信息洪流”无法被有效管控[13],则最终产生“人工智能技术不仅没有被人类控制,反而变成了人类掌控者”这一后果也并非不可能[14],此种担忧从德国大众公司机器人“杀人事件”便可得到印证。此种情况下,算法统治世界,不仅会对人类自身安全造成危害,同时也会引发人类对自身身份认知的危机[15],这都将是我们不想看到的结果。
三、人工智能技术发展法律规制之路径新探—以风险应对为切入点
(一)完善顶层设计,实现精准监管
社团招新方式及活动策划单一,院校间交流较少,需多组织外出活动,打破封闭的社团模式;新组建社团由于经验不足等问题,宣传力度不够,例如,在调查中学生反馈希望新增动漫社、古风社等社团,但在其院校中已组建,同时,由于鲜有人知此类社团已存在,因此,组建过程因人力等原因,常维持不久;社团活动的宣传不够到位,加强、重视宣传,让学生更懂得加入社团的意义。
1.完善顶层设计,填补法律漏洞
在长期应用中,农田残膜回收机械化技术应用获得了有效发展,作业形式也在逐步完善。当前在播种前进行机械化作业,主要是在土地进行全面耕翻之后,通过搂齿、盘齿将土地残膜收拢,然后通过捡拾机配合人工操作将残膜清除,装车运出。
法律在设计过程中,应综合把握人工智能技术发展的不同阶段。首先针对研发设计阶段,应加强对人工智能机器人研发设计标准的规范,进行严格的事前审查,防止其被加入恶意程序[19];其次,针对算法运用阶段,应对算法进行实时监控,同时为弥补法律固有的滞后性缺陷,此时可加强过程规制与监管,即利用代码规制代码,秉持“技术法律化”、“算法法律性”的创新立法理念⑯ 我国传统的法律规制思路是“结果规制”,往往在消极后果出现后才进行被动规制。而人工智能技术的发展,其产生的风险往往难以控制且复杂多样,采用传统的“结果规制”方式已难以适应快速发展的人工智能技术,传统的立法技术存在一定缺陷,此时需引入新的立法技术——“过程规制”,即对代码和算法结果的规制转向对代码和算法产生过程的规制——通过把法律规则自身转化为代码,同时以代码来规制代码,这样一种“代码就是法律”的“技术法律化”立法理念可在一定程度上规避因“结果规制”产生的一些不可控因素。 ;最后,针对成果应用阶段,尤其需要对网络犯罪、黑客及非法链接等行为进行风险防控和必要打击[18],加大法律惩戒力度。这样,在事前、事中和事后环节都进行相应的制度设计,对人工智能技术在不同环节可能产生的风险进行防范与规制,最终填补法律漏洞,实现良法善治。
针对异化风险所产生的责任划分及损害赔偿问题,仍应根据技术开发的不同环节,进行合理的责任分配。首先,针对技术研发设计环节,应实行研发者承担严格责任;其次,针对制造(算法运用)环节,应实行制造者承担严格责任;最后,针对应用环节:(1)若研发或制造环节有过错,研发者和制造者承担不真正连带责任;(2)若研发或制造环节无过错,仅为外部因素(如:被犯罪分子不法利用;被黑客篡改算法)侵入,由该外部因素的制造者承担责任;(3)若研发或制造环节无过错,也无外部因素侵入,则还需分析该人工智能主体有无独立承担责任的能力:2若无,由消费者自负其责;若有,仍需分析过错归属于人工智能主体还是消费者:a.过错在人工智能主体,由其自身承担,如强制报废、终生监禁及劳动报偿等;b.过错在消费者:由消费者自负其责。
面对监管部门自身职责不明这一现状,应厘清人工智能技术发展中产生风险的不同阶段,合理分配职责[12]。首先,在前期的研发设计阶段,科技部门作为人工智能技术的主管部门,应建立相关市场准入规则,加强对人工智能技术的合法性、伦理性排查,只有进行道德风险评估后才能进行相关技术研发;其次,在中期数据采集与算法运用阶段,工信部门应对数据采集和算法应用加强过程监管⑰ 之所以实施过程监管的原因:是因为事后监管不仅意味着试错成本已经产生,同时还需要追加纠正成本,这些都将成为全社会的共同负担。 ,实时监控数据、算法流量,及时查处侵害公民个人信息的行为,降低数据滥用风险;最后,在成果应用阶段,质监部门应对最终产品进行质量检测,并要求企业对投入实际应用中不合格产品进行召回。不过仍需注意的是,由于人工智能技术是新兴技术,其对促进经济发展和社会进步大有裨益,明晰主管部门职责,实现精准监管的一切出发点皆为促进人工智能技术的良性发展。如今政府强调简政放权,监管过度恐过犹不及。为防止“全能政府”及“审批经济”⑱ 政府由于审批过多过滥而形成政府“审批经济”,此时政府成为了借助行政权力谋求部门利益和单位利益的经济主体。 等政府干预过度的情形发生,在此基础上,国家可在中央层面成立人工智能领导小组,由法律界、科技界、伦理界及政界专家组成,负责人工智能技术发展过程中的重大决策、规划及工作部署,对各监管部门监管方式的合法性进行监督和抽查,易言之,这是对监管的“再监管”、对审查的“再审查”,对过度干预的监管部门细化追责机制和程序,从而为深化“放管服”改革提供顶层设计保障[20],为人工智能技术的发展创造良好的市场环境与制度基础。
(二)降低风险系数,明确责任分配
对于掌握海量个人数据信息的“局内人”,应建立事前审查和事后监管的规制机制。首先,在事前应建立完善的市场准入制度,不允许不符合要求的“局内人”进入市场;其次,在事中,促进算法公开、信息公开,将算法简化成大众易了解的形式进行披露,同时用户有权要求“局内人”消除因其个人数据信息被不当利用所产生的消极影响,有权禁止“局内人”利用其个人信息并向其发送广告[21];最后,通过事后监管,剔除侵害用户权益的“局内人”并施以相应的惩戒措施,使其成为真正意义上的“局外人”。对于“局外人”也应根据其对社会的损害程度设置相应的禁入期。通过对全程进行监管,尤其是通过对算法进行公开,进一步化解人工智能技术所带来的隐私风险。
但是,也有学者对产权制度改革的重要性提出质疑。朱星文等[47]提出多级委托代理关系是国企的顽疾,所以单纯的产权制度改革不能解决问题,必须要深层次推动国企改革,加强对管理层的约束和监管,建立完善的管理层问责机制。
2.合理划分环节,明确责任分配
2.明晰职责分配,实现精准监管
(三)促进算法公开,打造谦抑政府
1.建立审核机制,促进算法公开
1.限缩风险范围,降低风险系数
全国层面,房地产开发企业商品房销售面积整体不断提升,由1987年的2 697.24万平方米逐步增长至2017年的169 408万平方米。如图5所示。
2.打造谦抑政府,防止政府失灵
在简政放权、深化“放管服”改革的大背景下,政府应深刻把握“轻重理论”⑲ “轻重理论”思想,以管仲为主要奠基人,其讲究政府干预市场要适宜,知轻重,减少政府权力对市场经济的过度干预。笔者认为这一理论同样适用于政府权力干预新兴技术发展的情形。 的内涵,遵循“谦抑”原则,摒弃“全能政府”理念。众所周知,市场失灵会给经济发展造成重大损害,与此同时,政府在一定情况下也会失灵,而政府失灵所造成的危害往往较市场失灵更大⑳ 从各国的实践经验来看,盲目且不受法律制约的政府干预只会让市场失灵雪上加霜。 。所以政府的规制之道,应提供相对原则性、方向性的指引,而非事无巨细进行干预,此可减少政府部门不必要的事权和事务,降低其开支和汲取欲[22],从而更好地维护其公共性与权威性。
结 语
人工智能技术的发展是人类实现自身解放的重大机遇,不断促进着经济发展与社会进步。但我们也应当清醒地认识到,机遇与风险总是结伴而行、形影不离。面对人工智能技术发展过程中给我们带来的挑战与风险,应理性分析,积极应对。应以完善顶层设计及实现精准监管为基础,不断明确职能分配,降低风险系数,从而通过促进算法公开,打造谦抑政府,为人工智能技术的发展创设良好的市场环境与制度基础。只有这样,我们才能正确把握人工智能技术给我们带来的机遇,化解其在发展过程中的风险,迎来一个真正由算法定义[23]的人工智能时代。
参考文献:
[1]列子 .列子·汤问[M].景中,译注 .北京:中华书局,2007:163-164.
[2][美]杰瑞·卡普兰.人工智能时代[M].李盼,译.杭州:浙江人民出版社,2016:2-10.
[3]王禄生.司法大数据与人工智能技术应用的风险及伦理规制[J].法商研究,2019(2):102.
[4]周志华.机器学习[M].北京:清华大学出版社,2018:1-2.
[5]於兴中.人工智能、话语理论与可辨驳推理.葛洪义主编.法律方法与法律思维(第3辑)[M].北京:中国政法大学出版社,2005:122-123.
[6]Drew Simshaw,Nicolas Terry,Kris Hauser,M.L.Cummings.Regulating Healthcare Robots:Maximizing Opportunities While Minimizing Risks[J].Richmond Journal of Law&Technology,2016,22(3):1-38.
[7]张守文.人工智能产业发展的经济法规制[J].政治与法律,2019(1):2-10.
[8][美]库兹韦尔.奇点临近——2045年,当代计算机智能超越人类[M].李庆诚,等译.北京:机械工业出版社,2017:240.
[9][美]I·R·诺巴克什 .机器人与未来[M].刘金涛、李静,译.西安:西安交通大学出版社,2015:126.
[10][美]佩德罗·多明戈斯.终极算法——机器学习的人工智能如何塑造世界[M].黄芳萍,译.北京:人民邮电出版社,2017:364-365.
[11][英]詹姆斯·柯兰.互联网的误读[M].何道宽,译.北京:中国人民大学出版社,2014:340-341.
[12]倪楠.人工智能发展过程中的法律规制问题研究[J].人文杂志,2018(4):122-128.
[13][美]波兹曼.技术垄断——文明向技术投降[M].蔡金栋,等译.北京:机械工业出版社,2013:74.
[14][美]约翰·帕克.全民监控——大数据时代的安全与隐私困境[M].关立深,译.北京:金城出版社2015:299.
[15][美]约翰·马尔科夫.人工智能简史[M].郭雪,译.杭州:浙江人民出版社,2017:327.
[16][美]弗兰克·帕斯奎尔.黑箱社会——控制金钱和信息的数据法则[M].赵亚男,译.北京:电子工业出版社,2015:259.
[17]王天一.人工智能革命——历史、当下与未来[M].北京:北京时代华文书局,2017:184.
[18]马长山.人工智能的社会风险及其法律规制[J].法律科学,2018(6):47-53.
[19]王利明.人工智能对民法的挑战[N].中国城市报,2017-9-11(7).
[20]张守文.公平竞争审查制度的经济法解析[J].政治与法律,2017(11):2-10.
[21]竞争法微网.日本拟修改《个人信息保护法》新增企业停发广告义务[EB/OL].(2019-04-27)[2019-04-27].https://mp.weixin.qq.com/s/o405NVYu0rgKAEi3KeDsDA.
[22]张守文.市场主体负担轻重的法律调整[J].法学评论,2019(2):9-16.
[23]徐恪,李沁.算法统治世界——智能经济的隐形秩序[M].北京:清华大学出版社,2017:341.
Legal Regulation of the Development of Artificial Intelligence Technology in the New Era
YANG Qin-fa,DING Ting-wei
(Economic Law School,East China University of Political Science and Law,Shanghai 200042,China)
Abstract: Artificial intelligence technology brings us disruptive innovation as well as subversive destruction,including threats to human life security,information security and even national security challenges and impact on social ethics.In order to better prevent risks,it is necessary to improve top-level design,achieve precise supervision,clarify function division,reduce risk coefficient,promote the openness of algorithms,build a modest government,and develop a well-established market environment and institutional foundation for the development of artificial intelligence technology,so as to usher in an era of artificial intelligence truly defined by algorithms.
Key words: artificial intelligence technology;development process;risk;legal regulation
中图分类号: DF 523
文献标志码: A
文章编号: 1003-9945(2019)05-0053-07
[DOI] : 10.19685/j.cnki.cn11-2922/n.2019.05.007
作者简介:
杨勤法(1966—),男,浙江江山人,副教授,经济法学博士,工商管理博士后,研究方向:经济法;
考虑一定的安全余量,并圆整上述数据可得到:驱动机构中轮对与内空心轴、内空心轴与电机垂向上空隙设计值Gd定为50 mm,垂向下空隙设计值Gu定为30 mm,以此保证车辆运行过程中直驱机构与驱动轴不发生干涉。
丁庭威(1994—),男,安徽马鞍山人,硕士研究生,研究方向:经济法。
标签:人工智能技术论文; 发展历程论文; 风险论文; 法律规制论文; 华东政法大学经济法学院论文;