人工智能时代潜在风险的法律应对
□ 上海 项志祥
得益于大数据、深度学习以及算法三要素的日益完善,“近年来人工智能呈现出爆发式的快速发展”。无人驾驶汽车、军用无人机等人工智能产品从实验室开始进入到实际应用,“这些早期的技术仅仅只是一个开始,我们或许很快就能目睹一场机器人人格化大革命”。正当人们欢欣鼓舞准备迎接人工智能时代的到来,享受“智能生活”的同时,也有人对此表示担忧。英国物理学家霍金在接受《泰晤士报》采访时表示,人类需要控制人工智能,防止其可能带来的毁灭性威胁。这并非危言耸听,实际上人工智能时代是一个数据、代码、算法的时代,如数据收集与个人隐私保护、算法黑箱等潜在风险都是法律理论与实践过程中必须迅速应对的。
一、人工智能时代的潜在风险
德国社会学家乌尔里希·贝克首次系统提出“风险社会”概念。贝克认为,“在风险社会阶段,各种全球性风险对于人类的生存和发展都造成了一定的威胁”。对于人工智能技术来说,正面作用是主要方面,潜在风险是次要方面,但只有控制好其潜在风险,才能更好地发挥正面作用。因此,要关注人工智能时代的潜在风险,制定应对之策,以防止可能的全球性威胁。
1.开发者的垄断风险。由于人工智能代表着国际上最前沿的科技,充满了不确定性以及未知性,注定了能够去研究、掌握并使用它的必定是财力雄厚和资源丰富的社会团体。这些社会团体作为人工智能技术的开发者,实际上已经拥有了最高话语权,由此也带来了风险。自工业革命以来,大多数的行业产业都呈现着金字塔形态,即便是油气或电信等行业,政府几乎也无一例外的反对垄断。但是,当人工智能技术渐渐步入成熟阶段,作为需要工资、保险以及养老金的人类雇员在低成本的智能机器人面前将显得不堪一击,并且智能机器人的稳定性也更优于人类,各项资源得以被最大化利用。站在金字塔顶的企业或社团能够充分利用自身的资源优势,用更低成本更低定价的产品去击败对手,形成众多垄断或寡头垄断市场。
2.人工智能物的变异风险。强人工智能时代,人工智能物能够拥有如人类一般的思维能力和运动能力,其在某些方面甚至超越人类,这显得霍金的担忧不无道理。一方面,当人工智能物在多个方面都超越人类的智能,人类为其设定的框架不论是法律制度也好还是内嵌的道德红线也好,是否对其具有现实的约束力;当人工智能物形成自身的意识同盟,行为一致地破坏规则,人类又是否有足够的限制力。另一方面,人工智能物的行动实际上由代码和算法来控制,当其运行系统被黑客或更高级别的人工智能物侵入,彼时则不仅是互联网时代的隐私泄露和财产安全问题,更会涉及到人类生存问题。这些变异风险为人工智能技术的发展抹上了一丝隐忧。
3.消费者的法律风险。消费者在使用人工智能物时,由于人工智能物的故障导致的损害行为到底由谁来承担责任,一直是现有法律要直面的问题。在弱人工智能时代,人工智能物主要用于智能增强,其损害行为可大体适用产品责任法,即通过对开发、制造和使用过程中故障成因的界定来分别对编写者、制造商和消费者进行追责。然而在强人工智能时代,人工智能物具有自身的理解判断,当其引起的损害行为并非由硬件原因导致,将使消费者面临法律风险。一方面,开发者的算法设定通常未公开且监管困难,使得消费者的权益保护较难得以主张;另一方面,人工智能物本身并无财产权利,现有民法无法对其追责,而刑法的处罚对于损害行为本身来说又显得于事无补。
1.失业问题。无可否认的是,人工智能时代的来临将会造成大规模的失业,“人类社会很可能分成两大阶层,一个是非常少的、‘升级’后的精英阶层,而绝大部分人将变成没有任何经济价值的‘无用’阶级”。但是,传统意义上来说就业是为了维持生存,实现人生价值,较低的失业率能够保证社会的稳定,而人工智能时代大部分简单的重复的劳动将被机器取代,人类得以解放,物质极大地丰富之后人们并没有太多关于物质的忧虑。因此,人工智能时代的失业与传统意义上的失业存在着很大的区别,失业后人们的关注点相较于物质欲更多的是心理的满足。
查阅国内外关于根除Hp治疗方面的相关文献,细读国内外根除Hp治疗指南、共识,并对其进行深入分析,了解研究现状。
二、 人工智能的认识误区
现阶段,既不能对人工智能时代的到来矢口否认,将强人工智能归类于科幻,也不宜过于狂热,认为人工智能时代的浪潮马上就要席卷全球。法律往往是滞后的,但法律也可以是前瞻的,以法律来应对人工智能时代的潜在风险应属未雨绸缪的做法。同时应当注意过犹不及,将人工智能技术限定在合法的框架内,才能保证其健康发展。
2.人工智能的效用。人工智能时代,人类相当部分的简单重复劳动可以被替代,这使我们产生了一种错觉,即人类将从事的都是级别更高的工作,人类将变得更强大。事实上,“每普及一个工具,人们就失去了一个学习相应技能的机会”,计算机的发明弱化了人们的书写能力,导航的发明弱化了人们的认路能力。人类被人工智能替代的工作越多,人类自身的基本技能也丧失地越快。很难想象,连基本技能都逐渐丧失的人类,能够熟练地运用高级技能持续有效地对人工智能进行规制。
4.人类的生存风险。人工智能时代的到来将使得人类中心主义受到前所未有的挑战。从工业革命到信息革命,不论生产力如何发展,信息如何联通,人类一直无可争议地是这个生态系统向前发展的核心推动力。人类智力超群,能够劳动,但是面对人工智能物将显得逊色,从而引发其生存风险。一方面,人类可能沦为人工智能物的附庸。众所周知,人类区别于其他物种的根本特征就是劳动,当人工智能物可以完全替代人类时,劳动这一根本特征便会逐渐消失,人类反而成为其所创造之物的配角。另一方面,人工智能物的反叛风险。当人工智能物进化地足够强大,脱离了为其设定的路径,它们似乎并不再需要地球上人类这个庞大的种群继续存在,而人类也没有足够的能力与之抗衡,人类的生存空间将受到威胁。
《长江河道采砂管理条例》赋予了水行政主管部门主管长江河道采砂管理的职责。水行政主管部门采砂管理能力的强弱直接关系到长江河道采砂管理工作的成败。只有加强长江河道采砂管理能力建设,才能为采砂管理提供基本条件和基本保障,才能切实履行好水行政主管部门的职责。
在非常规水资源利用技术方面,分别安排了海水入侵动态监测与预测、高原城市雨水综合利用等非常规水资源开发利用技术,结合我国水资源开源的实际需求,集成了雨水高效利用综合技术模式,并在我国西部山区、黄土高原等缺水地区进行成功应用,促进了我国海水、雨水等非常规水资源利用技术的提升。
徐能庸为中华图书馆协会会员,商务印书馆总经理王云五先生的女婿,主要供职于上海商务印书馆,曾参与东方图书馆的管理工作[2]。编译有图书馆学的参考工具书《图书馆学九国名词对照表》,1928年由商务印书馆出版。据1932年《商务印书馆复业后总管理处职员录》,徐能庸任编译庶务股股长,并兼任商务印书馆编审委员会图书室主任[3]。
三、人工智能的法律应对
互联网时代的到来曾让人们欢欣鼓舞,认为人与人之间的联系将更加紧密,而实际上却是渐渐疏远,面对面的交流减少,通过电子设备进行沟通的方式取而代之。笔者认为,现阶段对于人工智能的认识同样存在误区。
1.守住底线,设定人工智能的准入条件。美韩等国有关杀人机器人的研究水平处于世界前列,当其有朝一日真正应用于战争,无异于打开了“潘多拉魔盒”,部署此类武器令国际各方难以接受;性爱机器人看似消费者的个人行为,但其背后却牵涉有关人类繁衍的伦理问题,也导致一部分人的极力反对;得益于人工智能技术的“深度伪造”视频可以伪造人脸,即使亲眼所见也可能不是事实,这给新闻和司法审判等领域带来巨大障碍……人工智能效力强大,能够应用于生产生活多个层面,以至于必须保证其在合理合法的框架内运行,对于明显非法或尚有争议的应用亮出红牌,相关技术应审慎准入,维护人工智能的“纯洁性”。
2.厘清因果,确立产销一体的担责体系。首先,由人工智能物所引起的侵害事件的责任承担,应当以人工智能技术所处的阶段加以区分。在弱人工智能时代,人工智能物可以简单地当做某种“工具”,操作不当的损害责任应由使用者承担,而产品缺陷责任则应由生产商承担。在强人工智能时代,人工智能物自身有处理能力,若因其本身的编程或算法漏洞而引起的损害责任理所应当由开发者来承担。其次,可设置专门的人工智能监管部门,在产品上市前先进行抽样调查并试用无误后再准予流入市场,守住最后一道关口。再其次,应尽快出台人工智能物保险制度,例如家庭汽车的强制保险,将可能引起的损害风险最小化。
3.分清主客,把握好人类中心主义原则。对于是否给予人工智能物法律主体地位,学术界一直存在争议。人工智能物是无生命体,由人类创造,有人类的行为能力却缺失责任能力,无自身独有的利益,并不符合法理上对于法律主体的定义。但是,人工智能物又完全可能有独立于人类的意识并为法律意义上之行为,存在被定义为法律主体的核心基础。不论如何,人类给予了人工智能“生命”,必须恪守人类中心主义这一基本原则,以人类为主,人工智能为客。当人工智能危及人类地位,应当启用紧急预案对其予以销毁或永久清除数据等处理。
诚然,人工智能未来将往何处去,人工智能从业者也无法给出一个确切的答案,加之其技术的复杂性,让任何国家的法律都难以面面俱到。现阶段对于人工智能的解读,往往带有一定的主观色彩,或许在其发展的下一阶段会转移我们讨论的方向也未可知。尽管如此,学界对于人工智能的关注是必要的,这让法律与人工智能的联系更加紧密,让法律保持活力,能够既关注国际大事也关注身边之事,既关注社会变革也关注科技要闻。同时,正是因为有了法律的介入,人工智能才能够更加蓬勃发展,一方面给人类的生活带来巨变,另一方面彰显人类道德与智慧的光辉。
(作者单位: 华东政法大学法律学院)
标签:人工智能论文; 法律应对论文; 潜在风险论文; 军用无人机论文; 深度学习论文; 无人驾驶论文; 智能产品论文; 大数据论文; 华东政法大学法律学院论文;