论人工智能刑法规制论文

论人工智能刑法规制论文

论人工智能刑法规制

□伊凌嵩 杜 宇

【内容摘要】 随着科学技术和信息化时代的快速发展,人工智能领域迅速崛起,引发了许多社会热点问题。早在工业革命的时候,机器作业大量的取代人工作业、大型工厂迅速取代个人作坊。但在当时,尽管社会发生了翻天覆地的巨大变化,但是其对法学界产生的影响微乎其微,而如今人工智能的迅猛发展,使社会即将进入一个人工智能时代,随之而来的,法学界对人工智能的热烈讨论,这主要是因为工业革命后的成果例如机器、汽车、电脑以及智能手机等产品对于人类只是方便生活的工具,人类的生活并没有本质的改变,但是人工智能给人类生活带来之影响则有根本区分。

【关键词】 人工智能;刑法主体;法律规制

根据人工智能是否具有独立意识[1],可以将人工智能划分为弱人工智能时代和强人工智能时代。弱人工智能时代的人工智能因为其不具有独立意识,只擅长某一特定领域的操作和技巧,在使用时体现的是使用者或设计者的意识,现阶段人工智能就处于弱人工智能时代,其本质仍然是“工具”。但随着科技的发展,在不远的未来会产生出具有自己独立的思维的人工智能,并且可以在不受人类控制的情况下,根据自己的意识,独立实施行为,进入强人工智能时代,但进入强人工智能时代后,其“工具性”的属性发生根本改变,人工智能在具有独立意识后是否具有一定的人格,是否可以成为法律关系中的主体,特别是人工智能实施犯罪行为后,是否应该适用刑法对其进行规制,具有很大争议。

一、人工智能是否可以由刑法进行规制

(一)刑法规制主体之人工智能视角。人工智能是否具有刑法意义上的主体地位是其是否能够适用刑法规制的前提和基础。在2017年10月26日,沙特阿拉伯授予香港汉森机器人公司生产的机器人索菲亚公民身份,成为史上首个获得公民身份的机器人,这是否意味着人工智能可以通过被授予的方式获得与人类一样的法律地位和主体资格了呢?

在刑法中关于主体的规定并非一成不变,而是随着时代的发展,在一定的基础上做了适当的外延,在我国刑法中规定了单位犯罪,单位可以成为刑法的主体[2]。但在我国刑法认定单位犯罪时所体现的为单位内部所有人的共同意志,是自然人的集合体,所以刑法中规定的单位犯罪其本质仍然是人类的意志。但是强人工智能时代的人工智能完全可以脱离人类的控制产生独立的意识,人工智能不具备人之心性和灵性,与具有‘人类智慧’的自然人和自然人集合体是完全不同的。

人类在法律中的主体资格被认为是出生时便具有的,“天赋人权”一直深入现今社会中每一个人的内心当中,无论哪个国家公民的主体资格都是出生时自然获得的,谁也无权授予也无法授予。“法律面前,人人平等”所强调的也是人类与人类的平等,并非人工智能与人类的平等,如果可以授予某些人工智能与人类相同的主体地位和资格,与刑法的基本精神是完全相悖的。

有学者认为,应以人工智能具有辨别能力和控制能力为由,就认定其具有成为刑法主体的资格,但是需要明确,辨别能力和控制能力只是成为刑法主体的前提,许多动物也具有这些能力,但并不是刑法的主体。

设计一套人工智能的伦理道德标准,这套伦理道德最重要的本质在于预防应用人工智能时可能存在的风险,而且只有当人工智能具有“道德”时,人工智能的“非道德”行为才具备可谴责性。在这套伦理道德经过充分讨论和实践的基础上,创制一门新的法律用于解决和规制当人工智能与人工智能之间、人类与人工智能之间的权益发生冲突时的具体问题。

⑩Fan Huang,Xuefeng Wen,“An update logic for Games with angry players”,Studies in Logic,2016(3),pp.71 ~88.

我国现行刑罚的手段主要是通过剥夺犯罪分子的自由甚至生命来起到惩罚犯罪的作用,但是在未来世界中,人工智能更多会处于网络或虚拟空间,无法对其适用自由刑,而且对于具有实体的人工智能,其产生的意识并不一定完全与人类相同,适用自由刑也不一定能使其产生痛苦,起到对人工智能惩罚的作用。

在设计、生产人工智能或提供人工智能服务的人类,明知有缺陷并且可能对人类造成危险的,但继续生产和制造,继而导致危害结果的发生,对这类的行为可以用刑法规制,追究生产者或设计者的刑事责任,对于在生产或使用时因过失导致人工智能实行危害行为的,也可根据不同的情况在刑法中设置新的罪名以及不同的量刑标准。

一旦人类进入强人工智能时代,就会出现大量的新型犯罪形式的产生,如果将强人工智能放入刑法中规制,则需要根据人工智能的特点,在刑法中创设大量的新型罪名,去改变刑法现有的体系。如果将人工智能列入到刑法中进行规制,那么就需要打破现有的刑法体系,在刑法中重新制定出一套只适用于人工智能的刑法原则,并在这些原则的基础上设立新的罪名和刑罚种类,对刑法进行大面积颠覆性的修改。

纵观人类历史的发展进程和历代王朝的兴亡更替,对于任何一个阶级来说,如果没有代表本阶级利益的领袖,是很难取得统治地位的。而以列宁为首的代表无产阶级利益的领袖在革命的实践活动中则非常重视领袖的权威,并且是符合当时的世情、国情和党情的,因而取得了非凡成就。

二、刑法可以规制有关人工智能之问题总结

利用ASP.NET与SQL Server设计开发学习平台。学习平台包括课程管理、资源管理、练习考试、选课评教、教师管理、学生管理、日志管理等模块。日志管理模块通过Log4j记录学生进行网络学习时产生的日志数据。选课评价模块中,学生能够自行选课和退课,并可以对教师进行评价和评分,让好的老师脱颖而出,不好的淘汰。学习平台上的资源主要是按照知识点录制的短视频,方便学生对知识点进行查漏补缺,也便于教师对资源进行更新和管理,教师可以利用知识点资源构建课程。

人类制造专门用于犯罪的人工智能,将自己的犯罪意图以编程的方式植入进人工智能的前期程序中,以人工智能来达到自己犯罪的目的,恶意篡改人工智能的程序,利用人工智能实施犯罪行为,此时的人工智能只是一种“智能工具”,刑事责任仍由人工智能的设计者和生产者承担。

(3)校企合作,组建创业者联盟。创新创业教育成果转化是一个系统工程,需要多方参与配合,形成“一条链”服务。①医学院校应利用自身专业优势,建立创业实训基地,吸引广大校企合作建设;②企业通过与学院共同申报创新创业项目、共建研发平台,为医学生提供创新创业服务,也提升了企业内涵[11],实现“双赢”,共同促使医疗卫生事业向前发展;③各大高校创业者创立联盟,资源整合,利用实见习期间和假期,发现创新点并与社会对接,纳入企业风投做评估管理,亲自参与一些投资少、见效快、风险小的创业项目,增强创业自信,提高成果转化率。

刑法主要通过刑罚的方式来达到刑法的目的,刑罚主要是通过两个方面使自然人感受到痛苦的:第一,直接或间接地造成自然人身体的痛苦;第二,通过剥夺自然人的从事某种社会活动的资格,从而造成情感上的痛苦。但是刑罚是否会给人工智能造成痛苦?未来人工智能系统的自主进化过程极可能不同于人类,既不像人类一样自然生产,未必会按照人类进化历程发展出类似于生物疼痛感的神经网络,也不一定会建立像人类一样的社会[3]。此时的人工智能即无法感到疼痛也不具备社会性,刑法无法对其进行规制。而且“无论是从刑法的目的分析还是从刑罚种类分析,通过我国现行刑法对智能机器人直接加以惩罚是难以想象的。”刑罚的本质是痛苦,刑罚只与犯罪相联系,是施加给犯罪人的痛苦。

随着人工智能迅速发展,其已经迅速地渗入到人类生活的各个领域,虽然刑法不能规制人工智能,但刑法可以规制设计、生产和适用人工智能的人类。

随着科学技术的发展,人工智能的研究和探索不应该是完全自由、没有底线的,当某些人工智能的研究越过了人类的伦理道德底线并切实危害到人类生存,这种行为应该用刑法进行严格的限制,防范人工智能的滥用。同时也需注意应保护人工智能的无害开发,保证人工智能在可控、安全、有益性的轨道上合理发展,明确人工智能开发者的义务和责任,对于严重违反相关义务并产生严重后果的人类追究其刑事责任。

人类无论是在社会自然界还是法律界的地位都应该是独一无二、不可替代的,人工智能技术无论如何发展和进步,人工智能的意识、情感以及创造力如何地接近甚至超越人类,都不能将两者等同,人工智能被发明的意义在于更好地服务人类社会,帮助人类社会,而不是替代人类社会,因此,人工智能永远不应该也不会成为刑法的主体。

三、人工智能应该如何规制

虽然人工智能不应该被列入到刑法规制的范围,但随着人工智能的深度发展,人工智能与人工智能、人工智能与人类之间的权利会发生冲突,人工智能必须加以规制,同时权利也必须得到保护。

(二)刑法规定的罪名和刑罚手段是否适用于人工智能。在讨论人工智能是否适用刑法规制时,不应该机械地判断人工智能是否可以适用刑法,更应该联系实际。

通过专门的立法对人工智能的权益进行保护,在保护人工智能的权益时,应根据人工智能不同的类型和不同的智能水平进行区分,并进行分级,根据不同的等级进行保护,规定不同等级的人工智能具有不同程度的“权利”。

(一)预防。人工智能和人类的伦理道德的形成过程并不相同,人类的伦理道德是通过学习和环境影响所形成的,是后天形成的,但是因为人工智能的特殊性,人类可以在设计或生产时,可以直接将一套完整的人工智能伦理道德植入他们的意识中,这套伦理道德是人工智能在做任何事时都不能违反的第一原则,使其达到能够和人类的伦理道德对人类行为指导作用类似的作用。但是这样的原则真的能保证人工智能不伤害人类吗?虽然在生产和设计人工智能时,已经将人工智能的伦理道德以类似算法的方式植入人工智能的意识中,但由于人工智能具有非常强的学习能力和进化能力,其伦理道德标准也是在不断修正和变化的,一部分人工智能可能在深度学习后严重违背原有“道德”,这时,人类应该创制一门专门的法律用于规制此类情形。

(二)惩罚。人工智能在经过学习和进化后,违背原有的人工智能“道德”,并造成损害结果,应该通过专门立法的形式对人工智能的这类行为加以规制。因为人类意识与人工智能意识根本不同,惩罚对人工智能不一定能起到类似于刑法中“一般预防”的作用,所以,有关人工智能的专门立法应该注重“特殊预防”,既防止人工智能的行为再次产生严重的损害结果。例如,可以对人工智能设置相关的“资格刑”,剥夺人工智能从事某种职业或者行为的权力,从而杜绝人工智能再次造成损害后果的可能。并且可以对造成严重损害后果的人工智能可以对其进行删除信息、修改程序和永久销毁等“惩罚”措施。

(三)保护。赋予具有独立意识的人工智能一定的权利是必然的趋势,人工智能也应该受到基本的尊重,在通过立法确定人工智能责任的同时,人工智能的权利也应该通过立法的形式加以保护,对人工智能只是一味地限制而不进行保护,不利于人工智能的健康发展,例如,人类不能随意虐待、处置、抛弃人工智能。随着人工智能的发展,承认人工智能的权利具有必然性与合理性。

在城市化进程不断加快的信息时代下,人们对电力的需求日益增多。在此基础上,我国工业化得到了迅猛的发展。虽然工业化的发展,在一定程度上促进了社会经济的繁荣,但是也导致我国环境污染受到了严重破坏。因此,现阶段,人们逐渐加强对生态环境和空气质量的重视。为了满足人们的生活需求,工业化电厂企业逐渐开始重视脱硫脱硝和烟气除尘技术。本文通过对电厂锅炉脱硫脱硝和烟气除尘技术的特点、技术等分析,对于促进电厂过滤的可持续发展具有重要的意义。

四、结语

人工智能永远不会成为刑法犯罪的主体,但是随着科学技术的发展,人工智能终有一天会成为人们生活中不可或缺的一部分,人工智能在方便人们生活的同时也会带来一些问题,应该正确地认识人工智能,对它可能出现的问题,根据实际情况,积极应对,推动整个人类社会的发展。

可是,在进行提取卵子前的体检时,医生发现陈清还同时患有子宫内膜异位症——意味着这位不幸的母亲已经失去了亲自孕育孩子的可能。听到这个消息时,陈清不禁失声痛哭。

【参考文献】

[1]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,1

[2]张劲松.人是机器的尺度——论人工智能的人类主体性[J].自然辩证法研究,2017,1

[3](德)安塞尔姆·里特尔·冯·费尔巴哈.德国刑法教科书[M].徐久生译.北京:中国方正出版社,2010

【作者简介】

伊凌嵩(1993~),男,黑龙江海林人;黑龙江大学硕士研究生;研究方向:刑法学

杜宇(1995~),女,黑龙江大兴安岭人;黑龙江大学硕士研究生;研究方向:刑法学

标签:;  ;  ;  ;  

论人工智能刑法规制论文
下载Doc文档

猜你喜欢