我国人工智能伦理框架建构-以比较法为路径论文

我国人工智能伦理框架建构-以比较法为路径论文

我国人工智能伦理框架建构
——以比较法为路径

万紫嫣[1]

【摘 要】 人工智能的发展在带来社会福祉的同时也面临着伦理框架建设问题。广义上的人工智能伦理框架建构可以包括狭义上的伦理框架研究以及伦理决策方法。目前国内对伦理框架研究讨论较多,对具体的伦理决策的研究几乎为零,尚未形成人工智能伦理框架建构。由此可通过比较法的路径,从人工智能伦理控制权的适用原则,公平性的应用原则以及注重社会福祉的应用总目标来构建我国的人工智能伦理框架。此外,通过对“自上而下”以及“自下而上”两种伦理决策方式的利弊分析,提出“人工智能程序”模式的第三条道路。

【关键词】 人工智能 伦理框架 伦理决策 比较法

一、问题的提出

2018年12月18日,欧盟人工智能高级别专家组正式向社会发布了一份可信赖的人工智能伦理准则草案。[2] 笔者译,以下Trustworthy AI均统一翻译为“可信赖的人工智能”。 该草案再次掀起了世界范围内对人工智能道德准则的关注与探讨,同时也对人工智能提出了新的要求——可信赖的,被视为欧洲“可信赖的人工智能”的讨论新起点。2007年1月,由未来生命研究院召开的主题为“有益的人工智能”的阿西洛马会议上,涉及法律、伦理、机器人、人工智能、哲学、经济等众多学科和领域的专家达成了23条人工智能原则,即《阿西洛马人工智能原则》。[3] 也被业界称为“AI 23条”。 可以看到,在过去短短几年内,人们不断地对人工智能发展提出新的更高的要求——从“有益的”到“可信赖的”,这当然在一定程度上反映了人工智能领域的飞速发展,另一方面也透露出国际社会对于人工智能伦理制度的担忧与焦虑。

随着人工智能技术的深度发展与跨界融合,人们开始担忧人工智能技术的安全漏洞或系统性崩溃将会危及社会经济发展,人类在享受智能技术带来便利的同时,无形中也接受了其带来的社会风险。[4] 王学忠、张宇润:《技术社会风险的法律控制》,《科技与法律》2008年第4期,第3页。 在科技冲击与现实问题中,各国关切伦理问题边界与作用,不断完善与人工智能相关的法律制度。笔者认为,相较于法律制度研究而言,伦理规范是根本基础。法律作为工具性制度,只有在符合伦理性的基础之上才有进一步谈论的必要。

鄂麦398是根据主攻高产,优化品质,兼顾抗病(逆)的育种目标,采用安徽省、湖北省、江苏省综合性状优良的品种作为遗传供体,配制杂交组合皖1216/25871//扬麦13,后代采用改良系谱法辅之以品质测试、多点异地鉴定选育而成[1,2]。

二、研究现状

近十年来,人工智能呈“加速回报”式发展,弱人工智能逐渐普及,类人工智能不断发展,未来也很有可能会迎来超人工智能时代。高级人工智能自由化程度越高,就越需要道德标准。[5] Rosalind Picard.1997.Affective Computing.Cambridge, MA: MIT Press p.19. 即便是弱人工智能,在其开发与应用过程中也应当保持审慎的道德标准。[6] 翟振明、彭晓芸:《“强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻》,《人民论坛·学术前沿》2016年第7期,第30页。 目前对人工智能伦理的探究主要集中在两方面:一是人工智能能不能成为道德的主体,二是人工智能的伦理问题分析。少有人站在上位角度构建人工智能应该遵守的伦理框架制度。为了有利于人工智能的发展,伦理在提供模糊的一般性标准之余,还应该提供一个可操作的、较为权威的方法性理论,能够具体说明在各种情况下哪些特定行为在道德上是对的或错的。[7] V.Conitzer, W.Sinnott-Armstrong, J.Schaich Borg, Y.Deng, and M.Kramer.Moral Decision Making Frameworks for Arti·cial Intelligence.In Proceedings of the 31st AAAI Conference on Arti·cial Intelligence (AAAI), 2017.

对照组患者采用常规的护理干预措施,主要包括常规健康教育、血糖检测、饮食控制等,观察组在常规护理基础上采用围手术期针对性护理干预措施,具体的护理干预措施如下。

(一)宏观层面:人工智能伦理框架研究

为确保人工智能的研发与发展走在正确的道路上,需要构建一套以人为中心的人工智能伦理框架,迫使人类牢记人工智能的开发和使用本身不应该仅作为一种商业手段,而是应该以提高社会福祉为目标。该伦理框架就像是医德、师德一样,是这个领域内人人都必须宣誓遵守的统一规则。伦理框架的构建确保人类能够获得充分的伦理控制力,能够时刻对人工智能伦理进行评估以控制其潜在的风险。简单概括来说,在开发之前预先进行伦理评估,开发过程中有伦理专家监督,时刻警戒伦理越界,施行阶段公开透明,确保用户公平性。人工智能的伦理框架应该在世界范围内构建一个通用框架,类似于国际公约,同时根据道德相对主义,各国可以依据各自的伦理、文化差异,构建因地制宜的伦理框架,类似于国内法。

1.自上而下的决策路径:伦理程序化。自上而下的决策路径指构建一个最高层面的伦理框架,预设一套有可操作性的伦理准则,以确保机器对人类所做出的行为是适当的。[22] M.Anderson, S.L.Anderson, C.Amen.Towards machine ethics: implementing two action-based ethical theories.In 7echnical 5eport FS-05-06 of AAAI Fall Symposium on Machine Ethics, 2005,1-7. 这些伦理准则可能是阿莫夫的“机器人三定律”“摩西十诫”、宗教戒律或者一般的道德哲学,比如康德的绝对命令、功利主义或结果论的某种形式。[23] 苏令银:《当前国外机器人伦理研究综述》,《新疆师范大学学报》(哲学社会科学版)2019年第1期,第13页。 也可能就是把人类价值变成可编程的代码,把人类的道德转化为人工智能语言。[24] tuart Russell, “Moral Philosophy Will Become Part of the Tech Industry”, http://time.com/4026723/stuart-russell-will-aiovertakehumans/, accessed May 13, 2019. 伦理的程序化甚至还拓展到人工智能之间的“交流”规则,使得一台机器的道德行为可以传递给另一台机器。[25] M.Anderson, S.L.Anderson.Machine Ethics: Creating an Ethical Intelligent Agent.AI Magazine,2007, 28(4):15-27. 在这种决策路径下,不是人工智能的创造者在特定条件下运行人工智能,而是人工智能基于植入的既定的关于哲学道德的人工智能程序做出决定。[26] Wallach, Wendell, Colin Allen.Moral Machines: Teaching Robots Right from Wrong.New York: Oxford University Press, 2009, 16. 但目前很难设计出一类能够自主进行道德决策的人工智能体。

2.应用原则:公平性。应用原则解决人工智能如何应用的问题,是人工智能在应用过程中应该时刻遵守的底线。鉴于人工智能,尤其是低智慧度的人工智能在现代生活中的普遍适用,人们有时很难判别其行为是否落入人工智能应用的范围,包括其在应用人工智能时是否“觉醒”,其数据是否被人工智能抓取、分析或使用,其是否因被分析或先天因素而获得了歧视等。公平的原则首先要求商业主体与消费群体之间的平等,即商业模式的“透明化”以确保用户的知情权。商业主体通常处于强势地位,通过优势地位在用户处于无意识状态下应用人工智能系统。商业模式的透明化要求确保用户充分的“知情权”,使用户知道自己是否处于人工智能系统应用的范围内,并拥有自主选择进入或退出的权利;使用户知道人工智能对其应用到了何种程度,会带来何种后果或益处,并拥有自主决定应用深度的权利。同时,告知用户人工智能系统的开发者以及技术实现者的用途以使信息对等,使其能充分做出决定。保护的知情权是用户隐私暴露程度与所获利益之间的自主选择与平衡。在此基础之上衍生出了对隐私权的保护,也可以理解为是对数据安全的保护。具体而言,商业主体收集和处理用户信息须经过用户明确同意,应说明数据的应用情境、使用情况与目的等,在实际应用情境与计划应用情境不一致时及时通知用户并征求意见。在此,笔者借鉴的是欧盟对于数据的保护方式。欧盟将隐私作为公民的基本人权予以保护,而美国则将公民隐私权排除在宪法保护的基本人权之外,除非法律做出特别禁止性规定,否则个人信息可以被收集与处理。显然,欧盟对个人隐私保护程度更高。大数据时代下,个人隐私甚至是可以作为商品进行交易的情况下,采用更高程度的数据保护是具有前瞻性的做法。其次,公平的原则要求保障用户之间的待遇平等,避免歧视。这种歧视来源于“先天”与“后天”两方面。“先天”歧视是由于用户本身就处于社会弱者地位,如儿童、老年人、残疾人、移民、少数民族等,他们应该得到更多的关注,人工智能系统应涵盖包容性与多样性以确保系统能够适用不同的文化、性别、年龄、健康情况、社会地位、生活选择等。“后天”歧视指的是在对用户数据进行分析之后,通过算法使得用户适用规则发生变化。被算法规则判定为“不良”结果的人获得比一般用户更低的应用地位。

咚,咚,咚。年轻刑警也用擂果子手法连连敲着桌子说,喂喂喂,你这是在交代事儿吗?你在背长篇小说哩。简单点,拣主要的交代。

(二)微观上:伦理决策方法研究

2.自下而上的决策路径:观察与模仿。自下而上的决策路径赋予人工智能在人类模拟和现实场景中做出行为反应的能力,在该过程中模仿与学习并因此获得自己的道德决策路径。如英国完成的“端到端”的人工智能驾驶机器在观察了72小时的人类驾驶数据之后便可以自主驾驶。[27] Bojarski, Mariusz, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D.Jackel et al.End to End Learning for Self-driving Cars.arXiv, 2016. 但是,这种决策路径的最大缺陷在于数据是否符合伦理标准的判断结果不可控。人工智能驾驶机器如果学习了驾驶过程中的不良习惯,如超速、闯红灯、超车道等,就会导致驾驶向不良方向发展的趋势,而这种趋势会随着学习的深入而恶化。相关实验表明,受访者均希望汽车能以非车内的他人为代价而优先考虑乘客的利益。[28] Jean-Francois Bonnefon, Azim Shariff, and Iyad Rahwan.The Social Dilemma of Autonomous Vehicles.Science,2016,352:1573-1576. 没有人想要一辆汽车关心更大的善,他们想要一辆车关心他们自己。[29] Metz, Cade.Self-driving Cars Will Teach Themselves To Save Lives—But Also Take Them.WIRED, 2016. 基于功利主义的人工智能伦理决策路径很容易架构,因为这可以单纯通过算法来确定唯一的最佳选择的,即选择算法的最优化。但是,功利主义过分强调社会整体价值而忽略个体价值,[30] John Rawls.A Theory of Justice.Harvard University Press,1999. 这种功利算法不能达到保护每个个体的基本权利的目的。[31] R.C.Arkin.Governing Ethics Behavior: Embedding.An Ethical Controller in A Hybrid Deliberative-Reactive Robot Architecture-Part II: Formation for Ethics Control.In Proceedings of the 1st Conference on Artificial General Intelligence,2008,51-62. 尤其是面对“电车难题”时,个体的人会自动反应,即使这种自动反应是基于深层的伦理道德,这种下意识的反应必然不是经过最优化计算的。也就是说,这种观察与模仿的方法得到的不是伦理规范,而是普遍行为。人们普遍认同“技术是把双刃剑”,技术本身不存在善恶之说,而是个体在使用技术的过程中产生了善恶。然而,人工智能却突破了这种边界,由于具有自主选择性,使得运用技术的上端时便需要伦理框架进行一定的约束与指引。但无论是“自上而下”还是“自下而上”的方法都在技术上面临巨大的难题,也在理论上也受到不少质疑。这些困难更多的不是技术层面的,而是与人类使用的道德哲学的内在结构有关。

1.国外人工智能伦理框架研究。阿西莫夫首次提出了“机器人三原则”:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二定律下,机器人必须保护自己。[8] Isaac Asimov.Runaround.Isaac Asimov.I, Robot.New York: Doubleday, 1950:40. 后阿西莫夫添加了第四条定律:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。[9] 有时候也被认为是零定律(4或者0)。 海特和约瑟夫从道德基础的角度提出了“五基础”——伤害/关怀、公平/互惠、忠诚、权威和纯洁。[10] Jonathan Haidt and Craig Joseph.Intuitive Ethics: How Innately Prepared Intuitions Generate Culturally Variable Virtues.Daedalus,133(4):55-56, 2004. 2012年韩国颁布了 《机器人伦理宪章》,规范了机器人的生产标准、机器人以及机器人所有人与使用者的权利与义务。同年,欧盟启动“机器人法”项目,以应对“人类与机器人”随着科技发展所需构建的法律及伦理问题。2016年8月,世界科学知识和技术伦理委员会发布了《机器人伦理报告初步草案》,既探讨了涉及社会、医疗、监控、工作等方面的机器人伦理问题,同时还探讨了机器伦理制造道德机器的应用。9月,一些企业如Facebook、Google以及亚马逊在内部制定防止技术滥用的机制基础上,进一步成立了联合组织以解决人工智能带来的安全与隐私威胁的难题。2017年世界范围内更是爆发式的出台了对人工智能的政策性规定。未来生命研究院(FLI)推出《阿西洛马人工智能原则》[11] https://futureoflife.org/ai-principles, accessed May 13, 2019. ;美国计算机协会发布算法透明和可责性七项原则[12] https://cacm.acm.org/magazines/2017/9/220423-toward-algorithmic-transparency-and-accountability/fulltext, accessed May 13,2019. ;德国交通部下属的伦理委员会发布《自动和联网驾驶》报告[13] https://www.bmvi.de/SharedDocs/EN/Documents/G/ethic-commission-report.pdf?__blob=publicationFile, accessed May 13, 2019. ;爱沙尼亚提出机器人法案,赋予人工智能代理人法律地位[14] http://www.independent.co.uk/news/business/news/estonia-robots-artificial-intelligence-ai-legal-recognition-law-disputesgovernment-plan-a7992071.html, accessed May 13, 2019. ;电气和电子工程师协会(IEEE)发布《人工智能设计的伦理准则(第二版)》,全面阐述人工智能13个方面的伦理事项[15] https://standards.ieee.org/develop/indconn/ec/autonomous_systems.html, accessed May 13, 2019. 。2018年,欧盟人工智能高级别专家组发布的《可信赖的人工智能伦理准则草案》第一章中,专家组给出了可信赖的人工智能的定义。值得信赖的人工智能包括两部分:一是它的开发、部署和使用应符合基本权利和适用的法规,并尊重核心原则和价值观,确保“道德目的”,二是它在技术上应该强大可靠。

除了在理论层面对人工智能的伦理性问题进行方向性的研究与探讨之外,国外还在具体伦理决策方法上进行了设计,即用一种语言来表示被判断行为的结构[19] John Mikhail.Universal moral grammar: theory, evidence and the future.Trends in Cognitive Sciences, 11(4):143-152, 2007. 和行为的道德相关特征[20] Bernard Gert.Common Morality: Deciding What to Do.Oxford University Press, 2004. ,以及这些特征如何相互作用和影响道德判断的规则。总的来说包含“自上而下”以及“自下而上”两种伦理决策路径。“自上而下”是运用某些伦理准则或理论作为选择哪些行为合乎伦理的判断标准,“自下而上”则是给予选择权以及通过奖励正确行为达到开发道德敏感性的目的,就像人类学习一样,从婴儿开始日积月累通过人际碰撞培养伦理意识与判断能力。[21] Allen C, Smit I, Wallach W.Artificial morality: Top-down, Bottom-up, and Hybrid Approaches.Ethics and Information technology,2005,7(3):149-155.

2.我国人工智能伦理框架发展。截止2018年11月,在DWPI数据库中,我国与人工智能相关的专利申请量位列世界第一,[16] 参见中国专利保护协会《人工智能技术专利深度分析报告》(2018年11月)。 但是在人工智能的伦理规范上却与世界水平相差甚远,形成了明显的反差。2015年7月,我国才将“人工智能”列入《国务院关于积极推进“互联网+”行动的指导意见》作为“互联网+”战略的一部分。其后在2016年的“十三五”规划纲要、《“互联网+”人工智能三年行动实施方案》中均仅提及“人工智能”一词,在年底印发的《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》也都把发展“人工智能”作为一项重要内容,但却始终未提及伦理问题。直到2017年7月,国务院印发的《新一代人工智能发展规划》中提出了三步走的战略目标,首次提出伦理制度建设。第一步要求到2020年初步建立部分领域的人工智能伦理规范和政策法规,第二第三步分别要求初步建立和更加完善人工智能领域的法律法规、伦理规范和政策体系,但亦未给出更为详细的伦理框架或是指示方向。其中值得注意的是,第一步中在表述时将伦理规范置于政策法规建立之前,后两步则被置于法律法规之后,不知其排列顺序是否暗含深意,暗示在人工智能发展初期进行伦理规范应是当务之急。[17] 刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期,第41页。 遗憾的是,在《促进新一代人工智能发展规划》[18] http://www.miit.gov.cn/n1146295/n1652858/n1652930/n3757016/c5960820/content.html,2019年5月13日访问。 仍然没有提及如何建立伦理制度的解决方针。

三、我国人工智能的伦理制度构建

实务界人工智能发展速度迅猛,法律制度建设与伦理框架很难及时跟上,更遑论做出超前的预判与具体的规定。因此,从实用主义与经济学角度来看,当前情况下首先从伦理角度做出框架性规定是易操作且能发挥相对长期的灯塔性指示作用的。

(一)人工智能伦理框架建构

1.适用原则:控制权。适用原则解决某种人工智能开发的伦理性以及合理性问题,用于判断该种人工智能能否进行开发,以及可以开发到何种程度的问题。虽然目前存在很多关于人工智能是否能够成为道德主体或者是法律主体的争论,但笔者认为,无论答案如何,均是为了更好的规制与管理人工智能技术的发展。至于如有些学者规划的关于人工智能成为新的一种“人类”物种,与人处于完全相同的道德、法律与社会地位的构想笔者不敢苟同,更不敢想象。因此,人类的“控制权”应该首要得到保障,这种控制是对决定开发前、开发过程中、后续改进中以及实际应用全过程的控制。控制权能够保证人类免于人工智能的胁迫,在与人工智能的互动过程中保持完整有效的自我,保持人类的主体地位,保证人工智能的工具地位。同时,该种控制权也包含人工智能使用者能够自如地控制是否使用人工智能系统、以何种方式使用,使用程度如何,即人工智能系统介入的控制度问题。在最初研发前对拟开发的人工智能控制权的预判尤为重要,这关系到是否能始终保持“以人为核心”的开发进程。有必要建立一套具体的伦理评估标准,用于在开发前对人工智能伦理的量化分析,以评估人类对人工智能的控制力度,是否存在失控的可能性,失控可能性的程度等。这种控制权的保障也是对人类基本权利的必要保障。

基于148个多态位点有、无的二元数据矩阵,采用Jaccard系数和离差平方和法策略,对106份样本进行聚类分析。

3.应用总目标:社会福祉。人工智能应该被设计和开发以达到提高社会整体福祉的总目的。正如在适用原则部分所提到的,人工智能应当被作为工具看待。无论是有益的人工智能还是可信赖的人工智能都应当努力寻求实现一个公平、包容、和谐、可持续发展的社会,通过解放劳动力,提高人类精神自主性,提高经济发展水平、建造环境友好型社会[32] L.Floridi.“AI4People - a Ethical Framework for a Good AI Society: Opportunities, risk, Principles, and Recommendations”.Mind and Machines 2018,28(4): 689-707. 等方式来达到促进社会福利的目的。面对日益稀缺的资源以及与环境日益紧张的关系,人工智能可以成为带来更多解决方案的可能性,以帮助应对未来可能出现的更多的挑战。应当指出的是,在不同情况下,由于从个人角度与社会角度考量的不同,原则之间可能会出现紧张的关系。不存在固定的方法来解决之间的平衡问题。但鉴于人工智能潜在的以及未知的结果,可以在人工智能的设计、开发和部署的过程中,要求内部和外部至少各一名伦理专家在场。既能尽可能地降低人工智能存在的伦理风险,又有助于伦理专家对现实人工智能发展情况有切实的了解,加深对人工智能伦理建设的实用性与深度。同时也要控制人工智能领域的先发优势,否则会形成强行垄断地位而削弱伦理的管控力。

(二)伦理决策方法建构

尽管“自上而下”的伦理决策方式和“自下而上”的伦理决策方式都有一些潜在的和显著突出的作用,即这两种决策方式对人工智能伦理决策的设计是有效果的,但这两种方法对于指导和研究人工智能领域来说都有无法解释和弥补的缺陷。[33] 王绍源:《论瓦拉赫与艾伦的AMAs的伦理设计思想——兼评〈机器伦理:教导机器人区分善恶〉》,《洛阳师范学院学报》2014年第1期,第32页。 对于“自上而下”的模式而言,其核心难题是根据什么标准选择得到怎样的共同伦理规范作为道德哲学进行植入,或者说是怎样的道德哲学是可以被普遍接受的。人类社会体系下的道德规范是复杂多样的,难以完全体系化,在与他人相互联系的过程中以及从所处的社群中获得基础性伦理,并在运用过程中不断改进与修正。而人工智能的伦理决策不能凭空臆造,也就面临诸多需要解决的问题。首先是部分道德哲学存在内部困难,可能推导出道德上无法接受的行为或结果,这取决于道德哲学自身的困境,是无法逾越的。其次是在“效用”能否以及应当如何量化的问题上存在分歧。是否将“效用”的最大化作为根本决策目的,而选择牺牲其他利益。再次是特定的道德哲学无法做出模糊决策。人类在交互关系中修正伦理决策规范体系并形成混合型道德价值的可能性无法适用于人工智能。在“自下而上”的伦理决策模式中,人工智能有望通过观察实际环境下人类的多种行为结果来“模仿”做出相似的伦理决策,而不只是要求人工智能遵循特定形式的规则或者为其配置特殊的道德范式。瓦拉赫与艾伦把“自下而上”的决策模式也称为“拓展式”方式,该种方式“重点在于为主体学习和探索行动营造一个有力的环境,鼓励人工物道德行为体实施道德可加型行为”。[34] Wendell Wallach, Colin Allen.Moral machines: teaching robots right from wrong.Oxford University Press, 2010, 80. 但在这种决策方式下,必须预设伦理层面的模仿与非伦理层面的模仿没有较大差别以及模仿所得行为结果是一种集体思维结果或是利用群体智慧分析所得的行为结果。其面临的问题一是人工智能需要学习应对一些在常规操作中不常见的意外情况。这类意外时间由于发生的可能性较低,很难包含在对大量现实数据进行分析与“模仿”的过程中,使得伦理决策面对意外事件时出现空白区域。二是人工智能很难具备举一反多的能力,同样的行为结果指向的具体情况、心理活动以及伦理规范是多样化的。三是人工智能在“模仿”的过程中无法进行善恶判断,容易“模仿”到不道德的行为而不自知。

以上两种伦理决策方式现存问题均难以解决,由此产生了利用“人工智能程序”进行伦理决策的第三条道路,而似乎这种决策方式能发挥出更大的效果。该决策方式是通过人工智能程序“获取”人工智能所有者的道德偏好并指导人工智能接受这些信息并遵守。可以认为人工智能做出道德选择的方法与人工智能程序搜索、分析获得顾客偏好并相应投放高相关度的广告行为相似。这种决策模式与“自下而上”的决策模式很相近,但事实上,在本质上两者存在差别。一方面,“自下而上”的伦理决策数据基础来源于对大量人类行为数据的分析,其做出的决定具有群体思维倾向性。可以简单地认为在这种模式之下,群体主义被作为方法论的基础。[35] 黄闪闪:《无人驾驶汽车的伦理植入进路研究》,《理论月刊》2018年第5期,第183页。 相较之下,“人工智能程序”获取的数据主体是人工智能所有者,其行为更偏向于自由主义。自由主义更多强调的是特定的主体提供道德偏好。另一方面,“自下而上”的决策模式可能导致人工智能习得不道德的行为。人类有时做出的行为会由于内心疲倦而选择消耗最小,最为省力的默认选项,或者做出大量词典式的选择。应该说,对人类行为数据分析而做出的结果并不能使人工智能理解什么是伦理,如何应用伦理,而只能使其知晓常识是怎样。依据“人工智能程序”做出决策的依据不仅仅是获取的行为结果本身,而是将获取的行为偏好信息作为分析决策的数据库,并对此综合其他可能被人工智能所有者忽略的要素进行全面的分析。例如,一个人在购买产品的时候绝大多数考虑更多的是购买地点、产品的价格、产品的品牌知名度等,而忽略考虑到近期该产品是否存在安全问题等。借助人工智能的计算分析能力,伦理决策就不会与“自下而上”的决策模式一样,依然做出符合人工智能所有者惯常的购买偏好推荐,而是结合安全问题等做出相应的调整。

不同的“人工智能程序”有两个共性:(1)通过人工智能指导人工智能。可以试图开发一些计算机软件能够在伦理需要的环境下提供指导。[36] 苏令银:《能将伦理准则嵌入人工智能机器吗?——以无人驾驶汽车为例》,《理论探索》2018年第3期,第43页。 比如,一些人工智能程序可以扮演领导者的角色,指导其他人工智能展开工作。第一层级的人工智能可以在某个细分的领域中充当领导型人工智能的人工智能程序。人工智能世界的构成不应该是角色单一的世界。事实上,也确实开发出了这样的软件,第一个例子是叫“杰里米”的软件,[37] M.Anderson, S.L.Anderson, C.Armen.Towards Machine Ethics: Implementing Two Action-Based Ethical Theories〔C〕// in Proceedings of the AAAI 2005 Fall Symposium on Machine Ethics, Arlington, VA, 2005.该程序通过使用简单的产品结果的效用强度、持续时间和概率(其中的每一项都由用户来估算)来测量任何行动的效用结果。 类似的还有麦克拉伦开发的“讲真话者”以及SIROCCO。[38] B.M.McLaren.Computational Models of Ethical Reasoning: Challenges, Initial Steps, and Future Directions.IEEE Intelligent Systems, 2006(21). (2)能够将获取的主体道德偏好结果按需在特定的人工智能之间共享。人工智能所有者的一个人工智能物在授权获得数据并分析取得道德偏好之后,可以将结果与其他特定的人工智能共享,尤其是该所有者拥有的其他人工智能,进而有助于相关的人工智能更高效、更精准、更全面地选择结果,避免重复的数据分析与可能面临的数据授权问题。“人工智能程序”解决了“自上而下”模式中任意道德哲学的内在矛盾问题。因为其并不试图构建完整的、单一的道德伦理范式,而只是从其所有者惯常的行为选择中推断伦理偏好,并加以运用。同时,也解决了“自下而上”模式中要求学习并接受群体性伦理的弊端,弥补了仅仅只是“获取”所有者的道德偏好,并使自身及其他人工智能注意到。当然“人工智能程序”也存在一些问题亟待解决,比如由此导致的隐私限度的问题,继而引发数据授权程度的控制,比如这种决策模式是否能够随着人工智能的发展而具有很大的操作性与实用性。但至少人工智能伦理框架构建有了一些新的发展思路与进步,未来还有大量的问题亟待解决。

由于血液透析过程中会导致部分血液的流失,若透析脱水速度过快,人体组织液渗透作用缓慢来不及补充失去的血液,导致有效循环血量减少,机体为保证心脑等重要脏器的供血供氧,进一步加重肾功能损害,严重影响患者预后,护理人员应尽早发现及处理。同时,患者出现低血压反应时,护理人员应警惕患者在透析结束起床时出现一过性脑供血不足引起的头晕、跌倒等安全问题。

【Abstract】 Although the development of artificial intelligence brings social welfares, it faces the problem of ethical framework construction.The ethical framework construction of artificial intelligence in a broad sense includes the ethical framework research in a narrow sense and ethical decision-making methods.At present,there are lots of discussions on the research of ethical framework in China, however, almost none of the research on specific ethical decisions has been done, and the construction of artificial intelligence ethical framework has not yet been formed.The domestic ethical framework of artificial intelligence can be constructed through the path of comparative law, from the applicability doctrine of the ethical control right of artificial intelligence, the application principles of fairness and the general application goal which concentrates on social welfares.Besides,through the analysis of the advantages and disadvantages of “op-down” and “bottom-up” ethical decisionmaking, the third way of “artificial intelligence program” mode can be put forward.

【Keywords】 Keywords: artificial intelligence, ethical framework, ethical decision-making, comparative law

中图分类号: D925.1

文献标识码: A

文章编号: 1672—9285(2019)02—0042—07

[1]万紫嫣:华东政法大学知识产权学院2018级硕士研究生。

(责任编辑:赵振洲)

标签:;  ;  ;  ;  ;  

我国人工智能伦理框架建构-以比较法为路径论文
下载Doc文档

猜你喜欢