机器人伦理学:机器的伦理学还是人的伦理学论文

机器人伦理学:机器的伦理学还是人的伦理学论文

机器人伦理学:机器的伦理学还是人的伦理学?

文/闫坤如

机器人伦理研究缘起

1.机器人技术潜藏着难以预估的风险

从简单的图灵测试到世界上第一位具有国籍的机器人公民索菲亚的出现,机器人的发展有失控的风险,难以预测机器人技术的走向是否能够被人类准确评估与规范,也没有任何的经验或者教训可以借鉴和吸取。21世纪以来,军用杀戮机器人在战场上误杀无辜生命,无人驾驶汽车致使行人死亡,聊天软件公开发表种族歧视、性别歧视的言论,人脸识别涉嫌种族歧视,机器人在虚拟互动中通过“作弊”获得用户的隐私信息等负面事件不断出现,引发人类对于机器人的负面效应的思考。机器人技术出发点本来是“为己”的,现在却变成了“异己”的力量,导致“机器人异化”现象出现。机器人带来失业风险,福特(Martin Ford)在《机器人崛起:技术以及失业的未来威胁》中着重从教育、金融以及医疗等领域机器人的发挥说明机器人的社会影响,特别是导致劳动者失业。有的学者认为智能机器的负面影响已经超过了正面的积极作用,智能机器人所带来的风险超过了它的积极作用。智能机器人所带来的负面影响和风险给人类生活造成了影响,从失业风险到信息泄露,机器人的出现不但带来技术风险,而且带来社会风险、环境风险,等等,甚至影响人类生命安全。机器人的负面影响及其伦理规范引发学者思考。

2.机器人威胁人类的主体地位

随着人工智能的发展,机器越来越像人,机器不仅仅具有工具属性,还具有独特的存在价值,机器人开始挑战人类的主体性,人类对智能机器的发展表现出恐慌心理。智能机器不仅仅是简单的工具与客体,机器人不再局限于人类肢体的延伸与作用的增强,机器人具有自主决策与推理能力,可能具有自由意志与人类情感,这可能威胁到人类的主体地位,引发人类主体性地位丧失。随着机器人技术的突破,智能机器人在社交、知觉、创造力、自然语言理解等方面的能力不断突破,在带来巨大的物质力量、促进社会进步与人类发展的同时,也引发人类主体性地位丧失的可能性与风险。人工智能先驱明斯基(Marvin Minsky)在《理解人工智能》杂志上发表《机器人会掌控世界吗?》来探讨机器掌控人类世界的问题。国际象棋被公认是挑战人类智能的一项运动,1997年,深蓝计算机战胜国际象棋冠军卡斯帕罗夫也引发人类对于机器智能超越人类智能的思考。智能机器的发展正在日益威胁到人类的主体性地位。

3.机器人带来新的伦理问题

机器人的出现与发展,除了需要解决传统的伦理问题之外,还引发一些新的伦理问题。随着机器人的应用,机器误伤儿童、无人驾驶汽车撞死人事件时有发生,影响人类安全。机器人伤人、杀人事件时有发生,威胁人类安全,到底是设计者还是机器对此类事件负责呢?这带来机器是否是道德主体的疑问。机器学习与图像识别技术让无人驾驶汽车轻松上路,却带来机器设计道德上的伦理困境的思考。机器人采集数据涉及到数据共享与隐私之间的悖论。由于不能公平地使用机器人带来国家与地区间的经济发展差异,机器人的使用导致社会不公平现象的出现,等等。上述问题都是随着机器人出现而引发的新问题。

机器人伦理学的内涵辨析

2017年,瓦拉赫(Wendell Wallach)与阿萨罗(P.Asaro)编辑《机器伦理与机器人伦理》一书,收集了关于机器伦理与机器人伦理以及道德主体等方面的文章。机器人伦理(Robot ethics)与机器伦理(Machine ethics)在内涵界定、研究范畴以及责任主体方面都有差异。

1.机器人伦理学与机器伦理学内涵辨析

机器人伦理学家弗鲁吉奥首次将机器人伦理学缩减为“roboethics”这个单词,他认为机器人的发展是由三大基本元素构成:人工智能、机器人技术和伦理学构成,其中,机器人技术是一个研究机器人的设计、制造、操作和使用的领域。人与机器的区别是机器人伦理学的研究预设,首先要承认机器人与人相区别,机器不能成为人,也就不能成为道德主体。机器伦理学与机器人伦理学内涵不同,机器伦理学指的是机器具有了人的主体地位之后出现的伦理问题,例如,机器如何表现出符合人类伦理道德的行为,机器伤害人类后如何承担责任,等等。机器伦理学是人工智能伦理的一部分,涉及到人工智能物的道德行为,人工智能机器作为实际的或潜在的道德主体而存在,不但如此,机器可能具有自主学习能力、具有自我意识、自由意志、人类情感与人类智能。机器具有自由意志、具有道德主体地位,能够独立承担责任是机器伦理学的理论前提。机器与人一样具有理性,能够辨识自己的行为,能够独立承担责任的道德主体,因此,可以有针对机器的伦理学,机器伦理学关注的是机器对人类用户和其他机器的行为,机器伦理是以机器为责任主体的伦理学。

机器人伦理学是一门迅速发展的跨学科研究,它属于应用伦理学与机器人学的交叉领域,旨在理解机器人技术,尤其是机器人的伦理含义和后果。机器人伦理学是以“人”为责任主体的研究学科。研究机器人伦理应该在分析人的机器人伦理立场、机器人伦理的研究进路以及机器人伦理的制度保障等方面进行研究。

d10电子构型的金属配合物一般都具有荧光性质,因此在室温下测试了配合物的固体荧光,如图5所示,配合物的最大发射峰为403 nm.配合物的荧光性质使得它们在荧光检测方面具有潜在应用,因此需要测试其在有机溶剂中的荧光强度的变化,具体操作如下:将1 mg的配合物充分研磨后浸入DMF中超声分散2 h,然后静置3 d获得稳定的悬浮液.

2.机器人伦理学与机器伦理学的研究范畴辨析

机器人伦理强调人与机器的区别,机器伦理把机器当作人来看待。学者基于机器与人的区别关注机器人伦理。美国加州理工大学哲学系帕特里克·林(Patrick Lin)在《机器人伦理:机械化世界的问题映射》中强调机器人设计,关注在机器人设计环节如何实现价值的嵌入,从而设计出有道德的机器人,提出设计具有同情心和无私情怀的机器人的设想。帕特里克在《机器人伦理2.0:从自驾驶汽车到人工智能》中,认为构建机器人伦理要在道德机器的基础上,增加了法律责任的考量,指出随着智能机器人的智能水平的不断提高,智能机器能在一定程度上为其行为负法律责任,并详细阐述了其法律责任分配的依据,其中就包括了设计者可能要肩负的法律责任等内容。对于机器人伦理来讲,研究主要集中在人类负责任和不负责任地使用人工智能技术。人机关系是机器人伦理的核心问题,机器人伦理学指的是人在设计机器人中的伦理学,机器人制造和部署的伦理道德问题,用来处理人们发明机器人的伦理道德问题。在机器人伦理学家看来,机器不具有人类的主体地位,也不能独立地承担责任。当人工智能仍然只是人类决策的辅助工具时,即机器仍由人来控制和干预时,机器作恶可用已有的道德和法律规则来进行约束,因为此时做出错误决策的是人本身而非机器,机器只是人的命令和指令执行者而已。机器人伦理学主要关注的还是机器设计中的设计主体责任以及机器应用带来的社会伦理问题,从这个意义来讲,机器人伦理学是作为应用伦理学的分支存在的。

3.机器人伦理学是以人为责任主体的伦理学

机器人伦理学与机器伦理学研究范畴有相近之处,机器伦理学是关于以机器为智能主体的研究。例如,2009年,牛津大学出版社出版了温德尔·瓦拉赫(Wendell Wallach)与科林·艾伦(Colin Allen)的《道德机器:如何让机器人明辨是非》,涉及到机器自主行为的伦理后果以及机器自主的最近和潜在发展,关注的是像人类伦理一样的机器道德。机器伦理学的发展要求在机器上增加一个道德层面的内容,提高道德考量比重。2011年,美国康涅狄格州哈特福德大学机器伦理学家迈克尔·安德森(Michael Anderson) 与美国大学哲学系教授苏珊·安德森(Susan Leigh Anderson)夫妇编著《机器伦理》(Machine Ethics)一书,对机器伦理的本质与内涵进行详细分析,机器伦理学研究机器道德,把机器作为具有自由意志,能够独立承担责任,具有道德主体地位,机器与人的地位是完全相同的。机器人伦理学与机器伦理学的研究范畴不同,它指的是人在设计机器人中的伦理学,机器人伦理学的研究范畴主要包括机器人制造与使用阶段的伦理道德问题,以及把人类道德规范嵌入到机器人的操作系统中等问题,关注机器人设计者的道德以及机器人设计应用引发的人类安全、设计公平、社会稳定以及环境影响等问题。

2005年,弗鲁吉奥与欧普图(F.Operto)等人在美国电子电气工程师协会召开的机器人与自动化国际会议(International Conference on Robotics and Automation)上总结了对待机器人的三种伦理立场:第一,对机器人伦理没有兴趣;第二,关注机器人伦理的短期问题;第三,关注机器人伦理的长期问题。对机器人伦理不感兴趣的人认为人类的行为是中性的,不负载价值,因此设计机器人、利用机器人不存在价值取向,设计中不存在设计者的道德责任,因此,没有必要提倡机器人伦理。对机器人伦理的短期伦理问题感兴趣的人认为机器人应该区分为“好”与“坏”两类。他们觉得机器人必须遵守社会习俗或者参考某些文化价值观,包括在不同领域“尊重”和帮助人类。对机器人伦理的长期伦理问题感兴趣的人从全球性、长期性视角关注机器人的伦理问题,例如,关注发达国家与发展中国家的“数字鸿沟”,承认工业化国家和贫穷国家之间的差距,思考发达国家是否应该改变它们发展机器人的方式,以便有利于发展中国家发展等长期性伦理问题。

机器人伦理学的实践路径

风光水多能互补发电系统日内时间尺度运行特性分析//叶林,屈晓旭,么艳香,张节潭,王跃峰,黄越辉,王伟胜//(4):158

1.机器人的伦理立场分析

通过上述分析我们可以知道,机器人伦理学是关注人工智能设计以及人工智能给人类带来的伦理问题,例如,数据挖掘伦理、人工智能社会伦理等问题;机器伦理认为人工智能具有自我推理与决策能力,研究机器在决策过程中决策失误、伤害人类身体以及损害人类利益中的伦理问题。机器人伦理学是设计、制造以及对待机器人的伦理学,这种伦理学一般针对设计主体来说的,机器人伦理学属于“以人为中心”的伦理学,责任主体是人,主要研究设计者在机器人设计、利用机器人中的伦理规范;机器伦理学是机器人具有了人类智能后应该遵循的伦理规范,机器伦理学是“以机器为中心”的伦理学,责任主体是机器。这是机器人伦理学与机器伦理学之间的本质差异。

2.机器人伦理研究进路分析

瓦拉赫、艾伦与斯密特(I.Smit)提出机器人伦理的两种进路:即“自上而下进路”与“自下而上进路”。自上而下的伦理学进路建立在找出或者表征做道德决策的一般或者普遍原理的基础上。自上而下的进路是将规则转换为道德算法嵌入到机器人设计中,例如将效果论、功利主义伦理学、康德的道德律令、法律和职业规则等嵌入到机器人的设计中,将人类的道德决策分解为可计算、可管理的模块或者组件。因为机器具有智能自我推理与决策能力,应该通过前摄伦理或者在机器中嵌入人类道德。需要一种“道德算术”,例如,吉普斯(James Gips)给出基于效果论机器人的“自上而下进路”的尝试。吉普斯认为在结果论中,行为由结果来判断,为了能够以结果论的方式进行道德推理,机器人应该具备以下条件:描述世界情境的方法;产生可能行动的方式;一种手段可以预测基于当下情境采取行动而导致的后果;根据情况的好坏或者可取性来评价它的方法。在此基础上吉普斯构建机器人伦理的评价指标体系,通过分析道德利己主义者与道德利他主义者的差异,将道德分解为机器人可执行的算法来思考机器人伦理的自上而下研究进路的实践路径。除此之外,吉普斯还给出基于义务论与美德论的机器人伦理的自上而下的研究进路,义务论不同于结果论,在义务论中行为的评价是基于行为本身,而不是基于行为的结果。效果论一般不关注特定的行动实施的理由以及行动实施的主体,但道义论把责任直接归属于主体的具体本性,不同种类的主体就会有不同的责任。吉普斯通过把普遍的道德规范变成具体的道德算法,从而使机器人行为符合道德规范,这是非常典型的自上而下研究进路,通过伦理原则在机器人中嵌入道德,关注设计者的责任与道德。机器人伦理的“自下而上”的研究进路是按照具体的设计情景来制定具体的设计标准。人类的道德是动态的,必须在具体的设计情景中去把握。必须协调好利益相关者之间的关系,可以通过计算机模拟测试各种设计策略,运用博弈论观点选择最佳设计方案。丹尼尔森(Peter Denielson)在《人工道德:虚拟游戏中的道德机器人》中提出“功能性道德”,认为理性是智能体成为道德智能体的前提条件。霍尔(Josh Dtorrs Hall)也关注自下而上的道德机器设计,2007年,他编著了《超越人工智能:创造机器良知》(Beyond AI:Creating the Conscience of the Machine),霍尔认为人工道德智能体需要一个“共谋者担保协议”,以便从动态的情景去设置道德算法。机器人伦理从动态的社会机制输入道德信息,从而对人工道德智能体的整体设计提供技术与标准。还有的学者坚持“自上而下”或者“自下而上”相结合的研究进路。通过普遍性的伦理规则与具体的道德情境相结合,构建人工道德智能体。

为了创新技法,周淑英经常一坐就是几个小时,废寝忘食。她新创了一整套染色技法:杂染法、铺盖法、雾染法、叠染法、泼墨法和混沌法。过去的色彩仅有四五种,而今所有在大自然中的色彩几乎都可以在剪纸作品中呈现出来。这不仅增添了周派剪纸的品种和技法,也使蔚县剪纸更加富有神韵。

3.机器人伦理的制度保障分析

没有既定的伦理准则与法律制度去遵守和执行,机器人具体伦理要求能否在技术层面真正实现还存在争议。为了规范与引导机器人技术的良性发展,国家部门、社会组织、行业学会以及设计者也从不同视角做出努力。2004年,机器人伦理技术委员会建立,目的是提出和解决机器人研究和技术所引发的以及相关的紧迫伦理问题。2005年,欧洲机器人学研究网络(European Robotics Research Network)资助机器人伦理学工作室(Roboethics Atelier)项目,任务是绘制第一个机器人伦理学路线图(Roboethics Roadmap)。机器人伦理路线图的最终目的是对机器人研发中涉及的伦理问题提供系统的评估;增加对有关问题的认识,并促进进一步的研究和跨学科研究。2016年,联合国教科文组织与世界科学知识与技术伦理委员会联合发布报告,讨论机器人进步以及带来的社会与伦理道德问题。2016年,英国标准协会(BSI)颁布《机器人和机器系统的伦理设计和应用指南》。2017年1月,阿西洛马会议公布的阿西洛马人工智能原则(Asilomar AI Principles),从科研问题、伦理价值以及长期问题三个视角保障人工智能的安全与合乎道德。给机器人设计者带上“紧箍咒”。美国电气与电子工程师协会(简称IEEE)在2015年、2017年提出“合乎伦理设计”(Ethically Aligned Design,简称EAD)规范。呼吁在机器人设计中嵌入人类规范与道德价值观,避免人工智能导致的社会不公平、算法歧视等社会问题。

综上所述,机器人伦理学不同于机器伦理学,机器人伦理学是以人为责任主体的伦理学,涉及到人类如何设计机器人,如何将人类道德嵌入机器人以及如何对待机器人的问题,我们应该将普遍性的伦理规则与具体的设计情景相结合,发挥设计者、行业协会、企业、政府部门等不同设计主体的作用,通过法律、伦理等不同层面保障机器人的良性发展,发挥机器人的积极作用。

回顾中国共产党90多年的历史,从延安整风运动到“两学一做”学习教育,开展集中教育活动已经成为加强党的自身建设的一大法宝。每当历史重要关头,我们党总是以通过开展党内集中教育活动,对党员干部进行马克思主义理论党性教育,解决党内存在的各种矛盾和问题,统一全党思想认识,纯洁党的组织,增强党的凝聚力和战斗力。因此,本文试就中国共产党开展集中教育活动的路径、经验进行一番探讨。

【作者系华南理工大学马克思主义学院教授;摘自《东北大学学报》(社会科学版)2019年第4期;本文系国家社会科学基金课题“现代技术风险的认识论问题研究”(项目编号:18ZXB047)的阶段性成果】

标签:;  ;  ;  ;  

机器人伦理学:机器的伦理学还是人的伦理学论文
下载Doc文档

猜你喜欢