仿人机器人的法律风险及其规制-兼评《民法典人格权编(草案二次审议稿)》第799条第一款论文

仿人机器人的法律风险及其规制-兼评《民法典人格权编(草案二次审议稿)》第799条第一款论文

仿人机器人的法律风险及其规制
——兼评《民法典人格权编(草案二次审议稿)》第799条第一款

朱体正

(上海海事大学法学院,上海 201306)

摘 要: 仿人机器人的仿人性具有多维意义,但同时也裹挟着一定的法律及伦理风险。仿人机器人存在肖像权侵权风险,美国多起相关案例可供镜鉴,我国人格权立法中相关条款需要改进;仿人机器人存在虚假广告代言的责任风险,应坚守目前《广告法》中“广告代言人”的界定,并通过目的性扩张填补相关条文的法律漏洞;仿人机器人存在“恐怖谷效应”风险,机器人国家技术标准制定应予以规制。建议借鉴国际经验,逐步制定我国的人工智能和机器人技术治理规范,为创建人机和谐共生的智能社会提供有效的制度保障。

关键词: 人工智能;仿人机器人;风险规制

我国已连续多年成为世界上最大的机器人销售市场,《新一代人工智能发展规划》已把智能机器人作为大力发展的人工智能新兴产业之一,明确要求建立智能机器人标准体系和安全规范。智能机器人一般是指可以自动感知外部环境、对周围情况做出判断,并且自主做出动作的机械装置。仿人机器人是智能机器人的一种,常用于家庭或办公室中,为人类提供智能服务,需要与人类进行智力、情感交流,再加上要有亲切感的外形,因而最合适的机器人不是轮式机器人,而是拥有类似人类身体结构的仿人机器人。[注] 参见[韩]金钟熠:《仿人机器人权威指南》,武传海译,北京:人民邮电出版社,2018年,第1、4页。 较之轮式、履带式机器人,仿人机器人越障能力强、能耗小、工作空间广、步行性能高,[注] 参见谢涛、徐建峰、张永学等:《仿人机器人的研究历史、现状及展望》,《机器人》2002年第4期。 有利于机器人功能之实现,[注] 参见[日]梶田秀司:《仿人机器人》,管贻生译,北京:清华大学出版社,2007年,第1-2页。 是国内外机器人研究最活跃的领域之一。仿人全身机器人更是国际机器人研究领域最具代表性的研究对象,也是机器人学、机器人技术以及人工智能的终极研究目标。[注] 参见吴伟国:《面向作业与人工智能的仿人机器人研究进展》,《哈尔滨工业大学学报》2015年第7期。 当然,也正因为仿人机器人制作成本和精密度都很高,它们会被用于真正需要人类形状的人机交互任务和环境中,如卫生保健、老弱病残援助、幼儿陪伴、办公室文秘、博物馆指南、艺人及性伴侣等领域。[注] Veruggio,Gianmarco .“The EURON roboethics roadmap,” Humanoid Robots ,2006 6th IEEE -RAS International Conference on IEEE,2007,pp.612-617.此外,人工智能(AI)技术日益发达,不仅能为实体机器人配置更加灵活的识别和操作系统,而且还能生成虚拟的仿人机器人形象,有利于提升传播效能、改善用户体验,具有广阔的应用前景。

目前服务机器人尤其是仿人机器人的应用日益普遍,市场规模不断扩大,在迎宾、餐饮、传播、教育、体育、娱乐等领域发挥着重要作用。[注] 中国电子学会2018年发布的研究报告指出,2013年以来全球服务机器人市场规模年均增速达23.5%,2018 年全球服务机器人市场规模将达到 92.5 亿美元,2020 年将快速增长至156.9亿美元。2018年,全球家用服务机器人、医疗服务机器人和公共服务机器人市场规模预计分别为 44.8 亿美元、25.4 亿美元和 22.3 亿美元。参见《中国机器人产业发展报告发布》,《智能机器人》2018年第4期。 机器人是人工智能与机器人工业深度融合的产物,而仿人机器人则进一步将其拟人化,因而深入考察仿人机器人,一方面是在探寻人工智能介入物理世界的现实影响及其局限,另一方面也是在探究人和机器之间互动的维度与界限,因而仿人机器人多年来成为不同学科关注和研究的热点领域之一。[注] 例如,通过百度学术搜索,输入“仿人机器人”,可以检索到约193,000条相关结果(以“类人机器人检索”,可得约160,000条结果),研究成果主要分布在机械工程、控制科学与工程、计算机科学与技术、社会学、医学等领域,但法学类研究明显匮乏(检索日期:2019年3月25日)。 仿人机器人的“仿人性”具有多方面的重要意义:在技术方面,仿人性源于和服务于机器人的设计和应用目的;在社交意义上,仿人性有利于人机互动,便于提供社会服务;在文化意义上,仿人性反映了设计师及其社会环境特有的文化价值观;在法律意义上,仿人性引发了赋予机器人法律主体地位的法学构想和立法行动。[注] 参见朱体正:《仿人机器人的仿人性及其多维意义》,《智能机器人》2019年第1期。 与此同时,机器人的仿人性也带来一系列伦理和法律风险,较为突出的是肖像权侵权风险、广告代言责任风险以及“恐怖谷”效应风险,需要认真对待,审慎规制,促进人工智能和机器人产业健康发展,保护消费者合法权益,维护社会公序良俗。

一、仿人机器人的肖像权侵权风险及其规制

在各种仿人机器人中,有不少是模仿名人、明星的形象而设计制作的,其中最有名的莫过于香港汉森公司模仿影星奥黛丽·赫本制作的名为“索菲亚”的人形机器人,另一位香港设计师则模仿斯嘉丽·约翰逊制作了一款仿人机器人,2017、2018年连续两届的北京世界机器人大会上都展出了“姚明”高仿真人投篮机器人,2015年上海机器人展会上甚至还出现了安倍鞠躬机器人。仿人机器人取像名人,一方面可以迅速引起社会和市场的注意力;另一方面,名人的肖像、声音、身材、神态等信息披露程度较高,易于获取,以此为基础制作出的机器人仿真效果也更好。与此同时,这些仿人机器人往往面临是否会对被模仿者构成肖像权侵权的疑问。如斯嘉丽·约翰逊机器人展出后,媒体即称其可能面临着侵犯明星肖像权的指控。[注] 参见环球网讯:《香港男子打造女神斯嘉丽同款机器人,或被指侵犯肖像权》,2016年4月12日,http:∥world.huanqiu.com/exclusive/2016-04/8806121.html,2019年5月23日。 不仅如此,以人工智能(AI)技术制作的虚拟仿人机器人形象近来不断涌现,它们仿真度高,应用性强,大大扩张了肖像权侵权的法律与伦理风险。这些虚拟机器人有的“克隆真人”,如华盛顿大学的科学家以美国前总统奥巴马的音频和视频制作出了以假乱真的奥巴马视频,搜狗公司与新华社以一位主持人为原型开发了全球第一个“AI合成主播”;有的“移花接木”(俗称“AI换脸”),国外某网站就曾出现利用AI技术将女星头像植入色情视频,国内也有人把电视剧《射雕英雄传》里朱茵扮演的黄蓉换成了杨幂,把电视剧《都挺好》中倪大红饰演的苏大强换成了吴彦祖;有的“以静制动”,最近三星莫斯科AI中心抛开3D建模等传统方法,创建出一种新的模型,可以从一张头像生成人物开口说话的动图,比如将静态的蒙娜丽莎画像变成她栩栩如生说话的模样;还有的“无中生有”,一种Style GAN算法每两秒钟可以“想象”出一张人脸,并以可扩展的方式向全世界展示。业界认为,这种大规模操纵和生成图像的能力将对现代社会如何看待证据和信任产生巨大影响,同时这对于政治宣传和社会动员也非常有用。[注] 参见机器之心:《从此再无真“相”!这些人全部是AI生成的》,2019年2月16日,https:∥cloud.tencent.com/developer/news/395724,2019年6月19日.

无论是实体机器人还是虚拟机器人,其仿人性客观上都存在肖像权侵权的法律与伦理风险,有必要通过事前预防、事后救济予以规制。在事前预防方面,除了进一步通过人格权立法完善肖像权保护制度之外,实体机器人的风险主要是通过机器人安全标准和伦理准则的制定予以防范,此点后文还将详述,虚拟机器人形象还直接涉及当前人格权立法中的细节问题,故此着重评析。全国人大常委会2019年4月26日发布的《民法典人格权编(草案二次审议稿)》(以下简称“二审稿”)第799条规定了肖像权的消极权能,与第798条第一款规定的肖像权的积极权能相呼应。其中第799条第一款规定:“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。”与一审稿相比,这里新增不得利用信息技术手段伪造等方式侵害他人的肖像权,具有鲜明的时代性和针对性,对于遏制人工智能“换脸”技术的滥用具有现实意义,因为这种新技术的发展与应用“不仅侵害了自然人的人格权益,严重的还可能造成恶劣的社会影响,危害国家安全和社会公共利益”。[注] 王博勋:《人格权编草案二审:及时回应新情况新问题》,《中国人大》2019年第5期。 不过,从立法技术角度来看,此项规定有待进一步改进。

根据二审稿第798条第一款之规定,肖像权的积极权能为对肖像的制作、使用和公开的权利,这三种具体权利其实都包括两项权利内核,一个是知情同意(informed-consent)权,另一个是保持肖像完整(integrity)权。前者的权利基础在于人格独立与人格自主,其消极权能即为第799条第一款中规定的“未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外”,包括不得利用信息技术等手段伪造、变造肖像。而保持肖像完整权的权利基础在于人格尊严,强调无论是否经肖像权人同意,制作、使用和公开肖像均应保持肖像原有或应有(如智能手机拍照的“美颜”功能)的状态,其消极权能即为“不得以丑化、污损等方式侵害他人的肖像权”,包括以信息技术手段伪造色情图像等。厘清此点,对于分析和弥补第799条第一款存在的立法缺陷十分必要。

2.5 两组手术前后CSI及BSI比较 术前,两组CSI及BSI比较,差异无统计学意义(P>0.05);术后,两组CSI及BSI均下降,组间比较差异无统计学意义(P>0.05)。见表5。

在具体的法律适用上,由于《广告法》第2条第五款明确指出广告代言人是“以自己的名义或者形象对商品、服务作推荐、证明”,其中“自己的名义或者形象”在文义上是指代言人本人,但在机器人代言情形已然超出其固有的文义射程范围,扩张解释不足适用,存在立法计划不足的法律漏洞,在此情形下,可采取目的性扩张填补该漏洞。所谓目的性扩张,是指为贯彻法律规范意旨,将本不为该法律条文的文义所涵盖的案型,包括于该法律条文的适用范围之内。[注] 参见梁慧星:《民法解释学》,北京:中国政法大学出版社,1995年,第279页。 因而,可将《广告法》第2条中“以自己的名义或形象”扩张为不仅包括以自然人、法人或者其他组织本人的名义或形象担任代言人的情形,还包括以自然人、法人或者其他组织所有的或管理的机器人、动物等其他事物的名义或形象担任代言人的情形,[注] 使用动物作为广告代言人的例子并不鲜见,如一只名为“Kai-kun”的阿伊努人犬曾长期作为日本软银集团的广告模特,美国著名的“不爽猫”(Grumpy Cat)为猫粮、饮料等进行营销及参演电影等给主人带来不菲收入。 从而解决法律适用的疑难,而相应的责任条款,如第56条“广告经营者、广告发布者、广告代言人应当与广告主承担连带责任”的规定仍可适用无虞。这样不仅使真正的行为主体与责任主体保持一致,也使广告法的调整功能得以更新和增强。同时,建议《广告法》相应条文作适当修改,如第2条增加一款:“机器人、动物等参与广告代言的,广告代言人为其所有人或管理人。”类似地,《广告法》第33条应当增加“使用机器人、动物的名义或者形象的,应当事先取得其所有人或管理人的书面同意。”这样可从立法上解决目前仿人机器人从事广告代言的法律适用和责任承担问题。

首先,“利用信息技术等手段伪造”的核心在于“伪造”——未经肖像权人同意(无制作权)而制作,[注] 在刑法学上,伪造文书罪中的“伪造”存在有形伪造和无形伪造,前者是指没有文书制作权的人冒用他人名义制作文书,后者是指制作文书名义不虚假,但制作内容违反真实情况。参见熊永明著:《伪造文书罪初论》,北京:群众出版社,2006年,第148~149页。本文认为,无形伪造有制作权之名却行伪造内容之实,亦即未经他人同意而伪造文书内容,故与有形伪造一样,本质上都是未经他人同意的行为。伪造肖像与伪造文书本质无异,故可界定为未经肖像权同意而制作肖像的行为。 因而侵害的仍然是肖像制作权,更勿论使用和公开伪造的肖像了,这就与后句规定的“未经肖像权人同意,不得制作、使用和公开肖像权人的肖像”存在重合,这样就出现了前后句之间的逻辑混乱和相互重合的问题。此外,在立法例中,“伪造”常与“变造”连用,如《刑法》第177条规定的伪造、变造金融票证罪,第280条规定的伪造、变造、买卖国家机关文书、证件、印章罪,《票据法》第14条规定“票据上的记载事项应当真实,不得伪造、变造”等。此处仅规定肖像伪造,似有不周。

二是严格开发利用监管。完善土地开发利用全覆盖的监管机制,全面落实动态巡查制度,第一时间发现闲置土地苗头、第一时间督促企业开工建设、第一时间对涉嫌闲置的土地进行调查认定、有效处置,确保土地资源及时、高效利用。

其次,第798条第二款关于肖像的定义已经明确了肖像的制作是“通过影像、雕塑、绘画等方式”,799条第一款规定的“利用信息技术等手段伪造”实际上也是以影像方式反映特定自然人可被识别的外部形象。科技发展日新月异,影像制作纷繁多样,立法表述不必亦步亦趋,无需将“利用信息技术等手段伪造”单独列出。不过,二审稿此种表述也许在立法政策上不无意义,即通过“AI换脸”等新闻热点营造立法热点,提高政府部门和社会公众对人格权立法的关注度,进而推动人格权编乃至民法典制定的进程。[注] 参见新华社记者白阳、罗沙、王子铭等:《基因科研、“AI换脸”、人体试验、个人信息,民法典人格权编草案二审稿都作出规范》,2019年4月21日,http:∥www.npc.gov.cn/npc/cwhhy/13jcwh/2019-04/21/content2085573.htm,2019年4月21日。 但矫枉不必过正,面对社会热点仍需克制立法的冲动,避免立法规定过于琐细且造成逻辑问题,应当确信后句对肖像知情同意权的规定对于新问题的调整和解决具有足够的弹性和包容性。

综上,二审稿第799条第一款的规定存在逻辑、内容、标准、语法等方面的问题。“如无必要,勿增实体”,“奥卡姆剃刀”原理也适用于立法问题。基于以上理由,建议二审稿第799条第一款修改为:“任何组织或者个人不得以丑化、污损等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。”

最后,该款规定在语法上也难谓恰当。其一,“丑化”“污损”是两个动词,“利用信息技术手段伪造”是一个动词短语,二者并列表述不宜,同时也影响自然阅读和理解。其二,“技术”“手段”“方式”等多个意思相近的词汇在一个句子中连续使用,造成语句结构复杂,表意含混,不符合“法律规范应当明确、具体”的要求(《立法法》第6条),在表达效果上尚不如一审稿“任何组织和个人不得以歪曲、污辱或者其他方式侵害他人的肖像”简洁明了。当然一审稿此处的表述也存在瑕疵:一是“歪曲”“污辱”较之“丑化”“污损”更为抽象和模糊;二是“歪曲”“污辱”与“肖像”搭配不当;三是“污辱”与“侮辱”难以准确区分,容易混淆,不便使用;四是“侵害”的对象一般是权益,“侵害他人的肖像”不妥,故为二审稿所修订,而二审稿也要注意避免上文所指出的问题。

再次,第799条第一款中规定的“丑化”“污损”与“利用信息技术手段伪造”并非基于同一标准而进行的列举,将其并列不当。“丑化”“污损”的要点在于“丑”和“污”,主要是贬低肖像权人的形象,降低其社会声誉(故可能同时构成侵犯肖像权和名誉权),二者均是基于价值评判的表述,而“利用信息技术手段伪造”则是制作肖像的方式方法,可能存在丑化或污损,如将女星头像植入色情视频,也可能并未丑化或污损,如用奥巴马的声音和肖像制作其演讲视频。如上所述,伪造肖像侵害的主要是知情同意权,而丑化、污损侵害的主要是保持肖像完整权,前者已为保护知情同意权条款所涵盖,后者则可单独规定,故将两种评价标准不一的方式并列为侵害肖像权的方式不妥。

目前尚无因仿人机器人的“恐怖谷效应”导致人的心理乃至身体健康受损的事件或案例发生,但如果的确因此而出现了健康权侵权纠纷,受害人得请求机器人生产者或销售者承担产品责任,责任认定的关键是证明机器人存在缺陷——危害人体健康和人身、财产安全的不合理的危险。但是,“恐怖谷效应”是否构成仿人机器人的产品缺陷,目前并无明确规定,而且其本身也难以测定,一方面这种效应的出现固然与机器人的外观设计有关,另一方面也与人的主观心理感受、生活经验乃至周围环境等因素相关,因而较为可行的仍是抓紧制定机器人的技术标准和伦理标准,以防范此种风险,为相关纠纷的处理提供裁判尺度。

外卖逐渐深入大学生的生活,这与其便利性优点有着不可分割的关系,未来外卖行业应针对不同性别、不同阶层和不同消费等级的人群做出更加鲜明的决策,制定更多外卖实施方案,吸引更多的顾客[8].

目前,财务管理信息系统建设正在稳步推进。在技术手段得到充分完善的情况下,与技术平台相匹配,要进一步完善动态监控工作机制,提高工作效率,确保监督成效。

在温特诉东道主国际公司一案中,原告是在电视节目《干杯》中扮演著名酒鬼克里夫和瑙姆的两位演员,他们称被告公司制作了两个“电子动画机器人”(分别取名为“汉克”与“鲍勃”),置于以《干杯》为模板的机场酒吧,如同前述怀特案一样盗用了其肖像,侵犯了他们的公开权。地区法院认为被告的机器人与原告完全不同,驳回原告的诉求。在上诉审中,第九巡回法院认为,东道主公司的两个机器人模型被塑造为体现原告相貌的精确特征,理性的陪审团会发现他们的相似性足以违反加州法律,二者也存在《兰哈姆法案》规定的相互混淆的可能性,因而构成侵权。[注] Wendt v.Host Intern.Inc.,125 F.3d 806,810(9th Cir.1997).

可以看出,美国司法实践中出现的机器人形象侵犯公开权纠纷,判断是否构成侵权的关键在于机器人形象与他人肖像是否存在相似性,能否体现他人的人格特征,亦即是否具备“可识别性”。这与我国司法实践中肖像权侵权纠纷中侵权事实认定的关注点也是一致的。如在蓝天野与天伦王朝饭店有限公司、北京电影制品厂肖像权侵权纠纷案中,法院认为:“肖像识别性是辨别各自然人间相区别的形象特征。一幅能反映表演者面部形象特征的电影剧照不仅承载了电影的某个镜头,同时也承载了表演者的面部形象,具有双重的识别性。涉案剧照恰恰利用了原告的识别性特征。该剧照不仅令一般公众辨别出是电影《茶馆》中的镜头,且令一般公众分辨出饰演‘秦二爷’角色的表演者是原告。”[注] 国家法官学院、中国人民大学法学院:《中国审判案例要览(2004年民事审判案例卷)》,北京:中国人民大学出版社、人民法院出版社,2004年,第343页。 肖像的“可识别性”特质亦为我国《民法典人格权编(草案二次审议稿)》第798条第二款所确认:“本法所称肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可被识别的外部形象。”随着我国机器人和人工智能产业的不断发展,也将面临着机器人形象设计方面的肖像权侵权风险,无论是实体机器人抑或是基于AI技术制作的虚拟机器人在设计和制作中应当经过必要的伦理和法务审查,以免将存在侵权风险的机器人产品或机器人形象推向市场和社会。

此外,目前市场上不少服务机器人形象趋同,反映了与机器人产品应用场景相匹配的美学设计和技术创新的不足,且存在侵犯他人知识产权及不公平竞争的法律风险,亦应予以防范。在这方面,美国上世纪80年代初出现的艾尔尼克公司诉聚光灯公司案可为镜鉴。在该案中,法院认为被告生产的机器人沃尔特·伊戈(Walter Ego)与原告生产的机器人罗德尼(Rodney)存在使潜在消费者产生混淆的可能性,违反《兰哈姆法案》,构成不公平竞争,判决要求被告将其机器人躯干以上部分拆除作为对原告的补救措施。[注] Elnicky Enterprises,Inc.v.Spotlight Presents,Inc.,1981 WL 48202 (S.D.N.Y.1981). 该案被媒体报道为“机器人斩首”或“沃尔特·伊戈掉了脑袋”,成为当时轰动北美的热点新闻。

二、仿人机器人虚假广告代言风险及其责任承担

仿人机器人的仿人性特质和智能化配置,十分契合文化传播和市场营销的现实需求,适合为商品、服务或公益活动进行广告宣传代言,成为近年来广告界的新宠。例如机器人索菲亚于2017年被任命为联合国“创新大使”,2018年12月被授予“一带一路创新技术大使”;在2018年央视《开学第一课》节目中展示的机甲艺人NK01曾任华为手机、吉利汽车等品牌的形象代言人,而在2011年郑州国际农机展上展出的雷沃金刚机器人则是雷沃拖拉机的形象代言人。不仅如此,虚拟智能机器人也成为了广告代言人,如“微软小冰”于2014年以700万元人民币的代言费成为英孚教育的品牌形象代言人,百度AI机器人亦于2018年成为影片《环太平洋2》中国区的代言人。

仿人机器人成为广告代言人,在法律上涉及广告代言的资格和责任承担问题。我国《广告法》第2条第五款规定:“本法所称广告代言人,是指广告主以外的,在广告中以自己的名义或者形象对商品、服务作推荐、证明的自然人、法人或者其他组织。”这里的“广告代言人”是指“自然人、法人或者其他组织”,即《民法总则》所规定之民事主体。机器人既非自然人、法人,亦非其他组织,立法上并未赋予其民事主体资格,这是需要面对的现实问题。就目前来看,人工智能的发展应用水平远未达到完全自主化程度,也未对传统民事法律主体理论提出颠覆性的挑战,我们在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体。[注] 参见王利明:《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期。 虽然目前人工智能在语音识别、图像识别、无人驾驶等一些专业领域取得了显著进展,但理论基础还比较薄弱,“感知智能方面进步非常大,但在认知智能方面进展非常小”,[注] 李佳师:《中美AI发展:技术路线相像,落地路径各异》,《中国电子报》2018年8月17日第6版。 总体上还属于狭义人工智能(ANI)阶段,距离通用人工智能(AGI)还比较遥远,后者一般认为几乎可以从事任何目前人类所做的工作。在此情形下,主张赋予机器人和人工智能的法律主体资格,既缺乏强有力的技术支撑以及相应的制度保障,也缺乏足够的社会接受度。

其次,在比较法上,2017年10月沙特阿拉伯在世界上首次将公民资格授予了名为“索菲亚”的机器人,也使其成为第一个拥有国籍的机器人,2018年11月索菲亚在参加全球影响日会议时获得阿塞拜疆签证。但是,这在目前而言仍属个例,缺乏普适意义,且其实际的权利义务范围如何并不明晰,宣言式地赋予其公民资格缺乏实际意义。例如有人提出质疑,索菲亚能否结婚,应否像其他沙特妇女一样蒙着面纱等。事实上,业界人士对索菲亚本身的智能化水平及其实际意义颇有非议。李开复在微博中指出:“Sophia是有技术含量的,也做出了业界最好的公关,但是丝毫没有人性、人的理解、爱好和创造力。授予这样一台只会模式识别的机器‘公民’身份,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反。”“卷积神经网络之父”杨立昆(Yann LeCun)在Twitte上更斥其为一场骗局。因而以索菲亚机器人的公民身份来衡量一般意义上机器人的法律主体资格问题显然并不合适。

经过国内外酒店管理专业实训基地建设的比较研究,我们总结出在进行实训基地建设过程中要遵循以原则,即导向性、共享性、效益性和动态发展。

最后,应当谨慎看待欧洲议会《机器人民法规则》的相关规定:“从长期来看应当为机器人创设一个特殊的法律地位,至少可以将最复杂的自主机器人设立为具有电子人的资格(the status of electronic persons),以便对可能造成的损害负责,并将电子人格应用于机器人自主地做出决定或其他的独立地与第三方进行互动的情形。”[注] European Parliament Resolution of 16 February 2017,Report with Recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)),27.Jan.2017,http:∥www.europarl.europa.eu/sides/getDoc.do type=REPORT&reference=A8-2017-0005&language=EN.,2019年5月19日。中文版参见朱体正等译:《欧洲议会机器人民法规则》,梁慧星主编:《民商法论丛》第69卷,北京:社会科学文献出版社,2019年。 这一规定似乎认可了自主机器人的独立法律地位,但是需要注意:其一,根据《里斯本条约》对欧盟机构权力之划分,欧盟立法的提案权由欧盟委员会单独享有,欧洲议会和其他欧盟机构都无权启动立法程序;但是,欧洲议会可以通过决议要求欧盟委员会提出立法动议以启动立法程序,故欧洲议会此次通过的《机器人民法规则》属于压力性决议,而不具有立法的法律效力,欧盟委员会有权拒绝对此进行立法(但要向欧洲议会陈述其拒绝的理由)。[注] 杨国栋:《应用机器人的伦理法律问题,欧盟如何规制?》,《南方都市报》2017年1月20日第A23版。 该法律文本中句首常见的“吁请欧盟委员会……”即体现此种压力性立法决议的性质。因而其关于机器人具有电子人的法律资格实际上是一种立足长远的立法建议,并不具有实际的法律效力。其二,从技术上来看,如前所述,目前的机器人技术仍处于弱智能阶段,距离欧洲议会立法例所设定的“电子人”——最高级的机器人的发展水平尚有较大的距离,所谓机器人完全自主的决策致害还只是一种设想,也就谈不上令其担责的问题。何况,欧洲议会《机器人民法规则》第56段亦明确指出:“至少在现阶段,必须由人而不是由机器人承担责任。”就仿人机器人从事虚假广告代言而言,真正的问题在于使操纵机器人的所有者、管理者承担应有的责任,而非寻求机器人或人工智能的主体资格和法律责任。实际上,在本文上一论题即仿人机器人存在侵害他人肖像权的责任承担时,已经隐含了在目前阶段机器人民事主体资格否定论的命题。

2015年上海机器人展会上出现的安倍鞠躬机器人,其形象酷似日本首相安倍晋三,且不停鞠躬道歉,有观众直呼这个机器人做得太像了,不过同时认为机器人做成这种样子其实挺吓人的。出现机器人“吓人”的现象其实并非偶然,而是涉及机器人专家提出的“恐怖谷效应”理论(the uncanny valley)。随着技术进步,人们不断尝试制作各种高仿真人机器人,但机器人专家莫里在1970年警告指出,机器人不应该与真人相似,因为这样的机器人可能落入“恐怖谷”,当机器人几乎像人类一样行动时但却未能获得逼真的外表,人们对类似人类的机器人的反应会随着与人相近突然从认同转变为厌恶和惧怕。[注] Mori,M.K.F.Macdorman,and N.Kageki.“The Uncanny Valley”,IEEE Robotics &Automation Magazine ,Vol.19,No.2,2012,pp.98-100.这种现象不仅限于机器人,而且还适用于任何类型的类人物体,如玩偶、面具、电影角色等,并为科学研究所证实,[注] Seyama,Jun’Ichiro ,and R.S.Nagayama . “The Uncanny Valley: Effect of Realism on the Impression of Artificial Human Faces”, Presence :Teleoperators and Virtual Environments ,Vol.16,No.4,2007,pp.337-351.“恐怖谷”深入地渗透到评价主体对机器人社会可信度的隐含决策中,“恐怖谷效应”构成了仿人机器人的一个突出问题。[注] Mathur,Maya B.,and D.B.Reichling. “Navigating a social world with robot partners: A quantitative cartography of the Uncanny Valley”,Cognition , Vol.146,2016,pp.22-32.关于“恐怖谷”的成因,说法不一,近年来的脑成像技术从认知失调的角度在一定程度上揭示了其中的奥秘。[注] A P Saygin,Chaminade T,Ishiguro H,et al. “The thing that should not be: predictive coding and the uncanny valley in perceiving human and humanoid robot actions”, Social Cognitive &Affective Neuroscience ,Vol.7,No.4,2012,p.413.“恐怖谷”概念影响深远,多年来成为机器人工业、电影业、文化研究和哲学领域讨论的一个主题。[注] 参见[加拿大]维尼·布罗迪:《日本机器人学家森昌弘的佛教式“恐怖谷”概念》,邵明译,《宜宾学院学报》2012年第8期。 不但如此,由于“恐怖谷效应”可能会对机器人使用者、消费者或其他人的心理和精神健康产生影响,“从伦理面来看,将恐怖谷因素纳入机器人开发的考虑对于其社会接受度将有直接的影响”,[注] 参见翁岳暄:《服务机器人安全监管问题初探——以开放组织风险为中心》,北京大学2014年法学博士学位论文,第2页。 也将促使商家改进机器人形象的设计。从致害形态来看,虽然与机器人对人体的物理伤害相比,心理健康风险可能不是那么突出和引人关注,但却是因仿人机器人的仿人性而特有的用户心理体验问题,特别是未来我国将长期处于老龄化社会和“空巢老人”家庭普遍存在的社会状态,陪护机器人有望在相当程度上解决这一社会问题,病患陪护机器人也有相当可观的现实需求,如此庞大的机器人服务市场,不能不对仿人机器人的负面影响进行适当规制,以尽量“避开‘恐怖谷’”。[注] Jacob Turner .Robot Rules :Regulating Artificial Intelligence ,Gewerbestrasse:Palgrave Macmillan,2018,p.162.欧洲议会2017年《机器人民法规则》第10条指出:“机器人和人工智能的发展可以并且应该被设计成维护人的尊严、自主和自决,特别是在人类陪护(human care and companionship)以及在医疗应用、人体‘修复’或人类增强领域(‘repairing’or enhancing human beings)。”根据我国《消费者权益保护法》第7条之规定,消费者在购买、使用商品和接受服务时享有人身安全不受损害的权利。基于上述规范意旨,仿人机器人之设计和制作亦应防范令人恐怖不安的风险。

第一,军民融合知识产权转移转化机制的建立是一项系统工程,必须整体设计、全面打造,确保科学有效。机制建立涉及国家、企业、当地政府,要素上连着技术、资金、知识产权、互联网生态,必须精心设计,全面打造。要坚持政府引导,争取设立专项基金、引导基金等方式,促进知识产权转移转化;坚持纵横联动,充分发挥中央与地方、行业上下、军民之间的联动,在资源配置、任务部署等方面形成合力;坚持机制创新,围绕技术、专利、人才、资本等要素,设置知识产权转移转化机制研究相关子课题,分工协作和深入研究,形成系列机制创新成果。

三、仿人机器人的“恐怖谷效应”风险及其防范

不过,让机器人的所有者或管理者承担仿人机器人虚假广告代言的法律责任,则面临着如何妥当适用《广告法》相关条文的现实问题。比如,根据该法第38条之规定,广告代言人在广告中对商品、服务作推荐、证明,应当依据事实,符合本法和有关法律、行政法规规定,还应当使用过该商品或接受过该服务。试想,对于属于人类特有的商品或服务,比如食品饮料、美容美发等,作为广告代言人的机器人如何去使用或接受?!再如,当机器人代言的商品或服务的广告存在虚假信息,欺骗、误导消费者,使购买商品或者接受服务的消费者的合法权益受到损害,依《广告法》第56条之规定,造成消费者损害的,其广告经营者、广告发布者、广告代言人将因为过错(一般商品或服务)或者无过错(关系消费者生命健康的商品或者服务)应当与广告主承担连带责任。此外,根据该法,广告代言人违反相关规定还有可能承担相应的行政处罚责任。问题是,仿人机器人既然目前不具有法律主体资格,不是民法上的“人”,那么是否还属于“广告代言人”?亦即,“广告代言人”中的“人”如何理解,是民法上的“人”(即《广告法》第2条第五款“自然人、法人或其他组织”),还是仅止于日常生活用语的层面而并不具有法律意义?后一种理解可能确如机器人代言所欲达到的广告效果那样,“机器人也是代言人”,如此自然将仿人机器人纳入广告代言人名下,然而,问题的关键在于,如何通过法律规范的逻辑涵摄,确定使机器人从事不当行为的责任主体。显然,目前机器人仍处于弱智能阶段,其从事广告代言活动并不能对广告内容的真实性进行审查(除非其具备此项功能),而为其承接广告代言业务的机器人的所有人或管理人才是真正的广告事务处理者、广告形象设计者和广告收入获得者,因此对广告内容的真实性也应当负责,这种情况下的广告代言人仍为机器人的所有人或管理人。即使目前仿人机器人设计为具备审查广告内容真实性的功能,但其自主化程度尚不具备独立识别、选择、决策的能力,其行为后果和责任仍由机器人的所有人或管理人负责。因此,本文认为至少在目前阶段仍应坚持《广告法》关于广告代言人的界定,即“广告主以外的,在广告中以自己的名义或者形象对商品、服务作推荐、证明的自然人、法人或者其他组织”,而不将机器人等纳入其中,相反,机器人在本质上仍是一种广告道具。

此外,在采用名人肖像制作虚假视频情形中,尚有两个问题值得注意:其一,即使未经肖像权人同意,也未必构成侵权,而是符合二审稿第800条规定的“为个人学习、艺术欣赏、课堂教学或者科学研究,在必要范围内使用肖像权人已经公开的肖像”,属于肖像合理使用(fair use doctrine)的情形之一,无需承担侵权责任。[注] 参见张民安、杨彪:《侵权责任法》,北京:高等教育出版社,2011年,第282页。 如华盛顿大学科学家制作的奥巴马视频。不过,纵使为合理使用,亦不得侵犯肖像权人的人格尊严,如前述滥用AI技术将明星头像移植到色情视频即为恶例,故立法有必要规定“不得以丑化、污损等方式侵害他人的肖像权”。[注] 针对人工智能技术滥用的风险,2018年2月来自牛津大学等机构的26位研究人员发布了一份预警报告,针对人工智能的恶意使用可能引发的政治风险和公共安全风险发出警告,并提出相应的预防和缓解措施。See Brundage M,Avin S,Clark J,et al,The Malicious Use of Artificial Intelligence:Forecasting,Prevention,and Mitigation,20 Feb 2018. 其二,在这些视频资料中,不但使用了明星肖像,还使用(变造、伪造)了其声音。撇开合理化使用的抗辩事由不谈,在一般情境下则还构成对他人声音利益之侵犯。对此如何归置有不同方案:有学者认为“声音表示人格之特征,为人格之重要利益,与姓名、肖像相同”,[注] 史尚宽:《债法总论》,北京:中国政法大学出版社,2000年,第157页。 “个人的声音亦应认系一种‘其他人格法益’”,在美国法上属于公开权的内容,在德国亦肯定为“一般人格权的保护范围,即对自己声音的权利”。[注] 王泽鉴:《人格权法:法释义学、比较法、案例研究》,北京:北京大学出版社,2013年,第249页。 有学者则认为应将声音利益权利化,在民法典人格权编中将声音权规定为一种独立的具体人格权。[注] 杨立新:《民法典人格权编草案逻辑结构的特点与问题》,《东方法学》2019年第2期。 在我国现行法上,可按《民法总则》第109条规定之一般人格权加以保护。二审稿第803条明确规定“其他人格权的许可使用和自然人声音的保护,参照适用本章的有关规定”,这对于保护自然人声音利益,尤其是遏制滥用AI技术伪造音频现象具有积极意义。[注] 加拿大一家公司甚至开发出一个仅基于文本输入就可生成逼真声音的语音合成系统。参见《语音版deepfake出现:从文本到逼真人声,被模仿者高呼真得可怕》,2019年5月18日,https:∥www.jiqizhixin.com/articles/2019-05-18-04,2019年5月23日。 值得注意的是,在诸多人工智能应用场景,如上述模仿奥巴马的视频中,声音往往伴随肖像同时出现,可将声音作为识别肖像的一种辅助手段,从而通过保护肖像权也间接保护了声音权,故以肖像权侵权认定为已足。 在仿人机器人肖像权侵权风险的事后救济方面,主要是通过司法裁判责令机器人设计者或生产者承担侵权责任,以停止侵害、赔偿损失、赔礼道歉等方式实现对被害人的法律救济。仿人机器人在展会和市场中屡见不鲜,模仿体育明星、娱乐明星的机器人更是颇受关注,从机器人设计应用的现状和趋势来看,此种法律风险在所难免,不能不引起重视。从国际比较来看,美国的机器人产业发展较早,法院也曾审理多起相关纠纷,其中较为著名的是怀特诉三星公司案(White v.Samsung)和温特诉东道主国际公司案(Wendt v.Host Intern.Inc.)。这些案例将为我国司法机关以后审理同类案件提供有益经验,以下概述之。 在怀特诉三星公司案中,原告梵娜·怀特(Vanna White)是电影《幸福之轮》(Wheel of Fortune)中女主角的扮演者,被告三星电子公司于上世纪90年代初印制发布的描绘未来的系列幽默广告中,其中一则是一个貌似怀特的女性机器人,戴着假发、礼服和珠宝,站在“幸福之轮”状的游戏节目道具旁边,标题为“最长运行时间的游戏节目,公元2012 年”。原告认为,根据加州法和普通法,三星公司侵犯了其公开权(the right of publicity),[注] 在美国法上,肖像一方面属于隐私权(Right of Privacy),另一方面则为公开权,除精神利益外,尚具财产权性质。公开权是从隐私权发展起来的保护自然人个人形象特征财产价值的独立权利,得为让与和继承,而隐私权则是保护自然人不受干扰的精神利益,不得让与和继承。二者构成美国法上保护人格利益的双轴规范体系。参见王泽鉴:《人格权法:法释义学、比较法、案例研究》,北京:北京大学出版社,2013年,第137、270页。 也违反了《兰哈姆法案》第1125(a)条的规定,认为被告使用了虚假的形象代言广告,故向被告索赔600万美元,被告对此予以否认。美国加州中心区地方法院作出了支持被告的简易判决。在上诉审中,美国联邦第九巡回法院一方面同意初审法院的意见,认为被告并未故意使用原告的姓名、声音、签名、照片或肖像,而是使用了一个机械特征的机器人,并未将其塑造成体现原告精确特性的人体模型,不符合加州民法典第3344.41节之规定;另一方面,法院认为,加州民法关于公开权保护范围的规定过窄,肖像仅限于对原告的视觉刻画,而普通法上侵犯公开权的情形还涉及对原告姓名、照片或其他肖像的盗用(appropriation)。三星广告中描绘的机器人形象,综合其各种元素,在大多数人看来对应的只能是梵娜·怀特,如果在侵权认定上施加过多的限制,普通法上的公开权无异于形同虚设。不过,阿拉肯(Alarcon)法官对此持不同意见,认为该机器人形象与怀特本人差异明显,不足以认定三星侵权。法院最终认定三星广告中的机器人形象刻画出了怀特的“身份特征”,侵犯了怀特在普通法上的公开权,也违反了《兰哈姆法案》的规定。三星公司还辩称,根据美国宪法第一修正案,其行为属于滑稽模仿(parody),而非侵权。对此,法院明确指出,滑稽模仿的目的在于娱乐,而假冒(knock off)的目的在于营利,二者存在明显区别。怀特最终获得了40.3万美元的赔偿。[注] White v.Samsung,971 F.2d 1395(9th Cir.1992),cert.denied,113 S.Ct.2443 (1993).

分别移取100 μg碲标准溶液系列于25 mL比色管中,加入不同量的显色剂氢溴酸(1+1)-溴化钾(饱和)溶液,以水为参比,按实验方法1.2进行试验,结果见表2。试验结果表明,氢溴酸(1+1)-溴化钾(饱和)溶液的用量在10~12 mL范围内,吸光度值基本保持一致,所以本法选择氢溴酸(1+1)-溴化钾(饱和)溶液的用量为10 mL。

仿人机器人作为一种产品,首先必须符合产品质量法的规定,尤其是机器人国家标准。[注] 我国《产品质量法》第13条规定:“可能危及人体健康和人身、财产安全的工业产品,必须符合保障人体健康和人身、财产安全的国家标准、行业标准;未制定国家标准、行业标准的,必须符合保障人体健康和人身、财产安全的要求。禁止生产、销售不符合保障人体健康和人身、财产安全的标准和要求的工业产品。具体管理办法由国务院规定。” 从我国国家标准全文公开系统检索可知,目前我国国家标准委已发布机器人领域国家标准66项(其中现行48项,即将实施13项,废止5项),涵盖工业机器人、服务机器人、特种机器人等具体种类和技术细节,[注] 检索网址:http:∥111.203.12.48/bzgk/gb/stdlistr=0.41190280895089526&p.p1=0&p.p2=机器人&p.=TOBEIMP&p.p90=circulationdate&p.p91=desc,2019年6月19日。 但还缺乏一部总体性的机器人国家技术安全标准。值得注意的是,国家标准化管理委员会主管的国家机器人标准化总体组于2018年9月发布的国家机器人标准《机器人安全总则和指导规范(征求意见稿)》(以下简称“《安全规范》稿”)正在制定完善中,有望弥补机器人国家顶层标准的不足。不过,这项标准规定主要机器人在机械、电气、信息等物理方面的安全标准,而缺乏对心理安全方面的防护。即便如此,《安全规范》稿作为我国机器人产业的“顶层安全标准”,[注] 该标准(征求意见稿)《起草说明》指出:“标准规定了所有机器人必须遵循的安全基本原则,为机器人制造商、机器人系统集成商、机器人检测机构等提供一套适用于机器人全生命周期的机器人安全总则和指导规范,填补了机器人无顶层安全标准的空白,有利于机器人产业的健康发展”,“本标准由国家机器人标准化总体组于 2017 年提出并归口。主要起草单位为新松机器人等20家单位,计划应完成时间为 2019年。标准计划号为:20170061-T-469。”参见国家机器人标准化总体组:《关于征求国家标准<机器人安全总则和指导规范>(征求意见稿)意见的通知》,2018年9月29日,http:∥www.nrsgwgc.org.cn/Pages/Content.aspxchannelId=ChannelInfo;01f4376e-82b9-4677-a0cd-b8b7eddb7fbe&newsId=NewsInfo;873487c9-0453-4ae2-a715-c9cd5ebf0143,2019年6月19日。 “旨在规定机器人相关的安全设计要求、安全使用要求,运输、存贮、安装等过程中的基本安全要求”,其相关原则对于仿人机方法律与伦理方面的风险亦有指导意义。如《安全规范》稿在“4.1基本原则”规定了“4.1.1 机器人产生的危害应控制在可接受的范围内”,“4.2设计原则”部分规定了“最小风险设计”原则:“首先在设计上消除危险,若不能消除已判定的危险,应通过设计方案的选择将其风险降低到可接受的水平。”在“注1”中还说明“对这些原则的最佳应用需要掌握机器人的使用、事故历史和健康记录、可用的风险减小技术以及有关机器使用的法律体制方面的知识”。本文认为,作为适用于所有机器人的机器人安全的最高国家标准,有理由相信上述风险控制原则也适用于包括“恐怖谷效应”风险等法律与伦理风险的防控。

值得注意的是,《安全规范》稿“5.1.4人类功效学原则”规定:“设计机器人机械时应考虑人类功效学原则(原文如此,应为“人类工效学原则”之误——笔者注),并注意以下要求: a)机器人使用过程中不应导致使用者有紧张姿势和动作……”,尽管此处中的“紧张”本意系指身体即肌肉、骨骼、神经、血液等方面的紧张而导致的姿势和动作,[注] 该项原则位于“5.机械安全”之下,“5.1.1通则”要求“机器人应保证在物理上(机械机构产生的直接伤害)所有风险被降低到可接受的,确保其对人员和周围环境不产生损伤或危害”。 但不无疑问的是,“紧张”往往首先是一种心理状态,进而表现出身体上的紧张,那么,对于陷入 “恐怖谷”导致心理乃至身体的紧张是否也属于上述规定的范围呢?可以参考的是,2017年欧洲议会通过的《机器人民法规则》提出的“机器人使用者准则”第1条规定“——您可以使用机器人而不必担心身体或心理上受到伤害”,而未局限于身体方面。除此之外,该规定还存在其他方面的疑问:比如,“紧张姿势和动作”是否足以涵盖所有的身体紧张表征(比如惊吓出汗、毛孔收缩等)?“紧张姿势和动作”如何进行量化,怎样才算达到紧张的程度?还有,虽然使用者对于(仿人)机器人如果有恐惧心理一般会出现紧张的姿势和动作,但也不排除虽受机器人惊吓或受过度惊吓但并未观测到有紧张姿势和动作,或者使用时虽然没有出现紧张姿势和动作,但事后存在心理阴影乃至出现恐怖症的情形。以上种种疑问使得上述规定之于其所秉承的人类工效学原则保证使用者安全、健康、舒适地工作的目的难以实现。[注] 人类工效学(Ergonomics)是根据人的心理、生理和身体结构等因素,研究人、机械、环境相互间的合理关系,以保证人们安全、健康、舒适地工作,并取得满意的工作效果的机械工程分支学科。参见项英华著:《人类工效学》,北京:北京理工大学出版社,2008年,第1页;另见中国人类工效学学会人类工效学专业介绍:http:∥www.cesbj.org/jieshao.asp,2019年6月19日。 故建议修改为“不应导致……在心理上或身体上感到紧张”,可使规定更加周延,在适用上也更加便于自由裁量。

另外,《安全规范》稿“5.1.4人类功效学原则”的规定将保护对象限于机器人使用者,但对于其他人而言,如消费者而非机器人的使用者看的商场里的迎宾机器人而陷入“恐怖谷”,导致心理和身体紧张,如果不受保护,似有不公。阿西莫夫“机器人三原则”中的首要原则为“机器人不得伤害人类,或看到人类受到伤害而袖手旁观”,欧洲议会《机器人民法规则》提出的“机器人工程师伦理准则”中也明确规定了“不伤害”原则,即“遵循‘不得伤害’的第一法则,要求机器人不得伤害人类”,均未将保护对象限制于机器人的使用者。大幅扩张保护对象会加重机器人生产者、经营者的法律风险,但《安全规范》稿作为我国机器人产业的“顶层安全标准”,面向的是与机器人产生人机互动的所有人,而不应局限于使用者。可能的质疑是,欧洲议会《机器人民法规则》中规定“不必担心身体或心理上受到伤害”的保护对象仅是使用者而非所有人类,但应明确,后者是规定在机器人“使用者准则”中,当然应当限于使用者,但“5.1.4人类功效学原则” 实际上是要按照“5.机械安全”的宗旨“确保其对人员和周围环境不产生损伤或危害”,故不应局限于使用者,而应进一步扩大到与之接触的所有人。

管理员可以查看和修改个人信息,包括工号、姓名、性别、出生日期、工作部门、电话、住址等。 可以修改个人登录密码。可以退出系统功能。

综上,可以将《安全规范》稿上述规定修改为“5.1.4人类工效学原则。设计机器人机械时应考虑人类工效学原则,并注意以下要求:a)机器人使用过程中不应使人在心理上和身体上感到紧张……”,相应地,其他方面(如机械安全的通则)亦随之作适当改动。应当指出,这是通过转接《安全规范》稿技术标准中相关规则的方式间接防范“恐怖谷效应”等机器人风险,而最为可行的规制路径,也是目前国际上通行的治理措施,仍是制定机器人伦理标准(治理准则),防范和化解机器人的伦理和法律风险,使其与《安全规范》稿各司其职,相辅相成。最近,国家标准委人工智能标准化总体组发布了《人工智能伦理风险分析报告》,提出了人工智能主要的伦理风险分布及我国人工智能发展过程中应当遵循的两个最基本原则(人类根本利益原则和责任原则)。国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》,明确提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则。此外,中国人工智能学会伦理专业委员会等也在组织制定人工智能伦理规范。上述举措对我国人工智能伦理准则的确立和后续法律法规的制定具有重要意义。建议相关政府机构和学术团体协调沟通,确定最基本的人工智能和机器人价值准则,至少在基本理念和原则上取得共识,以免同类标准或准则过多或相互之间差别较大而导致相关从业者无所遵从。各行业和部门可再结合人工智能和机器人技术具体应用场景制定相关的伦理指南和法律法规,逐步构建我国人工智能的制度保障体系,实现人工智能和机器人技术产业的法治化运行。

此外,在特定类型的机器人标准方面,如国家标准委2017年发布的《〈餐饮服务机器人通用技术条件〉国家标准征求意见稿》对餐饮服务机器人的外观作出了相应规定,如“5.5 表情互动”规定有“表情互动功能支持餐饮服务机器人根据不同情况作出不同的表情,也可进行手动切换表情功能”,“6.1外观和材质要求”中规定有“6.1.1餐饮服务机器人表面应该光洁,不能有明显的凹痕、裂纹和变形,不应存在划痕、裂纹、缩孔等缺陷”等,但这些均属于餐饮机器人的物理性安全标准的规定,如前述《安全规范》稿一样,也缺乏心理性或者精神性安全标准的规定。鉴于餐饮服务机器人特殊的应用场景,需要频繁高效的人机互动,因而更应避免“恐怖谷效应”风险,建议在该技术条件中对于餐饮服务机器人的表情互动、外观和材质等予以进一步规范和完善。

结 语

当前我国人工智能与实体经济正在加速深度融合,机器人产业在人工智能的加持下不断升级,层出不穷的仿人机器人在打造“注意力经济”的同时也引发一轮又一轮的“机器威胁论”。美国认知哲学家科林·艾伦认为,“不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用我们已经获得的社会、政治和技术资源”,[注] [美]温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红主译,北京:北京大学出版社,2017年,中文版序第2页。 遵循人类的行为规范。人工智能的“具身性”(embodiment)尤其是仿人机器人的身体图式所带来的各种法律与伦理风险,不仅要求机器编码应当加载人类的基本价值观与行为规则,还应当要求机器人的“身体”与外观合乎伦理,遵循法律,规制风险。对于仿人机器人的各种风险的规制,除了在司法实践中通过裁判予以事后惩戒和救济外,更重要的是确立规范体系并不断优化设计,引导和约束机器人从业者的行为,实现人工智能和机器人产业风险的有效预防和治理。德国社会学家乌尔里希·贝克指出:“风险社会给痛苦中的人带来了不确定性,而不确定性的反面则是机遇:在对抗工业社会的限制、指令和进步宿命论的同时,寻找并激活更多的平等、自由与独立,即现代性的允诺。”[注] [德]乌尔里希·贝克:《风险社会:新的现代性之路》,张文杰、何博闻译,南京:译林出版社,2018年,第298-299页。 面对人工智能和机器人技术的进步,必须持续反思技术衍生的不确定性风险,维护人类社会的基本价值观,防止科学对理性的垄断,创建人机和谐共生的智能社会。

中图分类号: D913

文献标识码: A

文章编号: 1000-5285(2019)04-0117-12

DOI: 10.12046/j.issn.1000-5285.2019.04.012

收稿日期: 2019-01-29

基金项目: 本文为上海市高级人民法院上海司法智库2018年重大课题“人工智能时代机器人权利及其风险规制”阶段性成果。

作者简介: 朱体正,男,上海海事大学法学院副教授,法学博士。

(责任编辑:丁 翔)

标签:;  ;  ;  ;  

仿人机器人的法律风险及其规制-兼评《民法典人格权编(草案二次审议稿)》第799条第一款论文
下载Doc文档

猜你喜欢