联合国CCW框架下致命性自主武器系统军控辩争的焦点与趋势论文

联合国CCW框架下致命性自主武器系统军控辩争的焦点与趋势*

徐能武 龙 坤

【内容提要】 在人工智能革命背景下致命性自主武器系统(LAWS)军控逐渐成为国际热点议题,联合国《特定常规武器公约》(CCW)会谈机制作为其核心平台召开了三次非正式专家会议和三次正式政府专家组会议。技术层面,主要探讨了LAWS的定义和特点,各方基本同意LAWS军控不应当妨碍民用人工智能技术创新,但对目前是否应制定及如何制定 LAWS可行定义等问题存在分歧;伦理层面,讨论焦点在于 LAWS对于人权和道德的冲击,各方基本认为不应将生死决定权让渡给机器,但对机器是否作为道德主体等问题存在分歧;法律层面,主要关注LAWS对现有国际人道法的冲击,各方基本同意现有国际人道法依旧适用于LAWS管控,但在是否需要除现有国际法之外增加监管机制等问题上存在分歧;军事层面,主要探讨了 LAWS扩散风险对战略稳定性的冲击及存在的局限性等问题,各方基本同意研发部署LAWS的责任在于国家和指挥官,但在预防性禁止还是暂时放任,甚至鼓励发展 LAWS等问题上存在分歧。展望未来,这一军控机制可能推动制定各方接受的LAWS工作定义,探索将伦理道德嵌入LAWS的可能性与方法,建立LAWS的法律审查机制,拟定暂停部署LAWS的政治宣言或法律文书。由此,中国应继续积极参与CCW框架下LAWS军控探讨,推动管控相关战略风险及伦理法律挑战,以维护自身国家利益和人类安全福祉。

【关键词】 《特定常规武器公约》;致命性自主武器系统;人工智能;军备控制

伴随着大数据的爆炸式增长、算力的显著提升和深度学习算法的进步,人工智能在经历了两起两落的起伏后,迎来了第三次发展浪潮,正深刻影响着各国经济、政治、军事、社会等各个领域。一方面,人工智能对产业变革和军事革命的潜力为许多人所追捧,认为其将深刻改变人类社会图景,给人类带来更多福祉,为实现人类的彻底解放提供了前所未有的机遇。未来学家雷·库兹韦尔(Ray Kurzweil)在其著作《灵魂机器时代》和《奇点临近》中畅想了机器在未来超过人类智能并能帮助人类实现永生的宏伟图景;① Ray Kurzweil, The Singularity is Near: When Humans Transcend Biology, New York: Viking Adult, 2005; Ray Kurzweil, The Age of Spiritual Machines: When Computers Exceed Human Intelligence , Viking Adult, 1999. 另一方面,对人工智能带来社会、安全、法律、伦理问题以及对人类生存构成威胁的担忧之声也不绝于耳。著名科学家詹姆斯·巴内特(James Barrat)在其《最后的发明:人工智能与人类的终结》一书中警示人工智能对人类可能带来毁灭性影响。② James Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era ,Thomas Dunne Books, 2013. 表达这种类似担忧的典型文献还有很多,如:Martin Rees, Our Final Century , Arrow Books Ltd, 2015; Matt Miller, “Artificial Intelligence, Our Final Invention?” The Washington Post , December 18, 2013, https://www.washingtonpost.com/opinions/matt-miller-artificialintelligence-our-final-invention/2013/12/18/26ed6be8-67e6-11e3-8b5b-a77187b716a3_story.html?utm_term=.1d290dc574b0。 史蒂芬·霍金(Stephen Hawking)也称,人工智能是人类最好的发明或是最后的发明,人工智能的快速发展或将导致人类覆亡。③ Rory Cellan-Jones, “Stephen Hawking Warns Artificial Intelligence Could End Mankind,”BBC , December 2, 2014, http://www.bbc.com/news/technology-30290540. 人工智能军事化的风险不断显现,特斯拉创始人埃隆·马斯克(Elon Musk)将发展通用人工智能比作“召唤恶魔”,提醒人们警惕人工智能对人类的潜在威胁,并称各国竞相争夺人工智能发展优势可能导致第三次世界大战的发生。④ “Elon Musk Says AI Could Lead to Third World War,” The Guardian , September 4, 2017,https://www.theguardian.com/technology/2017/sep/04/elon-musk-ai-third-world-war-vladimir-putin.除此之外,一批知名科学家发表联名公开信,呼吁发展可靠的、对人类有益的人工智能。⑤ “An Open Letter: Research Priorities for Robust and Beneficial Artificial Intelligence,” Future of Life Institute , https://futureoflife.org/ai-open-letter. 该公开信由科学家斯图亚特·拉塞尔(Stuart Russel)起草,签署该公开信的科学家目前已经超过 80人,包括物理学家霍金、牛津大学哲学教授尼克·博斯特罗姆(Nick Bostrom)等知名人物。在此背景下,致命性自主武器系统(LAWS)的军备控制也逐渐进入国际政治和国际安全讨论的视野中。

目前,国内外学界从战略稳定性、国际安全、军备控制等视角对基于人工智能的LAWS进行了考察,① 这类研究主要有:董青岭:《机器学习与冲突预测——国际关系研究的一个跨学科视角》,载《世界经济与政治》 2014年第7期,第100-117页;封帅:《人工智能时代的国际关系:走向变革且不平等的世界》,载《外交评论》2018年第1期,第128-156页;刘杨钺:《全球安全治理视域下的自主武器军备控制》,载《国际安全研究》2018年第2期,第49-71页;徐能武、葛鸿昌:《致命性自主武器系统及其军控选择》,载《现代国际关系》2018年第7期,第54-62,23页;Edward Geist, and Andrew J. Lohn,How Might Artificial Intelligence Affect the Risk of Nuclear War? Rand Corporation, April 24, 2018, https://www.rand.org/pubs/perspectives/PE296.html; Jürgen Altmann and Frank Sauer, “Autonomous Weapon Systems and Strategic Stability,” Survival , Vol. 59,No. 5, 2017, pp.117-142; Nathan Leys, “Autonomous Weapon Systems and International Crises,”Strategic Studies Quarterly , Vol. 12, No. 1, 2018, pp. 48-73;Paul Scharre, Army of None: Autonomous Weapons and the Future of Wa , New York: W. W. Norton & Company, 2018; Patrick Lin, “Autonomous Military Robotics: Risk, Ethics, and Design,” US Department of Navy, Office of Naval Research, December 20, 2008, http://ethics.calpoly.edu/ONR_report.pdf;Paul Scharre, “Autonomous Weapons and Operational Risk,” Ethical Autonomy Project, Center for a New American Security, February 2016,https://www.files.ethz.ch/isn/196288/CNAS_Autonomous-weapons-operational-risk.pdf。但尚未有人专门从联合国《特定常规武器公约》(CCW)这一核心平台对LAWS进行研究和总结。有鉴于此,本文拟以技术、伦理、法律以及军事四个维度为主要框架,系统梳理CCW框架下LAWS讨论中的主要观点、共识和分歧,并对其未来的发展趋势进行研判,为中国在LAWS领域的决策提供参考。

一 CCW框架下LAWS军控探讨的由来及进展

军备控制(arms control)是指对武器及其相关设施、相关活动或者相关人员进行约束。② 李彬:《军备控制理论与分析》,北京:国防工业出版社2006 年版,第4页。 《特定常规武器公约》(Convention on Certain Conventional Weapons,CCW ),全称为《禁止或限制使用某些可被认为具有过分杀伤作用的常规武器公约》(Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May be Deemed to be Excessively Injurious or to Have Indiscriminate Effects ),是联合国成员国在1980年10月10日于瑞士日内瓦签署的一份国际公约,③ 与此公约一同签署的还有三份议定书,分别是《关于无法检测的碎片的议定书》、《禁止或限制使用地雷(水雷)、饵雷和其他装置的议定书》以及《禁止或限制使用燃烧武器议定书》。 并在1983年12月2日生效。该公约属于国际武装冲突法(也称国际人道主义法)关于作战手段和方法规定的一部分,也是国际军备控制与裁军多边条约体系下的一个重要协定,旨在世界范围内禁止或限制地雷、集束弹药、激光致盲武器、燃烧武器等非人道常规武器,致力于推进国际人道主义和常规武器的军备控制。① 孙雯:《中国对待〈特定常规武器公约〉的态度评析》,载《西安政治学院学报》2008年第4期,第89-93页。 随着人工智能的快速发展和军事化应用风险的日益凸显,《特定常规武器公约》逐渐将LAWS军备控制纳入到讨论议题之中。

(7)出台配套财税扶持政策。出台分布式能源配套财税扶持政策。建议国家对天然气分布式能源示范工程给予投资补贴,建议国家能源主管部门和财政主管部门在审核天然气冷热电供能项目节能减排的基础上,对项目节约资源、减少污染物排放给予奖励。将天然气分布式能源缴纳的增值税、企业所得税省内留存部分按综合能源利用效率分档奖励企业。鼓励银行等金融机构结合天然气分布式能源的特点和融资需求,提供优惠贷款。天然气分布式能源项目可享受重大技术装备进口关税优惠政策。

(一)CCW框架下讨论LAWS军控的三次非正式专家会议

最早将 LAWS提上 CCW讨论议程的事件可追溯到 2013年。在这一年的CCW缔约国会议上,与会各国经讨论决定于次年在CCW设立专门讨论LAWS的非正式专家会议。之后至今,在《特定常规武器公约》框架下围绕LAWS这一议题共召开了三次非正式专家会议和三次政府专家组会议(见表 1)。2014年5月13~16日,由法国大使让-于格·西蒙-米歇尔(Jean-Hugues Simon-Michel)担任主席的联合国《特定常规武器公约》第一次非正式专家会议在位于日内瓦联合国欧洲总部召开,首次在CCW框架内对LAWS的相关问题进行了探讨。② CCW,Report of the 2014 informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) (《2014年致命性自主武器系统问题非正式专家会议的报告》), June 11, 2014,https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/048/96/pdf/G1404896.pdf?OpenElement。会议为期四天,由全球各国学界、政界以及军方相关人士参加,围绕 LAWS的“技术问题”“伦理与社会问题”“国际人道主义法及国际法其他领域问题”“实战与军事问题”等议题展开广泛讨论,并将研讨成果形成报告递交联合国。2015年4月13~17日,由德国大使米夏埃尔·比翁蒂诺(Michael Biontino)担任专家会议主席的第二次CCW非正式专家会议在日内瓦召开,针对“技术问题”“LAWS的特点”“国际人道主义法”“全局性问题”和“前进道路”等问题进行了深入探讨。③ CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), June 2, 2015, https://documents-dds-ny.un.org/doc/UNDOC/GEN/G15/111/60/pdf/G1511160.pdf?OpenElement.2016年4月11~15日,《特定常规武器公约》第三次非正式专家会议在联合国日内瓦办事处召开,围绕“自主性”“LAWS可行定义”“国际人道主义法面临的难题”“人权和道德问题”以及“安全问题”等议题进行了深入讨论。④ CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , June 10, 2016, https://documents-dds-ny.un.org/doc/UNDOC/GEN/G16/117/16/pdf/G1611716.pdf?OpenElement.

(二)CCW框架下讨论LAWS军控的三次政府专家组会议

2016年12月,《特定常规武器公约》缔约国第五次审议大会召开,决定成立专门致力于讨论与LAWS相关的新兴技术的政府专家组(Group of Governmental Experts on Lethal Autonomous Weapons Systems,简称GGE on LAWS )。由于资金短缺,原定于2017年4月或8月举行的专家组会议未能如期召开。2017年11月13~17日,该政府专家组召开了关于LAWS的会议(以下简称第一次正式会议),这也是继之前三次非正式会议讨论基础上召开的第一次正式会议,由印度大使阿迪曼·辛格·吉尔(Amandeep Singh Gill)担任主席,探讨了LAWS的技术、军事效用、法律/道德和交叉问题,旨在探索建立新全球管制和国际法的具体步骤,以遏制 LAWS的快速发展和使用。① CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) Advanced version , November 20, 2017, https://www.unog.ch/80256EDD006B8954/(httpAssets)/B5B99A4D2F8BADF4C12581DF0048E7D0/$file/2017_CCW_GGE.1_2017_CRP.1_Ad vanced_+corrected.pdf . 最终版可参阅:http://undocs.org/CCW/GGE.1/2017/3。 在此次会议上,CCW 缔约国(High Contracting Parties)决定,2018年于日内瓦召开两次共为期十天的正式会议。2018年4月9 ~13日,第二次正式会议召开,聚焦“LAWS的特点”“使用致命武力的人的因素以及在LAWS领域开发、部署和使用新兴技术的人机交互问题”“审查LAWS相关技术的潜在军事应用”以及“LAWS带来的人道主义和国际安全挑战”等问题。2018年8月27~31日,第三次正式会议再次在日内瓦召开,针对同年4月的会议议题继续进行深入讨论,并形成了报告。这次会议凝聚了一定共识,针对LAWS相关问题形成了十条可能的指导原则。② CCW, Report of the 2018 Group of Governmental Experts on Lethal Autonomous Weapons Systems (CCW/GGE.2/2018/3 ), August 31, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/20092911F6495FA7C125830E003F9A5B/$file/2018_GGE+LAWS_Final+Report.pdf.目前,已有26个国家基于违反人权标准的理由,支持全面禁止完全自主武器。此次会议还决定,将在2019年继续召开为期十天的政府专家组会议,进一步讨论LAWS的相关问题。有关联合国CCW框架下LAWS军控的历次会议参见表1。

粒粒带着那副手套飞去昆明,然后转机直飞腾冲机场,又坐顺路车到了顺古镇。就算是晚上,这里的温度也有十几度,这样的温度手套根本就派不上用场。

2015年会议还讨论了LAWS的拟人化倾向。专家指出,人类社会存在将非人物品拟人化的趋向,在设计机器人时加入人的特征便是一个集中反映。这种人类特征的投射可能会产生混淆和误导期望。目前围绕人工智能所探讨的“自主性”“智能”“自我意识”等术语属于可能会使这种情况更加严重,催生对 LAWS的误导性解释框架,造成“机器的人化”和“人的机器化”两大危险。为了破除这种趋向,专家建议应当改变用词,使用“人工自主性”“机器人自主性”“人工智能体”等术语来强调机器与人之间的差异性,回归以人为本的理念。① CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , pp. 18-19.在2018年的报告中也特别强调,“在制定潜在的政策措施时,LAWS领域的新兴技术不应当被拟人化(anthropomorphized)”。

表1 联合国CCW框架下LAWS军控的历次会议概要

二 LAWS军控政府专家组讨论的焦点问题

如前所述,2014~2018年,联合国CCW共围绕LAWS军备控制举行了三次非正式专家会议和三次正式专家会议。概括而言,这六次会议讨论的主要议题可以分为LAWS的技术问题、伦理和社会问题、法律问题以及军事与安全问题。以这四大方面为主要框架,可将联合国CCW框架下这六次LAWS军控会议讨论的主要议题、观点与建议总结如下。

(一)LAWS的技术问题

LAWS的技术问题方面,与会各方主要探讨了LAWS的概念、特点以及局限性等内容。

1. LAWS的定义

针对目前是否应该在CCW框架下对于LAWS做出定义以及如何定义,与会专家和代表团具有广泛争议。在目前是否有必要制定LAWS定义问题上,两方观点迥异。首先,一些代表团强调有必要在现阶段制定可行定义。2014年的会议中有一些代表团提出“厘清相关概念是进行更具实质性工作的前提”。 2016年的会议中,也有很多专家认为,制定LAWS的可行定义是必要的,有助于克服抽象地讨论此问题而难有进展的窘境。其次,一些代表团认为,LAWS目前尚不存在,因此现在想要界定LAWS非常困难也无必要,提出一个广泛接受的LAWS定义并非着手开展实质性工作的必要前提。再次,在制定什么样的 LAWS定义上,与会代表也存在诸多分歧。一些人认为可行的定义应当足够宽泛,涵盖现有的致命性半自主武器系统以及适用于今后的技术发展。一些人则认为,应当着力强调人类参与使用武力的程度以及人机关系进行定义。此外,关于是否应当区分致命性自动系统、半自主系统、完全自主武器系统进行区分也存在广泛争议。

4. 开发共识:LAWS监管措施不能阻碍民用人工智能的合理开发

目前,在缺乏公认定义的现实情况下,明确LAWS区别于其他常规武器的主要特点,成为一种探讨LAWS技术问题的突破口和主流方向。总体来看,几次会议关于LAWS特点的探讨主要聚焦以下几个方面。

秸秆特殊的理化性质遏制其作为工业原料的开发应用,对秸秆进行适当预处理很有必要,但预处理带来的高成本、高能耗,使其失去推广价值;秸秆的体积大、易吸水、不具有流动性,容易导致泵和排渣管道的严重堵塞,设备故障率高。所以如何“液化”秸秆是首要解决的问题,而且这也是秸秆走向高附加值产品的必要条件,必将为秸秆利用开拓更广阔的市场,为人类社会带来更高的经济和社会效益[48]。

一是“自主性”(autonomy)。自主性是LAWS的一个核心特点,但关于“自主性”的概念,国际社会存在广泛争议,也深刻体现在此次会议的讨论中。在2014年的会议中,许多代表认为确定一些关键要素来进行描述自主性概念是必要的,包括“人的实际控制”(meaningful human control)、“可预测性”(predictability)、“在无人干预的情况下选择并锁定目标的能力”、“人参与设计、测试、审评、训练和使用”等概念。① CCW,Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 3. 在2015年的会议中,对于自主性概念的探讨进一步深化,探讨了自主性概念的多个维度。第一个维度是“从人的控制程度”(the degree of human control)对LAWS的自主性进行分类,可分为“人在回路中”(in the loop)、“人在回路上”(on the loop)以及“人在回路外”(off the loop);第二个维度是从“智能的程度”(degree of intelligence)进行分类,可以划分为自动化(automated)和完全自主性(fully autonomous)机器和系统之间的连续谱;第三个维度是对“任务的性质”(nature of task)进行分类,从一项行动中的小部分到全局性目标。还有一些专家建议简化自主性的定义,可以将武器系统的自主性简单理解为“没有人的控制”。② CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 5.

二是“人的实际控制性”(meaningful human control)。在2015年的会议中,专家强调,“人的实际控制”是指人能够规范和限制有能力独立运作的武器技术系统,主要包括控制使用武力的时间、地点和方式,是一种确定使 LAWS合法并可接受的各种参数的一种方法,而不是对自主性进行定义的手段。③ CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 10. 然而,一些代表团对该定义表示了质疑,称这种提法过于含糊和主观,难以防止意外后果,因为人的控制容易受到外界环境的影响,尤其是在受到胁迫的情况下。还有一些专家提倡使用“人的判断”(human judgement)这一概念。④ CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 14. 2016年的会议中,一些代表团再次强调以“人的实际控制”的概念作为评估 LAWS的法律、道德和伦理问题框架,也有部分代表团建议在使用LAWS不同阶段(如武器选择、武器部署、目标选择和攻击等阶段)考虑“人的实际控制”。但部分代表团批评这一概念的“主观性”以及确定概念范围的困难性,希望以“人的适当判断”取代“人的实际控制”这一概念。⑤ CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 3.

管道平面设计原则:一要线路短、起伏小、土石方工程量小、造价经济;二要考虑拐点数量、角度、过路、过沟,同时考虑避让村庄、房屋、田地、输电线路杆塔、坟地,减少拆迁及附着物赔偿费用;三要尽量避免穿越河谷、山脊、沼泽和泄洪地区;四要考虑近远期结合和分期实施的可能。

三是“军民两用性”(dual use)。在2015年的会议上,一些专家特别提到了LAWS的军民两用特点。在这个问题上,与会专家主要讨论了处理LAWS的系统方法、规范民用自主系统的法律框架以及军民两用出口管制制度的性质。系统方法方面,专家指出LAWS应当被视作复杂的网络系统而非独立的平台。在局势复杂的战场上,LAWS网络如能整合周围基础设施形成C4ISR系统,就能够为作战提供显著优势。法律框架方面,专家指出自主性系统在交通医疗等民用领域已经得到了广泛运用,并受到国家法律条款的约束。但由于军事领域的残酷性等特点,LAWS在民用领域的法律经验无法简单适用于军用领域。出口管制方面,面临的主要问题是如何既阻止非法LAWS开发又不妨碍和平的技术研发。目前已有的《化学武器公约》和《生物武器公约》对军民两用技术和产品出口进行管制,侧重于使用目的(即最终用途)而非一般目的(具体的物质或技术),这可以为LAWS出口管制提供经验和范例。但是,一些代表认为,在没有明确LAWS定义的情况下就开始讨论对LAWS进行出口管制有些为时尚早,且LAWS能否归为传统武器也存在很大争论。① CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , pp. 12-14.

四是“致命性”(lethality)。关于LAWS的致命性特点,各国代表团存在争议,一些代表提倡以更具包容性的方式来理解LAWS,不一定致死的所有战争手段和方法都应当囊括其中;另一些代表认为,只有使用武器具备致命性,对于国际人道法才会造成大的冲击。② CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 5.此外,还有一些代表团提出了LAWS具有其他一些特点。③ 例如,中国代表认为LAWS具有致命性、自主性、不可终止性、不加鉴别性和进化性五大特点,参见 China, CCW/GGE.1/2018/WP.7 “Position Paper Submitted by China,” April 11, 2018,https://www.unog.ch/80256EDD006B8954/(httpAssets)/E42AE83BDB3525D0C125826C0040B262/$f ile/CCW_GGE.1_2018_WP.7.pdf, p. 1。

(二)LAWS的社会与伦理问题

社会与伦理方面,主要聚焦于LAWS对人权和伦理带来的冲击。

1. LAWS与人权问题

2015年的会议对LAWS给现行国际人道法带来的影响展开了进一步探讨,旨在确立 LAWS相关的规则、责任保障和法律义务。与会专家就“合法武器审查”“是否与必要实施额外监管”以及“新技术背景下的国际人道主义法”三个议题进行了研讨。合法武器审查方面,专家认为,根据《日内瓦公约》的《第一附加议定书》第三十六条规定,缔约国在研究、发展和获取新的武器、作战手段或方法时,应进行合法武器审查,③ 非缔约国也应当遵守国际习惯法下审查新武器的义务。 确保其遵守现有国际法。审查重点是这类武器或系统能否以及如何在攻击目标时做到与人一样准确,包括评估预期军事优势和附带损伤、区分战斗人员与平民、区分健全的战斗人员与失去作战能力的战斗人员等能力。专家指出,目前的进攻性LAWS很可能无法通过这种审查,但随着技术的进步,未来或许能够满足要求。额外监管方面,专家认为 LAWS是一个涵盖多种武器系统的“伞式术语”(umbrella term)。评估LAWS系统是否遵守国际人道主义法,取决于武器系统的具体类型、任务类型、使用目的(攻击还是防御)、使用环境、目标类型(人员还是物体)、武力类型(动能还是非动能)等要素。专家强调“可预测性对评估国际人道主义法的遵守至关重要,部署效力难以预测的武器系统会产生违反国际人道主义法的严重风险”。因此,红十字国际委员会鼓励各国为审查程序建立一项额外机制,以测试可预测性。① CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , pp. 18-19.

在问责方面,各代表团也普遍认为,在武装冲突中部署包括 LAWS的任何武器系统,其责任完全在于使用武器系统的国家行为体。2018年的报告中也明确指出,“必须保留人类对使用武器系统决定的责任,因为责任不能转移到机器上。这应该在武器系统的整个生命周期中加以考虑。” ⑤ “Report of the 2018 Group of Governmental Experts on Lethal Autonomous Weapons Systems,” CCW/GGE.2/2018/3, 31 August 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/20092911F6495FA7C125830E003F9A5B/$file/2018_GGE+LAWS_Final+Report.pdf, p. 5. 有鉴于此,各国必须根据使用国际法(尤其是国际人道主义法)对国家武装部队在武装冲突中所用的任何武器系统的致命行动建立问责制,使其承担政治和法律责任。⑥ CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p.13;CCW, Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 4.

2. LAWS与伦理问题

总的来看,目前关于LAWS军控的议题在CCW这个平台上已经成为一个新兴的热点问题,大量的主权国家、国际组织以及大学、科研等实体机构参与其中,越来越受到国际社会的关注和重视。

关于是否应当将“生死决定权”授予机器是伦理讨论的一个核心话题。2016年会议讨论了将“生死决定权”授予机器对伦理道德的影响。很多代表团认为,在没有任何人类干预的条件下将“生死决定权”交给机器在道德和伦理上是无法接受的。若干代表团指出,其所代表的国家无意开发或获取这类性质的武器系统。2016年会议代表也普遍认为将人的生死决定权交给机器是不可接受的,机器无所谓死亡,因此也不应当决定人的生死。

选取2015年1月~2017年12月医院收治的多重耐药菌感染患者263例作为研究对象,并将患者的标本送检,做菌株鉴定和药敏试验。

右手在开头第1与第2小节上出现的附点节奏的三个音符的动机像是接连两次的问句,带有即兴的性质,并且显得优柔寡断,但是这个问句两次都以轻声又肯定的回答结束。由此产生了一种嘲讽的戏剧化的对比效果。这种效果,按照罗森的说法是,“将高度的抒情性与幽默的结合,给予这首奏鸣曲一个个性化的印记”。第3小节开始的重复的和弦组合,此后又在第35至42小节出现,但是现在是小调性质,经过一系列模进,进入欢快奔放的第二主题。它再次出现时,加了装饰性的变奏。结束部以一个终止式回到开头的和弦。

法律和道德之间的关系是另一个重要问题。一些代表认为,将道德价值观与法律要求进行区分对于避免混淆至关重要。但另有一些代表认为这两个问题无法完全区分,在法律本身不完全明晰的条件下,道德问题难以避免。在“是否以及如何将人类的道德标准嵌入机器程序”这个问题上,也存在不少争论。很多人认为,将定性价值判断和相称性评估转化为软件代码是不可能实现的,但另一些代表认为并未排除这一可能性。此外,关于公众良知(public conscience)的讨论也是伦理方面的一个重要议题。

(三)LAWS的法律问题

2014年的会议初步探讨了LAWS对现行国际法的适用问题,主要包括国际人道主义法、《关于保护战争受难者的1949年日内瓦四公约》、① 1949年8月12日,63个国家在日内瓦签订了四个公约,分别是《改善战地武装部队伤者病者境遇之日内瓦公约》《改善海上武装部队伤者病者及遇船难者境遇之日内瓦公约》《关于战俘待遇之日内瓦公约》《关于战时保护平民之日内瓦公约》,统称《关于保护战争受难者的 1949年日内瓦四公约》。该公约于1950年10月21日生效,规定了冲突各方最低限度应遵守的原则。 《马顿斯条款》以及习惯法等问题。各国专家和代表团都强调 LAWS的任何研制和适用都必须遵守国际人道主义法。LAWS的研制和使用可能带来的国际法问题主要有两个:一是可能会带来“问责空白”(accountability gap);二是可能影响诉诸战争权(jus ad bellum),显著降低战争门槛。② CCW,Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 5.

人权是LAWS探讨中的一个突出问题。2015年会议中,一个专家小组专门聚焦于 LAWS的人权问题。在这次会议中,一些专家建议应当将国际人权法纳入LAWS讨论的框架中,强调LAWS的研发和使用会对人类生命权、身体完整权、人类尊严权、人道待遇权、公平审判权以及获得补救的权利造成潜在影响。因为,机器如果自主作出生杀予夺的决策,必然会影响到目标人员以及所代表当事方(国家、政府和社会)的尊严,而支撑其他权利的尊严权也难免会受到 LAWS的巨大挑战。根据现有战争法,国家军事人员只有在必要时才能诉诸武力,且必须符合相称性原则,但LAWS将很难满足这些要求。此外,对于使用武力的侵权行为进行补救是基于个人问责的前提,但LAWS所固有的机器问责空白将明显违反国际人权法。基于以上考虑,一些专家认为应当禁止LAWS的研发和使用。

2016年的会议专设“国际人道主义法面临的难题”这一分论坛,进一步探讨了对武器进行法律审查以及 LAWS的问责问题。会上多数代表团强调,国际人道主义法的规则依旧适用于LAWS的监管,应当以武器的法律审查为核心工具,确保能够在遵守国际人道主义法的前提下使用新的武器系统。这类审查通常由本国国防和外交部门人员组成,依靠拥有政治、法律、军事、技术等背景的专家团队进行多学科评估。与此同时,也有部分代表团提出了质疑,称武器审查程序不足以处理LAWS的问题。如果缺乏国际层面的共同标准,这类程序的价值十分有限。因为目前只有少部分国家履行审查的义务,不具有普遍性。此外,一些国家可能利用国内进行的审查程序将 LAWS使用合法化。在问责方面,一些代表团质疑能否在部署LAWS时维持有关使用武力及其效果所需的问责制和责任标准。在涉及LAWS的事故中,如何在指挥链或责任链中确定责任归属是一个极大的难题。② CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 3.

2017年会议同样涉及了LAWS的国际法相关问题。在一般性辩论中,各代表团强调国际人道主义法适用于LAWS,在攻击时必须确保严格遵守区分性、相称性等基本原则。LAWS的问责问题也是这次会议的讨论焦点,各代表团基本认为,国家对其管辖下LAWS的行为负有法律责任,具体应由指挥链中的某一个人负责。一些代表指出,《马顿斯条款》可用于弥合理解现有国际法使用方面的潜在差距,但另一些与会者质疑该条款的充分性。③ CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 6.

除了国际人权法外,一些代表团还强调应当考虑将国际人权法等其他国际法适用于LAWS的问题。除了在CCW框架下讨论LAWS问题,还可以在其他论坛(比如人权理事会)进行讨论。一些代表对 LAWS使用可能严重影响人权(尊严、生命权、正当程序权等)表示严重关切,强调应当在国际人权法严格的条件限制之下合理使用武力,例如正当防卫的情况。

(四)LAWS的军事与安全问题

军事与安全方面,相关会议主要探讨了LAWS的军事应用、扩散风险、局限性以及对国际安全的影响以及解决方案等问题。

1. LAWS带来的战略稳定性隐忧

战略稳定性是指当潜在对手认识到如果与对方发生冲突难以得利的情况下,双方便不会轻举妄动,主要包括危机稳定性和军备竞赛稳定性两个方面。根据攻防平衡理论,当防御占优势时,战略稳定性会增强,而当进攻占优势时,战略稳定性会削弱。① Jack Levy, “The Offensive/ Defensive Balance of Military Technology: A Theoretical and Historical Analysis,” International Studies Quarterly , Vol. 28, No. 2, 1984, pp. 219-238; Stephen Van Evera, “Offense, Defense, and the Causes of War,” International Security, Vol. 22, No. 4, 1998,pp. 5-43. LAWS属于进攻占优型武器,可能对战略稳定性产生极大的负面影响,威胁地区和国际安全。与会专家和代表团认为,主要的作用路径有以下几个方面:一是LAWS会有助于进攻占优,使得“先发制人”成为获取战略优势的最佳手段,降低武力使用的门槛,刺激各国进行军备竞赛。二是 LAWS的使用会对使用武力的责任归属构成巨大难题,容易带来战略误判,破坏战略稳定性。三是放大国家间武装冲突的不对称性质。一些代表团指出,拥有先进技术且有能力开发、采购和部署LAWS的国家与没有这些能力的国家之间的差距,在今后很有可能会继续放大武装冲突的不对称性质。② CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 4.为了维护新技术背景下的战略稳定性,专家强调在透明度和设计的价值观方面要加快推进。透明度方面,专家认为信息透明度可以包括关于LAWS的法律和政策信息、技术信息、实际使用行为信息、进程和问责信息等,建议在首期透明度行动计划中在国际层面建立协同中心、为信息的国际交流建立联络点、提高互动频率等。在联合国CCW框架下设立一个自愿的国家间定期信息共享机制,使国家能够共享关于开发和取得自主性武器或关于使用此类武器系统的相关信息。在设计价值观方面,专家认为设计LAWS系统时必须允许对其进行控制,包括在相关系统不同级别的透明度和可验证性控制。③ CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), pp. 22-23.

2. LAWS的扩散风险

一些专家认为,LAWS对恐怖组织、跨国犯罪集团等非国家行为体具有巨大吸引力,使其有能力成倍增强武力强度,节省自身战斗人员,发动恐怖袭击等(比如目前已经有开发运送爆炸物的无人机的技术基础)。此外,这类行为体通常不会考虑国际规范的限制。因此,LAWS的研发可能加剧恐怖主义威胁,恶化全球安全状况。此外,LAWS研发可能恶化“不对称战争”情况,刺激叛乱和报复行为,提高冲突升级的风险。为了防止自主性技术的扩散,一些专家建议依据《第一附加议定书》第三十六条的合法武器审查程序,交换相关信息,对自主性技术的国际转让实施有效控制,防止扩散和非国家行为体的滥用。① CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 23.更为重要的是,由于人工智能技术军民两用的内在性质,许多最初用于民事用途的自主系统很容易经过改装转化为军事系统,这无疑给扩散带来了便利。此外,LAWS被恶意滥用及通用人工智能对人类可能的毁灭性“生存威胁”也是一大担忧。

3. LAWS军事应用的局限性

各生境植物群落准则层得分均值如图3所示,其中B1~B4分别代表群落稳定性、典型性、稀有性和乡土文化性。总体来看,各生境植物群落稀有性均较差,可见该地区村落现存的濒危保护植物和古树名木较少;各生境群落的典型性得分普遍高于稳定性得分,可见各生境中植被群落虽然还保留着该生境下的基本结构,但是在生物多样性、郁闭度、生长势、优势种更新潜力等方面存在着较大问题。分生境来看,绿林地植物群落总体情况较好;路边植物群落现状堪忧;建筑周边植物群落在乡土文化性方面表现突出,具有丰富的植物文化和突出的乡村景观特点。

LAWS系统的核心技术是人工智能,而人工智能技术拥有诸多局限性,因此人工智能的局限性也构成了LAWS系统的弱点所在。一般而言,可以将之分为内部固有局限性和外部局限性两个方面。在内部局限性方面,不同于传统的信息技术,人工智能具有极高的复杂性,也更加容易带来不确定性和不可预测性。具体而言,人工智能存在“算法黑箱”这一固有缺陷,其作用机制难以为操作和部署此类机器的人员完全理解,结果也更加难以预测。一方面,由于系统自我交互、人机交互等引起的系统故障很难排除,当不同方案和系统组合或者系统和代码互动速度过快时,这类风险可能会加剧;另一方面,外部局限性主要来自于网络攻击,比如遭遇敌方黑客攻击、数据注毒等引起的脆弱性。LAWS需要依托电脑软件和系统才能运行,而软件和系统恰恰容易被敌方进行网络攻击,在战场上出现失能甚至临阵倒戈的风险。

4. 解决方案

在茶产品的分析检验内容中,茶叶的感官检验由“茶叶审评”课程讲授,微生物检验由“微生物学”课程讲授,通过教学大纲规范该课程(包含实验)与其他课程学习内容,避免内容的重复。

在如何应对LAWS所带来的军事和国家安全风险方面,各代表团和专家组提出了不同的建议,主要方法可总结为以下几种:一是基于现有的国际法足以管控LAWS所带来的安全风险这一认识,强调个人应当对LAWS研发和部署的各个过程负有责任,提倡通过清晰一致的武器审查法,建立透明和相关信任措施,防止LAWS引发新型军备竞赛以及对非国家行为体和恐怖组织的扩散。此外,相关的科学和商业共同体共同推动建立透明和信息措施,防止新兴技术落入非法组织手中。二是在第一种方案基础之上,建立新的具有法律约束力的其他必要规定,采取包括限制和禁止在CCW目标和宗旨范围内已经出现的武器系统类型。法国和德国的代表团提交了一份联合提案,建议发布一份政治宣言(political declaration),强调人必须对使用武力的生死决策负责,在没有政策偏见的前提下,保持对LAWS的控制。① France and Germany, “Statement by France and Germany under Agenda Item ‘General Exchange of Views',” April 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/895931D082 ECE219C12582720056F12F/$ file/2018_LAWSGeneralExchange_Germany-France.pdf, p. 2. 随后,还要制定相关行为准则和进一步建立信任措施。此外,还有一种观点认为政治宣言的法律约束力可能不足,建立政治宣言只是临时措施,还需要进一步缔结一项具有法律约束力的文书(legally binding instrument),比如建立新的CCW议定书等。此外,更为激进的观点要求暂停和禁止LAWS的研发和部署。② CCW, “Chair's Summary of the Discussion on Agenda Items 6 a, b, c and d,” April 9-13, 2018,https://www.unog.ch/80256EDD006B8954/(httpAssets)/DF486EE2B556C8A6C125827A00488B9E/$f ile/Summary+of+the+discussions+during+GGE+on+LAWS+April+2018.pdf, pp. 12-13.

4. 法律分歧:LAWS是否需要国际人道法之外新的额外监管?

三 CCW框架下LAWS探讨的主要共识、分歧与趋势

经过CCW多次召开关于LAWS这一新兴议题的会议,世界广大国家、国际组织和科研机构等代表都基于本国或本组织的立场在这个平台发表了自己的观点,围绕LAWS军控的主要共识和分歧逐渐明晰,可将其总结如下,并在此基础上对未来趋势进行研判和展望。

(一)主要共识

通过对这几次会议报告的整理分析,可看到目前CCW框架下关于LAWS探讨形成了以下主要共识。

1. 平台共识: CCW是讨论LAWS问题的适当平台

所有患者术后72 h行颅脑增强MRI检查肿瘤切除情况,根据Simpson分级标准,达到Ⅰ级 58例,Ⅱ级13例,Ⅲ级9例。术后送病理检查均诊断为脑膜瘤,Ⅰ级良性脑膜瘤59例,Ⅱ级非典型性脑膜瘤21例。术后即时发现,8例多饮多尿者中6例症状缓解,2例无明显改善;5例并发一过性尿崩;4例嗅觉减退;4例颅内感染;1例脑脊液漏;1例出现高热、血糖升高等严重下丘脑反应而死亡;1例大量出血形成脑疝而死亡。随访2~7.5年,平均(5.4±1.4)年,56例视力不同程度的改善,21例无明显变化,3例视力减退。11例复发,复发率为13.8%,再次行手术治疗。

目前,各代表团都一致赞赏CCW在推动LAWS相关问题探讨和解决上发挥的重要作用,并认为CCW可以成为讨论和解决LAWS相关问题的核心平台。在2017年政府专家组的报告中明确指出,CCW为处理LAWS领域新技术问题提供了适当的框架。CCW具有模块化和不断演变的特点,致力于在人道主义考量和军事必要性之间寻求平衡,为多个利益攸关方提供了参与机会。③ CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS), p. 3.在2018年的报告中也明确指出,“CCW为处理LAWS领域的新兴技术问题提供了适当框架,力求在军事必要性和人道主义考量间取得平衡。”① “Report of the 2018 Group of Governmental Experts on Lethal Autonomous Weapons Systems,” CCW/GGE.2/2018/3, 31 August 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/20092911F6495FA7C125830E003F9A5B/$file/2018_GGE+LAWS_Final+Report.pdf, pp.5, 8. 由此可见,CCW已经成为与会各国公认的讨论和解决LAWS相关问题的适当平台。

2. 法律共识:现有国际人道主义法依旧适用于LAWS的战场使用

2016年的报告指出,与会代表一致认为,国际人道主义法的规则适用于包括LAWS在内的所有武器系统。② CCW,Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 8. 2017年政府专家组会议报告的结论和建议部分也明确强调,国际人道主义法继续完全适用于所有武器系统,包括 LAWS的可能开发和使用。③ CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 4.2018年的报告中“可能的指导原则”中再次明确,“国际人道主义法继续充分适用于所有武器系统,包括可能开发和使用的LAWS。”④ “Report of the 2018 Group of Governmental Experts on Lethal Autonomous Weapons Systems,” CCW/GGE.2/2018/3, August 31, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/20092911F6495FA7C125830E003F9A5B/$file/2018_GGE+LAWS_Final+Report.pdf, p. 5. 这表明,各方就现有的国际法(尤其是国际人道主义法和国际人权法)适用于 LAWS基本达成共识。需要注意的是,在是否需要除了现有国际法之外的监管机制和法律条约这一问题上,各方还存在较大争议,这一点将在下文进行详细说明。

3. 责任共识:发展、生产和部署LAWS的责任在于行动国家

(7)出台配套财税扶持政策。出台分布式能源配套财税扶持政策。建议国家对天然气分布式能源示范工程给予投资补贴,建议国家能源主管部门和财政主管部门在审核天然气冷热电供能项目节能减排的基础上,对项目节约资源、减少污染物排放给予奖励。将天然气分布式能源缴纳的增值税、企业所得税省内留存部分按综合能源利用效率分档奖励企业。鼓励银行等金融机构结合天然气分布式能源的特点和融资需求,提供优惠贷款。天然气分布式能源项目可享受重大技术装备进口关税优惠政策。

2016年会议专门设立“人权与道德问题”分论坛,重点讨论了LAWS可能导致的人权和道德问题,包括是否应当将生死决定权授予机器、如何将法律判断嵌入机器等。2017年的会议也专设“法律和道德”小组,对将道德嵌入机器的可能性及方法等问题进行了深入研讨。

2. LAWS的主要特点

Study on Sinicization Teaching of AH&LA-EI Series Textbooks___________________________YANG Junhui 81

目前,各代表团都承认智能自主技术具有军民两用性,并强调在其任务范围内的努力不应妨碍这些技术在民用领域的合理开发和使用,也不能阻止获取这些技术。① 例如 Russian Federation, “Russia's Approaches to the Elaboration of a Working Definition and Basic Functions of Lethal Autonomous Weapons Systems in the Context of the Purposes and Objectives of the Convention,” April 4, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/FC3CD73A32598111C1258266002F6172/$file/CCW_GGE.1_2018_WP.6_E.pdf, p. 2; China, “Position Paper Submitted by China,” (CCW/GGE.1/2018/WP.7), April 11, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/E42AE83BDB3525D0C125826C0040B262/$file/CCW_GGE.1_2018_WP.7.pdf, p. 2。 2018年的报告中也明确指出:“在CCW范围内进行的讨论和任何政策措施不应妨碍和平利用智能自主技术的进展或获取。”② CCW,Report of the 2018 Group of Governmental Experts on Lethal Autonomous Weapons Systems (CCW/GGE.2/2018/3 ), August 31, 2018, https://www.unog.ch/80256EDD006B8954/(httpAsse ts)/20092911F6495FA7C125830E003F9A5B/$file/2018_GGE+LAWS_Final+Report.pdf, p. 5.此外,与会代表的一般意见也认为,民间组织、工业界和科学界应当根据CCW确定的议事规则,在探讨今后可能出现的问题和探索解决措施方面发挥重要作用,比如防止民用领域人工智能技术落入非法组织手中。

5. 底线共识:在无人干预情况下使用完全致命性自主武器系统是不可接受的

在人类需要保持对LAWS的控制这一点上,各代表团基本达成了共识。与会专家都强调了使用武力时人进行控制、监管和判断的重要性。尽管现有国际法并没有规定人类控制,但是人类在使用致命性武器时必须要符合国际人道法,这就要求人类对机器进行必要的控制和监管。各方普遍认为,在没有任何人力干预下,拥有生死决定权的完全自主武器系统是绝对不能接受的,这是在底线上的共识。

(二)主要分歧

总结起来,各代表团和专家围绕LAWS的分歧主要有以下几点:

1. 定义分歧:目前是否应当制定LAWS的可行定义以及如何制定?

如前所述,对于LAWS的定义目前是否有确定的必要以及如何定义,这个问题尚存在广泛争议。关于目前是否应当制定 LAWS定义,俄罗斯主张现在有必要制定 LAWS的工作定义,确定 LAWS的基本功能,且不应基于各国政治立场对LAWS进行“好坏”区分。否则,将会遭遇越来越多的实际困难,例如CCW在管控集束炸弹曾经遭遇的窘境一样。① Russian Federation,CCW/GGE.1/2017/W, p. 8; “Examination of Various Dimensions of Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, in the Context of the Objectives and Purposes of the Convention,” November 10, 2017, https://www.unog.ch/80256EDD006 B8954/(httpAssets)/2C67D752B299E6A7C12581D400661C98/$file/2017_GGEonLAWS_WP8_Russi anFederation.pdf, p. 2;Russian Federation, “Russia's Approaches to the Elaboration of a Working Definition and Basic Functions of Lethal Autonomous Weapons Systems in the Context of the Purposes and Objectives of the Convention,” April 4, 2018, p. 2. 但与此同时,还有一些代表认为现在启动LAWS定义制定工作还为时过早且没有好处。② CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) Advanced Version, p. 6. 此外,还有人认为LAWS定义问题是一个政治问题,不应该将此问题作为工具对结果进行预判,或者试图在可接受和不可接受的系统间划界。在应当制定什么样的 LAWS可行定义方面,更是众说纷纭。比如红十字会将LAWS定义为在没有人力干预下能够选择(寻找、察觉、确认、追踪、选择)和攻击(使用武力、压制、损坏、摧毁)目标的武器系统,自主性是其核心功能。③ International Committee of the Red Cross (ICRC),“Ethics and Autonomous Weapon Systems:An Ethical Basis for Human Control?” March 29, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/42010361723DC854C1258264005C3A7D/$file/CCW_GGE.1_2018_WP.5+ICRC+final.p df, p. 4. 德国和法国认为,LAWS的定义只能限定在完全自主武器的范围内,而这种武器现在还不存在。④ France and Germany, “Statement by France and Germany under Agenda Item ‘General Exchange of Views',” April 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/895931 D082ECE219C12582720056F12F/$file/2018_LAWSGeneralExchange_Germany-France.pdf, p. 2. 其他与会行为体也都有自己的相关概念,很难在此问题上达成共识。分析来看,与会各方之所以在定义问题上存在很大分歧,原因主要在于目前尚不存在完全自主的武器系统,各国在自主技术上的发展水平不

一也深刻影响到对LAWS工作定义的理解和立场。

2. 技术分歧:LAWS特征探讨的四种路径与强人工智能能否到来及何时出现?

技术方面,目前关于LAWS特征的探讨主要有四种路径。第一种路径是“分离法”(separative approach),包括“否定之路”(via negativa)和“肯定之路”(via positive),即将与CCW的目标和宗旨无关的特征和概念排除在外,同时收集与 CCW 的目标和宗旨明确相关的特征和概念。第二种路径是“累积法”(cumulative approach),即将特征类别添加到主清单中,然后根据某些技术、法律、人道主义或政治安全标准对其中的概念和特性进行评估,以明确其与CCW目标和宗旨的相关性。这些类别可能包括物理性能、目标性能等技术特性,以及人机界面、人机关系、可靠性、可预测性等因素和特征。第三种路径是“问责法”(accountability approach),即以国家和人类对机器行为的问责制为主要标准,基于此考虑人类让渡给机器决策的类型和特点。第四种路径是“目标导向和基于效果法”(purpose oriented and effect-based approach),即侧重于基于新兴自主智能系统和技术的预期后果,确定 LAWS的相关特征。① CCW, “Chair's Summary of the Discussion on Agenda Items 6 a, b, c and d,” April 9-13, 2018,pp. 1-2. 这四种路径都有不少支持者,目前还在争论之中。此外,关于“强人工智能是否会到来以及何时能够到来”这一技术问题也存在较大分歧。一些代表认为,强人工智能或通用人工智能的实现并非迫在眉睫,而是需要很长时间的发展,其最终能不能实现和何时能够实现目前还未可知。而一些代表认为,强人工智能在未来的几十年时间里很快就会到来,必须未雨绸缪。与此类似的争论还有“LAWS目前是否存在”这类问题。一种观点认为目前尚不存在完全自主的武器系统,但其他一些代表表示目前已经存在一些前体技术,且有部分国家已经部署了自主性程度越来越高的技术。

3. 安全分歧:LAWS对军事领域产生的影响利大于弊还是弊大于利?

LAWS究竟会在战争领域有哪些应用?对军事安全和国际安全产生什么影响?这些影响究竟是利大于弊还是弊大于利?这些问题都存在广泛争论。积极方面,一些代表认为 LAWS能为军事领域带来诸多利好效果,包括提高作战效能、减轻官兵身体和认知压力、减少决策支持系统的负担、降低成本、在规定的道德范围内作战、提供逼真的综合训练和测试能力、扩大作战行动的广度和深度、满足更快的作战节奏等区别于传统武器系统的独特优势。另一些代表认为LAWS研发和使用会显著降低武力使用的门槛,引发军备竞赛,研发和部署LAWS的潜在风险可能会超过带来的好处。② CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) Advanced Version, pp. 9-10. 不过,由于担心竞争对手开发 LAWS则是驱动这类系统研发和使用的一大动因。一些国家认为,提前部署 LAWS可能会带来显著甚至是决定性的军事优势,在武装冲突中影响到一国军队和人民的生死存亡。与此同时,人工智能具有显著的军民两用性质,民用的人工智能转化为军用LAWS并非难事。有鉴于此,考虑阻止人工智能进入军事领域和禁止LAWS研发的努力难以奏效。

分析来看,目前CCW围绕LAWS这一议题的讨论焦点集中于技术、伦理、法律以及安全四个领域。基于人工智能的LAWS问题的快速涌现对社会各个领域都将造成巨大冲击,尤以这四个领域最为明显。

一些与会代表认为,现有的国际人道法足以规范包括LAWS在内的所有武器系统的使用,其中的武器审查程序能够对LAWS研发进行有效监管。历史表明,新的武器技术总是会引发法律适用问题的广泛讨论,禁止新技术武器的尝试都未能经受住战争的冲击。因此,允许技术发展的同时确保符合现有法律要求是一个更为审慎的做法。但另外一些代表对此表示质疑,认为目前的国际人道主义法不足以规制LAWS的迅猛发展,需要建立额外的机制进行监管和控制。此外,还有观点认为,不能想当然地将现有的国际人道主义法适用于LAWS,因为这可能会使LAWS过早合法化。在2018年8月的会议上,一个小组讨论了是否需要就人工智能驱动的完全自主武器问题展开正式谈判,制定一个禁止完全自主武器的条约。但是,由于美国、俄罗斯、韩国、以色列和澳大利亚等国的反对,这个提案最终未能通过。① 大明:《美俄坚决反对!联合国全面禁止AI自主武器正式谈判无果而终!》, 新浪科技,2018年9月2日,https://tech.sina.com.cn/roll/2018-09-02/doc-ihinpmnr7963431.shtml。 此外,“是否以及如何追究机器的法律责任”这一问题也颇具争议。如果应当追究机器的法律责任,就意味着赋予机器以法人地位,这又牵涉到人机伦理问题。且追究机器的法律责任很难具备实际意义,因为机器根本感受不到受惩罚,也无所谓法律的震慑作用。

5. 伦理分歧:机器是否可以成为道德主体?机器是人类的工具还是智能体?

在伦理方面,主要的分歧在于如何看待人与机器的关系。总括起来,大体可分为“工具论”(mere tools)和“智能体论”(intelligent agents)两大派别。持“工具论”观点的专家认为,机器不管怎么发展只不过是人手中的工具,只是在复杂性和精密性上有所不同。机器人很难具有道德推理、判断能力,遑论自我意识的产生。人类独特的自我意识无法在机器身上得到复制,因为目前人类对自我意识的研究都远未明晰。虽然自主技术会不断进步,但是自主系统本质上仍然是机器,只能按人类预先编程的指令行事。基于此,认为将由机器来作出生死决策的想法是错误的,因为能对使用武力决定负责的只有指挥官、操作员、程序员和工程师,机器是无法负责的。持“智能体论”的专家认为,自主性技术可能进化为独立的智能体,并最终脱离人类的控制。尤其是机器人可能具有人类判断和决策能力,直接挑战人的伦理和尊严。将人类生死决策权授予机器是一个重大的伦理问题。因此,有必要对LAWS进行管控,比如将人类价值观、伦理标准等要素嵌入机器中。② CCW,Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) , p. 4.在2016年的会议中一些代表提出了人机“智能伙伴关系”概念,用于描述机器提供数据促进人类决策程序的情景。也有人指出,当人几乎没有时间考虑机器提供建议的合理性或者“过度信任”机器时,人可能成为这一系统中的“薄弱环节”。① CCW,Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) Advanced Version, pp. 10-11.

6. 前途分歧:预防性禁止还是暂时放任甚至鼓励LAWS的发展?

如同火药、核武器等颠覆性技术对冲突和战争性质产生革命性变化,LAWS的出现和发展可能会对武装冲突行为带来重大影响。考虑到这种变化的难以预测性和可能导致的毁灭性后果,CCW框架下的很多国家代表团呼吁采取预防措施,在明确安全问题之前应当禁止LAWS的研发。相应的政策举措包括制定CCW议定书、发布具有政治约束力的国家声明及未来行动准则等。但是,一些国家的代表认为,现在考虑有关禁止LAWS的政策尚为时过早,理由在于LAWS可能带来很多利好,比如自主性技术可能催生出更具识别力的武器系统。② CCW,Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS), p. 16. 美国倾向于认为 LAWS会给军事领域带来很多人道主义红利。具体而言,LAWS能够提升自毁、自我失效或自我中和机制的先进性,增强对平民和民用目标的军事感知能力,提升军事行动可能效果的评估能力,使目标识别、追踪、选择以及介入整个过程都实现自主化,从而在武装冲突中显著减少平民伤亡。③ United States of America,“Humanitarian Benefits of Emerging Technologies in the Area of Lethal Autonomous Weapon System,” March 28, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/7C177AE5BC10B588C125825F004B06BE/$file/CCW_GGE.1_2018_WP.4.pdf, pp. 1-6. 有鉴于此,美国认为非但不能指责和制止LAWS的研发,反而要鼓励LAWS相关的技术创新,以促进CCW的宗旨和目标。总体而言,目前在人工智能技术上占优势的国家对禁止 LAWS研发持相对保守的态度,而其他中小国家则希望尽快禁止LAWS的研发。

(三)趋势分析

根据目前发展现状,可对未来CCW框架下LAWS军控探讨的趋势作如下研判:

1. 围绕LAWS研发和话语权争夺的国际竞争会不断加剧

一方面,当今的技术发展日新月异,各国瞄准关键技术领域展开激烈的优势竞争;另一方面,随着全球化的深入发展,国家间相互依赖的加深,国际制度在世界政治中的作用日益突出,各国尤其是主要大国围绕国际规则制定、全球治理话语权争夺等制度性权力的竞争也日趋激烈。这一点可以从太空、网络以及目前的人工智能这几个新兴战略领域明显看出。以网络空间为例,一方面,美国在推进网络技术的研发,并推动网络军事化,出台了一系列战略文件和实际举措;另一方面,美国坐拥主要互联网根服务器和域名分配权等霸权,又积极推动北约《塔林手册》的制定,抢夺互联网国际规则制定的先导权。与此同时,中俄等上海合作组织成员国也向联合国提交了《信息安全国际行为准则》。① Michael Schmitt, ed., Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations (2nd edition), Cambridge : Cambridge University Press, 2017;《信息安全行为准则》,http://www.mfa.gov.cn/chn//pds/ziliao/tytj/P020150316571763224632.pdf。当前,基于人工智能技术的LAWS已经成为了国际焦点。可以预见,未来围绕LAWS技术研发和规则制定等领域国际竞争会愈演愈烈。

2. CCW会继续成为国际LAWS军控探讨的主要平台

目前,联合国CCW机制已经成为公认的国际LAWS军控的核心平台。之所以这么说,是因为该机制具有以下特点:一是CCW是在联合国框架内的权威机构。联合国是二战后确立的国际社会最为权威的多边机构,其中的CCW已经成功推动了地雷、集束弹药、激光致盲武器、燃烧武器等非人道常规武器的军备控制进程,在世界范围内具有较大影响力。二是参与主体的权威性和多样性。参与CCW框架下LAWS军控讨论的主体是主权国家,联合国五大常任理事国悉数参加。此外,参与探讨的还有国际组织、非政府组织(NGO)以及企业、科研院所和大学等机构,具有显著的多样性特点。具体而言,国际组织包括欧洲联盟、联合国裁军研究所、红十字国际委员会等。非政府组织主要包括参加“禁止杀手机器人运动”的大赦国际、机器人国际军备控制国际委员会、和平会等机构,也有新美国安全中心(CNAS)等智库机构。企业、科研和大学实体机构包括企业创新研究委员会、法兰克福和平研究所、纽约大学等。三是进展的快速性。在过去的约五年时间内,该机制已经召开了三次非正式会议和三次政府专家组会议,就LAWS的定义、技术、社会伦理、法律、军事等相关问题展开了广泛讨论,达成了一定共识。大部分CCW缔约国都赞同对LAWS进行实际和必要的控制,部分国家已经声明不会获取和研发完全自主武器。此外,截至2018年3月,已有22个国家和地区赞同禁止完全自主武器的呼吁。② 这22个国家和地区具体为:阿尔及利亚、阿根廷、玻利维亚、巴西、智利、哥斯达黎加、古巴、厄瓜多尔、埃及、加纳、危地马拉、梵蒂冈、伊拉克、墨西哥、尼加拉瓜、巴基斯坦、巴拿马、秘鲁、巴勒斯坦、乌干达、委内瑞拉和津巴布韦。参见Campaign to Stop Killer Robots, “Retaining Human Control of Weapons Systems: Briefing Note for the Convention on Conventional Weapons Group of Governmental Experts Meeting on Lethal Autonomous Weapons Systems,” April 2018,https://www.stopkillerrobots.org/wp-content/uploads/2018/03/KRC_Briefing_CCWApr2018.pdf,p. 2。 相比网络和太空军备控制的缓慢推进,CCW框架下的LAWS军控从获得关注到取得进展可谓十分迅速。不难断言,CCW会继续成为国际LAWS军控的主要平台,在LAWS军控上发挥重要作用。CCW可能会制定一个各方都能基本接受的LAWS工作定义,并建立一个各国LAWS武器法律审查机制,增大信息透明度和信息共享。此外,CCW 还可能会拟定一项政治宣言以及一项有法律约束力的文书,建议暂停部署LAWS。

3. LAWS军控的前景依然不容乐观

如前文所述,虽然目前在 CCW 框架下各代表团在一些领域达成了一些共识,但这并不意味着LAWS军控的前景令人乐观(见表2)。相反,目前各国对于LAWS定义制定和相关的伦理道德法律问题以及是否应该禁止LAWS发展这一关键问题存在很大分歧。推动实质性LAWS军控的大国意愿和动力还明显不足,且人工智能的军民两用性给LAWS军控的有效监管带来了极大的挑战。国际安全领域的知名学者彼得·辛格(Peter W. Singer)指出,人工智能竞赛由地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业等不可阻挡的力量驱动。① “Autonomous Weapons are a Game-Changer: AI-Empowered Robots Pose Entirely New Dangers, Possibly of an Existential Kind,” The Economist , January 25, 2018, https://www.economist.com/news/special-report/21735472-ai-empowered-robots-pose-entirely-new-dangers-possibly-existenti al-kind-autonomous. LAWS的研发和部署上同样如此。以目前综合实力和人工智能领域世界第一的美国为例,美国国防部将人工智能作为其“第三次抵消战略”的核心技术,不遗余力地推进人工智能技术的军事应用。2017年4月,美国防部成立“算法战跨职能小组”(Algorithmic Warfare Cross-Functional Team, AWCFT),致力于将人工智能应用于国防情报搜集和分析领域。② Robert Work, “Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven) ,” April 26, 2017, https://www.govexec.com/media/gbc/docs/pdfs_edit/establishment_of_the_awcft_project_maven.pdf. 据报道,目前美国防部有592个与人工智能相关的项目,且正在筹划建立人工智能联合中心(Joint AI Center,JAIC),整合国防部所有的人工智能相关工作。③ Aaron Mehta, “Pentagon Developing Artificial Intelligence Center,” C4ISRNET , April 18,2018, https://www.c4isrnet.com/intel-geoint/2018/04/18/pentagon-developing-artificial-intelligence-center;Patric Tucker, “The Pentagon Is Building an AI Product Factory,” Defense One , April 19, 2018,https://www.defenseone.com/technology/2018/04/pentagon-building-ai-product-factory/147594/.美国代表团在2018年CCW会议也强调了LAWS的好处,呼吁鼓励这方面的创新。④ United States of America,“Humanitarian Benefits of Emerging Technologies in the Area of Lethal Autonomous Weapon System,” March 28, 2018, https://www.unog.ch/80256EDD006B8954/(httpAssets)/7C177AE5BC10B588C125825F004B06BE/$file/CCW_GGE.1_2018_WP.4.pdf, pp. 1-6. 在2018年8月的会议中,由于美俄等大国的强烈反对,最终未能就全面禁止人工智能驱动的“完全自主武器”举行正式谈判,会议只达成了一系列非约束性的文件。如何在发展新兴技术给人类带来整体福祉和维护世界和平安全方面把握平衡?如何在大国利益掣肘的现实下凝聚最大共识?这考验着各国的智慧。在面临诸多争议和分歧的现实下,在大国实际意愿不足的情况下,实现LAWS的军控依然任重道远。

表2 CCW框架下LAWS探讨总结

四 结论

与人工智能迅猛发展相适应,关于LAWS问题的探讨也成为了国际热点话题。联合国 CCW 框架汇集了广泛的国家行为体和非国家行为体,目前已经成为国际LAWS军控探讨的核心平台。总体而言,CCW在推动LAWS军控的探讨上发挥了重要作用,达成了系列共识。但是,由于国际体系无政府状态下大国战略竞争的加剧以及人工智能军事化的巨大诱惑力,在如何推动 LAWS军控谈判以及建构何种形式的有效国际法律文件方面并没有实质性进展,关于 LAWS定义、人机关系、LAWS军事应用的利弊、法律挑战等争论仍在继续,很多问题依旧悬而未决,LAWS军控前景依然不容乐观。在此背景下,一方面,中国需要继续积极参与CCW框架下LAWS军控的探讨,管控LAWS带来的战略风险以及伦理、法律挑战;另一方面,也要前瞻考虑和布局,加大对人工智能核心技术及人才的投入和支持力度,抢占技术制高点和战略主动权。具体建议如下:

一是继续积极参与CCW框架下的LAWS军控探讨,支持以联合国为主导的LAWS军控机制和进程。当前,人工智能的第三次浪潮方兴未艾,其军事领域的广泛应用正在越来越深入地改变战争形态。致命性自主武器系统作为无人作战系统中最为新锐的力量,一旦真正用于实战,后果将难以估量。正因如此,国际社会关于LAWS军控的呼声和探讨日益高涨。在此背景下,中国作为联合国安理会五个常任理事国之一,应积极参与国际社会日渐兴起的 LAWS军控探讨活动,大力推动联合国主导尤其是CCW框架内军控机制建构的国际谈判。

记得在2014年,在高考进入冲刺阶段,高三年级的靖文同学被查出身患重病。她热爱生活、热爱学习,躺卧病床时,也从未放弃过对学习的渴望,期待着能继续和伙伴们肩并肩为青春的梦想挥洒汗水,和大家一起参加高考。

⑥⑦⑧Hintze,Otto,The Historical Essays of Otto Hintze,Edited by Felix Gilbert,Oxford University Press,1975.

二是建议以补充议定书形式将LAWS军控纳入CCW框架,建立对LAWS进行有效监管的体制机制。尽管现有国际法能够部分适用于LAWS,但是目前仍没有专门针对LAWS的系统规范,很难完全实现对 LAWS的有效、合理管制。从历史上看,CCW附加议定书对于新兴武器系统的规制效果明显(见表3)。有鉴于此,建立各国在CCW框架下讨论增订新的《特定常规武器公约议定书》,对LAWS这一新兴武器系统进行规范和限制。

表3 CCW框架下军备控制的历史案例

三是加大对人工智能核心技术、人才的投入和支持力度,推动人工智能和平发展和安全利用。人工智能是 LAWS的支撑技术,目前国际上围绕人工智能的技术竞赛甚至军备竞赛正在日趋激烈。在此背景下,中国应当前瞻考虑和布局,加大对人工智能核心技术及人才的投入和支持力度,推动人工智能和平发展和安全利用,避免陷入战略被动,努力维护中国国家利益与世界和平安全。

【作者简介】 徐能武,国防科技大学文理学院教授,博士生导师(长沙 邮编:410072);龙坤,国防科技大学国家安全与军事战略研究所实习研究员,国防科技大学文理学院国际关系专业研究生(长沙 邮编: 410072)。

【DOI】 10.14093/j.cnki.cn10-1132/d.2019.05.005

【中图分类号】 D815.5

【文献标识码】 A

【文章编号】 2095-574X(2019)05-0108-25

* 本文为国际军事合作办公室2018年度项目“致命性自主武器系统军控研究”的阶段性研究成果。感谢《国际安全研究》匿名评审专家的建设性意见,文中错漏概由笔者负责。

【收稿日期: 2018-10-25】

【修回日期: 2018-12-22】

【责任编辑: 苏 娟】

标签:;  ;  ;  ;  ;  

联合国CCW框架下致命性自主武器系统军控辩争的焦点与趋势论文
下载Doc文档

猜你喜欢