欧盟可信人工智能的伦理指南(草案)介绍
李宁1贺佳瀛1黄紫婓2
(1.上海赛博网络安全产业创新研究院2.上海外国语大学国际关系与公共事务学院)
[摘要 ]欧盟委员会的人工智能高级专家组于2018年12月发布了《可信人工智能伦理指南草案》,该指南提出了一个可信人工智能框架,强调伦理的规范性和技术的健壮性,并提出总计10项可信人工智能的要求和12项技术、非技术性用于实现可信人工智能的方法,同时设计出一套评估清单,便于企业和监管方进行对照。当前我国也在大力发展人工智能产业,长远来看,技术的安全性及合乎人类社会伦理规范至关重要,因此此次欧盟发布的指南草案对我国制定相关准则有一定的借鉴意义。同时,对于力图进入欧盟市场的国内人工智能企业而言,应密切关注欧盟的相关监管要求,并为此做好准备。
[关键词 ]AI倡议可信伦理规范
1 可信人工智能的伦理指南综述
欧盟委员会早在2018年4月25日,就制定了欧盟人工智能(AI)愿景,同时设立了AI高级专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG),目前该专家组共由52名专家组成。《可信AI的伦理指南草案》即由AI HLEG在2018年12月18日发布,目前处在公开征询阶段,预计正式版将于2019年3月发布。
AI HLEG认为在过去十年中,因数据的大量涌现、强大的计算架构以及机器学习等AI技术的发展,人类社会实现了诸多进步。同时,应用AI技术也带来一些风险,应当妥善应对。开发和利用AI时,在坚持收益最大化、风险最低的原则同时,还要贯彻以人为本的观念,而且要以提升人类福祉为目标。
欧盟《可信AI的伦理指南草案》为可信AI设定了一个框架,由两个部分构成:(1)伦理规范:应该尊重的人类基本权利、适用的法规、核心的原则和价值观;(2)技术应当是强壮和可靠的。该草案主要分为三个章节(见图1):第一章通过阐述应遵循的基本权利、原则和价值观,确定了AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。与其他论及伦理AI的宣言相比,欧盟指南并非另起炉灶,为AI应用制定另一份核心价值观和原则清单,而是希望为AI系统的具体实施和运作提供切实指导。
图1:欧盟可信AI框架
2 可信AI的伦理指南草案背景
2.1 欧盟AI愿景
欧盟委员会在2018年4月提出“先进AI欧洲造”的愿景,注重AI技术的安全性并符合伦理,并为实现这个愿景提出三大支点:(1)增加对AI的公共和私人投资以促进其发展;(2)为社会经济变革做好准备;(3)通过伦理和法律框架来强化欧盟的价值观。伦理框架即为第三个支点的组成部分。
2.2 欧盟AI伦理观的来源
AI HLEG认为,实现AI的伦理之道,要以欧盟宪法和人权宪章中对人类的基本权利承诺作为基石,确认抽象的伦理准则,并在AI背景下将伦理、价值观具体化,形成AI的伦理准则,这个准则必须尊重人类基本权利、原则、价值观和尊严。
4.统计结果的解释和表达:当P<0.05(或P<0.01)时,应说明对比组之间的差异有统计学意义,而不应说对比组之间具有显著性(或非常显著性)的差别;应写明所用统计分析方法的具体名称(如:成组设计资料的t检验、两因素析因设计资料的方差分析、多个均数之间两两比较的q检验等),统计量的具体值(如t=3.45,χ2=4.68,F=6.79等),应尽可能给出具体P值(如P=0.0238);当涉及到总体参数(如总体均数、总体率等)时,在给出显著性检验结果的同时,再给出95%可信区间。
2.3 欧盟AI伦理的五项原则及相关价值观
在设定伦理准则后,AI HLEG列出了必须遵守的五项原则和相关价值观,确保以人为本的AI发展模式。并建议设置一名内部和外部(伦理)专家,参与AI的设计、开发和部署过程,防止AI可能带来的未知或非预期的后果。这五项原则是:
(1)福祉原则:“向善”
AI系统应该用于改善个人和集体福祉。AI系统通过创造繁荣、实现价值、达到财富的最大化以及可持续发展来为人类谋求福祉。因此,向善的AI系统可以通过寻求实现公平、包容、和平的社会,帮助提升公民的心理自决,平等分享经济、社会和政治机会,来促进福祉。AI作为一种工具,可为世界带来收益并帮助应对世界上最大的挑战。
(2)不作恶原则:“无害”
AI系统不应该伤害人类。从设计开始,AI系统应该保护人类在社会和工作中的尊严、诚信、自由、隐私和安全。AI系统的设计不应该增加现有的危害或给个人带来新的危害。AI的危害主要源于对个体数据的处理(即如何收集、储存、使用数据等)所带来的歧视、操纵或负面分析,以及AI系统意识形态化和开发时的算法决定论。为增强AI系统的实用性,要考虑包容性和多样性。环境友好型AI也是“无害”原则的一部分,应避免对环境和动物造成危害。
当前所有的AI均是针对特定领域的,需精确指定目标。但随着技术的发展,可能会有所不同,如机器意识的发展带来机器觉醒、或者出现实现自我改善的通用AI(AGI)等。虽然有些问题目前看来似乎还很遥远,但需要及早关注并投入资源,尽量减少对长期风险、未知数和“黑天鹅”认识的不确定性。
AI发展中的人类自治意味着人类不从属于AI系统也不应受到AI系统的胁迫。人类与AI系统互动时必须保持充分有效的自我决定权。如果一个人是AI系统的消费者或用户,则需要有权决定是否受制于直接或间接的AI决策,有权了解与AI系统直接或间接的交互过程,并有权选择退出。
徐歪头歪着头,笑着说:“你不知道什么叫花柳病吧?别呦呦是妓女,玩多了,就会得花柳病,她得了,就会传给你。”
(4)公正原则:“确保公平”
公正原则是指在AI系统的开发、使用和管理过程中要确保公平。开发人员和实施者需要确保不让特定个人或少数群体遭受偏见、侮辱和歧视。此外,AI产生的积极和消极因素应该均匀分布,避免将弱势人口置于更为不利的地位。公正还意味着AI系统必须在发生危害时为用户提供有效补救,或者在数据不再符合个人或集体偏好时,提供有效的补救措施。最后,公正原则还要求开发或实施AI的人遵守高标准的追责制。
(5)可解释性原则:“透明运行”
透明性是能让公众建立并维持对AI系统和开发人员信任的关键。在伦理层面,包含技术和商业模式这两类透明性,技术透明指对于不同理解力和专业知识水平的人而言,AI系统都可审计和可理解;商业模式透明指人们可以获知AI系统开发者和技术实施者的意图。
3 实施AI系统的潜在问题
AI HLEG同时也认为,特定用途或应用的AI可能会带来问题,因为它们可能会与上述的权利和五项原则相冲突。而且AI的两用特性使其既可能增强也可能削弱欧洲的价值观。因此,就有必要平衡AI应该做什么、可以做什么及不用或不能做什么这类问题。当然,人们对规则和原则的理解会随着时间的推移而变化,因此问题具有阶段性的特点。
随着设施蔬菜的发展,如面积的扩大、品种的增加、周年生产等,也使常发病虫害逐年累积,新发病虫不断出现,防治难度加大,化学农药次数、用量逐年增加,这将严重影响全县蔬菜产量和品质的提高,既不利于菜农的增收,也对食品安全构成威胁。为此,2017年植保站在各级领导的支持下,开展了熊蜂授粉与绿色防控集成示范推广工作。
3.1 数据主体权利保护问题
AI可让公共或私人实体更有效地识别出特定个人。为了维护欧洲公民的自主权,需要在AI中合理使用监控技术。实现可信AI应当兼顾区别个体识别与追踪和跟踪个人之间的差异,以及有针对性地监视和普遍监视之间的差异,这点可以参照“一般数据保护条例”(GDPR)第6条(该条规定,只有具备有效的法律依据,数据处理才合法)。
3.2 隐蔽AI系统问题
人们应当知道其交互对象是人还是机器,AI开发和部署人员有责任并且需要可靠地实现这一点。否则,有能力控制AI的人就能够操纵人类。因此AI开发和部署人员应确保人们可了解或通过请求并验证他们正在与AI进行交互。人与机器之间的边界模糊会带来如依附、影响或降低生而为人所应具有人生价值之类的恶果,同理发展人形机器人更应经过仔细的伦理评估。
3.3 偏离人类基本权利、未经同意的带有普遍性针对公民进行标准化评价问题
欧盟注重公民的自由和自治,大规模地规范性公民评价(如“道德人格”或“伦理完整性”等)可能危及这些价值观,尤其是使用时背离人类基本权利,或使用不合适、目标不明确或者传导偏差的情况下,更是如此。当在有限的社会领域施行公民评价时,人们应该获知完全透明的程序,并知晓有关评分的过程、目的和方法的信息,还可选择退出评分机制。因此,开发和部署人员应在技术设计中确保设置退出选项,并提供必要的支持。
3.4 致命性自主武器系统(LAWS)问题
LAWS可在没有人为控制的情况下运行,但最终人类必须对所有伤亡负责。目前,众多国家和行业正在研究和开发致命自主武器系统,包括能够自主选择攻击的导弹、具有认知能力的自主杀人机器等,这都带来了基本的伦理问题。
3.5 其它潜在的长期问题
(3)自治原则:“保护人类能动性”
4 如何实现可信AI
报告构建了关于如何实施和实现可信AI的相对完整的指南,并提出了实现可信AI的十项基本要求,以及实现这些要求的方法。
周恺没理会,下意识地看了一眼茶几,有一杯水放在茶几上,他走过去用手一摸,温热,正适合喝,就拿起来一饮而尽。
4.1 实现可信AI的途径概述
隐私和数据保护必须在AI系统生命周期的各个阶段得到保证。这包括用户提供的所有数据,以及在与AI系统交互过程中生成的关于用户的所有信息。人类行为的数字记录可以显示高度敏感的数据,不仅包括其偏好,也包括其性取向、年龄、性别、宗教和政治观点。持有这些信息的人可能会利用其信息优势达到特定目的。组织必须注意数据是如何使用并影响用户的,确保完全遵循GDPR和其他有关隐私和数据保护的可用法规。
(2)采纳技术和非技术的方法确保满足要求,而且要始终贯彻。
(3)清楚而积极地向利益相关方(客户、雇员等)说明AI的能与不能,协助设定合理预期,同时确保AI系统的可回溯性。
(4)将可信AI融入组织文化,并将此添加到公司章程和行为手册中。
(5)确保利益相关各方参与AI系统的设计和开发过程,保证团队的多样性。
(6)促成AI的可审计性和可解释性。在设计系统时,就保证可追踪个人的决策、数据、预训练模型。
高情度日非无事,自是高情不觉喧。海气暗蒸莲叶沼,山光晴逗苇花村。吟时胜概题诗板,静处繁华付酒尊。闲伴白云收桂子,每寻流水劚桐孙。犹凭律吕传心曲,岂虑星霜到鬓根。多少清风归此地,十年虚打五侯门。
(7)设定管理可追责的专用流程。
(8)加强培训和教育,确保管理者、研发者、用户和雇员都认识到可信AI的重要性,并且接受可信AI相关的教育培训。
可信AI要求算法安全、可靠且足够稳健,以便在AI系统的设计、开发、执行、部署和使用阶段处理错误,并且能够应对错误输出。健壮性一般体现在以下四个方面:
(10)鼓励研究和创新精神,深化可信AI要求。
4.2 可信AI的基本要求解释
可信AI是将一般性和抽象性的伦理准则融入到AI系统和具体应用中。AI HLEG共提出十项要求,并按字母顺序排列,这10项要求均同等重要。针对不同的应用领域和行业,应根据特定环境进行评估。
(1)可追责性
良好的AI管控应当包括可追责机制,根据目标不同选择而十分多样,如金钱补偿(无过失险)、缺陷调查、无赔偿的和解等。可追责机制的选择依据是活动的性质、重要性及自主性等级等。如系统误读医疗报告并错误地决定不予报销,就可以通过赔偿来解决。但在AI歧视案例中,解释和道歉是必备的。
(2)数据治理
训练所使用数据集的质量对于AI系统至关重要,数据的隐私保护与满足要求达成高质量的AI并不完全冲突。但数据收集过程中将不可避免地包含偏见,因此应在训练前进行删减。此外,必须确保仔细进行训练数据的分类,并验证和测试,还要将匿名化的数据划分为多个子集,保证某些数据(例如来自同一人的图谱数据)不会同时进入训练和测试环节。
(3)普惠性设计
系统的设计应面向所有公民提供产品或服务,无论其年龄、残疾状况或社会地位如何。特别重要的是,要考虑残障人士对AI产品和服务的使用。AI应用程序不宜采用一刀切的方法,而应以用户为中心,并考虑人类的各种能力、技能和要求。普惠性设计意味着任何人在任何地方、任何时间都可以获得和使用技术,并确保将其纳入任何场景,从而使所有人能够平等获取和积极参与现有和新兴的以计算机为媒介的人类活动(这一要求参照了《联合国残疾人权利公约》)。
为更好地判断地质旅游活动对地质公园生态环境的影响程度,借鉴相关研究成果[15-16],本文引入生态压力指数对该公园的可持续发展程度进行评价。生态足迹指数是指该区域内人均生态足迹与人均生态承载力的比例,其计算公式为式(4)。研究区可持续发展状态分为6个等级,见表1。
(4)AI自主性的管控
卷积层的主要作用是提取特征,分为3种卷积方式:宽卷积、窄卷积和不变卷积(此处的宽窄和不变指的是输入矩阵经过卷积操作后长度的变化)。示意图如图4所示。
确保诸如安全性、准确性、适应性、隐私性、可解释性、遵守法治和符合伦理等属性的正确方法,在很大程度上取决于AI系统的具体细节、应用领域和对个人、社区或社会的影响程度,以及其自主性水平。AI系统的自主程度取决于具体应用案例和应用场景所需的复杂程度。在所有其他条件相同的情况下,要给予AI系统更大程度的自主性,就需要更广泛的测试和更严格的管控。根据AI系统的应用领域和对个人、社区或社会的影响程度的不同,需要实施不同水平的管控。要实现AI自主性的良好管控,应根据AI对社会影响的程度,进行更多、更早的人为干预。
(5)非歧视
AI歧视会出现在不同个人或群体中,可能是有意也可能是无意的,主要基于特征差异而产生不同的结果,这将对此类特定个人或群体将产生负面影响。使用AI出现的直接或间接歧视,可导致对特定群体的偏见和边缘化。控制算法的人可能会故意获得不公平、歧视或偏见的结果,将某类群体排除在外。如,故意伤害可以通过明确操纵数据以排除某些群体来实现。伤害也可能来自于消费者偏见或不公平竞争,例如通过共谋或不透明市场手段造成价格同质化。
(6)尊重和强化人类自治
AI系统的设计不仅要维护权利、价值观和原则,还应保护公民的多样性,使其免受AI技术所带来的政府和私人侵权行为的影响,确保公平分配AI技术带来的益处,保护和加强多个不同的人类价值观,增强个人用户和社区的自决、自主。
玻璃球是一种凸面结构。简单来说,球的形状使光线在穿过球时改变了方向,这是一个折射的过程,因此光线投射到球的另一侧后是上下颠倒的。你镜头里的玻璃也是凸面的,同理,图像也会颠倒过来。但是你的相机里要么有一个光学的取景器,用镜片将图像投射回正常的样子,要么有一个电子的取景器,以电子的方式实现这个过程,所以你看到的画面是正常的。
胎头的娩出由于伤口长度的影响,较纵切口要困难。切口各层术后的黏连比纵切口要重,再次手术时相对纵切口较难。
(7)隐私保护
Application of waterscape in small-scale space landscape design
(1)在早期的设计阶段就融入可信AI的十项要求:可追责性、数据治理、普惠性设计、AI自主性的管控、非歧视、尊重和强化人类自治、隐私保护、健壮性、安全性和透明性。
AI产品和服务,可能通过极端个性化途径,通过潜在地操纵诱导引导个人选择。同时,人们越来越愿意和期望将决策和行动委托给机器(如推荐系统、搜索引擎、导航系统、虚拟教练和个人辅助)。用于帮助用户的系统,必须为用户提供明确的支持以鼓励他/她自己的偏好,并设置限制防止系统干预,确保用户的福祉由其自己定义,这是系统功能设计的核心。
(8)健壮性
(9)各项要求之间是有结构性冲突的,如开放会带来滥用、纠正偏见又与隐私保护冲突,应加强沟通并仔细权衡。
非技术性方法相对开放,并非强制性要求,但可确保实现可信AI。
精确性:精确性与AI将信息分类到正确类别的能力有关,以及能够根据数据或模型做出正确的预测、建议或决策。明确且完善的开发和评估流程可以支持、缓解和纠正意外风险。
弹性:与其他软件系统一样,AI系统也可能包含漏洞,导致其被攻击者利用。如果AI系统受到攻击,数据和系统的行为将被改变,导致系统作出不同的决策,或导致系统完全关闭。系统或数据也可能因恶意或暴露于意外情况而被破坏。管理不善有可能导致数据被有意或无意地篡改,或允许将算法授权给未经授权的实体,也可能导致歧视、错误决定甚至物理伤害。
应急预案:安全的AI系统应具备安全措施,可以在AI系统出现问题时启动应急计划。在某些情况下,这可能意味着AI系统由统计模式切换到基于规则的程序,在其他情况下,这意味着系统在继续运行之前可能需要人类操作员的介入。
想起大学隔壁宿舍的一个女孩毛毛,上了大学之后,她就争分夺秒,学好专业,搞好社交,提升品位,哪项都没落下。有人问她:“你这么拼命,不累吗?一个女孩那么努力干吗?”
(9)安全性
安全性是指确保系统确实完成其应该做的事,而没有伤害到用户、资源或环境,包括使意外结果和系统行动错误最小化。应制定确认和评估与使用AI产品和服务相关的潜在风险的流程。此外,需要正式的机制来衡量和指导AI系统的适应性。
(10)透明性
透明性是指减少信息不对称。可解释性作为透明性的一种形式,需要能够描述、监督和重现AI系统做出决策和学习、适应环境的机制,以及系统使用和创立的数据的来源和动态变化。对于使用人类数据、影响人类或可能产生其他道德上重大影响的所有模型,应明确公开有关的数据来源、开发过程和利益相关者的选择和决策。
4.3 实现可信AI的技术和非技术方法
为使AI系统满足上述十项要求,AI HLEG提出了实现可信AI的主要途径,并指出可在开发流程的各个层次(分析、设计、研发和使用)采用5个技术性方法和7个非技术性方法,同时该流程也是动态和持续循环的,如图2所示。
图2:在系统的全生命周期实施可信AI
4.3.1 技术性方法
3.2.2 患者及照顾者缺乏协调经验 患者及照顾者在安排预约、完成专科护理以及安排交通工具前往预约地点等方面,有不同程度的困难。有研究结果显示,尽管APN给予帮助,但患者在出院后约1周仍存在交通方面问题,最后导致后期和医生预约失败[17]。此外,一些患者及家庭照顾者最终拒绝APN协调,其中部分患者和家庭照顾者向APN报告会自行做出必要的安排,但未能如期执行。部分家庭照顾者允许APN陪同患者去医院就诊,但家庭照顾者并未与医院协调好,故导致患者治疗并不理想。此外,主要家庭照顾者未能及时参加APN TOC模式,APN从其他照顾者获取信息有很大出入,也干扰了APN进一步干预。
这些方法可以融入到AI系统的设计、开发和使用阶段,一般需要定期跟踪和持续评估。
(1)将伦理和法律纳入设计
确保将价值观融入设计阶段,是指以可用和符合法律规则或社会规范的方法,精准、明晰地链接AI系统应遵循的抽象原则和特定的实施决策。其核心是将对法律和伦理价值观的遵守,至少在某种程度上,融入到AI系统本身的设计之中。这也要求企业有责任在最初就预估出AI系统的伦理影响,以及该系统应当遵守的伦理规则和法律规则。
(2)设立可信AI的架构
可信AI的要求应当被“转换”为过程或过程限制,这是可信AI架构的构成要素。可通过建立规则来控制智能代理的行为,或者通过设立行为边界对其采取监控。一个能够积极学习和适应其行为的智能系统,可被理解成一个随机系统,通常用“感知-计划-行动”循环进行描述。为使此架构符合可信AI,伦理目标和要求应当被融入到“感知”层,从而可以形成遵守这些准则的计划。
(3)测试和验证
为了验证一致性和数据的既定处理流程,应当仔细监测模型的稳定性、健壮性、运行结果的易理解性和可预测性。应当明确计划过程的输出结果与输入相一致,确保所采取的决策经验是合理的。系统的测试和验证应当尽早,并且持续迭代,确保在整个生命周期特别是在部署之后,系统能以既定的行为方式运作。重要的是,测试应当不仅限于数据,还应包括系统的所有输入,以及整个系统的行为。测试还应当尽可能由多样化的人群执行。最后,对抗性测试和赏金计划也是可以考虑的。
(4)可追溯、可审计
为应对透明性和可解释性的挑战,AI系统应当记录其所作的决策和产生决策的整个流程,使决策可追溯。可追溯有助于可审计,可以推动实现监控和验证算法、数据和设计流程。在某种程度上,AI的可审计性在目前是可以达到的目标,并且随着时间推移将得到不断提升。
(5)可解释性
朋友此文写好后,为察纳雅言、博取众长,将其发在一个不大的文友群里。凑巧看到,我便认真拜读。读后,有所感,不吐不快,便在其后留评:这个故事文字流畅生动,情节虽略缺新意,但曲折瑰丽,点赞之外,说几句不限于这篇文章的题外话——如果这美丽的传说,能借助文字而得以流传,若干年后,我们的后代,会以为这片桃园,竟有如此神奇的来历,但他们不会知道,这只是在公元21世纪之初,在蔚然成风的人工造景热潮中,悄然绽放的一朵小花,在桃园之前,这里曾是棉海粮仓。倘如此,他们岂不会把他们某一代祖宗的功劳,错记到神仙头上?要是他们从凑巧得到的历史知识中知道了真相,那时,他们对我们这些已经作古的编故事的祖宗,作何感想?
为建立一个可信系统,有必要了解为什么该系统出现给定的行为、为什么该系统提供给定的解释,也有必要限制对抗性情境。截至目前,这些对于基于神经网络的AI系统仍然是开放式的挑战。在整个研究领域中,可解释的AI(XAI)正试图解决这一问题,以便更好地理解背后的机制,并找到解决方案。这个问题至关重要,不仅要向开发人员或用户解释AI的行为,还要简单地部署可靠的AI系统。
4.3.2 非技术性方法
可靠性和可重现:可信AI要求结果的准确性可以通过独立评估来确认和重现。可重现性对于保证结果在不同情况、计算框架和输入数据中保持一致至关重要。缺乏可重现性可导致AI决策中的非故意歧视。
(1)监管
虽然如今已有较多规范性文件可提高AI的可信度,如安全立法或可信赖框架,但AI HLEG认为需要更新、适应或引进新的规则,这会在未来的第二版中进行增补。可信AI需要一个明确可追责的机制,当伤害发生时,确保合适的补救措施可用。这个机制包括当AI造成伤害时的赔偿规则,以及是否故意及是否有错的认定机制,后续的和解、纠错、道歉等。
(2)标准化
使用商定的设计、制造和商业标准可以作为AI的质量管理系统,为消费者、参与者和政府提供通过购买决策识别和奖励道德行为的能力。在公约标准之外,公共规范也同样可行,如认证体系、职业道德手册、符合基本权利的标准等。这类例子包括ISO标准、公平交易标准、或“欧洲制造”标签等。
(3)责任落实
组织应当设定内部或外部的管理框架,确保可追责性。如:任命某人或内外部伦理委员会来负责AI相关的伦理问题,由该负责人或委员会对此类问题进行监督,并提供建议。
(4)行为守则
组织和利益相关方可以通过签署指南、调整其公司章程中的责任、KPI、行为守则等来实现可信AI。
(5)教育和培养伦理观念
可信AI要求所有利益相关方具有知情参与权。这就要求教育发挥重要作用,既要确保AI潜在影响的知识普及,又要让人们意识到他们可以参与塑造社会发展。教育的对象包括系统制造商(设计者、开发者)、用户(公司、个人)以及其他有关团体。教育公众的先决条件是确保伦理学家拥有该领域的适当技能和培训。
(6)多方沟通
AI带来的益处非常广泛,如更好的医疗、更安全的交通等,欧洲需要确保全体欧洲人能均享AI红利。这就需要设立开放式的讨论,让社会群体、利益相关方和普通公众等共同参与。许多组织已经依赖利益相关者委员会来讨论AI的使用和数据分析。这些委员会包括不同的专家和利益相关者,包括法律专家、技术专家、伦理学家、客户和员工代表等。
(7)包容与多元
多样性和包容性是AI的基本特性。由于AI执行的任务种类繁多,因此设计、开发、测试和维护AI系统的团队,也应当反映用户、社会的总体多样性,这有助于提高系统客观性,兼顾不同视角、需求和目标。团队不仅应当在性别、文化、年龄方面是多样的,而且其职业背景和技能也应当是多元的。
4.4 可信AI的评估
指南为了更便于执行,还根据十项要求拟定了评估清单,以提醒负责人在评估时应考虑的事项。鉴于AI具有场景特定性,需要针对特定情况采取相适应的方法,因此清单适用性因实际用例不同而有所不同,可根据需要进行调整。评估过程是动态且循环迭代的过程,可用于AI流程中每个步骤的评估:从数据收集、初始设计阶段,到AI系统的开发、训练或运行,以及实际的部署和使用。
例如,关于“可追责性”要求的评估事项,包括:现有技能和知识是否能用于责任分担、是否成立AI伦理审查委员会、灰色地带的讨论机制、是否成立内部或外部专家小组等。
5 .结语
欧盟的可信AI框架,强调自发的伦理约束,更关注对“人”的尊重和普遍参与,追求共同的福祉,并且便于理解和执行。这个框架的基础是伦理规范,即守护人类的基本权利、遵循道德准则和维护人类社会价值观,同时强调AI技术自身应具备健壮性和可靠性。该指南还提出可信AI的10项要求,以及技术性及非技术性共计12种实践途径和方法,还根据每类要求设计出评估清单,便于产业参与各方评估可信AI应用的达标情况,具有较强的操作性和适用性。
我国高度重视AI与其他产业的融合发展,从2016年起已陆续出台多项重要政策,如《“互联网+”AI三年行动实施方案》《新一代AI发展规划》《促进新一代AI产业发展三年行动计划(2018-2020年)》等,有力地推动了我国AI产业发展。但AI作为一项对人类社会未来发展影响深远的技术,也存在一定的安全风险。例如未来人类创造出来的超级智能是否会拥有超越人类的能力和意志,同时它们是否具有与人类相似的价值观和社会规范。因此应当未雨绸缪,及早布局和研究AI技术的安全性,确保技术的研究和应用符合人类社会的伦理规范。目前上海在2018世界人工智能大会中发布过关于AI安全的八项倡议,更早之前腾讯、科大讯飞等企业也发表过各自的AI倡议,但国家、产业尚未有统一的普遍共识,因此欧盟可信AI伦理指南可以提供有益的借鉴。另外我国部分AI企业也在积极开拓欧盟市场,因此这份指南是这类企业必须要关注的对象。
An Introduction for The European Commission's Draft Ethics Guidelines for Trustworthy AI
LI Ning1, He Jia-ying1, HUANG Zi-fei2
(1.Shanghai Institute of Cyberspace Security Industry 2.Shanghai International Studies University, School of International Relations and Public Affairs)
[Abstract ] In December 2018, European Commission's High-Level Expert Group on Artificial Intelligence (AI HLEG) has produced a draft of Ethics Guidelines for Trustworthy AI. The Guidelines constitutes a framework for trustworthy AI, putting emphasis on ensuring an “ethical purpose” and being technically robust. 10 requirements of trustworthy AI and 12 technical and non-technical methods are raised to achieve trustworthy AI. Furthermore,an Assessment List is provided for enterprise self-review and government regulation. Recently, China has been committed to the development of AI industry where technology security and ethical norms are of vital importance in the long run. Therefore, the Guidelines may work as an reference for China to formulate relevant criterion. At the same time, for domestic AI companies with intention to the EU market, close attention should be paid to relevant regulations and make well preparations.
[Keywords ] Artificial Intelligence; Initiative; Trustworthy; Ethics
[中图分类号 ]D93;F94
[文献标识码] A
[文章编号] 1009-8054(2019)01-0069-09
作者介绍
李宁 ,上海赛博网络安全产业创新研究院高级研究员,博士,主要从事网络安全产业趋势及产业政策研究,人工智能安全研究等。
贺佳瀛 ,上海赛博网络安全产业创新研究院研究员,主要从事网络空间战略、政策、前沿技术和网络安全治理领域研究。
黄紫婓 ,上海外国语大学国际关系与公共事务学院博士研究生,研究方向为国际关系、公共安全。