大数据时代的算法解释权:背景、逻辑与构造论文

大数据时代的算法解释权:背景、逻辑与构造论文

大数据时代的算法解释权:背景、逻辑与构造

张恩典

(南昌大学 法学院, 江西南昌 330031)

摘要: 大数据时代,算法自动化决策在广泛运用于私人生活与公共治理领域的同时,也导致了隐私和歧视风险。究其原因,在于算法透明性缺乏导致算法决策的黑箱效应,并最终危及算法决策可责性。算法解释权旨在通过赋予数据主体获得算法自动决策的解释的权利,明确数据控制者的解释义务,通过提高算法透明性达致重塑算法决策可责性,进而缓和算法决策隐私和歧视风险的目的,具有现实的正当性基础。在具体权利构造上,依据解释标准和解释时机的不同,算法解释权可以界分为以算法系统功能为中心的解释权模式与以具体决策为中心的解释权模式,两种解释权模式并非非此即彼的排他关系,在具体的解释权运用中,应当根据算法决策所处的具体阶段和时机来选择适当的解释权模式。

关键词: 大数据时代;算法自动决策;算法解释权;透明性;可责性

一、问题的提出

人类社会已经进入大数据时代。大数据给人们的生活、工作乃至于思维方式都带来了重大变革。大数据之所以能够给人类社会带来诸多变革,所依靠的则是计算机算法模型对海量数据进行自动分析。基于大数据的算法决策正弥散于现代社会,充斥于商业领域与公共治理领域之中,对人们日常公共与私人生活产生着深刻而复杂的影响,并逐渐显现出取代人类决策的趋势。有学者将这个由大数据算法逐渐占据统治地位的社会形象地称为“算法社会”。[注] Jack M.Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Vol.78 Ohio State Law Journal(2017), p.1226.在算法社会中,一方面,人的智性得到前所未有的发展,但是,另一方面,人的心性和灵性却逐渐被侵蚀,相关论述请参见於兴中:《算法社会与人的秉性》,载《中国法律评论》2018年第2期。 以色列历史学家尤瓦尔·赫拉利更是大胆预言:“随着机器学习和人工神经网络兴起,有越来越多算法会独立进化,自我改进、从自己的错误中学习。这些算法分析的数据量是天文数字,绝非人力可及,而且它们也能找出人类找不到的模式,采取人类想不到的策略。”[注] [以]尤瓦尔·赫拉利:《未来简史:从智人到智神》,林俊宏译,中信出版社2017年版,第355页。 从目前的情形来看,这一正深度渗透人类生活诸多方面,对个人权利和利益产生重大影响的算法决策是建立在大数据挖掘分析基础之上,隐藏于算法“黑箱”之中,令普通公众难窥其中奥秘。

为了缓和乃至化解现代社会中大数据算法决策的“黑箱”效应,法学理论界与实务界进行着艰辛的理论和制度探索。在众多规制方案中,设置算法解释权便是充满创见而又备受争议的一种方案:言其充满创见,是因为其旨在回应大数据时代算法决策的“黑箱”效应这一基本问题,言其备受争议,是因为对算法解释权的存在及正当与否,学者们仍然存在着重大分歧。[注] 关于算法解释权的理论争议,参见Bryce Goodman, Seth Flaxman, European Union Regulation on Algorithmic Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后访问时间:2018年7月20日。S.Wachter, B.Mittelstadt, L.Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469, 最后访问时间:2018年7月20日。Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law (2017). 可以毫不夸张地说,目前,无论是在理论还是实践维度,算法解释权都处于“重重迷雾”之中,究其原因,在于学术界对算法解释权这一现代算法社会兴起的重要权利形态缺乏足够的研究。[注] 相较于近几年来法学界在被遗忘权方面的丰硕研究成果而言,目前关于算法解释权的研究成果,无论是在相对数量还是在绝对数量上都非常有限,这与大数据时代算法解释权的重要性似乎呈现出一种不均衡的状态。根据笔者在知网数据库的检索,截止2018年8月28日,国内法学界有关算法解释权研究主题公开发表的研究论文仅有1篇,张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。 面对这种情形,亟待法律学者拨开笼罩在算法解释权“迷雾”,以使这一算法解释权更具理论意蕴与实践功能。本文不惴浅陋,尝试从算法解释权的兴起背景、权利逻辑、争论焦点与基本构造等方面,对大数据时代兴起的这一新型权利类型展开研究,以期对算法解释权的理论探索与制度实践有所助益。

二、算法解释权产生的背景:大数据算法决策的兴起及其引发的问题

(一)大数据时代算法自动化决策的兴起

算法是种古老的技艺。在人类社会漫长的发展过程中,人们都在运用算法来解决生活中的问题。正如美国学者克里斯托弗在考究算法历史时所指出的那样:“千百年来,人们一直在设计、修改并分享着算法,这一活动早在算法这个词出现之前就开始了。……巴比伦人处理法律事务时会用到算法,古时候拉丁语老师检查语法时会用到算法,医生靠算法来预测病情,无数遍布全球的普通人曾试图用算法预测未来。”[注] [美]克里斯托弗·斯坦纳:《算法帝国》,李筱莹译,人民邮电出版社2014年版,第42页。 但是,公允而言,受制于数据存储和处理能力,彼时,算法的功能和影响力毕竟是有限的。只有到了大数据时代,算法才真正发挥了其潜在的功能和广泛的影响力,以大数据为基础的算法自动化决策遍及私人生活和公共治理领域。

在私人生活中,算法决策广泛运用于广告营销、就业、银行信贷等诸多领域。当我们作为消费者进行网络购物时,算法向我们推荐产品;当我们应聘某一岗位时,算法决定着我们是否能够胜任这一岗位,进而决定着我们能否获得就业机会;[注] 目前,国外已经有公司运用大数据算法来寻找理想职员,参见Matt Richtel, How Big Data Is Playing Recruiter for Specialized Worker, The New York Time, April 27, 2013. 当我们向银行申请贷款时,银行所使用的大数据算法对我们进行信用评分,进而决定我们是否能够获得贷款以及获得贷款的额度大小。不仅如此,金融算法大量运用于金融投资决策之中,美国学者将金融算法形容为开启现代金融帝国大门的新密码。[注] 参见Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, 2015, pp.59-100. 大数据算法之于已经迈入互联网时代的现代金融业的重要地位由此可见一斑。

在公共治理领域,算法决策也逐渐受到青睐。在刑事侦查中,以大数据算法为基础的预测警务被用于预防和打击犯罪。美国情报部门为了打击恐怖主义以维护国家安全,逐渐开始运用大数据算法识别和发现潜在的“恐怖分子”。美国学者佩德罗·多明戈斯在谈到学习算法之于现代国家安全的重要性时指出:“在网络空间之外,学习算法是保护国家的壁垒……恐怖分子可隐藏在足球比赛的人群中,但学习算法能辨认他们的相貌,恐怖分子可以在国外制造爆炸事件,但学习算法能找到他们。”[注] [美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版社2017年版,第24—26页。 同时,算法决策还被运用于刑事审判之中,作为量刑的重要依据。美国威斯康辛州初审法院基于罪犯改造部门提交的一份载有被告艾瑞克·鲁米斯的再犯风险评估内容的COPMAS调查报告,进而对其作出了监禁6年外加监外管制5年的判决。在接到一审判决之后,被告以初审法院根据COPMAS评估作出判决侵犯其正当程序权利为由提出上诉,但最终被威斯康辛州最高法院驳回。

在算法决策逐渐占据统治地位的算法社会中,各大互联网商业巨头和公共机构正在掌握一种算法权力,而支撑这种新型权力的则是各种功能强大的学习算法。大数据算法的重要特征在于其高度的专业性和模糊性,这些特征使得算法决策呈现出显著的黑箱效应,并最终引发了算法决策的责任性危机。为了克服算法黑箱效应,进而强化算法决策的可责性法律学者和技术专家等进行了艰辛的理论探索和制度建构,算法解释权则是众多方案中极具代表性的一种。从控权角度观之,算法解释权基本遵循了以权利制约权力的控权逻辑。具体而言,算法解释权制度的建构逻辑如下:算法决策存在严重的黑箱效应,并导致算法决策责任性缺失,为了重塑算法决策可责性,则需要通过算法解释权来提高算法决策的透明性。

算法不仅决定了执法资源的分配,而且还在很大程度上决定着国家扶贫资源的分配。为了实现精准扶贫战略目标,目前,我国贵州、安徽、海南等中西部欠发达地区纷纷运用大数据来精准识别贫困户,进而决定国家扶贫资源的合理分配。虽然各地“大数据+扶贫”战略在具体实践中有所差异,但是总体上遵循如下思路和做法:一是通过相关部门多维度数据对比分析,自动预警、实时推送异常信息,帮助扶贫干部实现对贫困户的精准识别。二是以“扶贫云”的建档立卡贫困户数据为基础,通过相关扶贫部门数据对贫困户进行精准画像,实时掌握国家、省、市、县、乡、村各级帮扶干部情况及对应帮扶贫困户信息。三是可根据贫困实时信息,自动比对和身份识别,推送给教育、财政、扶贫等相关部门,实现“一站式”精准扶贫。四是通过大数据可视化,将帮扶企业对各贫困村、贫困户的帮扶情况呈现出来,实时掌握企业帮扶贫困户情况和贫困户被帮扶进程。[注] 参见罗以洪、吴大华:《数过留痕!大数据让扶贫变得更精准》,载《经济日报》(百家号)2018年5月3日。

由此可见,算法决策已经弥散于私人和公共领域之中,并且伴随着大数据不断发展,算法决策还在向社会其他领域渗透蔓延开来。在现代社会中,算法决策之所以被广泛运用,一个重要的原因在于算法决策有助于实现精准决策。客观公正是人类决策的重要目标,然而,受到人类认知偏差的影响,人类决策一直为精准性所困扰,现代社会的复杂性更加剧了精准决策的难度。大数据为复杂社会治理提供了难得的历史契机。一方面,现代互联网技术实现了海量数据的存储,人们日常生活的点滴都被记录下来;另一方面,借助于大数据算法,公私决策部门能够对个人的偏好、行为进行精准预测,从而作出相应的决策。而且,算法决策还能固化乃至形塑个人的偏好。当我们浏览网络时,大数据算法基于我们的浏览历史和消费记录,向我们推荐网页新闻和营销广告,将固化和形塑我们的偏好和认知。从功利主义视角观之,大数据时代盛行的算法决策符合效用最大化的功利原理,这也是算法决策在现代社会备受公共部门与私人机构青睐的根本原因。

永州市涔天河库区位于湘江流域上游,是永州地区重要的水源地,其流域控制面积为2423平方公里,多年平均产水量26亿立方米,正常蓄水位254.26 m,总库容1.05亿立方米。该工程是湘江流域上游龙头水利工程,扩建后将形成湖南省最大的灌区。涔天河库区扩建工程可谓“牵一发而动全身”,不仅占用了大量的土地资源,而且对周围环境也产生了巨大的影响。水库扩建工程浩大,大量人力物力的投入,以及对区域物质能量的扰动,使流域生态系统的稳定性受到一定程度的影响。

(二)算法自动决策面临的新问题催生算法解释权

大数据时代的算法决策展现的是一种典型的技术理性。算法决策依靠的是大数据挖掘技术。大数据挖掘范围最典型的特征在于,“其转变了传统的围绕特定认知对象或假设而进行的数据搜集模式,取而代之以基于广泛、全面、深度的数据搜集而形成认知对象或假设的过程。”[注] 裴炜:《个人信息大数据与刑事正当程序的冲突及其调和》,载《法学研究》2018年第2期。 近年来,伴随着算法决策广泛运用,其在因精准化而备受青睐赞誉的同时,却也因算法决策引发的风险而遭遇到越来越多的批评与质疑。概括而言,目前,作为技术理性产物的算法决策所面临主要是隐私风险和歧视风险。

从隐私维度看,算法决策对生活于其间的个人隐私构成了严重威胁。算法决策是以海量数据为基础的,用于进行算法决策的算法模型就是基于所搜集的历史数据训练而形成的,亦即机器学习过程。用于训练算法模型的历史数据来源广泛,囊括个人购物偏好,行踪轨迹、生理特征等诸多方面,其中包含大量涉及个人隐私的数据信息。在算法模型运用于特定主体时,仍然需要对个人的上述诸方面的数据信息进行搜集。因此,在很大程度上,大数据时代的算法决策是以牺牲个人隐私来换取所谓的便利和高效,人们的私生活和个人隐私被现代物联网技术暴露无遗。置身于大数据时代,“进行数据收集、创建、存储和分析的电脑数量呈爆炸性增加,使得技术能够侵犯你的隐私。记录你的生活细节的数据采集点越多,任何想要了解你的人可获得的信息就越多。”[注] [美]特蕾莎·M.佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社2011年版,第19页。 无怪乎美国学者洛丽·安德鲁斯发出大数据时代下个人“隐私死亡”的警告。[注] 参见Lori B.Andrews, I Know Who You Are and I Saw What You Did: Social Networks and the Death of Privacy, Free Press, 2013. 值得特别注意的是,与传统技术聚焦于个体隐私信息的搜集与利用不同之处在于,现代大数据分析技术在隐私信息的搜集和运用上,已经呈现出超越个体层面,逐渐向群体隐私聚焦的趋势。[注] 参见Lanah Kammourieh et al ., “Group privacy in the Age of Big Data” , in Taylor, Luciano Floridi, Bart van der Sloot(ed.), Group Privacy: New Challenges of Data Technologies, Springer, 2017, pp.37-66. 之所以会带来这种变化,原因在于,以大数据算法决策是建立在分类的基础之上。这意味着,大数据时代,不仅仅要关注单个个体的隐私保护问题,还需要关注大数据分析技术带来的群体隐私威胁和保护的问题,这也给传统以个体为中心建构隐私权的理论、制度和实践带来了挑战。

从决策的平等性角度观之,自动化算法决策在引发隐私风险的同时,也造成了歧视风险。[注] 参见Kate Crawford, The Hidden Biases, Harvard Business Review, April 01,2013. 德国学者克里斯多夫·库克里克将现代大数据算法统治的社会称之为“微粒社会”,以区别于传统的“粗粒社会”,微粒社会的典型特点是借助算法对人和事物进行高度的解析、评价和预测。因此,微粒社会也是一个借助算法进行预测和打分的“评价型社会”。然而,由算法所进行的评价并非技术专家所标榜的那么客观和中立。基于算法所做出“评价和预测不是中立的,它们介入个体的生活之中,考验着我们对于民主体制中平等的理解。”[注] [德]克里斯多夫·库克里克:《微粒社会:数字化时代的社会模式》,黄昆、夏柯译,中信出版社2018年版,第110页。 这意味着,算法决策给传统的平等观念和价值带来了严重的挑战,也引发了歧视风险。如果说隐私风险是源自于大数据的开放性特征,那么,歧视风险则是源于大数据的排斥性特征。在技术乐观主义者看来,大数据具有开放性和包容性,能够很大程度上消除传统人类决策中的偏见与歧视。然而,大数据并非如那我们所设想的那般,只具有开放性,而是兼具包容性特征与排斥性特征。[注] 参见Jonas Lerman, Big Data and Its Exclusion,Vol 66 Stanford Law Review Online (2013), pp.55-63;又参见Edith Ramirez, Julie Brill, Maureen K. Ohlhausen, Terrell McSweeny, Big Data: A Tool for Inclusion or Exclusion?, Federal Trade Commission, January, 2016. 而恰恰是由于大数据的排斥性特征,引发了大数据算法歧视的问题。

目前,算法决策的歧视问题呈现在私人与公共决策诸方面。例如,在招聘就业领域,算法自动化决策带来了对黑人和女性等特殊群体的系统性歧视。[注] 关于就业领域的算法歧视问题,参见Allan G.King, Marko J.Mrkonich, Big Data and the Risk of Employment Discrimination, Vol.68 Oklahoma Law Review(2016), pp.555-584;又参见Pauline T.Kim,>Subject :Background, Logic and Structure of the Right to Explanation of Algorithmic Dicision-making in the Age of Big Data

Author &unit :ZHANG Endian (Law School, Nanchang University, Nanchang Jiangxi 330031, China)

Abstract :In the age of big data, algorithmic automated decision-making is widely used in the field of private life and public governance, but it also leads to the risks of privacy and discrimination. The reasons of these risks is that the lack of transparency of algorithmic decision-making, which results in the black box effect of algorithmic decision-making, and ultimately endangers the accountability of algorithmic decision-making. Right to explanation aims to give data subjects the right to gain interpretation of algorithmic automatic decision-making , clarify the interpretation obligations of data controllers, improve the transparency of the algorithmic decision-making, and achieve the goal of remodeling the accountability of the decision-making of the algorithm, thereby mitigating the risk of privacy and discrimination in the algorithmic decision-making. In this sense, the right to explanation have rationality. In terms of the construction of specific rights, according to the different explanation criteria and timing, the right to explanation of algorithmic decision-making can be divided into two types: the right to explanation centered on the system function of the algorithm and centered on specific decision-making. The two models of right to explanation are not exclusive, we should choose different interpretation mode according to the specific stage and timing of algorithmic decision-making.

Key words :age of big data; algorithmic automatic decision-making; right to explanation of algorithmic decision; transparency; accountability

中图分类号: D913

文献标志码: A

文章编号: 1009-8003(2019)04-0152-09

收稿日期: 2019-04-13

基金项目: 本文系2018年度江西省高校人文社会科学研究青年项目《大数据挖掘风险的法律规制研究》(FX18203);2018年度教育部哲学社会科学研究重大课题攻关项目《中美网络空间治理比较研究》(18JZD040)的阶段性成果。

作者简介: 张恩典(1983-),男,江西东乡人,法学博士,南昌大学法学院讲师,南昌大学立法研究中心研究人员,研究方向:行政法学。

[责任编辑:魏治勋]

标签:;  ;  ;  ;  ;  ;  

大数据时代的算法解释权:背景、逻辑与构造论文
下载Doc文档

猜你喜欢