人工智能的法律形式理性与实质理性困境
张 伟
(华东政法大学 法律学院,上海 200042)
摘 要: 法律理性是形式理性与实质理性的结合。人工智能能够满足机械法学所要求的事实向结果的逻辑转化,在寻求“最优解”上有优势,但在实现法的形式理性问题上面临着立法不周延、法律边缘地带适用标准模糊、人类偏好与价值判断不可避免的问题。人工智能系统固有的感知缺陷使得它无法完成社会、历史因素客观化的任务,无法实现法的形式理性。人工智能在立法和司法中皆面临法律方案的选择难题,由于评判标准取决于人类的目的、评判价值的不可量化性和人工智能系统的感知缺陷,人工智能亦难以实现法的实质理性要求。因此,人工智能不能满足法律活动所需的理性,而只能作为人类法律活动的工具,无法超越人类而获得统治地位。
关键词: 人工智能;法律理性;行为模式
一、问题的提出
(一)法律人的自我危机意识
当前人工智能研究者已经完成用人工智能进行人机对弈、模式识别、自动工程、知识工程、专家系统等研究工作,人工智能已经参与到了指纹识别、自动驾驶、印钞工厂、智能搜索引擎、计算机视觉和图像处理、机器翻译和自然语言理解等领域。人工智能的研究方向被划分成多个子领域,包括解决问题、知识表示、智能规划、机械学习、语言处理、运动控制、机器知觉、情感社交、创造能力等,研究人员希望能够将这些子领域纳入同一个人工智能体,使其具有全部的技术能力,从而获得超越人类的智能。
随着人工智能技术进入法律实务领域,人类关于自身地位的危机感在法律领域也开始显现出来。2017年7月10日,上海刑事案件智能辅助办案系统“206”历经154天的研发后,正式在上海地区的人民法院、人民检察院和公安机关展开试点,系统中存储着大量的法律、法规、案例、判决等数据,通过检索对照,该系统将能完成证据标准指引、单一证据校验、逮捕条件审查、社会危险性评估、证据链和全案证据审查判断、非法言词证据排除等众多功能[1]。法律从业人员在享受人工智能技术带来的方便的同时,亦在担忧人工智能对法律职业和法律伦理的冲击。
(二)问题的根本——人工智能与法律理性
作为自然科学家始终致力于研究和发展的科学技术,人工智能对社会科学研究者来说是神秘而新鲜的。即使是人工智能的研发人员亦无法确定人工智能的能力极限为何、人工智能的前景又如何,更无法预测人工智能对法律领域会产生何种影响。同样,法律人也无法预测人工智能是否会代替法律从业人员,是否会造成该领域大面积失业,会否引发法律演化的危机。但可以确定的是,自然科学的发展需要自由的环境,人工智能的发展不会停止,对技术的运用也不会因目前不确定的担忧而暂停,因而对人工智能负面影响的担忧也不会停止。
实际上,人工智能技术能否代替某一专业职业人士,能否在这一专业领域获得统治地位,关键在于其是否能够获得人类在这一专业领域的思维,这也就是人工智能所谓“智能”的体现。在法律领域也是如此,我们探讨人工智能对法律领域的影响,分析人工智能的利与弊,采取措施应对人工智能可能带来的负面效应,归根到底是要对人工智能进行能否满足法律理性的分析。
李小树平时一直把大黑猫当成自己的心肝宝贝,我原来向他讨要过几次,都被他一口拒绝了。他说大黑猫比起很多女人来更值得宠爱和信任,无论走到什么地方,他总把大黑猫带在身边。
二、人工智能实现法律形式理性中 的难题
(一)机械法学:事实向结果的逻辑转化
从原始社会末期的神明裁判到亚里士多德时代的三段论推理,从最早古典自然法学派追求法律与道德的统一到后来分析实证主义法学派所强烈主张的法律与道德的分离,法学家们将法律相继从神意、道德伦理、政治中剥离出来,不断推向理性化,一步步接近法律的确定性,探寻所谓的“唯一正解”。马克斯·韦伯在《论经济与社会中的法律》一书中提出了法律的现代性问题,法律的理性化是法的现代性问题中的一个重要话题。他将法律制度分为形式的与实质的两种,在法的创制与法的适用即立法和司法这两个法的核心要素中,认为法律的理性化就是一个由实质理性向形式理性转变的过程[2]225-244。法律的形式理性要求法律判决是根据智识上不可控的手段做出的,其所依据的标准不以人的意志为转移,只反映法律规则以及法律逻辑本身,而不反映法律规则与逻辑之外的其他通则才合乎理性。法律的形式理性追求的是法律的内部理性。
法律的创制和发现若不受个人可控因素的影响,而仅依照预设规则与逻辑推理得出结论,那么人工智能若要代替人类进入法律适用领域,便只需要相当的法律推理能力,只要能够模拟人类的解释与推理思维,将某事实作为推理素材,以预设的法律规则作为标准,通过一套逻辑推理程序,便可实现事实向法律结果的转化。我们以英国分析实证主义法学派先驱哈特在《法律的概念》中所提出的“承认规则”“变更规则”“裁判规则”[3]86-93为例,在法的创制过程中,以社会惯习为起点,以承认规则为推理标准,经逻辑推理使得社会惯习获得法律地位,实现法的创制过程,推理的两种可能的结果便是该规则获得法律地位或不被承认具有法律地位;在法的适用过程中,出现一种符合预设规则中行为模式的法律事实,经过裁判规则的指引,通过逻辑推演可以得出其对应的法律结果;而在法的变更中,则是将符合变更规则所预设的情形,依照变更规则变更法律。在极端理想的状态下,由此种“推理素材-预设规则-推理结果”而实现的事实向结果的转化,可以得到所谓的“唯一正解”,此即人工智能可能实现的最简单的“形式理性”。
1.立法不周延——法律适用标准的缺失
(二)法律适用标准缺失
实际上,智能系统早已能够实现这样的推理过程。在上海试点的“206系统”已经能够搜索数据、匹配案件,甚至未来还可能实现简单的价值判断。但是,机械的推理实际上并不能真正实现韦伯所谓的形式理性法,人工智能所面临的法律理性困境也不在于此。
2.法律边缘地带的不确定性——法律适用标准模糊
伍炳彩每日7点出门坐诊,下午1点半才回家。由于常思虑患者病情,他曾患上失眠。为了不影响健康,他每日最少午睡一刻钟,睡前温水泡脚一刻钟。
智能系统能够在实现形式理性的路上走多远,是否能够在立法周延性问题上比人类做得更好,使立法更加接近确定性,这取决于人工智能的行为模式,如人工智能系统如何对社会事实做出反应,如何感知社会事实,如何进行表示、推理和判定。
依哈特对法律概念所做的诠释,某一行为规范能否成为法律,需要经承认规则的指引,方可能获得法律地位,因此事实与法律规则就不可能是一一对应的。法律规则在对社会事实作出规定时总是存在不周延性,法律规则不可能涵盖当今社会所发生的一切事实,当某些事实进入法律语境中时,就会面临法律适用标准缺失的难题。立法也总是存在滞后性,即使是一个时代最有智慧的人也不可能对未来的一切加以充分预测,也就不可能将未来一切可能出现的情形写入立法,那么在法律适用的过程中,其适用标准就不可避免地在某些领域发生缺位。
Kaczmarz迭代算法是一种针对过采样线性等式系统设计的迭代型算法,适用于求解大规模线性等式系统.由于其具有使用简单、速度快、内存占用率低等优点,已被广泛应用于数字信号处理、医学成像等应用领域.在求解线性一致等式系统Ax=b时,Kaczmarz迭代算法循环遍历矩阵A的所有行,并将当前迭代x投影至由矩阵A中当前选择行所对应的超平面上,即
在法律运行的各个阶段,若是没有被预设的法条涵盖的事实进入法律推理程序中来,那么人工智能会做出什么样的判断,它是否有能力为这些事实赋予逻辑意义,并推理出“唯一正解”?在法官不能拒绝裁判规则的指引下,作为人的法官将可能会在法律规则之外引入社会福利、政策因素甚至是个人哲学,为处在边缘地带的法律事实作出裁判,在法律的空白地带实现造法功能[注] 卡多佐主张,司法裁判是追寻法律结构对称、社会福利因素、个人的正义观、道德标准等的“化合物”。 [4]2。而人工智能是否有可能获得一个正确合理的结论?
那怎么办,等还是不等?真的交给运气?比较靠谱的方法我认为是斟酌考虑,比如从车流量看路况,从差不多路线的其它公交车上猜测情况,再可凭多日坐车的经验等等来判断。
3.社会、历史因素的客观化
韦伯对法律理性化的揭示开始于对社会行为的关注,他并不否认社会行为具有历史性,他认为,虽然社会行为避免不了受到人主观因素的影响,但是,社会行为是一种集体的行动,它并不是个人行为的简单相加,社会秩序的形成是一个客观化的过程[5]。提到社会福利、政策因素以及个人正义观,人们便会不自觉地将它们归入实质理性的范畴,这是与人类世界的固有特征分不开的。这种想法无可厚非。在人类世界里,人类是法律的制定者,是法律事实的形成者,是法律适用过程的参与者,是法律适用结果的被影响者,人类与法律的运行有着最为密切的关系。但是,人工智能若接手了法律的制定和适用工作,情形便可能会大有不同。最极端的情况是,作为法律事实的形成者和法律适用结果的被影响者,人类可能在法律制定和法律适用席位上缺席,那么此时真正对法律理性化的这两个核心过程施加影响的便不再是人类,而是以数据为运作基础的人工智能,法律便有了实现形式理性的机会。但是,人工智能是否具有实现社会、历史因素客观化的能力,我们不得不探究人工智能的行为模式。
大肠杆菌肠炎 (败血型、产肠毒性)的犊牛,多发生于出生后2~3天急性病例,大肠杆菌经肠道进入血液,引起急性败血症。主要临床表现出精神萎靡,无食欲,严重脱水,肌肉无力,继而昏迷卧地不起,如治疗不及时一天内死亡,体温偏高或者正常。有时无任何临床症状突然死亡,发病急病程短。这种类型今年在某养殖场表现最为突出,发病率占20%,死亡率42.8%。
(三)智能系统的感知缺陷
1.人工智能的行为主义
策略:画力的示意图首先是分析研究对象的受力情况,其次是明确各力的三要素。步骤为:一定点(作用点),二画线(从力的作用点开始沿力的方向画一条带箭头的线段并表示出力的大小),三画箭头,四把力的符号标箭头旁。注意力的作用点必须画在受力物体上。
“人工智能”顾名思义包含两个部分——“人工”和“智能”。“人工”是指人工系统,即人工制造的计算机系统。“智能”则包含思维、行为、反应等多种内涵,人工智能研究者致力于使人工系统的智能尽可能接近人类智能。人类智能的重要组成部分之一是行为能力,具有行为能力,人类便得以对外界刺激做出反应,人类作为生物具有应激性,它能够使人在不经大脑推理的情况下直接做出这种反应,这就是人类所谓的“感知-行为”模式。长期以来,人工智能的行为过程可以总结为“感知-表示-推理-行为”模式。与人类智能相比,人工智能的行为模式以表示和推理作为核心,在面对一种外界刺激时,人工智能须先将该行为表示为外界环境和求解目标,进而进入推理程序,从而得出计算结果。这样的行为模式与人类智能具有明显的区别。
麻省理工学院人工智能实验室的布鲁克斯则提出了人工智能行为主义,主张人工智能能够抛弃“表示”与“推理”程序,而像人类一样,将外界刺激直接转化为反应,即达成“感知-行为”模式。在这个行为模式思想的影响下,布鲁克斯提出了一种“包容结构”[注] 对“包容结构”解释的原文如下:“布鲁克斯制造了多个机器虫,利用这些机器虫分别完成躲避障碍、移动、漫游、目标规划等不同的行为模块,这些行为模块用有限状态自动机实现,它们之间的协调通过所谓的包容结构来完成。在包容结构下,没有传统人工智能系统中的中央控制部分。机器虫的感知部分与行为模块直接联系,不同行为模块并行执行,使得机器虫能在外界刺激下触发适当行为。” [6]215,利用这种包容结构,能够构造出越来越聪明的机器,最终它们将达到人类的智能水平。布鲁克斯主张渐进智能的研究,认为人的智能是从低级向高级进化而来的,人工智能也应当模拟这样的进化过程,从肢体、五官等基本形态向感觉系统、自我运动系统渐进发展。
2.智能系统的感知缺陷
我们以布鲁克斯所制造的机器人Cog为例,他采用了一种渐进式的智能研究方法。由于人的进化是一个渐进的过程,人的智能进化亦经历了一个渐进的过程,因此他主张先模拟昆虫的行为模式,其后模拟猪、狗等较低级哺乳动物的行为模式,最后模拟人的行为模式。而在模拟人的行为模式时,他主张应当先使机器人Cog具有人的形态,以便更好地完成模拟。他的团队制定的目标是使Cog达到两岁儿童的智力水平。可见,完成“感知-表示-推理-行为”模式向“感知-行为”模式的转变需要一个漫长的过程,而其中最为重要的就是“感知”环节。布鲁克斯的做法是,制造多个机器虫,为这些机器虫制造传感器,用传感器模拟人的感知路径,使机器虫能够感知到外界刺激,并通过归纳推理和演绎推理,从而获得从“感知”直接转向“行为”的能力。
一方面,教师应当正确认识自身角色定位,充分发挥其引导作用和辅助作用,在二胡演奏教学和训练的过程中制订科学合理的训练意志目标,层层递进;另一方面,教师应当引导学生根据训练效果的反馈信息正确分辨技巧的正确有效与否,明确自己的优势及应当改进完善的缺陷,有针对性地进行训练,从而攻克一个个技术难点。
但是,这样的传感器是可行的吗?笔者认为,在我们高估了人工智能的感知能力和行为能力,也高估了它的学习能力,从而对人类自身的生存和发展产生危机感的同时,我们也同样高估了人类的自我认知水平。关于意识,意大利的历史学家、人类学家尤瓦尔·赫拉利分析道,“动物也有各种主观的需求、感觉和情感,但我们怎么能确定这件事?我们会不会只是一厢情愿地赋予动物人性,也就是把人类的特质赋予非人类的对象,就像小孩子觉得玩偶能感受到人类的爱和愤怒?”[7]75他甚至提出了一个骇人听闻的问题——人类如何确信自己存在意识和情感?其实,人类至今除了通过神经学、细胞学、心理学等途径分析人的意识、反射、情感以外,并没有什么更好的方式来发掘人类意识的运作形态,人类对自己的认知尚且不充分,也没有能力充分分析人类自身的复杂差异。
在法的创制阶段,我们需要面对多种方案的选择。利益衡量原则、博弈论可以用来保证立法的合理性,严格遵守立法程序是保证立法方案选择的准确性的重要方法,而这些也恰恰是立法面临多种方案选择的体现。国家在规制消费者与商品经营者之间关系时要平衡这两者与社会公众的利益,这就涉及社会公共利益的价值评价;在确定对罪行的惩罚时对社会危害性的考虑也涉及人权与社会危险的价值选择;程序法关心程序正义与实体正义的选择;刑事诉讼中事实无法查明的不正义由谁来承担等等,这些都是立法要面临的可选方案。
同样,法律领域所涉及的社会问题也如人类本身一样复杂,甚至更加复杂。如欲通过传感器对人类自身的模拟来使人工智能获得足够的智力和价值判断能力,首要的一步就是人类对自己的充分认知——可想而知,也许有一天能够实现,但科学家们还有很长的路要走。
因此,针对村民法律知识少、法制观念弱、法律信仰低的现状,这就需要把乡村治理纳入法治轨道,使农村上上下下知法懂法、信法敬法,干部依法管理,村民依法办事,营造办事依法、遇事找法、解决问题用法、化解矛盾靠法的浓厚氛围。
三、人工智能的决策优势与偏好 因素的不可避免
(一)人类的有限理性——人工智能探寻“最优解”上的优势
即使是立法能够涵盖社会生活的方方面面,即使法律的理性适用可以解决全部的法律问题,法律上的行为模式与法律适用后果也可能不是一一对应的。在一个法体系内,同一法律情形经过法律规则和推理程序的作用可能产生不同的适用结果,但是判决的唯一性又要求人们能够找到法律适用的“唯一正解”,这也是法律的确定性问题所一直致力于达成的目标,法律的不确定性是人们在面对选择时寻求最优解上的巨大障碍。面对不同方案之间的选择,人们的有限理性使得人们在寻求“最优解”的目标上行动困难。
与下棋类似,当人们在面临管理、法律等领域中的决策情形时,人类理性的有限性同样使人们无法在有限的时间里得出“最优解”。在洛斯·阿拉莫斯制造的下棋程序中,程序通过分析短期棋局来安排自己的战术,从而获得短期的“最优解”,他们效仿对手的策略,依赖走法生成器、评价器、终止法则来选择走法、启动棋局评价、终止搜索程序[8]51。这里的“终止程序”便与人类的有限理性类似,由于人类无法穷尽一切可选方案,且不能充分考虑决策树中的每一种可选方案所对应的结果,如果给人无限的考虑时间,也许人类可以无限接近“最优解”的选择。但是,留给人们在法律事务决策中的时间是有限的,在这个有限的时间里人们必须做出决策,因此就不得不将自己局限于一个“有限的时间和空间”之内,做出一个令当下“满意”的决定——这是人们可及的“最满意”方案,但不可称作是最优解。
相比于人类智能,计算机智能在面对复杂的逻辑环境时有其不可忽视的优势。计算机具有强大的存储功能、充分的信息提取功能和迅速的搜索功能,当不存在感知难题,而只需要计算机程序来分析多种连续性方案时,通过程序的改进,计算机能够无限接近“最优解”的选择,且其选择能力具有极强的稳定性。AlphaGo的不败神话便是很好的例子。
柳红喜欢闻公公身上的烟味儿。或许不仅仅是烟味儿,公公身上有着香烟味、汗臭味以及其他气味混杂在一起的男人味儿。这男人味儿很尖,很刺鼻,但柳红就是喜欢闻。都说男人是臭男人,但这臭男人身上的味儿,却让柳红心醉。每次洗衣服时,柳红都会偷偷地闻苏长河换下的脏衣服,那上面就有着她喜欢的气味。
因此,在理想状态下,如若不考虑社会价值评判,而只在法教义学意义上寻求“最优解”,人类固有的有限理性使得人们不得不终止于追求“最优解”的前期阶段,而妥协于“满意解”。相反人工智能在面对同样情形时则有稳定的能力无限接近甚至最终得出“最优解”。但是,这只是一种理想情形,客观上因推理图式冲突等原因可能并不存在这样的“最优解”。
(二)人类法律推理图式结论冲突
1.推理图式结论冲突一例
不同的法律推理图式的运用可能对应完全不同的推理结果,对推理结果的选择取决于推理图式的运用方法,而运用哪种推理图式作为预设的推理模式,离不开人类偏好。我们来看一个经典的推理范式:安提戈涅的故事。故事梗概如下:
故事发生于底比斯王国。俄狭浦斯王的两个双胞胎儿子波吕涅克斯和厄忒俄克勒斯之间进行了一场战争。波吕涅克斯被厄忒俄克勒斯从底比斯放逐,后带领军队返回来征服这个城邦。在底比斯的城墙前,两个兄弟在决斗中相互残杀而死。
在决斗后,波吕涅克斯的军队被击退,两兄弟的舅舅克瑞翁成为新的国王。克瑞翁以死刑的惩罚禁止人们埋葬波吕涅克斯(根据希腊的宗教信仰,阻止他死后找到安息)。
安提戈涅,即两个死去兄弟的姐姐,违反克瑞翁的命令埋葬了波吕涅克斯的身体,并因此被判死刑[9]154。
首先看克瑞翁的推理:他第一步采用目的论推断图式的信念化推论方法,得出自己有惩罚伤害城邦之人的义务;第二步采用三段论图式推得波吕涅克斯是城邦的敌人,由此通过三段论得出自己有义务惩罚波吕涅克斯;第三步,他运用目的论推断图式,为了实现惩罚波吕涅克斯的目标,不许任何人埋葬波吕涅克斯;第四步,根据反信念化图式,克瑞翁进一步制定子计划,命令任何人不得埋葬波吕涅克斯,并用目的论图式推断后颁布这个命令:任何人都不可埋葬波吕克涅斯,否则要被石头砸死。根据三段论,克瑞翁的士兵及市民推知克瑞翁的命令是有约束力的;根据反信念化图式,士兵与市民推出任何人都不得埋葬波吕涅克斯,否则要被石头砸死。克瑞翁通过三段论推知,他有义务保证城邦法律的执行[注] 克瑞翁的推理原文如下:“至于我自己,请无所不见的宙斯作证,要是我看见任何祸害——不是安乐——逼近了人民,我一定发出警告;我决不把城邦的敌人当作自己的朋友;我知道唯有城邦才能保证我们的安全;要等我们在这只船平稳航行的时候,才有可能结交朋友。我要遵守这样的原则,使城邦繁荣幸福。我已向人民宣布了一道合乎这原则的命令……波吕涅克斯,他是个流亡者,回国来,想要放火把他祖先的都城和本族的神殿烧个精光。想要喝他族人的血,使剩下的人成为奴隶,这家伙,我已向全体市民宣布,不许人埋葬,也不许人哀悼,让他的尸体暴露,给鸟和狗吞食,让大家看见他被作践得血肉模糊!”“凡是城邦所任命的人,人们必须对他事事顺从,不管事情大小,公正不公正;我相信这种人不仅是好百姓,而且可以成为好领袖……背叛是最大的祸害,它使城邦遭受毁灭,使家庭遭受破坏,使并肩作战的兵士败下阵来。只有服从才能挽救多数正直的人的性命。所以我们必须维持秩序,决不可对一个女人让步。” 。
由此,经目的论推断图式、三段论推断图式、信念化推论方法、反信念化推论方法等,克瑞翁得出应当将埋葬了波吕涅克斯的安提戈涅乱石打死的结论。
安提戈涅的推理则与克瑞翁不同,她用接连的三段论图式和一个反信念化图式得出结论:自己应当遵循宙斯之神的命令→安提戈涅遵循着宙斯的命令→宙斯的命令是有约束力的→宙斯命令人们应当埋葬自己的亲人的命令是有约束力的→自己应当埋葬自己的亲人→自己应当埋葬波吕涅克斯[注] 安提戈涅的推理原文如下:“向我宣布着法令的不是宙斯,那和下界神祇同住的正义之神也没有为凡人制定这样的法令;我不认为一个凡人下一道命令就能废除天神制定的永恒不变的不成文律条,它的存在不限于今日和昨日,而是永久的,也没有人知道它是什么时候出现的。” 。安提戈涅的结论是致命的。
2.推理图式的选择难题
现实的法律体系发展至今,可能早已能够将这里的“法律冲突”问题回避掉,很少会出现逻辑演绎差别带来的极端适用冲突,但是安提戈涅的故事却是一个值得思考的例子。在法律体制健全的社会,如此截然相反的规则适用结论可能并不多见,但是与此相类似的由推理图式带来的冲突却是不可避免,选择哪种推理图式作为程序的预设,在推理结果分歧时又应当如何选择,这些问题离不开人的偏好发挥作用。
(三)不可回避的偏好选择与价值判断
1.人工智能的“冲突消解”策略
毛夫人摇头说,不知道,这种事在医院总是有的,而且毛德君也很少在家说单位的事。秦明月沉吟一下说:“有必要的话,我们还要到你家去看看。”毛夫人说:“只要能抓到那个凶手,我什么都愿意做。”秦明月留下自己的名片,让她想起什么就打他的电话。
人工智能的推理同样会产生相互冲突、需要选择的情况,推理控制策略解决的主要问题就是推理方向和冲突消解等问题。在推理过程中,如果有多条知识可以使用,就发生了知识的“冲突”,人工智能系统从多条可用知识中选择用于推理的最佳知识的过程即为“冲突消解”,其中所用的策略被称为“冲突消解策略”。冲突消解策略主要用来提高推理原则,对可用知识进行排序,优先使用前序知识,从而避免推理过程中的知识冲突,防止推理因知识冲突而难以继续。研究者通常会根据知识的特殊性、新鲜性、差异性、领域特点、上下文关系、前提条件、匹配度等标准进行排序,优先选择更具特殊性、更具新鲜性、差异性更强、关联性强的知识,在不确定推理中选择匹配度较强的知识进行推理[注] 关于知识的含义:人工智能语境中的“知识”不同于人们日常生活中所使用的“知识”一词的含义,尚未有人工智能领域明确的形式化定义,大致是指人工智能进行推理时所使用的一切推理素材。 。
2.选择中的偏好因素——转向实质理性
由此可见,人工智能在解决推理过程中的冲突时被写入了一些硬性的标准,例如知识的特殊性、差异性、上下文关系等等,是为了推理的效率而设置的。即使是面对不确定推理,也使用了匹配度这样易于衡量的标准,避免推理知识的冲突造成的推理困难。即便如此,人工智能尚不能完全解决逻辑性的知识冲突问题,这些策略只能减少冲突发生的可能性。类比于此,在解决法律适用冲突时,法律位阶理论也是一种控制策略,这使得法律的逻辑推理得以运行。但是在人工智能的冲突消解策略里,我们并没有看到诸如“正义”“道德”“政策”等价值判断的元素。
不同于人工智能系统的逻辑推理,在法律推理中人类依据不同推理图式可能获得不同的结论,在选择推理图式和相关知识的优先性时,不可避免地会加入个人偏好因素——虽然在马克斯·韦伯的观点里,这些问题可以被客观化。即使人工智能与人类相比更加客观,有可能避免主观因素对法律形式理性的影响,但是实质理性中价值评价的内容也是人工智能必须面对的内容。
四、人工智能的实质理性分析
从亚里士多德时代兴起的法律的三段论推理,在法实证主义学派追求法的形式理性化阶段一直占据最高的地位。而后续兴起的实用主义法学和现实主义法学派则打破了形式理性法的神话,同时带来了法的不确定性,以至于直至今日法的确定性都是一个经久不息的话题,纯粹的三段论推理也失去了其统治地位。社会法学派、实用主义法学派和现实主义法学派认为法的理性是形式理性与实质理性的结合,为法律赋予了新的内涵。他们认为,司法过程不是“自动售货机”,单纯的逻辑分析无法得出合理的结论,司法应当是一个逻辑分析与社会福利、公共政策、个人道德观和正义观共同组成的“化合物”。
法律的形式理性希望达到一种确定性的状态,这种状态下我们能够使用一种一般化的标准,预先规范某个领域的行为,以便我们在处理个案的时候不必接受“进一步的官方指示”,而仅通过逻辑推演便得到一个确定的结果。但是,由于我们对事实的无知和对目标的不确定,我们预设的规则总会存在一个边缘地带,无论是判例法国家还是成文法国家的法律都会存在此种模棱两可的情形,在具体案件中需要通过法律原则等并不确切的标准做出决定。
(一)法律中之方案的选择
马克斯·韦伯在论述法的形式理性和卢曼在论述法律系统时,都划分了法的创制(立法)与法的适用(司法、裁判)两个阶段,韦伯将这两个阶段看作是法的运行的核心,卢曼则将此二者作为其分析法院在法律系统中的地位的起点[10]。无论在立法阶段还是法的适用阶段,为了满足法的实质理性的价值要求,都会面临多种方案的选择。
自上世纪90年代以来,党和政府及相关职能部门一直高度重视大学生心理健康工作,并出台了相关政策和指导性文件,全国各高校纷纷成立了相关管理工作机构和心理咨询服务部门。笔者所在湖南第一师范学院就是这样做的。还有很多高校也是这样做的,比如湖南省的中南大学、湖南师范大学、湖南大学等等,这些高校都按照《湖南省普通高校心理咨询室建设标准》,建设有“大学生心理咨询室”和“大学生健康中心”。而“大学生心理咨询室”和“大学生健康中心”中的大学生的相关信息和心理动态方面的情况,又为大学生心理健康档案工作室的建设,提供了必要的资源。
在法的适用阶段,哈特在《法律的概念》中论述告密者案时就提及违背“法不溯及既往”与违反“法不明文规定不为罪”两种恶的选择问题。卢曼也坚持,“裁判总是涉及选择,由两种并且常常是多种可选方案构成”。过去的裁判是不可更改的,当下的裁判也无法预测未来的裁判,却会对未来的裁判产生影响。同时,当下的裁判是在众多方案中进行选择的结果,但裁判并非是既成备选的,而是在选择后被做出的。可见,在法的适用阶段,法的实质理性对方案选择与价值判断提出了要求。我们探讨人工智能在立法和法律适用中的作用,不得不面临方案选择的问题,我们必须探究,人工智能是否有能力进行方案选择,其面临的困境在哪里,与人类相比又存在哪些优势。
(二)无差别之选择方案——“布里丹之驴”悖论与人工智能
1.立法方案选择之例:程序正义与实体正义之争
程序正义与实体正义一直是备受争议的话题,特别是在刑事程序法中,关于程序正义和实体正义的争议未曾断过。由于刑事诉讼程序总是开启于刑事案件发生之后,无法完全还原案发时的场景,又受限于人的认识的局限性,因此刑事错案不可避免。法官不得因此而拒绝裁判,那么在裁判不可避免地出现不正义时,这部分不正义分配给哪一方就成为难题。由于事实无法查清,于是人们引入程序公正的原则,在无法达到实体正义时,只要满足了程序正义,那么我们就视为案件的实体正义也获得了最大程度的满足。可是,程序正义与实体正义并非是并行不悖的,相反,侧重于其中一方还可能为另一方带来负面作用。
推理是基于已知的事实,通过运用有关知识得出相应结论的思维过程。推理能力是人类智能的重要部分,因此模拟和实现人的推理能力,是人工智能研究中的一项重要内容。在计算机实现推理的过程中,我们必须确定理论上采取什么样的推理方式,以及采用什么样的控制策略才能尽快达到推理目标。其中推理方式就类似于人类智能中的推理图式,概括起来大致有如下几种:按推理的逻辑基础划分而成的演绎推理、归纳推理、类比推理;按知识及结论的确定程度划分的确定性推理和不确定性推理;以及按推理过程的单调性氛围的单调推理和非单调推理。在不同的环境中,面对不同的推理目标,会选择不同的推理方式。
在程序正义与实体正义二者的争论上,人们总是试图选择一个“更好”的方案,无论是选择绝对的程序正义论,还是选择绝对的实体正义论,抑或是选择二者兼顾的这种方案,都在尝试选择一个对各方更有利的方案,以避免各方之间的零和博弈。但是,绝对的程序正义论或是绝对的实体正义论,并不能解决对方理论中存在的一切问题。实际上,正如哈特所说,我们必须坦率地承认,我们的选择未必是善,相反,我们面对的几种选择都是恶的,我们只是在几种恶之间选择了其中一种恶。选择“程序正义”,意味着我们放弃了对一部分事实真相的追求,而将正义的任务交给了附属于程序正义的工具,例如侦查机关的侦查技术、公诉机关与被追诉方的充分辩论;而选择“实体正义”,就意味着我们放弃了被追诉人的程序权利,带来诸如超期羁押等的问题;若是选择二者兼顾的折中说,那么就意味着我们抛弃了法律的确定适用标准,当然也包括对事实真相的追寻和对被追诉人程序权利的部分忽视。无论是哪一种方案,由于客观事实不可重演,这种恶果已经产生了,我们对恶果的分配可能不是正义的,选择哪一种方案受到我们主观目的的影响,没有明显的对与错。
2.裁判方案选择之例:告密者案
12月10日3版《身边的创意,为生活注入亮点》,该标题用“……为生活增加亮点”为宜;注入亮点,此搭配有误。
同样是哈特在《法律的概念》一书中所做的论述,他选取了二战后发生在德国的告密者案来论证法律与道德之分离。1944年,德国一位另有新欢的妻子为了摆脱长期服兵役的丈夫,以丈夫在探亲期间曾经向她表达对希特勒的不满为由,向当局告发了丈夫这一言论,并出庭作证。军事法庭因此判决该士兵死刑。二战结束后,这名告密者妻子和军事法庭的法官都被根据1871年《德国刑法典》提起公诉,起诉他们犯有非法剥夺他人生命罪。作为被告人的告密者妻子抗辩:根据当时的有效法律,其丈夫所说的对希特勒不满的言论已经构成犯罪,她当时的告发只是协助当局使一名罪犯受审,而不应当因此承担罪责。
为了保证发射机的供电安全,目前广东省大埔中波转播台使用的是梅兰日兰的双电源自动切换控制器,用于控制一路市电、一路柴油发电机的自动切换。该控制器质量很好,可是电路资料太少,一旦损坏,很难维修,而且厂家一般不维修,只能再买一套新的控制器,价格两万多元。在广东省大埔中波转播台安装该设备十来年的时间里,技术人员经过长期的积累,整理了一些相关技术资料和几次维修的经验。
根据哈特所说,“德国的告密者为了一己私欲,而根据非正义的法律将人罗织入罪,是违反道德之事。但是国家只能处罚触犯法律明令禁止的行为,这是‘法无明文规定’不为罪的原则。如果为了避免更大的恶而牺牲了这个原则,我们必须清楚辨明我们所面临的选择。我们可以说恶法亦法,但在极端的情况下必须对于不同的恶做出选择时,我们也不会把其中的道德难题掩盖起来。”[3]185
3.“布里丹之驴”悖论与人工智能——人类目的的作用
“布里丹之驴”是以一位14世纪法国哲学家布里丹的名字命名的悖论:一只完全理性的驴恰处于两堆等量等质的干草中间,因为它不能对究竟该吃哪一堆干草做出任何理性的决定,它将会饿死。但有批评者认为这个悖论犯了“稻草人谬误”,因为它过分低估了理性的能力,事实上,在承认两个选择都是善的情况下而选择其中之一也是符合理性的。实际上,在做出选择前,两种方案看起来的确完全相同,就像驴面对的两堆干草、狗面对的两块肉一样。不同的是,当人在程序正义与实体正义之间、在“法不溯及既往”与“法不明文规定不为罪”之间、在“查明事实”与“合理怀疑”之间做出选择的时候,这些本来没有实质区别的选择方案就被人为设置的价值位阶、法律的目的论赋予了意义。同样,人工智能在处理这些价值近乎相同的选择时,也必须受到一个目的论的指引,而不能自行完成这个任务。即使人工智能能够通过学习而进化,但它也很难获得人类对社会的感知能力,很难独立做出合理的价值评判。
(三)评判价值的不可量化性与人工系统的感知缺陷
有的时候,多种选择方案之间并非是完全相同的,他们有主有次,但是选择标准可能不确定,这就需要在具体选择中进行价值衡量。冲突消解策略的标准是可量化的标准,然而法律方案的选择标准通常涉及更多的不可量化的价值判断,因此人工智能的冲突消解策略目前还没有办法完成以价值作为选择标准时的方案选择任务。那么,抛弃了“表示”与“推理”的行为主义是否能够使人工智能完成这个价值判断的任务呢?恐怕还是要说,我们可能高估了人工智能的感知能力和行为能力,高估了它的学习能力和进化的极限,也高估了我们对人类自身的认知能力。在能够充分认识人类自身之前,想要使人工智能通过模拟人类的行为智能而获得与人类相当的智力,几乎是不可能的事情。
五、总结:反思与展望
人类既是高傲的,又是谦卑的。高傲的人类总是相信自己站在食物链的最顶端,享受着高等生物的地位和待遇;同时我们又很谦卑,每当出现新事物时,总是会对自身的生存忧心忡忡。当汽车出现时,黄包车师父担心有一天自己会丢了工作;共享单车、网络叫车服务兴起后,便开始了关于出租车和公交车行业失业的种种担忧;人工智能的出现和发展,更是带来了人类新一轮的自我危机意识。人类总是对新兴事物充满好奇心和征服欲,希望能对这些陌生的事物探求一二,也希望能够从中收获些利益;同时,我们也希望能够预测新事物的弊端,对未来可能出现的危险做到未雨绸缪。
人工智能真的像人们所担心的那样,会改变社会的结构,代替人类,而为人类的生存带来危机吗?问题在于人工智能的理性深度。人工智能虽然能够满足机械法学所要求的事实向结果的逻辑转化,在寻求“最优解”上有优势,但是立法不周延、法律的开放性结构、人类偏好的不可避免为它实现法律的形式理性带来了巨大的阻碍,法律的实质理性也向它提出了要求。人工智能系统固有的感知缺陷使得它无法完成社会、历史因素客观化的任务。而在进行法律方案选择时,人工智能的价值评价标准受到人主观目的的影响,且系统的感知缺陷与评判价值的不可量化性也使其面对实质理性的难题。
我们很难想象人工系统能够成为奥斯丁所说的不受法律限制的主权者——一个神灵一般的存在。它不是人类活动的参与者,也不是人类活动的目的,人工智能没有能力在缺少人类目的指引的情况下从事方案的选择工作。它没有能力完成规制和管理人类的任务,也无法获得这样的权力,他能做的就只是在人类自我管理的过程中发挥工具性的作用。
人工智能作为一个新事物出现,人类应当为自身的生存做出打算、安排防御措施,但是也不必太过杞人忧天。在法律领域内真正发挥作用的还是人类,也是人类自己才可能在使用科技的过程中为自己带来毁灭性的打击,我们要担心和规制的恰恰是我们自己。科技的发展并不会使得人们失去价值,反而会创造更多的职业来供人们选择。重要的是,人们面对科技发展是否能够做出积极的应对,人类能否合理运用机器为我们带来便利,又是否能够遵循伦理法则,以回避机器可能带来的负面影响。
参考文献:
[1] 毛丽君. 代号“206”上海刑事案件智能辅助办案系统正式“解密”[EB/OL].(2017-07-10)[2018-01-04]. http://sh.eastday.com/m/20170710/u1ai10706910.html.
[2] 韦伯. 论经济与社会中的法律[M]. 张乃根,译.北京:中国大百科全书出版社,1998.
[3] 哈特. 法律的概念 [M].2版. 许家馨,李冠宜,译.北京:法律出版社,2006.
[4] 卡多佐. 司法过程的性质[M]. 北京:商务出版社,1997.
[5] 王彬. 法律理性化的悖论:韦伯法律社会学意义上的考察[J]. 山西师大学报,2007(2):39-42.
[6] 刘峡壁. 人工智能导论:方法与系统[M].北京:国防工业出版社,2008.
[7] 赫拉利. 未来简史[M]. 林俊宏,译.北京:中信出版集团,2017.
[8] 西蒙. 现代决策理论的基石:有限理性说[M]. 杨砾,徐立,译.北京:北京经济学院出版社,1989.
[9] 萨尔托尔.法律推理:法律的认知路径[M]. 汪习根,唐勇,武小川,等译.武汉:武汉大学出版社,2011.
[10] 卢曼. 法院在法律系统中的地位[J].清华法治论衡,2009(2):118-121.
AI Legal Dilemma Between Formal Rationality and Substantive Rationality
ZHANG Wei
(Law School, East China University of Political Science And Law, Shanghai 200042,China)
Abstract : Legal rationality includes formal aspect and substantive aspect. AI can realize logic transformation from facts to results required by mechanical jurisprudence, which have advantage of “optimum solution” but problems of legal formal rationality, such as weak comprehensiveness, fuzzy standard in the edge of the law, and the unavoidable humans’ bias and value judgment. The inherent deficiencies of AI system made it impossible to complete the task of objectifying the societal factors and the historical factors, and to achieve the formal rationality of law. AI faces legal option problems both in legislation and judiciary because the judgment criteria depend on humans’ purpose. Due to AI system’s perception deficiencies, it cannot achieve the legal substantive rationality as to only be a tool which cannot surpass or replace human to get its own dominant position.
Key words :AI; the legal reason; behavior pattern
收稿日期: 2018-12-20
作者简介: 张伟,女,华东政法大学法律学院硕士研究生。
中图分类号: D90-05
文献标志码: A
文章编号: 1006-4702(2019)02-0115-10
(责任编辑:侯美)
标签:人工智能论文; 法律理性论文; 行为模式论文; 华东政法大学法律学院论文;