人工智能时代算法与法律规制
张春梦
沈阳工业大学文法学院,辽宁 沈阳 110870
摘 要: “今日头条”的算法推荐机制已经无形中为用户做了选择,算法技术的不断智能化在给用户、社会带来便利的同时,在网络大数据时代下,更需要注重个人信息的保护,对算法进行法律规制,合理有效的对其监管,推进人工智能的不断发展与法律的共同、协调、可持续发展。
关键词: 算法推荐;今日头条;法律规制
在40亿年的历史发展过程中,地球上任何一个生物都依照自然法则而演化,尤瓦尔.赫拉利将人类发展分为认知革命、农业革命和科技革命三个阶段,自21世纪开始,自然法则逐步被算法所打破。从简单的计算机操作提高生产力这种简单的算法开始到人工智能自动驾驶,直至机器人“索菲亚”取得公民身份引发人工智能争论的今天,从“弱人工智能”向“强人工智能”发展,以算法为基础的人工智能已趋于成熟,同时也引发了经济、社会、法律等许多问题和自由人文主义被科技所取代的争论中。尤瓦尔曾预言,未来的时代将会进入由算法主导的时代,权威将从个人转向由算法构成的网络。人类不会再认为自己是自主的个体,不再依据自己的期望度日,而是习惯把人类整体看作一种生化机制的集合体,由电子算法网络实时监测和指挥。[1]如今,尤瓦尔的预言已逐步在见证未来。算法一直不断刷新人类的理解和认知,比如:有网友利用人工智能将《射雕英雄传》杨幂和朱茵“换脸”的视频被之上热搜,这个火爆视频的背后,未经本人同意制作被“换脸”的行为,是否构成侵权呢?是否会损害当事人的名誉?[2]人工智能技术背后的侵权主体认定问题一直未得到解决,这种人工智能技术的滥用侵权问题是值得探讨的。目前,人工智能时代下的技术规范还未形成,且没有健全的法律制约。本文通过研究人工智能时代下算法推荐的法律机制,促使算法的运行更加自由而稳定的发展,完善相应的法律规制。
一、算法机制的逻辑
人工智能与人最大的区别就是没有延续和繁衍,没有自由意志,但是不排除它有基于算法终端的独立编码而建立起来的智慧,也正是因为基于此衍生的智慧成为大多数人恐惧的根源。算法的本质就是运算法则,起初,算法只是简单的为了解决数学问题;而后来根据社会发展的需要,人们利用计算机的快速和多次重复将复杂计算过程简单化,创造生产价值;如今,算法的自我学习能力与日俱增,可以不断地从数据中挖掘信息和自动填补漏洞,对数据的理解和参数更加智能化。
对于责任的两种不同含义的解读,尤其是对实质责任的强调,表明约纳斯实际上扩展了一般意义上的责任观。在比较了形式责任与实质责任之后,约纳斯指出,技术时代的道德事实,需要的正是这种实质责任和责任感,而非每一行动者对其行为负责的空洞的形式责任。[34]在这个意义上,约纳斯区分的实质责任正是“未来责任”。
算法学习会出现三类典型问题:无监督学习、监督学习和强化学习问题。无监督学习的输入是没有维度标签的历史数据,输出的是聚类后的数据,常见的就是用户聚类,新闻聚类;监督学习就将输入带维度标签的历史数据,要求的输出就是依据模型做出的预测,常见的产应用就是推荐和预测相关问题;最后强化学习就是输入历史的状态、行为和对应奖励,从而输出最佳动作。常见的像大众点评推荐高分餐厅、无人机稳定飞行等问题。但在算法、输入、输出及推送正是人工智能时代亟需解决的法律问题。
二、算法推荐机制的问题
我们常见的无监督学习的应用是今日头条,该产品是典型的新闻聚类的代表,基于数据挖掘推荐引擎的产品。据艾媒咨询统计,今日头条自2018年底月活跃用户达1.65亿人,头条旗下的抖音月活跃人数用户达2.3亿人。[3]这些算法打开了移动互联网的新入口,该产品已经形成成熟的运营模式,利用算法分发的特性契合广大用户零碎化的阅读时间,伴随着产品的信息流和开屏广告从而实现盈利,在资本市场中独树一帜。随着这种技术的快速延伸到医疗、教育、文化等产业,积累了大量的的数据集,在推动数据建设和大数据聚合的同时,数据安全保障和保护用户隐私的技术、流程亟需更加规范。面对人工智能时代下的隐私迫切得到保障,个人信息安全问题已不在局限传统的保护机制,随着用户的基本的信息输入,到与之相匹配的内容和行为足迹,根据信息论来讲信息的不定性,最后由于量化到更加确定性的信息,再按照控制论接受了这些确定性信息的反馈,可以更加扩大运行范围。虽然信息的协同过滤已得到广泛应用,但算法编辑审核并不是很客观,它只是分析用户在比较感兴趣的新闻停留的时间长短,导致自我极化,会变成承载信息的容器,而这种算法推荐机制更像是麻醉剂,被麻醉得人一直处于沉睡状态。李普曼曾说,需要知道的世界和确实知道的世界,往往是十分矛盾的两回事。他认为,人们已经习惯媒介提供给的世界,大量事实已被过滤掉,这是一种间接的感知,却常被当做真实世界而接受下来。[4]媒介只会通过输入的信息直观的反应给个体,信息本身不并不匮乏,只是这种拟态环境使受众的视角领域更为狭隘,同时,也会加强自己已有的观点和补价值观的信息,将其认知滞留在与自己固有的观点,排斥不一致或者是相抵触的东西。
现有的商务日语实训教材往往理论性较强,更多偏重于语言技能的培养,写作阅读能力的提高等,虽然教材主题是“实训”,但是“重理论轻实践、重知识轻技能”,教材内容多,书面练习多,缺乏相应的实用技巧。不仅如此,现如今我国许多日语专业学生的日语水平依然停留在“应试日语”、“哑巴日语”、“填鸭式教学”的阶段,超过九成学生都在被动地学习日语。。自我过于放松,缺乏对日语深入学习的兴趣等都直接导致了实训教学的难度增加。如果未来我国商务日语实训教材依然沿用以往的教材模板,缺乏创新性,势必会延续以往教材存在的问题,这样实训课程的设置也没有了原本的意义。
算法的推荐机制是僵化的,假如法律不加以规制,很可能有技术的滥用导致一些用户的权利被侵害,但是算法推荐机制是个不容易解决的难题。算法是基于运算规则在推送信息,而且又不能按照《电子商务法》去制约,按照现行法又很难举证,一旦发现权利受侵害很难得到救济。虽然我国现行法已经承认了自然人的个人数据权利应当作为具有独特的保护对象,但个人的数据一旦泄露或被利用,以及未通过统一被转让使其个人财产利益受损等,我国目前还没有相应的法律进行统一规范。既要保证数据产业发展的同时,也要协调好对个人数据的保护,从而合法的收集、存储和利用。
三、法律规制
在其它国家,欧盟委员会颁布《通用数据保护条例(草案)》(GDPR草案)对于数据的定义、保护都做出了细致的规定,明确对开发者责任明确规定,在世界范围内都起到了一定程度上的示范效应。美国对企业收集个人数据的规制侧重市场规范的路径,更倾向于保护数据产业的自律机制,发生数据侵权时主要经由联邦贸易委员会进行处理。德国则通过参与制定欧盟《一般数据保护条例》,致使《德国联邦数据保护法》改革,以确保了数据监管机关的独立性。[5]其中明确规定了自动收集、处理和使用个人数据的公共机构和个人组织需要书面任命一名数据保护官,要求该官员具备相关的专业知识及必要的责任意识。
我国对人工智能的开发和重视程度已经在全球处于领先地位,但尚未出台对人工智能的相关法律,互联网大会上我国宣布已经转向工业数字化发展,同时这种算法技术仅仅靠行业自律是不牢靠的,尤其在这种大数据流转、共享的安全性和规范性更加使算法决策提高,我国人工智能相关法律规定尚参考于《个人信息保护法(专家建议稿)》、《电子商务法》、《网络安全法》等法律规范。并没有对人工智能时代下的产品、开发者、生产者应该履行的义务进行完善,也没有履行责任排除条件和相应的注意义务。国务院虽然实行双层监管结构,建立公开透明的监管系统,从而抑制相关企业,但当企业利用算法技术手段侵害公民健康、财产、生命时,应明确相关责任人的责任分配程度以及救济程序等问题。我们在开放中不断创新的同时也要着力于人工智能的安全保障。
[ 参 考 文 献 ]
[1][以色列]尤瓦尔·赫拉利,俊宏,译.未来简史[M].北京:中信出版社,2017:296.
[2]《民主与法制时报》网友将“朱茵”变“杨幂”,人工智能换脸[N].https: // baijiahao. baidu. com/ s?id= 1628692463462689665 & wfr=spider & for=pc,2019-5-11.
[3]艾媒研报|字节跳动研究报告:以智能算法为驱动的互联网新巨头[EB/OL].https: // www. iimedia. cn/ c1000/63778. html,2019-5-11.
[4][美]李普曼.舆论学[M].林珊议.北京:华夏出版社,1989.
[5]Top 10 operationnal impacts of the GDPR:Part 2-The mandatory DPO[EB/OL].https: // iapp. org/ news/ a/ top-10-operationnal-impacts-of-the-gdpr-part-2-the-mandatory-dpo/,2016-12-20.
中图分类号: D922.16
文献标识码: A
文章编号: 2095-4379- (2019 )24-0243-02
作者简介: 张春梦(1993- ),女,汉族,辽宁沈阳人,沈阳工业大学文法学院,硕士研究生,研究方向:传播法学。
标签:算法推荐论文; 今日头条论文; 法律规制论文; 沈阳工业大学文法学院论文;