强人工智能时代的算法规制

2019-01-13 01:34尤佳君
克拉玛依学刊 2019年5期
关键词:风险预防去中心化法律规制

摘 要: 人类终将来到强人工智能时代,人工智能技术推动社会变革,也带来前所未有的社会风险。规制人工智能算法十分必要,因为技术中立无法实现,反而会产生算法黑箱,而经由去中心化形成的新秩序仍需国家主导。文章认为对算法的法律规制要处理不同主体的自由、自由与秩序的价值取向问题,具体实现路径应转变为风险预防的规制模式,并构建多层次规制体系。

关键词: 人工智能;算法;去中心化;风险预防;法律规制

中图分类号:TP18;D920.0 文献标识码:A DOI:10.13677/j.cnki.cn65-1285/c.2019.05.11

欢迎按以下方式引用:尤佳君.强人工智能时代的算法规制[J].克拉玛依学刊,2019(5)75-79.

一、问题的提出

世界各国对人工智能的研究日益加深,使该领域得以迅猛成长,相关技术以指数级的速度发展,强人工智能时代的到来不可避免。正如冯·诺依曼强调的加速与奇点概念:“一旦超越了这个奇点,我们现在熟知的人类社会将变得大不相同。”[1]2然而,在享受人工智能红利的同时,伦理风险、极化风险、异化风险、规制风险、责任风险等相伴而生,[2]47给人类社会带来全新而严峻的挑战,法律必须对此作出回应。

莱斯格认为在未来“代码就是法律”[3]6,对此观点学者们虽有不同意见,但至少都承认算法是社会学意义上的法。[4]139算法驱动着人工智能进行数据处理和资源分配,人工智能时代可能产生的一系列社会风险,究其根本,都是算法运行的结果,因而规制算法是法律管控上述风险的重要方面。

既有的规制模式仅针对算法所造成的结果,而在近年的相关案件中,此种模式越来越暴露出其缺陷,并不足以应对未来强人工智能算法失控所引发的风险。可以预见,在强人工智能时代必然要呼唤新的算法规制模式。由此,在构建强人工智能时代算法规制模式的问题上,不得不深入探究为何需要规制、怎样取得新秩序下的价值平衡、如何构建实现路径等问题。

二、算法规制的理由

(一)技术中立背后的算法黑箱

技术中立原则起源于环球城市制片公司诉美国索尼公司案(Universal City Studios, Inc. v. SONY Corp. of America)所确立的“实质性非侵权用途规则”,在中国诸如“快播案”等涉及算法责任的案件中,它常被援用作为抗辩理由,强调技术本身价值无涉,如果一项技术具备广泛的合法应用功能,则即使它被用于非法活动,也应当豁免技术开发者的责任。但技术中立是一种理想状态,算法不可避免地会掺杂程序员的主观偏好与企业商业利益的考量。从代码编写到应用的整个流程,它始终存在在人类所赋予的内在价值之中,“AI的技术设计与定位决定了其不可能成为一个排除价值和利益的纯粹的合理系统”[5]74,技术中立原则在现实世界中犹如空中楼阁。故而在我国的司法实践中,大部分主张因技术中立而免责的抗辩未被法院采纳,[6]63但许多技术开发者仍秉持信奉技术中立的观念。

技术中立观念和结果监管机制成为了算法黑箱生长的土壤,法律不直接介入算法内部,给予了技术开发者暗箱操作的机会。算法黑箱有三种典型形式:其一,输入和输出侧公开,只有算法的处理过程不为人知;其二,只有最终输出的结果可知,算法输入的数据及处理过程不透明;其三,算法能够通过自主学习自动选择数据,并进行不同于模板化的输出,使输入、处理、输出三个阶段形成黑箱闭环。[7]50在强人工智能时代,由于人工智能具备神经网络、深度學习以及超强的运算能力,第三种形式的黑箱会更常见,也最危险——因为该算法的形成过程如此复杂,以至于连开发者都可能无法理解其运行逻辑。随着人工智能行业的井喷式发展,算法黑箱内的社会风险因素越来越隐蔽,人类有限的能力也越发难以发觉和理解它们。有鉴于此,不能囿于技术中立的幻想,而应积极规制算法以防范未知的风险。

(二)法律的定位:去中心化、再中心化与国家主导

新一轮科技革命将会打破人类社会长期以来的中心化结构,重新塑造社会资源的分配方式,实现去中心化。人工智能技术的研究由企业等私主体主导,它们掌握了通过算法在部分领域建构规则和调整社会关系的能力,国家却无法触及算法内部,甚至在做某些决策时要依赖于算法的自动决策,这意味着传统由政治国家所享有的部分权力将转移到社会中。国家通过纵向权力管理社会的时代一去不复返,取而代之的是多中心、扁平化的新社会秩序。

去中心化的格局实现后,权力分散于社会之中的状态并不稳固,再中心化趋势悄然降临。马太效应使得资源向着少数率先收集数据、掌握核心算法、经济实力雄厚的主体倾斜,经由去中心化所分散的权力重新聚集到这些主体手中,形成新的中心——与中心化不同的是,再中心化所形成的中心是私主体而非国家。区块链技术的演变提供了参考,把区块链作为底层技术的比特币,以消解具有记账权与货币发行权的社会信用中心为己任,起初个人电脑也能通过算法计算获得比特币,而随着技术演进和比特币总量限制,仅靠个人电脑挖掘比特币的难度显著提高,比特币资源愈发流向大型“挖矿”公司,比特大陆公司甚至已控制了42%的算力,俨然成为比特币世界的中心。

人工智能导致国家功能变迁,作为国家制定或认可之行为规范体系的法律,从预防人工智能风险角度究竟应如何定位尤其值得深思。在人工智能冲击社会秩序的过程中,国家应始终处于超然地位,通过法律主导新秩序的重构和人工智能风险的防控。国家中心地位的弱化并不妨碍其主导社会新秩序,其公共属性能够最大程度上实现公平,避免开发者或使用者兼具选手和裁判的双重身份,使得对算法的规制被商业利益左右,从而于再中心化后危害公共利益。国家主导的超然性体现为两方面:第一,立法者不直接创设技术规则,而是从宏观层面原则性地指导人工智能技术发展;第二,国家重视行业内部自发形成的普遍性规则,并适时将其中的规则转化为法律。人们的认知也会随着社会秩序的重构,相应地发生“从行为中心论向沟通中心论转变, 从国家中心论向社会中心论转变, 从规则中心论向代码中心论转变” [8]102。

三、算法规制中价值困境及重新衡量

部分国家权力的社会化所带来的结果是私主体在某些领域中代替国家行使权力,当算法争议产生于这些领域时,传统的秩序与自由的冲突即转化为不同私主体之间自由的冲突,价值取向问题相应地转变为该倾向于保护谁的自由。同时,在这些领域之外,国家出于公共利益等目的仍然需要直接规制算法的涉及与应用,秩序与自由的龃龉依然存在。

(一)私主体内部:自由之间的冲突

宪法和法律保护算法开发者和使用者的自由,包括技术自由、言论自由、商业自由等,其主要防御对象是公权力的任意干涉。但近年相关案例呈现的结果却是,掌握算法的企业与普通个人的纠纷成为法院探讨这些自由的主流情形,自由直接的冲突亟待法律加以平衡。

首先,法律所保护的自由,应当根据主体差异加以区分。美国法院往往将算法归入言论自由范畴,甚至认为算法本身是言论自由的主体,使得个人在与互联网公司的诉讼中铩羽而归,“每个试图规制算法的尝试,都必须先通过‘算法是不是言论或‘规制算法是否侵犯言论自由这道门槛。到目前为止,算法的言论自由主张取得了全部法庭交锋的胜利”[9]123。美国司法实践不区分主体而一味保护企业言论自由的做法并不合理,在保护开发者和使用者的自由时,与普通主体不能适用同一种保护标准,否则法院只会关注到企业的自由是否受到威胁,而忽略了个人的权利和自由正被企业侵害的事实。

其次,主体事实上的不平等,需要法律给予倾斜保护。人工智能去中心化进程带来的是部分国家权力的社会化,利用算法进行自动决策不仅是开发者和使用者按自己意愿行动的自由、还是使用权力配置社会资源的行为。相比这些主体,个人处于弱势地位,其权利与自由更易受侵害,法律应当通过倾斜保护来修正事实上的不平等。

最后,权利功能观应作调整,赋予基本权利对抗算法开发者和使用者的功能。滥用与异化风险跟随权力转移到算法开发者和使用者身上,“个体自由和个体权利面临的侵害风险已不独是国家,宪法基本权利主要防御国家的功能也将扩展到防御机构、组织和公司侵权上来”[10]44。因此,扩展宪法基本权利的防御范围,形成以个人权利对抗算法控制者的格局,是化解自由之间冲突的有力保障。

(二)国家与私主体:秩序与自由的龃龉

法律对秩序价值的维护在强人工智能时代更为重要。人工智能具备深度学习和强大的运算能力,缺乏法律规制的算法都存在破坏秩序的潜在威胁。数据是万物互联的媒介,一旦有害算法输出污染数据,容易引起其他算法錯误决策的连锁反应,进而引发系统性风险。

但是过度限制算法设计者与使用者的自由不利于人工智能的技术创新和产业发展。美国信息技术与创新基金会发布的《欧盟新的数据保护规定对人工智能的影响》分析认为:《一般数据保护条例》(GDPR)第22条赋予公司人工审查重要算法决策的义务会极大地阻碍欧盟人工智能产业的发展。[11]75严格的算法规制固然能够最大限度地防控风险、维护个人权利,但它建立在限制商业自由的基础上,给公司增加了过高的成本负担,也无形中提高了行业准入门槛,其结果是人工智能产业会因为政府过度监管的外部压力而举步维艰。

平衡秩序与自由价值的最佳方案是注重国家权力的谦抑性,让法律对算法的规制充当控制社会风险的安全阀。充分保障算法设计者与使用者的自由,只有当行使此种自由触及危害社会的红线时,法律才更加侧重秩序价值的维护,“当AI负面效应因子产生,安全阀开启,法律的秩序价值走上前台,技术的自由价值退居幕后”[5]75。

四、算法规制的实现路径

(一)选择风险预防模式

传统规制模式是“对算法造成的结果进行监管,事后追究责任”[12]53的结果导向模式,它在面对互联网技术相关的案件时愈发显现出缺陷。诚如吴汉东所言:“人工智能发展的政策考量,其实是基于风险的制度选择和法律安排。”[13]130人工智能风险如果实际发生,造成损失的规模和破坏力难以估量,因此算法规制模式必须转变为风险预防。

第一,风险预防的途径是事先审查和结果监管并重。在传统模式的基础上,将法律对算法的规制提前;将人工智能行业的机器伦理共识转化为法律,用以指导和约束算法的编写和使用;审查算法的设计目的是否违反法律和伦理;检测代码成品是否存在容易被黑客、恶意程序攻击的漏洞,以阻止可能产生的外部风险。

第二,风险预防的衡量标准应以人性尊严为尺度。任何技术都以服务人类为出发点和落脚点,算法的设计不得有损人类的主体性。阿西洛马人工智能原则提出:“人工智能应符合一般的‘人的价值之类的尊严、权利、自由和文化等多样性。”[14]28维护人性尊严是法律设置的底线,一旦算法越过了这条底线,即背离了人工智能技术的初衷,使得人类的地位与价值受到威胁,监管者就应当强制停止开发或使用该算法。

第三,风险预防的必要前提是保证算法透明度。基于维护商业秘密和技术自由的考量,透明度原则只要求公开披露重要决策信息,尽可能减少算法黑箱,而不深入技术细节;同时赋予个人算法解释权,以个人权利和企业义务的形式实现算法处理特定数据信息的透明。

(二)构建多层次规制体系

马长山指出:规制人工智能风险需要构建“多元互动的风险规制体系”,[2]53具体落实到算法规制领域则需要以法律为中心,构建覆盖国家、行业、开发者和使用者、社会的多层次规制体系。

首先,国家规制。这包括三方面内容:其一是立法者宏观、原则性地指导人工智能技术的发展方向,规定算法编写的目的不得损害人性尊严之底线;其二是给设计者和使用者设定适当的义务,对某些关键的技术指标适用强制标准,如为防止算法的高速自动决策输出错误结果的风险,将运算速度限制在可控范围内;[15]169其三是强化监管部门的事先审查,除了在编写之初审查算法目的是否合法,亦可采用以算法规制算法的方式,在其投入应用前进行强制性检验,排除存在违法内容或重大安全漏洞的算法,只有通过算法测试才符合商业利用的合格标准。

其次,行业规制。在国家难以监管的算法技术细节部分,应当交由行业规范进行规制。人工智能行业是从业人员的共同体,具有其他实体无法比拟的技术熟悉度和专业性;行业由诸多企业组成,不会被个别企业的商业利益左右,保证相当程度的公平;行业的范围往往跨越一国边界,形成政治权力与社会权力交叉的局面,行业规范更能满足全球化、精细化的算法规制需求。行业规制一方面能够将法律的宏观原则转化为可操作的技术规范;另一方面也能发展机器伦理,为立法提供资源。

再次,开发者和使用者自我规制。针对算法编写和运行部分,需要依靠开发者和使用者的自我约束。开发者編写的代码应当符合法律、行业规范和机器伦理,不偏离公开的算法设计目的等重要决策信息。使用者须主动承担审查义务,包括审查算法运行状态、监控算法运行结果和审计算法数据。[16]151若开发者和使用者因疏于履行自我规制的义务而引发人工智能风险,则应当要求其承担算法责任。

最后,社会规制。社会规制由非营利性组织主导,如德国的算法监控(AlgorithmWatch),其宗旨是评估和揭示具有社会相关性的算法决策过程。非营利性组织相对具有中立性,通过招募“白帽子”①之类人工智能和网络安全领域的专业人士,能够汇集社会力量,起到监督企业算法的作用。

五、结语

人工智能技术终将推动社会变革,也会带来前所未有的社会风险。国务院颁布的《新一代人工智能发展规划》强调:“必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”既有的法学体系面临挑战,法律应当顺势而为,转变为风险预防的算法规制模式,以适应强人工智能时代的变局。

公权力的适当管制不会减缓或阻碍科技进步, 相反,技术中立观念下暗藏的算法黑箱却可能引发危机。法律应保持前瞻性和谦抑性,平衡自由与自由、自由与秩序的价值冲突,避免公权力对技术发展不必要的束缚,让人工智能技术能在多层次规制体系内自由成长。

注释:

①“白帽子”:指研究或从事网络安全与计算机技术防御的专业人士,他们会寻找计算机系统或网络系统中的安全漏洞,并提交给相关企业,帮助企业发现计算机安全问题,促使企业在黑客攻击前修补漏洞。

参考文献:

[1][美]Ray Kurzweil.奇点临近[M].李庆诚,董振华,田源,译.北京:机械工业出版社,2017.

[2]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018(6).

[3][美]莱斯格.代码2.0:网络空间中的法律[M].李旭,沈伟伟,译.北京:清华大学出版社,2009.

[4]陈景辉.人工智能的法律挑战:应该从哪里开始?[J].比较法研究,2018(5).

[5]吴梓源,游钟豪.AI侵权的理论逻辑与解决路径——基于对“技术中立”的廓清[J].福建师范大学学报(哲学社会科学版),2018(5).

[6]邱遥堃.法院如何规制算法——从快播案切入[J].

法律和社会科学,2017(1).

[7]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7).

[8]鲁楠.科技革命、法哲学与后人类境况[J].中国法律评论,2018(2).

[9]左亦鲁.算法与言论——美国的理论与实践[J].环球法律评论,2018(5).

[10]齐延平.论人工智能时代法律场景的变迁[J].法律科学(西北政法大学学报),2018(4).

[11]吴沈括,唐巧盈.欧盟数据保护新规对人工智能的影响报告述评[J].信息安全与通信保密,2018(7).

[12]张凌寒.风险防范下算法的监管路径研究[J].交大法学,2018(4).

[13]吴汉东.人工智能时代的制度安排与法律规制[J].

法律科学(西北政法大学学报),2017(5).

[14]彭兰.假象、算法囚徒与权利让渡:数据与算法时代的新风险[J].西北师大学报(社会科学版),

2018(5).

[15][美]皮埃罗·斯加鲁菲.智能的本质:人工智能与机器人领域的64个大问题[M].任莉,张建宇,译.北京:人民邮电出版社,2017.

[16]姜野.算法的规训与规训的算法:人工智能时代算法的法律规制[J].河北法学,2018(12).

猜你喜欢
风险预防去中心化法律规制
中小学体育伤害的责任承担与风险预防
大型无动力船舶靠泊的风险预防
浅谈我国民营企业家的刑事法律风险问题研究
商业预付卡经营行为的法律规制
我国网络经济中不正当竞争行为的法律规制
农地三权分置视域下新型农业经营主体的素质要求和培育途径
我国著作权集体管理组织垄断行为的法律规制
浅析移动互联语境下中小成本电影去中心化的创作趋向
论企业社会责任的法律规制
“去中心化”电子商务背景下大学生网络创业前景分析