个性化推荐算法的法律风险规制

2024-02-17 05:13谢永江杨永兴
理论纵横 2024年1期
关键词:个性化原则用户

谢永江 杨永兴 刘 涛

(北京邮电大学 互联网治理与法律研究中心,北京 100876)

随着大数据、人工智能等互联网技术的深入发展,个性化推荐算法被广泛应用于电子商务、短视频、新闻报道等各种互联网信息服务交互场景中。所谓个性化推荐算法,是指一种基于用户行为、兴趣和偏好的推荐技术,用于向用户推荐相关的产品或服务信息。简而言之,就是根据用户的兴趣特点推荐其感兴趣的对象或活动信息。早在1995 年美国的宇宙导航系统就应用了个性化推荐;2009 年,我国电子商务平台开始引入个性化推荐算法[1]。个性化推荐算法的出现,不但解决了信息过载与长尾问题,而且促进了信息内容与网络用户需求的精准匹配,在满足用户个性化需求的同时,大大提升了互联网信息服务的效率。然而个性化推荐算法并非有百利而无一害,它在应用过程中产生了侵犯用户隐私、妨碍用户意思自治、制造信息茧房和算法歧视等法律风险。本文拟从个性化推荐算法技术本身着手,分析其应用过程中产生的法律风险,并尝试提出规制个性化推荐算法的对策建议。

一、个性化推荐算法的类型

在大数据时代,如何从井喷式的数据信息中实现精准检索和推送,是互联网信息服务业所面临的主要挑战。据亚马逊公司调研,在其网站购物的客户绝大多数具有不确定性的需求,而具有明确购买意向的用户仅仅占比16%[2]。如果网站能够将满足用户不确定需求的商品从海量的商品信息中精准地推送至用户,则可能会极大地促进潜在用户的消费,从而拉动平台的消费增长。为了满足用户和平台的上述需求,针对用户特征的个性化推荐算法应运而生,并被广泛应用于电子商务、新闻媒体和娱乐等领域。

根据个性化推荐算法技术路线的不同,可以将个性化推荐算法分为混合推荐(Hybird Recommendation)、基于社交网络的推荐(Social networksbased Recommendation)、基于内容的推荐(Content-based Recommendation)和协同过滤的推荐算法(Collaborative Filtering based Recommendation)四种类型。

(一) 基于内容的推荐算法

基于内容的推荐算法是最为基础的一种推荐技术,其运行模式为:首先,需要收集用户在平台的历史信息,并采用分类算法对用户的偏好信息进行分类,同时对用户进行心理画像。其次,利用算法对目标产品的特征进行提取。最后,比较分析用户的偏好模型与产品特征,将其中相似度最高的产品推荐给用户[3]。

(二) 协同过滤的推荐算法

协同过滤的推荐算法是个性化推荐算法中应用最广泛、最成功的算法技术之一。该算法主要研究用户与用户之间的关系,其在程序中预设具有相似兴趣爱好的用户会偏好相似的物品,或者用户对具有相似特征的物品表现出相似的喜好程度[4]。协同过滤推荐算法的运行逻辑为:首先,推荐系统收集平台内多个用户的数据信息,分析计算用户的偏好,通过计算发现:A 用户偏好产品甲、乙和丁;B 用户偏好产品丙;C 用户偏好产品甲和乙。其次,推荐系统通过算法计算分析产品对于用户的功能性价值,发现A 用户与C 用户的偏好相似值更接近,然后A 用户喜爱的产品比C 用户多出个产品丁,进而推荐系统估算C 用户对产品丁的喜爱可能性更大,进而将产品丁推荐给C 用户[5]。

(三) 基于社交网络的推荐算法

随着虚拟现实技术的快速发展,诸多线下活动出于成本等的考虑也逐渐转移到线上开展,同时也促进了各种社交软件的广泛应用。不同地域、不同背景、不同行业的人们利用社交软件形成强大的社交网络,使得社交网络成为个性化推荐算法领域的应用热点。基于社交网络的推荐算法的运行逻辑为:首先,将社交软件用户的信息搜集起来,包括用户的通讯录、软件里的用户朋友圈等好友信息;进而分析计算用户的兴趣爱好;最后向用户推荐产品,且所推荐的产品大多是自己好友所喜欢与关注的产品[6]。可见,该算法的心理基础是预设人们通常会根据好友的推荐来选购商品。

(四) 混合推荐算法

混合推荐算法主要对不同类型的推荐算法的结合使用。例如,有的平台结合选用基于内容和基于社交网络的推荐算法,而有的平台会综合应用协同过滤与基于内容的推荐算法等。混合推荐算法由于可以将不同类型的推荐算法结合在一块,弥补彼此之间的缺点,因而受到诸多平台的喜爱。

综上可见,个性化推荐算法主要是通过两个步骤来完成推荐任务:第一步“挖掘行为”,即挖掘用户信息并进行心理画像;第二步 “推荐行为”,即根据用户心理画像所体现出的偏好,从而实施个性化推荐。但无论是“挖掘行为”还是“推荐行为”均可能被滥用,产生各类法律风险。

二、个性化推荐算法的法律风险

(一) 侵犯隐私权

个性化推荐算法需要大数据支持,特别是与特定个人偏好相关的数据,个人偏好数据往往与个人隐私息息相关,如果未经用户同意进行搜集和使用,则可能侵犯个人隐私权。比如在“朱某诉百度隐私权纠纷案”中,原告朱某主张被告百度未经其明确同意,擅自搜集其在百度搜索引擎中的历史信息,并向其推送相关广告,谋取商业利益,属于隐私侵权行为,进而主张损害赔偿①参见江苏省南京市中级人民法院(2014)宁民终5028 号判决书。该案一审判决认为百度的个性化推荐行为构成对原告隐私权的侵犯,而二审则推翻了一审判决,认定被告的推荐行为不构成隐私侵权。

在诉讼中,百度主张其所搜集的仅是网络碎片化信息,根本不可能直接识别原告;其搜集的信息并未向任何人公开,且用户主动登录的网络空间不属于私人领域;百度提供了Cookies 选择退出机制,并在“隐私权保护声明”中作出说明,已经保障了原告的知情权和选择权。

如果从个性化推荐的角度看,百度的上述理由恐难以成立。首先,个性化推荐服务是由一系列程序支持完成,而程序是由算法和数据构成[7],仅仅凭借Cookies 技术搜集用户信息,离开算法的计算分析、用户画像,则根本不可能完成个性化推荐服务。其次,即便用户允许平台使用Cookies 技术搜集个人信息,但并不意味着用户允许平台利用算法搜集、分析、计算用户信息。第三,尽管用户选择删除Cookies 技术所存储的浏览记录,或者用户改用不同浏览器访问相同的网站,而被访问网站的算法仍然可以继续追踪和收集用户的个人信息[8]。第四,虽然百度搜集的是用户的碎片化信息,但是平台通过算法将诸多碎片化信息进行聚合形成用户画像,仍然可以识别到现实生活中的网络用户。最后,百度称用户主动登录的网络空间不属于私人领域,但在网络公共空间中同样需要保护个人信息和个人隐私。用户进入网络空间并不意味着放弃个人信息权利和隐私权,仍然有隐私保护期待,这也是国家出台《个人信息保护法》(以下简称《个保法》)的意义所在。

可见,传统隐私权保护框架在算法时代面临着巨大的挑战。平台利用个性化推荐算法大量搜集用户的网络历史信息,而这些信息蕴含着当事人教育、家庭、职业、生活等诸多方面的丰富细节。例如,用户在网络平台中搜索有关病例、药品等信息,虽未直接暴露其私人健康、私人基因等私密信息,但是平台利用算法全维度收集碎片化信息进行用户画像,则可以在很大程度上还原出用户的真实情况。如果对平台收集用户信息的行为不加以限制,个性化推荐算法将为信息监控提供便利,甚至成为大规模远程监控的工具[9],让用户深陷算法、数据、算力等数字力量构架的数字“圆形监狱”,个人隐私空间逐渐趋于透明[10],用户对个人隐私的控制力被消解。

(二) 干扰用户意思自治

个性化推荐算法正以潜移默化的方式影响用户的选择自由,干扰用户意思自主的形成,妨碍用户意思自治。积极强化和间接建议是影响个人或者群体行为和决策的有效方式。经济学者泰勒与法学者桑斯坦基于助推理论提出“Nudge(轻推)”概念,意即不妨碍用户自由选择的前提下,引导用户选择特定的选项。例如,尽管青少年更喜欢甜品、汉堡等高热量食物,但当学校食堂将蔬菜、水果等更健康的食物摆放在近前时,学生也更倾向于拿取健康食物[11]。在算法时代,算法使用人借助HTTP Cookie、Flash Cookie、Ever Cookie、Fingerprinting 等技术以及智能语音助手等设备,大规模地收集用户的个人信息,并基于这些信息进行用户心理画像,通过算法计算分析出用户的兴趣爱好,进而有针对性地精准推送,诱导用户做出选择。可见,个性化推荐算法在引诱用户做出选择方面与“轻推”相比,能获得更好的效果,因而也被学者称为“Hypernudge(超轻推)”[12]。实践中,近期流行的微信小游戏“某羊”通过算法收集游戏玩家在微信上留存的信息,借此进行用户画像,当游戏玩家通关失败需要复活时,便向用户推送个性化的广告诱导用户进入其“金主”的领域内购买商品或服务,就是算法“助推”的典型应用。

助推理论揭示了一个真相,即可以通过塑造环境来影响个人选择。由此可见,虽然平台未直接迫使用户做出选择,但是个性化推荐算法已然干扰到用户意思自主的形成。因为由算力、算法、数据构成的环境在网络空间中具有很重要的规制作用,无论用户是否意识到环境架构的存在,均能发生作用[10]51,致使用户最终做出的选择并非出自其内心的真实意思。

(三) 信息茧房

所谓信息茧房,是指人们只关注自己感兴趣的或者令自己身心愉快的信息,长此以往将自己深陷信息孤岛的现象[13]。个性化推荐算法是一种信息过滤与分发的工具。人们越是对某类观点表示赞同、进行收藏、点击喜欢,个性化推荐算法便愈发向其推送同质性的内容,而与用户观点相左的声音已被过滤掉,故帕利瑟在一次演讲中称其为“过滤泡泡”[14]。显然,推荐算法正消融传统的信息分发方式,通过算法赋权重塑了平台和用户之间的权力话语体系[15],使得信息茧房问题变得愈发严重,让用户深陷令其愉悦的信息茧房中。当信息茧房一旦形成,便使用户禁锢在闭环的信息视野里,极易造成认知偏差、刻板印象、群体极化[16]。

其实,用户的行为逻辑并非是一劳永逸地以线性方式遵循过去的行为方式一直走下去,有时用户还会因为手滑而对某种内容误赞或收藏,而算法对此种并非用户内心真实意思的表示行为无从知晓或故意忽略,一味地依据用户过去的兴趣爱好进行内容分发。推荐算法之所以如此设计,源于流量竞争和商业利益至上。然而,互联网信息服务不应以一味取悦用户为目标,其本身还应承载着启发民智、保障公民知情权等价值期许。

公众有权利知悉与其切身利益密切相关的信息,上到国家政务下到街口小道,但基于用户兴趣爱好的单一推荐算法使得用户深陷自己感兴趣的信息茧房中,而对其他领域中关涉其利益的信息缺乏必要的了解,使其误认为现实世界的真相就是如此,从而间接地减损了其对外界事情的知情权[17]。因为在大多数情况下,用户对于平台何时、如何、怎样收集其在网络中留痕的个人信息处于一种“不知晓”的状态。即便用户知情允许平台收集其个人信息,其对算法如何处理其个人信息,如何完成个性化推荐往往也是浑然不知。“算法黑箱”造成了严重的信息不对称,干扰用户对真实世界的认知,不断侵蚀用户的知情权。

(四) 算法歧视

所谓歧视,意即没有合理根据而实施区别对待,这意味着不平等和非正义。个性化推荐算法的逻辑会生成针对特殊个体的个性化规则,这种规则会突破一般的法律秩序,产生“马太效应”,进而侵害个体的平等权,应当引起法学界的关注[18]。学者[19]研究了个性化推荐广告与求职者性别之间的关系,发现谷歌推荐算法推荐给男性求职者高薪职位的次数远远高于女性。还有些商家通过算法搜集、汇总、分析用户的个人信息并进行用户画像,从而得到消费者最大支付意愿信息,以千人千价的方式向不同的用户推送相同的产品,形成了违反公平交易原则的价格歧视。

算法歧视的形成逻辑与传统社会中的歧视具有高度同源性。任何一种社会均普遍存在歧视现象,歧视并非是算法技术应用所带来的“特产”。虽然个性化推荐由算法完成,然而算法却是由人这个主体所设计。不同主体对相同事物会形成不同的看法,基于人的主观性因素,算法设计者不可避免地会自觉不自觉将自身的主观偏见带入到算法设计过程中,从而导致歧视性结果的发生。

如前所述,仅仅凭借算法而没有数据的加持,平台根本不可能完成个性化推荐。因为算法是机器学习的核心,而机器学习离不开对数据的收集、汇总与分析;如果将带有歧视性的数据输入算法模型中,那么同样会导致“偏见进,偏见出”的现象。随着人工智能神经网络、机器深度学习等技术的发展,算法正朝着自主化、脱离人控制的趋势运行。即便是算法模型的最初设计者,也很难预知算法会做出什么样的决策。因此,机器学习很容易模仿人类偏见的生成逻辑,从而导致歧视的发生。算法歧视不仅侵害了公民平等权等基本权利,而且还导致不同群体间的信息资源分配不公,进一步扩大数字鸿沟,而深陷信息资源分配不公地带的群体,在数字经济时代正逐渐陷入“数字贫困”状态,危及数字正义,故而亟需法律作出回应。

三、个性化推荐算法法律规制的原则

在技术中立的语境下,个性化推荐算法产生的风险极易被忽略。对个性化推荐算法进行规制也往往遭到“技术乌托邦”爱好者的反对。然而推荐算法带来的个人信息滥用、信息茧房、算法歧视等风险,的确会给用户造成了实质性的损害。笔者认为,应当以诚信原则、自主原则、公正原则、比例原则为指导,对个性化推荐算法带来的法律风险进行规制,以平衡算法开发者、应用者、用户等主体之间的利益关系。

(一) 诚信原则

所谓诚信原则,是指“一切法律关系,应各就其具体的情形,依正义衡平之理念,加以调整,而求其具体的社会妥当”[20]。换言之,诚信原则就是把双方当事人对立的利益加以公平的较量而求其中道。分开来说,诚实是尊重相对人的利益,信用是尊重交易的安全。

个性化推荐算法的应用体现了公民的个体权利与企业的商业利益二者之间的相互博弈。企业希望不断收集用户的信息以提高自己的服务效率,攫取更多的商业利益,而用户则不希望个人信息被过分收集以便维护个体权益[21]。个性化推荐算法应用之所以会产生前述种种风险,根本原因在于当事人之间法律关系的失衡。在二者博弈过程中,企业凭借技术的优势操纵算法,使利益的天平逐渐朝着资本倾斜,人似乎渐渐不再是算法的主体,反而成为算法下可被预测和计算的“客体”,人类的主体性地位在算法社会下正变得岌岌可危。这种法律利益的失衡与主客体倒置现象,违背了公平正义,损害了用户的个人信息权利和隐私权等正当权益,需要基于诚信原则予以矫正,对滥用个性化推荐算法的行为予以法律否定和制裁。

(二) 自主原则

自主原则是指个体按照自我意愿独立做出决定并为自己负责的能力[22]。学界通说认为,自主原则源于康德的自由理论。康德认为人是自主且理性的人,人作为具有理性能力的存在者,能做出符合理性的选择,并对自己的行动负责,故应当给予人类足够的空间和自由去选择,把人当作目的而不是手段去尊重[23]。

信息多样性被认为是实现个体自主的有利条件,然而个性化推荐算法导致的信息茧房将一些对个体重要但是其不感兴趣的信息排除在外,严重地窄化了用户的信息视野,进而阻碍用户进行自主决策[24]。此外,随着机器深度学习的纵向发展,算法只需借助初始模型而不需后期“投喂”,便可以自己学习进行推荐、做出决策,这无疑会增强算法的自主性而削弱人的主体性地位。因此,有必要在算法的发展应用过程中确立自主原则,充分尊重人的主体性地位,构建以人为本的算法框架,以便算法更好地服务于人类社会。2019 年G20 部长级会议通过《G20贸易和数字经济声明》,首创“G20 人工智能原则”,强调发展以人为本的人工智能,指出人工智能各参与方应采取措施保留人类自主决定的能力[25]。2021年我国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,列出了人工智能各类活动应当遵循的六种基本伦理规范,其中也包括“尊重与保障自主原则”,强调保障人类拥有充分自主决策权,确保人工智能始终处于人类控制之下。

(三) 公正原则

公正作为人们被平等对待、各得其所的道德期许,是社会共同体长久维系的原因所在。罗尔斯认为,社会公正是社会制度的首要价值,其在《正义论》中提出两大正义原则:一为自由平等原则,即每个人对与所有人所拥有的最普遍的自由体系相容的类似自由体系都应有一种平等的权利;二为差别原则,即社会及经济中的不平等应妥善安排以使得有利于最少受惠者的最大利益且职务放开[26]。

前文提及的商家利用算法分析用户的支付意愿,进而以千人千价的方式向用户推送产品的“杀熟”做法即违反了罗尔斯的第一正义原则。按照正义的第一原则,个性化推荐算法应当平等地对待每一个人,不因用户的性别、种族、教育背景、财富状况等因素的不同而实施歧视性待遇。根据正义的第二原则,公正原则是一种实质正义,其本身就蕴含着一定的正当性“偏见”,体现为使社会中处境最不利的成员获得最大的利益,故公正原则并非绝对的平等,绝对地去“偏见化”,而是以实质正义为价值导向[27]。实践中,有的大学利用算法收集学生在食堂的消费记录,分析学生的消费能力,从而以此为凭借发放助学金。这种算法使处于不利处境的学生获得了资助,又避免了伤害贫困学生的自尊心,可谓是符合正义第二原则的做法。因此,对个性化推荐算法的治理,既要规制算法以防不公现象的发生,又要利用算法的技术优势,弥补社会裂痕,实现实质正义。

(四) 比例原则

比例原则起源于德国,最初是对限制公民权利之国家权力的限制,即“权利限制的限制”,后来作为目的理性的集中体现,贯穿于公法与私法之中,在私法中得到广泛应用[28]。在公法上,如我国《行政处罚法》规定,实施行政处罚应当与违法行为的事实、行为、危害程度等相当。在私法上,如我国《民法典》规定,紧急避险采取措施不应超过必要的限度。此外,兼具公私法性质的《个保法》也明确信息处理者要依据比例原则处理个人信息。当个性化推荐算法导致公民个人权利与企业商业利益二者失衡时,为再平衡二者之间的关系,需引入比例原则。我国目前有关算法的规范以行政规范为主,引入比例原则显得尤为重要。

比例原则由必要性、适当性和均衡性三个子原则构成。根据必要性原则,技术与经济的发展是绝对不能以剥夺个体权利为代价,个性化推荐算法应当选取对用户权益损害最小的方式完成推送。在能通过收集一般信息即可完成服务的情况下,就不能收集用户的敏感信息。根据适当性原则,在对个性化推荐算法进行规制的同时,应当有助于积极推动人工智能的健康发展,促进人工智能产业商业价值的实现,主要体现在对公民个体权利的保护不能“畸形化”;人们在享受技术带来的巨大红利时,应当承认适当的风险存在。根据均衡性原则,个性化推荐算法消耗的成本与获得的利益应合乎比例。具体而言,在保障用户正当权益的前提下,可以运用推荐算法谋求数据财产价值的最大化,破除资本利用技术优势所构建起的数据垄断屏障。

四、个性化推荐算法法律风险规制的具体路径

算法技术的应用在给人们带来效益的同时,也亟需法律对算法风险进行必要的干预与规制,使其在法治的框架内运行。目前,推荐算法带来的风险已引起世界各国的广泛关注,一些国家和国际组织纷纷立法以引导算法的良性使用。例如,欧盟出台《一般数据保护条例》(General Data Protection Regulation,GDPR),赋予公民个体数据权利束以对抗算法滥用。美国公布的《算法问责法》草案通过对算法使用者进行问责的方式以规制算法的应用。我国对个性化推荐算法的法律规制主要体现在个人信息保护、数据安全、广告运营等规范中。2022 年3 月1 日正式实施的《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)是我国首部以推荐算法服务为规制对象的规范性文件,但该规定的相关条款过于原则,缺乏可操作性。而其他法律文件中虽有涉及推荐算法的规定,但未触碰到个性化推荐算法的核心。因此我国个性化推荐算法的治理有必要在借鉴域外经验的基础上,沿着更精细化的路径前进。

(一) 基于开放的隐私观强化网络隐私保护

通常认为,隐私权以生活安宁和私人秘密为基本内容[29]。随着信息通信技术的发展,将隐私限于秘密或者独处权利的传统隐私权观念,已不能适应现实经济社会的需要,无法面对算法时代的挑战。于是有学者[30]提出隐私“控制论”,强调个体对自我隐私拥有绝对的控制力。此种观点可谓是自由主义的自主原则的延伸,但这些观点均是建立在私人领域与公共领域之间具有明显界分的基础之上。然而在由代码、数据等组成的数字空间中,传统的私人领域与公共领域的二元界限变得更加模糊不清。例如,许多门户网站既包括公众参与政治的公共领域,也存在用户分享个人生活动态的私人领域。

在开放的网络环境下,公开信息与隐私信息的界限也更加模糊。用户在网络平台上分享自己的观点和个人生活动态本属于公开信息,但将用户的观点和个人生活动态等收集起来利用算法进行用户画像,则可能挖掘用户隐私。某个人某日出现在饭馆等公共场所不属于私密信息,但摄像头持续监控下的个人行踪则可能涉及个人隐私。为此,笔者建议将传统的地缘隐私观代之以开放的隐私观。按照开放的隐私观,虽然网络用户公开的观点和个人生活动态不属于隐私,其网络浏览记录、电子商务消费记录也难与隐私等同,但是平台利用算法将个人信息收集起来进行画像所形成的预测结论,如涉及用户隐私,则应纳入到隐私权的保护范围。换言之,在开放网络环境下,对于公开的个人信息,人们同样有合理的隐私期待。这正是诚信原则所要求的对当事人利益的尊重和对交易安全的尊重。

(二) 强化算法告知义务与用户拒绝权利

个性化推荐是一种个人信息处理活动,离不开算法与数据。平台作为个人信息处理者,其与个人信息主体之间是一种信息不对称、地位不对等的关系。为了平衡二者之间的利益关系,以实现信息处理过程中的实质正义,需要强化平台的义务,赋予用户相应的权利,以矫正双方主体之间不对等的地位,保障用户的自主选择权。

首先,应强化平台的告知义务。既然个性化推荐算法作为一种个人信息处理方式,那么平台自然应当遵守《个保法》第十七条所确立的个人信息处理者的告知义务。此外,《算法推荐管理规定》第十六条也明确规定,算法推荐服务提供者应当履行告知用户算法推荐服务的义务。但是,为了保障用户的知情权,平台的告知义务并非仅限于此。笔者认为,平台还应当履行告知用户个性化推荐算法处理其个人信息可能对其造成的影响的义务。例如,欧盟GDPR 规定,平台应当告知利用算法处理数据对数据主体造成的预期后果。

其次,应便利用户行使算法应用拒绝权。我国《个保法》第二十四条第二款规定了用户的算法拒绝权。据此,当用户不愿意算法干扰自主选择时,应当允许用户拒绝平台的算法推荐;当用户不愿意身陷令其身心愉悦的信息茧房时,也应当允许用户行使算法拒绝权,从而确保信息来源的多样性;甚至,应当允许用户设定算法应用的时间段,如晚上10 点后自动关闭算法应用,以免刷屏上瘾熬夜伤身。可见,用户的算法拒绝权是对平台利用算法肆意地收集并滥用个人信息的限制,应当保障用户能够便捷地行使该权利。

(三) 完善算法解释权

为了应对算法歧视问题,不少国家立法规定了算法解释条款。欧盟GDPR 第十三条至十五条规定数据控制者有义务提供给公民个人算法决策详细的解释。法国《数字共和国法》规定行政机关利用算法作出行政决定时,相对人有权要求其对算法作出说明[31]。而我国《个保法》第二十四条与《算法推荐管理规定》第十二条也对算法解释作出了规定。但是有关算法解释权的构成要件、内容、方式等问题,无论是学术界还是实务界均存在较大争议。

根据我国《个保法》第二十四条第三款的规定,算法解释权的构成要件包括以下两个方面:第一,通过自动化决策方式作出决定;第二,该决定对个体权益造成重大影响。此处的争议有二:(1)是否只有仅凭算法作出决策时,用户才能行使解释权?(2)重大影响是否仅含不利影响?笔者对此均持否定态度,因为虽然算法技术不断迭代升级,但信息分发也并非完全仅凭算法完成。例如,一些头部互联网公司设有信息审核员职位,岗位职责就是在算法提供参考决策的前提下,人为审核并干预信息的分发。因此,即便用户最终看到的是经过人工干预的结果,但只要算法在最终的推荐决策中起到重要影响,就应当成为算法解释权的适用对象。同时,如果严格要求只有算法决策对用户权益造成不利影响时,用户才能行使算法解释权,这无疑将会给用户增加负担。以信息茧房为例,很多用户深陷令其愉悦的信息茧房之中,很难感受到信息茧房对其造成的不利影响,即便能感知到,而由于平台与用户之间的“信息鸿沟”,让其承担遭受不利影响的证明责任恐怕也难以实现。

算法解释权的目的在于保障用户的知情权与救济权。用户行使算法解释权,是为了搞清楚个性化推荐算法产生信息茧房、隐私、歧视等风险的原因,以寻求损害救济,并无意于纠结算法技术的细枝末节。因此,笔者认为,《算法推荐管理规定》第十六条关于公示算法推荐的基本原理、运行机制等的规定不够全面。公示算法的运行机制可能会侵犯算法提供者的商业秘密,同时易滋生竞争对手以行使算法解释权之名而为不正当竞争之实的现象。对此,欧盟GDPR 基于诚信和公正原则,强调算法解释权的行使不得侵害企业的知识产权与商业秘密。我国《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》也将算法纳入到商业秘密的保护范围内。因此,在允许用户行使算法解释权的前提下,应当对算法解释权进行一定的限制,允许平台在面对用户提出解释算法核心代码、主要运行机制等涉及企业核心商业秘密时,提出合理性抗辩。同时应基于比例原则,允许采取对平台商业秘密损害较小的方式向算法相对人解释算法决策的依据、可能对其造成的影响等,以使用户在遭受歧视性对待时,获得可救济的机会。

(四) 构建算法审计制度

近年来随着算法尤其是深度学习算法的广泛应用,算法审计应运而生。所谓算法审计,是指审计主体对被审计者所使用的算法模型、数据、算法研发等技术活动的风险、合规进行审核、评估,以监督算法正当使用的活动。世界各国立法也多有提及算法审计,如美国纽约州立法明文规定雇主在招聘过程中使用算法时,必须进行年度算法歧视审计,否则不可在招聘过程中使用算法进行简历评估[32]。遗憾的是,目前尚未形成一套完备的、体系化的算法审计制度。结合审计学领域的审计实践经验,一套完备的算法审计制度应由算法审计主体、审计对象、审计方法、审计后果四个要素组成。

从算法审计的发展历史来看,早期的算法审计主要关注算法模型、数据,重点衡量算法的效率与运行成本。伴随着机器学习尤其是深度学习算法的发展,愈发趋近自主化的算法带来了诸多不确定的风险,算法审计的关注点从早期的算法效能逐渐转变至数据保护、数据信息来源多样性、算法公平、算法可解释性等内容[33]。

算法审计的目的就是为了审查算法应用的合法性与合理性,保持算法的可问责性。当算法审计主体检测出个性化推荐算法存在导致或可能导致算法歧视、信息茧房等法律风险时,有权要求算法服务提供者对此进行陈述并进行修改,要求算法服务提供者将尊重用户主体地位的“自主原则”目标嵌入到算法设计之中,如设计个性化推荐算法一键关闭装置。同时可以要求算法应用者在算法设计之时,通过修改参数等方式贯彻“多样性暴露原则”,确保用户获得的信息具有多样来源性,从而戳破“过滤泡泡”。如果算法应用者拒不改正,则出具否定的审计意见,并将审计结论上报给网信、公安、市场监管等主管部门由其进行处理。

五、结语

个性化推荐算法技术的更新迭代,极大地便利了人类的社会生活,也为互联网经济的发展注入新的活力[34]。而技术的赋权,使得拥有算法核心技术的资本操纵着算法时代的话语权体系。人们在接受个性化推荐服务的同时,也被动地成为了被算法规制的“客体”。隐私的侵犯、知情权的减损、平等与非歧视的落空等种种风险,均体现了个性化推荐算法的两面性。为了平衡算法服务提供者与用户之间的利益关系,一种合乎逻辑的规制路径是在诚信、自主、公正、比例原则的指引下,强化算法使用人的义务与用户的权利,合理界定算法的权力边界,防止个性化推荐算法被滥用,以便高效公正调配冲突各方利益,通过算法审计引导个性化推荐算法在法治的框架下被正确使用。

猜你喜欢
个性化原则用户
坚持个性化的写作
新闻的个性化写作
坚守原则,逐浪前行
上汽大通:C2B个性化定制未来
关注用户
关注用户
关注用户
无罪推定原则的理解与完善
如何获取一亿海外用户
满足群众的个性化需求