生成式人工智能技术风险的刑法谨慎性规制

2024-05-10 00:43童云峰张学彬
关键词:法益规制刑法

童云峰 张学彬

(1.华东政法大学 中国法治战略研究院,上海 201620;2.东华理工大学 文法与艺术学院,江西 南昌 330013)

一、问题的提出

进入数字时代,生成式人工智能技术火爆出圈,其规模化的应用在催生新的经济增长点的同时,也带来了一系列法律问题。例如,美国游戏设计师杰森·艾伦(Jason Allen)利用能够组装素材的AI绘图工具Midjourney生成的绘画作品获得艺术博览会比赛一等奖,引发艺术创作被机器取代的讨论,其可能涉及知识产权侵权风险[1]。再如,某用户利用DeepFake(深度伪造)将情色电影主人公的脸替换成某女演员的脸,引发网友大规模的评论与转发,该行为可能涉及对肖像权或名誉权的侵犯[2]。又如,2023年初,意大利停止使用ChatGPT,因为ChatGPT涉及对公民个人信息的非法收集与处理,侵害了个人信息权益与数据安全[3]。毋庸置疑,提供和使用生成式人工智能服务不可避免地携带技术风险,并对传统法律适用带来新的挑战。

在既有研究中,较多学者强调对生成式人工智能等相关技术行为进行入罪规制,将具有保障法地位的刑法推上台前。例如,有学者认为,可以增设“滥用人工智能罪”和“人工智能产品事故罪”,从故意犯罪和过失犯罪两方面对人工智能技术提供者或使用者的行为加以规制[4]。同时,针对提供和使用生成式人工智能技术行为侵犯数据法益的情形,主张增设“非法分析数据罪”和“操纵数据罪”,并修改“拒不履行信息网络安全管理义务罪”[5]。不可否认,提供和使用生成式人工智能服务所伴随的风险需要刑法的介入与规制,在未来强人工智能时代,更需要前瞻性的立法与严密的刑法规范体系予以应对,以避免风险走向人类无法控制的地步。但也应当看到,生成式人工智能技术仍处于发展初期,各国都试图抢占生成式人工智能大模型技术的高地,我国曾经错过第一次和第二次工业革命的机遇,导致关键技术仍被西方国家“卡脖子”,面对新一轮的人工智能技术革命,我们不能再错过时机,否则将无法再实现前沿技术领域的“弯道超车”。在我国,尚未出现因生成式人工智能技术导致严重损害公民利益或者危害社会安全的案例。因此,适用刑法规制这一技术应当十分谨慎,过度的犯罪化将会打击提供者和使用者的积极性,不利于生成式人工智能技术的突破与创新。换言之,我国面对生成式人工智能技术,既应注意其所带来的法律风险,又应看到其所提供的价值效用与贡献,应合理发挥法律的规制作用(尤其是刑法的预防性和保障性作用),实现利益提供的最大化。因此,考察刑法规制生成式人工智能技术提供和使用行为的限度,是当前理论界与实务界需要直面的问题。

鉴于前述问题,笔者立足于法教义学视角,采取以下论述策略:先论证刑法谨慎性规制生成式人工智能技术提供和使用行为的必要性,再明确刑法介入规制的原则,继而检视刑法适用的双重限度。在刑法适用范围之外,需要明确技术规则、行业规则、前置法与刑法的适用边界;在刑法适用范围之内,应划定重罪与轻罪的适用边界。旨在实现风险防控与技术创新的合理平衡,保障生成式人工智能技术的有序发展,挖掘生成式人工智能技术向好向善的服务型工具价值。

二、生成式人工智能技术风险刑法谨慎性规制的证成

在介绍谨慎性规制之前,先阐述与其相对的敏捷型治理。敏捷型治理滥觞于1991年的制造业领域,在2018年世界经济论坛中被正式定义为一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本以及具有包容性和可持续的决策过程[6]。换言之,敏捷型治理重点强调法律治理的灵活性、及时性、有效性和回应性。敏捷型治理主要适用行政法和民法,强调法律规制的及时回应性;谨慎性规制主要适用于刑法,强调刑法的谦抑性,在能够适用非刑法措施解决问题的情况下尽量不适用刑法。笔者认为,生成式人工智能技术作为初创的前沿技术,面对其所带来的风险,在适用行政法与民法时可以进行敏捷型治理,但在适用刑法时应当进行谨慎性规制。

(一)生成式人工智能技术风险刑法谨慎性规制的基本逻辑

生成式人工智能作为引领时代潮流和推动社会进步的核心技术,谁掌握了这项技术,谁就能在国际技术竞争舞台上掌握话语权,并将自己的价值观通过生成式人工智能服务潜移默化地传递给全世界。在新一轮技术革命竞争中,我国必须抢抓机遇并占据一席之地,否则未来将遭遇无休止的技术封锁。因此,面对生成式人工智能技术带来的风险,需要持有包容态度并构建容错机制,法律监管不能过于严苛,刑法适用必须十分谨慎。法律规制生成式人工智能技术并非约束技术发展,而是防控技术衍生的风险。当前生成式人工智能技术衍生的刑事风险包括:①以生成式人工智能技术为“幌子”或“噱头”的风险,即实施与生成式人工智能技术无关的犯罪行为,如传销等,对于该类行为必须严惩,避免生成式人工智能技术被污名化;②以生成式人工智能技术为“工具”的风险,如利用生成式人工智能技术生成虚假信息并大肆传播;③以生成式人工智能系统为“对象”的风险,例如,不法分子侵入大模型系统的数据库,非法获取数据或个人信息,并且,随着多领域的交叉融合,出现了诸如综合生物、体育等多重因素的运动员生物识别信息,这些特殊类型的个人信息一旦被非法获取和使用,将面临更加持续的权益侵害[7];④生成式人工智能技术的漏洞风险,例如大模型系统存在漏洞导致数据、商业秘密或个人信息泄露等。上述风险实际上与区块链等新兴技术风险具有相似性,刑法的介入需要谨慎[8]。笔者强调刑法谨慎性规制的基本逻辑,应当包括以下内容。

1.刑法规制的后卫性

所谓刑法规制的后卫性,即先让技术规则、行业规则、前置法调整,最后才让刑法介入。本研究所指的“生成式人工智能”是在大数据处理、自然语言学习、生物识别等多种技术的加持和联结下,形成的具有类人化特征的系统或机器,例如ChatGPT等。在技术失灵的情况下,其极易衍生系统性风险,侵犯使用者利益。因此,为了规制生成式人工智能的技术风险,应当采取包括技术规则、法律规范在内的多元共治模式,并且遵循递进性的标准,从而实现刑法对生成式人工智能技术风险的谨慎性规制。

首先,应发挥自律规则自治作用应对技术风险。强调代码自治的技术规则和行业自治的行业规则是规制提供和使用生成式人工智能行为的首选规范。技术规则关涉生成式人工智能的整体运行,生成式人工智能按照其预定的操作指令输出相关结果,使用生成式人工智能行为的风险往往来源于技术内因。因此,应当首先通过调整和应用代码,以事先执行的方式对生成式人工智能加以限制。除了技术规则,行业规则也具有一定的自治性和约束性。例如,图书馆行业协会可以规定“文心一言”、ChatGPT在智能服务中的使用规则,以此约束工作人员,避免损害读者权益,实现对风险的预先防控。

其次,应发挥前置法先治作用化解衍生风险。自律规则在应对知识产权侵权、个人隐私泄露等法律风险时“力有不逮”,此时便需要法律的介入。一方面,应当充分运用民法规范来应对衍生风险。例如,网络服务提供者往往会以在线服务协议或者隐私声明的形式告知用户收集处理个人信息的规则,意思自治的“合同”可以阻却刑事违法性。若双方发生纠纷,可以按照协议的规则进行处理,而无需刑法介入。另一方面,在充分运用民法规范后,可以进一步求助于行政法规范来化解衍生风险。《生成式人工智能服务管理暂行办法》作为我国首部该领域的监管规范,为多行业监管、分类分级监管的主基调奠定了基础。当生成式人工智能因算法规范、数据来源等问题可能侵犯用户权益时,可以请求相关部门对其进行合规审查,完善相关技术,及时化解风险,避免刑法过早介入。

最后,应发挥刑法在保护重要法益方面的后治作用。在自治规则和前置法无法有效规制提供和使用生成式人工智能的行为时,应当考虑通过刑法来化解风险。一方面,生成式人工智能风险的防控与技术创新需要平衡,发挥刑法化解风险的后治作用有利于违法行为的矫治,同时保护提供者的积极性,促进技术的发展。另一方面,对生成式人工智能治理逻辑已然不同于传统物理空间的治理逻辑,因此,应当在尊重自身技术优势的基础上,充分发挥法律治理与技术治理的互补作用[9],形成“自治规则-前置法-刑法”的递进性规制方案,构建风险及时化解和刑法兜底保障的治理格局。

2.刑法规制的保护性

所谓刑法规制的保护性,是指刑法对生成式人工智能进行规制的目的,并非调控关涉生成式人工智能的社会秩序,亦非纯粹防控风险,而是要保护被不法行为严重侵害的法益。换言之,刑法并非社会秩序管理法,而是法益保护法。

第一,没有造成法益损害的行为无需刑法介入规制。法益包括个人法益和超个人法益,超个人法益必须能够还原为个人法益才具备刑法保护的必要性,但归根到底也是服务于个人的。刑法通过举止规范和制裁规范共同实现法益保护,保护法益也是解释犯罪构成要件的当然目标[10]。换言之,脱离法益保护的刑法规制将欠缺合法性和正当性。如果使用生成式人工智能技术的行为没有侵犯个人法益,或者侵犯了无法还原为个人法益的纯粹超个人法益,则无需介入规制。

第二,造成轻微法益损害的行为亦无需刑法介入规制。犯罪的本质是侵害法益,但并非任何侵害法益的行为都是犯罪行为,因为刑法只规制具有可罚违法性的行为,即在量上具有一定的严重程度,在质上是值得科处刑罚的行为。在面对新兴技术领域时,刑法的介入应当谨而慎之,对于“严重侵害法益”的认定更应当采取实质解释论严格认定,避免将轻微侵害法益的行为升格为犯罪行为进行处理[11]。例如,提供者通过程序设定可以使ChatGPT等生成式人工智能煽动不特定用户实施相关犯罪,此时提供者可能构成相关煽动类犯罪[12]。然而,在认定诸如煽动分裂国家罪、煽动颠覆国家政权罪时,并不能仅仅以ChatGPT生成相关言论就将其提供者的相关行为作为犯罪处理。虽然这些罪名大多为抽象危险犯,但其仍然需要进行解释和判断。此时应当根据行为人的主观责任,行为人对生成式人工智能的程序设定、数据择取、后期编程等行为以及生成式人工智能整合、制作文字、图像、音频等情节,综合判断其是否威胁或者侵害了国家法益,是否使得国家统一和政权稳定陷入危险。对于尚未严重侵害刑法法益,且能够通过前置法予以规制时,刑法不应当“走上台前”。

3.刑法规制的就轻性

所谓刑法规制的就轻性,是指在适用刑法规制作为创新性的生成式人工智能技术时,应当在全面保护法益的前提下优先考虑适用轻罪,在轻罪无法达到规制效果时,再考虑适用重罪,遵循“就轻不就重”的原则。当自治规则、前置法难以全面保护法益时,刑法才需要介入。然而,在适用刑法规范时,同样应当秉承刑法谨慎性规制的理念,尤其是在重罪法条不明确的情况下,不能为了科处刑罚而适用重罪。例如,在许可研发生成式人工智能之前,需要事先审核研发者是否建立内容识别与过滤机制、能否达到合法安全的法律要求。对于违反相关研发许可制度的情节严重的行为,可能构成非法经营罪。此时,若生成式人工智能生成了整合他人权利作品的内容,并通过信息网络进行传播,则可能构成侵犯知识产权罪。由于罪刑法定原则要求刑法规范及其适用必须具有明确性,通过刑法解释,非法经营罪的兜底条款实际上具有很大的解释空间。因此,在没有刑法条文明文规定的情况下,为了限缩重罪的适用范围,保护技术发展的创新性,坚守包容审慎原则,应当将该行为认定为侵犯知识产权罪,而非认定非法经营罪。概言之,在适用刑法规范时,应当始终坚持自由保障和法益保护的理念,如果能够通过适用轻罪实现规制效果,决不能适用刑罚更为严重的且规范模糊的重罪。只有在轻罪保护法益不充分时,才应当适用重罪。

(二)生成式人工智能技术风险刑法谨慎性规制的法理证成

在勾勒生成式人工智能技术刑法谨慎性规制的轮廓和特点之后,还需要进一步阐释该模式的合理性。对此,本研究主要从技术中立原理、刑法谦抑性原则和可允许风险理论三个方面进行学理证立。

1.技术中立原理的要求

“技术中立”原理滥觞于美国最高法院在索尼案(Universal City Studios. Inc. v. Sony Corporation of America)中确立的“实质性非侵权用途”规则,意指在技术具有合法用途与非法用途时,不能仅仅因为其成为侵权工具而使技术提供者承担法律责任[13]。换言之,不能因为非法使用技术带来风险,就将全部责任归咎于技术本身。

其一,技术中立原理应被坚守和发展。当前学界存在一种否定技术中立原理的思潮,认为“技术本恶”需要法律尤其是刑法的规制。实际上,技术只是人类研制出来方便生活的工具,技术工具本身并无善恶之分,但利用技术的行为有善恶之别,不能将恶意使用技术行为的可谴责性错误归咎于技术本身。因此,我们应该坚守技术中立原理,并在此基础上将智能技术视为工具并促使其向善发展,这意味着与新技术相关的规制工具主义倾向于在收益和风险之间达成某种可接受的平衡。刑法的目的不仅仅是要对不当行为作出间接回应,而且还要采取任何可能奏效的措施来减少犯罪,法律的道路应当是不断进步的,我们应当在规制犯罪和提高安全水平方面做得更好[14]。换言之,刑法在规制技术风险时,并非一味地预防或惩罚犯罪,而是要实现多方利益的平衡。刑法谨慎性规制的目的就是要实现技术的创新利益与安全利益的平衡,这一点符合规制工具主义的要求。

其二,刑法规制生成式人工智能技术的本质是规制技术背后的行为。刑法规制的对象应当关涉生成式人工智能技术的行为,而非技术本身。应当肯定,虽然生成式人工智能具有“类人性”,但其本质上和网络爬虫等技术一样,仍是一种技术和工具,并无好坏之分[15]。而使用生成式人工智能的行为体现了使用者的主观意志,行为可能侵犯法益,继而具有评价的必要性。这一重要原理在我国关涉人工智能犯罪的司法实践中有所体现,如萧山区检察院追究了虞某利用“AI换脸”技术制作淫秽换脸视频并在网络上传播行为的刑事责任[16]。因此,无论是行业规则抑或法律规范,其规制的重心都应当是使用生成式人工智能的行为,而非不具有评价意义的中立技术本身,这是本研究讨论刑法谨慎性规制的逻辑前提。易言之,技术中立原理要求刑法需重点规制非法利用生成式人工智能技术的行为,即约束行为并非阻碍技术发展。为了避免刑法规制误伤中立的技术,需要刑法十分谨慎地规制关涉生成式人工智能技术的行为。

其三,技术的客观性和两面性要求刑法只需规制恶意利用技术的违法行为。生成式人工智能可能会成为他人过度获取个人信息抑或整合他人作品侵犯知识产权的工具。但是,“技术的归技术”,由生成式人工智能引发的技术风险应当首先遵循技术规则,在其内部寻找技术内因,而非径直适用法律(尤其是刑法)。另外,生成式人工智能作为技术工具,若被善意使用,可能会产生社会效益。但其他不法分子也会利用生成式人工智能技术实施违法犯罪行为,对此需要刑法强力介入规制。概言之,刑法的打击半径只能被限缩在恶意使用生成式人工智能行为的范围内。在此意义上,技术价值使用的两面性有利于明确刑法的苛责范围[17]。

2.刑法谦抑性原则的要求

刑法的谦抑性原则是处理刑法与其他部门法之间关系,以及刑法内部规范适用顺序的重要原则。刑法谨慎性规制关涉生成式人工智能技术的行为,正是刑法谦抑性原则的基本要求。具言之,该原则对刑法谨慎性规制的影响主要体现在以下两个方面。

一方面,在处罚范围方面,刑法的介入应当具有补充性。由于刑法在法律体系中处于保障法的地位,故凡是其他法律能够规制违法行为,保护合法权益时,就不应适用刑法[18]。应当看到,生成式人工智能目前仍处于初步发展时期,其应用尚未全面普及,使用生成式人工智能造成的危害行为主要集中在民事侵权、行政违法领域。《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》《生成式人工智能预训练和优化训练数据安全规范》等既有前置性规范性文件在一定程度上能够应对生成式人工智能引发的风险。因此,刑法应当保持足够的谦抑性,构建前置法优先处理为原则与刑事法优先处理为例外的规制模式[19]。

另一方面,在处罚程度方面,刑法的适用应当具有宽容性。重刑主义既具有积极价值,亦具有消极影响。事实上,刑罚的一味严厉不仅不符合罪责刑相适应原则,而且极易激起行为人的犯罪情绪,导致重新犯罪的发生。进入法典化时代以来,民法典的出台不仅匡正了自身混乱的规范体系[7],而且其人文关怀理念也助推了刑法的人文化成,促进我国刑法从重刑工具主义向轻刑人本主义转型[20]。而刑法减少介入、减轻干预,以最经济合理的方式规制危害行为恰是刑法谦抑原则的重要体现。因此,面对新兴的生成式人工智能技术,刑法应当保持足够的宽容度,在提供和使用生成式人工智能行为可能同时触犯轻罪和重罪时,应当优先适用轻罪。在适用轻罪时,如果能够通过较轻刑事责任方式规制危害行为,就不应当选择严厉的刑罚。如此方可发挥刑法的最大功用,在保护技术创新积极性的同时实现了对风险的有效防控。

3.刑法可允许风险理论的要求

进入风险社会,越来越多的新型风险威胁或侵害法益,然而有些风险是必不可少的,例如,交通运输、研制新药物、建设核电站等产生的风险。因此,为了缓解社会发展与风险防控的紧张关系,可允许的风险理论应运而生。其是指只要行为人在实施对社会有益的危险行为时遵守了相应的规则,即使发生了一定的危害结果,也允许该危险行为的存在[21]。实际上,生成式人工智能技术引发的风险大多是可允许的风险,具言之,可从利弊衡量、必要性考量、灾难性后果评估三个方面进行考察[22]。

第一,生成式人工智能带来的社会效益远远大于所引发的风险。一方面,生成式人工智能是数字时代先进生产力的代表,在教务教学、行政管理、商务办公等领域具有广阔的应用空间,能够便捷人类生活、促进社会发展。另一方面,生成式人工智能仍未超脱人类控制,尚未具备危害公民生命财产安全的能力。虽然可能会侵犯公民个人信息或者知识产权,但与其带来的社会效益相比,其风险和不利仍然较小。换言之,生成式人工智能带来的大多风险属于技术创新过程中法律可允许的风险,只有一小部分严重侵害法益的风险才需要刑法介入调适。这就需要刑法谨慎性规制,以妥当甄别法律可允许的风险与刑法不容许的风险。

第二,生成式人工智能的技术风险是创新必然携带物,且其与获得利益之间并不冲突。一方面,虽然生成式人工智能的技术发展携带风险,但“风险与收益并存”,其也会创造经济效益,并且其所带来的便捷是人类所必要的。另一方面,从物理社会到数字时代,再到智能时代,人工智能技术是历史发展的必然结果,其他技术尚难以为人类提供同等智慧。概言之,生成式人工智能技术能够为人类带来独特的利益,这是其他方法无法实现的。因此,即使生成式人工智能技术具有风险,但这些风险也应该得到容忍。

第三,生成式人工智能技术风险目前尚未引发灾难性后果。我国的“文心一言”仍处于试验性使用阶段,尚未发生严重侵犯法益的行为,同时由于该技术的可控性,其难以产生灾难性的社会风险。此外,目前所表露的风险大多与生成式人工智能技术没有必然的因果关系,例如,大多虚假信息是输入数据量有限带来的结果,而非技术本身的缺陷。应当肯定,无论是风险发生的概率,抑或风险的种类,都不符合灾难性后果的标准,更不会造成更大的法益侵害。因此,对于仍处于试错阶段的生成式人工智能技术而言,尚无刑法全面介入规制之必要。

综上所述,在生成式人工智能引发的风险中存在可允许的风险。对此,应当秉承刑法有限性规制的理念,一方面,不应仅仅因为生成式人工智能具有风险而不加区分地通过刑法进行规制,这不仅会违反该理论,最终还会招致被广泛期待的创新性技术的萎缩以及停滞。另一方面,如果涉及生成式人工智能的不法行为逾越了可允许风险的标准,产生了严重的法益侵害结果,才应当允许刑法的介入。

三、形塑生成式人工智能技术风险刑法谨慎性规制模式的原则

如前所述,对于生成式人工智能技术风险的防控,刑法需要另辟蹊径,采取谨慎性规制的模式和方案,而在构建与适用的过程中,需要秉承以下原则。

(一)法益保护原则

自霍布斯(Hobbes)以来,安全保障就被视为政府的基本服务,刑法同样也是为安全保障需求服务的,然而将刑法作为提供安全保障的工具之时,对于其运用界限却存在激烈的争论,但就目前的刑法理论而言,刑法服务于法益保护获得了一致的认可[23]。法益是刑法教义学理论中重要组成元素,法益已经不再是规范形式上犯罪构成的要件,而是规范实质上所要保护的现实利益,法益日趋走向实质化[24]。确立刑法的法益保护原则应当坚守以下要点。

首先,应当将纯粹的悖德行为排除出刑法的规制范畴。西方国家的刑法禁止遇见危险不救助、不报告等行为,于是我国有些学者主张见危不救行为应入罪。实际上,道德规范和法律规范之间仍具有一定的界限。道德规范之所以能够上升为刑法规范,并不是要用法律来维护道德,而是因为违反道德的行为恰好威胁或损害了刑法要保护的重要法益[25]。因此,当生成式人工智能被用作招聘评估等工作,但因为存在不公正的程序设定而输出了具有歧视性、偏见性的结果时,就不能适用刑法追究其提供者或者使用者的责任。换言之,不侵害刑法法益的纯粹悖德行为不能受到刑法的规制,否则,法律规范便“僭越”了道德规范范围,有违刑法自由保障的机能,这是刑法谨慎性规制生成式人工智能技术风险时需要坚守的底线原则。

其次,纯粹的管理秩序不应当成为刑法保护的法益。进入风险社会,集体法益的规定更有利于预防和防控重大风险的发生,但法益是法律所保护的人的利益,应当具有明确性,故只有当集体法益能够还原为个人法益,能够促进个人自由发展时,才可谓刑法值得保护的法益。因此,仅仅为行政法所保护的纯粹的管理秩序不能成为刑法保护的法益。例如,《生成式人工智能服务管理暂行办法》对生成式人工智能服务提供者收集、存储用户个人信息的行为作了规定,倘若提供者过度存储了无法识别个人身份抑或对个人无用的个人信息时,其也只是违反了监管部门的管理规范,但无法对个人权益造成损害,此时就不应当适用刑法。应当明确,在我国生成式人工智能发展以追求“安全发展”为价值方向的背景下,行政监管范围会有所扩张,此时应当避免刑法调整对象的过度化,使其成为替代政府管理或者因管理无力而“兜底保障和威慑”的“社会管理法”[26]。

最后,需要明确的是,并非所有法益都要刑法保护,只有那些重要的并且可以被刑法规范涵括的法益才应得到刑法保护。犯罪是对较为重要法益的破坏,据此降低个人的安全感并危及社会安宁,因此,有必要采取刑罚措施作为有效的制裁手段来应对犯罪行为。而为了避免刑罚滥用,往往发挥实质法益概念与形式法益概念的立法批判机能,来划定刑事处罚的合理边界和范围[27]。一方面,实质法益概念的根据来源于宪法,唯有宪法中关涉公民基本权利以及保障基本权利实现的基本条件才能成为刑法立法所要保护的重要法益。因此,基于生成式人工智能技术风险而增设罪名时,应当着重考察法益保护的正当性,避免超越刑法规制范畴。另一方面,应当通过解释论发挥形式的法益概念的立法批判机能。因此,在认定使用生成式人工智能行为构成罪名时,不能仅仅依据刑法条文表面机械地认定所要保护的法益,而是应当确定具有实质意义的法益,以此避免刑法打击范围的不当扩大。

(二)比例原则

刑法的基本原则除了固有的罪责原则和罪刑法定原则外,还有植根于宪法和行政法而与罪责原则内涵有部分相似的比例原则。比例原则包括适当性原则、必要性原则和相当性原则。适当性原则是指,刑法所采取的手段必须是达成保护法益与建立并维系社会共同生活的和平与秩序的刑法目的之适当手段;必要性原则强调,刑法的处罚规定必须是为了达成刑法目的而造成最小侵害的必要手段;相当性原则(即狭义比例原则)是指,刑法使用的手段与其所要达成的目的必须相当[28]。将比例原则引入刑法领域,对于贯彻法益保护原则具有方法论意义,可以作为法益保护原则的有益补充,但要避免简单的话语转化和机械套用[29]。对于生成式人工智能技术风险的规制,在通过比例原则检视之后,才可以适用刑法。换言之,比例原则的考察流程也就是刑法谨慎性规制的过程。

首先,当刑罚手段无法有效实现法益保护目的时不能适用刑法。适当性原则是用来评判国家权力行使的正当性,因此其既包括对发动刑罚权是否是为了保护法益的目的正当性的审查,也包含对实施刑罚是否有助于实现该目的的手段有效性的检视。在目的正当性方面,虽然不能否定刑事立法的正当性,但是在认定与生成式人工智能相关的罪名时,仍然需要考察刑法所保护的法益是否具备宪法上的正当根据,是否具有重要价值,是否符合明确具体要求。在手段有效性方面,需要判断适用刑法是否能够有效保护提供和使用生成式人工智能行为所侵害的法益,对此,不能仅仅通过简单的逻辑推理或者思维论证来认定,而是需要通过一定的实证调研和后果考察来分析。但是,如果适用罪名能够防止严重后果的发生,抑或适用轻罪有利于预防重罪时,应当肯定刑罚手段的有效性。

其次,应当适用能够达成规制效果并对行为人造成最小损害的手段。应当看到,必要性原则和谦抑性原则具有一定的重合,但是两者仍具有不同的价值意义。前者倾向于审查方法和程序,后者则贯穿了法益保护的实质概念。因此,在利用比例原则的“三原则”判断刑法是否应当介入生成式人工智能技术风险时,应当注重结合法益保护原则、刑法补充性原理、后果考察理论等具有实体意义的内容来辅助审查。例如,不能因为刑罚的严厉便仅仅从形式上认为适用民法或者行政法对生成式人工智能的提供者或者使用者的损害最小,而是应当在全面有效保护法益和促进技术创新的基础上,权衡刑罚和非刑罚措施的利弊,选择合比例的法律规范。

最后,利用生成式人工智能技术造成的法益侵害程度明显大于技术利益时可以适用刑法。例如,杭州某小区居民为测试ChatGPT技术的使用效果,尝试用ChatGPT写一篇杭州市取消依照尾号限行的新闻稿,随后将生成的虚假新闻稿转发在小区业主群里进行分享。该消息被不明真相的业主转发,导致虚假信息广泛传播。后警方介入调查后证实该消息为谣言[30]。该案中的双方利益分别为公众的信赖利益和利用生成式人工智能技术生成信息的便捷利益,该虚构并肆意传播行为对公众信赖利益的侵害程度明显大于因技术而生的便捷利益,是故该案就具备了刑法规制的正当性。

四、生成式人工智能技术风险刑法谨慎性规制模式的适用与展开

如前所述,数字时代下生成式人工智能风险的防控与管理是由技术引发的法律问题,需要由技术规则、行业规制、前置法和刑法等规范共同应对。而在多元共治格局中,如何具体适用生成式人工智能技术风险的刑法谨慎性规制模式?需要重点把握刑法介入的时机和限度,即应分别廓清刑事法治外部的技术规则、行业规制、前置法和刑法的适用畛域,以及刑事法治内部的重罪和轻罪作用边界。

(一)技术规则、行业规则与刑法的适用边界

技术规则以代码为依托,是程序设定和运行所需要遵循的基本原理和规范。行业规则多为生成式人工智能行业领域的协会等自治组织以及研发公司制定的自治性规范,属于“软法”范畴[31]。由于生成式人工智能产业链、运行链往往涉及多方利益,需要借助外部的强制规范予以行为引导和利益安排,故单纯通过自治的技术规则、行业规则解决争议问题较为有限。因此,技术规则、行业规则与法律乃至刑法的作用边界并非清晰明了,此时需要秉持法益保护原则和比例原则使法律规范在规定范围内作出适度的让步,以扩大自治规则的作用空间。具言之,主要包括以下两种情形。

第一,个人以娱乐学习为目的使用生成式人工智能,如其生成虚假信息时,可以通过技术措施来解决,无需法律甚至刑法的介入。以“文心一言”为例,在该种情形下需要注意以下两点。一是生成虚假信息问题。“文心一言”通过海量复杂的语料库进行训练,但是深度学习技术也仅仅是在理解人类语言排列关系和特征的基础上进行语言输出的重组和优化,却无法理解其相互之间的内在逻辑。因此,“文心一言”生成虚假信息在所难免,法律规范需要容忍这一适度的可允许的技术风险。倘若其输出的是危害国家安全、煽动民族仇恨的内容时,则表明其已然具有了“感情色彩”,一定程度上融入了提供者的价值判断且表明提供者未尽足够审核义务,此时法律不应容忍其对社会公共利益的冒犯或侵害。二是个人以娱乐学习为目的的场景下使用时,如果个人恶意传播“文心一言”生成的虚假险情、疫情等信息,扰乱社会秩序时,便需要通过刑法来定罪处罚,而不能仅仅通过改进技术来处理风险。因此,需要着重判断行为人使用的目的和场景。例如,如果“文心一言”被用于辅助政府机关作公共决策,由于这涉及公共利益,百度公司以及政府机关需要承担更多的注意义务,此时就需要法律甚至刑法规范相应的行为;然而,如果个人仅以娱乐学习为目的使用“文心一言”,如果生成了虚假信息,个人应当具有判断意识,如个人造成传播后的不良后果,个人应对其负相应责任。同时,由于市场竞争机制的存在,用户可能会选择其他生成式人工智能服务,这在一定程度上会促进“文心一言”的技术改进,弥补技术缺陷,继而阻却刑法的介入。

第二,违反使用规则的行为可以依照行业规则进行处理,无需适用刑法。新兴的生成式人工智能领域具有区别于其他行业的特有规则,如深圳市人工智能行业协会制定的《新一代人工智能行业自律公约》《人工智能企业评估规范》等就对人工智能产业发展、行为规范等作了规定。除此之外,行业规则也可以包含人工智能企业或者提供者对于生成式人工智能服务制定的使用规则。就使用规则与刑法的作用边界而言,刑法需要维护基本的使用秩序,但不能沦为保护具体使用规则的工具[32]。例如,“文心一言”的用户协议实际上就相当于百度公司与用户之间签订的服务合同,当百度公司履行了足够的提示义务且用户进行使用时,合同便成立。倘若行为人通过输入无意义的乱码、变体谐音文字或者特殊破解字符的方式来对抗过滤机制,继而实现其输入不当言论或者诱导“文心一言”输出不当言论的目的时,百度公司可以根据用户协议对行为人予以警示,或者采取限制、锁定账号的处理措施。此类行为只是对使用规则的违反,并不涉及任何的计算机犯罪或者非法利用网络犯罪。对该类行为的规制,需要的是技术的改进以及行为的规范,而非刑法的介入。

(二)民法、行政法与刑法的适用边界

经过上述规范的处理能够“过滤”一部分不应由刑法介入的行为,然而,技术规则、行业规则毕竟是自治性规范,缺乏足够的强制约束力和有效的惩戒措施。因此,对于自治规范难以化解的风险应当考虑由民法、行政法等前置法在先处理,刑法置后处理。具言之,可以在以下情形下划清前置法与刑法的作用边界。

第一,当行为同时构成犯罪未遂与民事不法时,应当优先认定民事不法。应当肯定的是,只有当未遂犯具有实现既遂结果的紧迫危险或者具有与既遂犯相当的社会危害性,继而达到了值得刑事处罚的标准时,才应当认定为犯罪。以数额犯为例,倘若生成式人工智能未经用户许可,非法获取其个人信息,但是却未达到司法解释规定的非法处理个人信息50条、500条、5000条的数额入罪标准时,可以在充分保护法益的前提下将其认定为民事侵权,而不作为犯罪处理。因为侵犯公民个人信息罪本身属于基本刑在3年以下的轻罪,犯罪性质不如杀人、抢劫行为严重,在没有其他严重违法情节时,其未遂犯产生的社会危害性整体较小,并不值得发动刑罚。同时,通过认定民事侵权并使提供者承担民事责任,不仅有利于弥补用户的损害,更有利于避免刑事处罚的不当扩大,更好地激发提供者的创新能力。

第二,当破解技术措施使用生成式人工智能时,不应当通过扩大解释使其适用侵犯著作权罪,而是应当适用民事法律规制该类行为。刑法对通过破解激活码或者收费程序而无偿使用作品的行为作了禁止性规定,违反此类规定应当以侵犯著作权罪追究刑事责任,然而,由于著作权法是赋权法,故认定该罪的构成要件需要参照前置法律。《中华人民共和国著作权法》(以下简称《著作权法》)第49条第3款规定的“接触技术措施”的范围却仅限于“未经权利人许可的浏览、欣赏作品”。由于生成式人工智能是用来“运行和使用”的,而不是单纯地用于“浏览和欣赏”,这就导致行为人通过破解程序无偿使用生成式人工智能的行为并不在著作权法保护的范围内,那么刑法更不应当对其进行规制[33]。但需要看到的是,该类行为难以受到著作权法保护将极大地挫伤提供者的积极性,损害其经济利益,也不符合知识产权保护的本意。因此,需要对《著作权法》中的“浏览、欣赏”作体系解释与目的解释,使其包含“运行使用”的含义,由此可以根据《著作权法》第53条第6项,追究行为人的民事责任。换言之,刑法不能将构成民事侵权都存有争议的行为直接解释为犯罪,否则有违罪刑法定原则。

第三,算法妨害行为可以由行政法进行规制,算法损害行为可以由刑法进行规制。算法妨害是指对个人身份、名誉、行为等带来的抽象性的过程侵害[34],例如“文心一言”可能根据用户提问“描绘”出“人格画像”但未侵害名誉权,或者向用户提供符合其个人喜好的内容但未侵害其行为自由等。算法损害则以结果为本位,例如由于算法缺陷导致生成严重错误的决策或者歧视性、危害性的言论。由此可见,单一的算法妨害并不会侵害用户的具体权益,不会产生个人归责的问题,但是由于生成式人工智能的广泛使用,其可能会对公平竞争的市场秩序、社会公共利益等产生累积性、集合性以及规模化的负面影响,因此需要行政法进行必要的指导和规范,而不是适用刑法予以超前的预防性打击。行政法相较于民法、刑法等具有事前、事中的过程性监管优势,例如,可以设定行政许可选择出合法合规的算法机制,或者进行行政指导引导算法向好向善。《互联网信息服务算法推荐管理规定》便是通过行政法监管算法机制的有益探索和尝试。相反,由于算法损害具有了危害性结果,逾越了可容许的风险,此时可以考虑适用刑法予以规制。例如,前述杭州取消车辆限号造谣案在一定程度上具有刑法规制的正当性。概言之,由算法引起的抽象性、过程性的侵害应当由行政法处理,无需刑法的提前介入。

第四,网络服务提供者未履行适当管理义务时,应当优先适用行政法,而非适用拒不履行信息网络安全管理义务罪。当前,ChatGPT等对话式人工智能已经接入许多网络服务平台,因此,当发生与ChatGPT相关的违法犯罪后果时,网络服务平台可能会面临刑事处罚风险。然而,一味适用拒不履行信息网络安全管理义务罪来对网络服务平台进行规制可能过于严格,主要体现在以下两个方面。一是适用行政法也可以实现有效的规制效果。拒不履行信息网络安全管理义务罪是法定犯和不作为犯,其前置法主要有《网络安全法》《关于加强网络信息保护的决定》《互联网信息服务管理办法》《网络信息内容生态治理规定》等。当网络服务平台不履行管理义务时,可能会受到限期整改、封禁网站等处罚,这足以实现规制效果。因此,拒不履行信息网络安全管理义务罪的设定有“滥用”刑法威慑功能的嫌疑,在具体适用时应当保持谨慎。二是并非所有违反管理义务的行为都需要承担刑事责任。前置法规定了网络服务平台的行政义务,其中要求对所有网络用户都必须进行实名认证,然而,这对于打击利用ChatGPT、“文心一言”等进行违法犯罪的行为并未发挥足够的预防作用,其与“违法信息传播”“用户信息泄露”“刑事案件证据灭失”之间的因果链条过长,没有制造出法所不允许的风险,因此应当归属于行政违法行为,而非犯罪行为[35]。概言之,为了避免施加严苛的刑法义务、妨碍网络的正常运行,应当首先适用行政法规制网络服务平台,而非直接适用拒不履行信息网络安全管理义务罪。只有在生成式人工智能技术风险的扩大与网络服务平台未履行管理义务之间具有直接关联性时,如生成式人工智能大量传播违法犯罪信息但网络服务平台未采取相应措施,才应当考虑适用刑法。

(三)重罪与轻罪的刑法适用边界

应当肯定,当提供或使用生成式人工智能行为造成的后果同时符合重罪与轻罪的构成要件时,应当根据法条竞合或者想象竞合的原理选择适用罪名。本研究在此讨论的是,在某些具体情形下,在全面保护法益的基础上优先考虑适用轻罪,只有轻罪无法实现对法益的全面保护时,才应当适用重罪。具言之,主要包括以下两种情形。

第一,当提供或使用生成式人工智能行为符合轻罪的构成要件,通过刑法解释貌似符合具有“兜底”性质的重罪的构成要件时,应当适用轻罪[36]。罪刑法定原则要求构成要件应当具有明确性,在能够适用较为具体的罪名实现法益保护的目的时,就不应当选择对行为人处罚较重且权益侵害较大的罪名,这是比例原则中必要性的应有之义。例如,对于提供者利用深度伪造技术生成贬损他人名誉、荣誉的视频并通过生成式人工智能恶意传播给用户的行为,在无法认定该行为扰乱现实社会秩序时,应当优先适用侮辱罪对其进行规制。因为寻衅滋事罪本身属于“口袋罪”,相关的构成要件和所要保护的法益较为模糊,同时其司法解释争议较大,此时贸然适用寻衅滋事罪不符合人权保障原则。

第二,当提供或使用生成式人工智能行为符合预防性轻罪的构成要件,通过刑法解释难以符合实害性重罪的构成要件时,应当适用轻罪。本研究所说的预防性罪名是指具有一定预防性质的罪名,如预备行为实行化的非法利用信息网络罪。而实害性罪名则是相对于预防性罪名而言的,是以实害结果为构成要件的罪名。当行为人利用ChatGPT、“文心一言”等生成式人工智能技术收集、分析证券、期货市场交易信息,评估、预测交易走向时,有可能会触犯操纵证券、期货市场罪。然而,无论是刑法规定还是司法解释,都未将利用技术优势规定为操纵市场的行为方式,故其面临着解释论上的难题。此时,如果能够查明行为人在此之前为了实施该罪而利用生成式人工智能通过信息网络发布相关违法信息,对此可以适用刑罚更为轻缓的非法利用信息网络罪进行规制。当然,该罪第3项所指的“信息”应当限缩解释为“违法犯罪信息”,以此排除不值得刑罚处罚的行为,更好地保持刑法的谨慎性规制。

猜你喜欢
法益规制刑法
主动退市规制的德国经验与启示
过度刑法化的倾向及其纠正
侵犯公民个人信息罪之法益研究
刑法立法向法益保护原则的体系性回归
法益中心主义的目的解释观之省思
保护与规制:关于文学的刑法
论侵犯公民个人信息罪的法益
论《反不正当竞争法》的规制范畴
刑法适用与刑法教义学的向度
论刑法总则