人工智能刑事责任的主体问题探析

2019-01-18 15:10刘晓梅刘雪枫
天津法学 2019年2期
关键词:使用者刑法犯罪

刘晓梅,刘雪枫

(天津工业大学 法学院,天津 300387)

随着科技的不断发展,近年来“人工智能”呈爆发式增长。2017年年初,《新一代人工智能发展规划》正式颁布,当中明确指出,2020-2030年“人工智能发展战略目标三步走”[1]。2018年10月,国家政治局再次召开集体学习,学习的主题是人工智能的发展现状与发展前景,中共中央总书记,国家主席习近平在学习中提到,必须把人工智能的发展放在国家战略层面,把握主动[2]。2018年11月20日下午,以“人工智能快速发展下的先进制造研发基地建设和世界智能大会”为主题的理论创新论坛在天津市社科联举行,该论坛围绕人工智能发展中的理论焦点、实践难点、发展重点展开交流,并承诺将以此次论坛为开端,依托社科界和智库广泛专家资源优势,凝聚管学研业界众力,为天津人工智能产业发展服务,助力天津先进制造研发基地高水平建设,助推世界智能大会提升人文品质,为“五个现代化天津”建设贡献力量。

当前在人工智能发展中,其所涉及的法律风险问题也开始显现。霍金认为,人工智能的迅猛发展,其可能产生自我意识和自主判断,最终超越人类的人工智能有可能奴役人类甚至导致人类死亡[3]。2015年7月德国大众汽车制造厂机器人在被安装和调制过程中将工人重重压向金属板,最终导致这名工人因伤重不治身亡;2016年11月我国深圳高交会上参展的机器人“小胖”在移动时将展台玻璃碰倒,划伤了观众;2018年3月美国亚利桑那州一辆Uber自动驾驶汽车以64公里的时速撞向一名横穿马路的女性,造成该女性不治身亡,这是全球首起自动驾驶汽车撞死人类的事故……这一系列的机器人致人伤害或死亡的事件,其刑事责任认定问题引起理论界和实务界广泛关注。2017年,《关于机器人民事法律规则的决议》在欧洲各国的议会上以高票数通过,决议中明确指出,自主机器人一旦引发事故,必须承担起相应的责任,但前提是要认可机器人作为“电子人”的法律地位。只有这样,一旦发生由机器人引发的事故或造成的损害时,才能根据机器人的行为能力以及电子人格进行责任判定[4]。国务院发布的《新一代人工智能发展规划》中提到,人工智能的发展不能放任自由,必须正确引导,机器人虽然与正常人不同,但同样具备独立的人格,应当拥有一定的权利,同时需要履行相应的义务。为此,我国部分学者提出,从法律上认可人工智能系统作为一个“电子人”的地位,是大力发展人工智能的必然要求[5]。学界对人工智能的界定,简单来说,就是通过先进的科学技术,赋予机器人灵活的大脑,使其能够按照指令完成任务。但是,一直以来,我国学者对人工智能的类型划分存在不同观点:有学者提出“两分法”,指出人工智能应当按照强弱进行划分[6];有学者提出“三分法”,即将人工智能划分为三个等级,即超人工智能,强人工智能和弱人工智能。弱人工智能只能从事某方面的技术或操作[7],比如战胜了世界围棋冠军的阿尔法狗;强人工智能在各个领域都拥有与人类同等的智慧,具有独立解决问题的能力;超人工智能是在所有领域都超越人类大脑的超人工智能体;还有学者提出“再生智能”这一概念,将是否具有“再生智能”作为区分强弱人工智能的标准。弱人工智能依赖于机器研发者事先预设的程序,不具备自我学习和创造的能力,不具备再生智能;强人工智能是指具备自我学习和创造功能,不仅仅依据研发者事先预设的程序和机理,自我能够创设新智能的智能产品[8]。笔者赞同“二分法”,仿照自然人所具有的的辨认能力和控制能力来进行强弱人工智能分类。

一、弱人工智能非刑事责任主体

弱人工智能只是在设计和编制的程序范围内进行活动,其实现的只是设计者或使用者预先设定好的程序算法,因其不具有辨认能力和控制能力,只能将其视为智能工具,其不具有刑事责任主体资格,无法独立承担刑事责任。

以“自动驾驶机动车”为例,按照目前通用的自动驾驶机动车的技术标准,自动驾驶机动车的分级为L1-5级,但即便是最高级的完全自动驾驶机动车,也无法成为独立的刑事责任主体,因为其完全自动驾驶的所有指令都是由人类开发者根据提前设计好的程序算法发出的,其只需要借助车身上装载好的激光测距仪、雷达、传感器等根据实际情况来履行程序指令就可达到完全自动驾驶。2016年5月7日,一辆2015年版ModelS拓速乐牌轿车与一辆拖挂车辆在美国佛罗里达州一段高速公路上相撞,导致驾驶员死亡。根据2013年美国国家公路交通安全管理局发布的机动车自动化标准,该事故汽车属于L2级自动驾驶汽车(部分自动驾驶机动车)。按照L2级自动驾驶机动车划分的依据,该车的辅助驾驶系统还不能识别所有的道路交通危险,不能代替驾驶员直接驾驶,因而在使用辅助驾驶功能时,操控者依然为驾驶员,其仍需维持高度警惕性,尽管其本人不直接操控车辆,车辆却始终是处于其监管下的,主要责任仍归属于该车辆的驾驶员[9]。据相关调查,该车不存在设计缺陷和制造缺陷,所以该事故责任不能归责于机动车本身,也不能归责于研发者、生产者,只能由该机动车驾驶员对安全行驶负全部责任。

目前人类尚处于弱人工智能时代,人工智能产品作为“智能工具”所造成的刑事责任问题主要有以下几种情况:其一,行为人(研发者/使用者)故意利用弱人工智能产品实施犯罪的情形。研发者在弱人工智能产品出厂前就已经在其系统中植入了类似于犯罪计划的程序,且使用者并不知情,也从未想过利用该智能产品实施犯罪,那么只要弱人工智能产品实施了该程序所预设的犯罪行为,所有的刑事责任都应当由研发者承担。另一种情况,研发者和使用者共谋利用弱人工智能产品实施犯罪行为,此时可参考共同犯罪,由研发者和使用者共同承担刑事责任。还有一种情况,研发者在弱人工智能产品出厂前尽到了合理的注意义务,且其无法预见出厂后该智能产品会造成危害结果,该人工智能产品实施危害行为是使用者故意为之,所有的刑事责任应当由使用者来承担。其二,行为人过失致使弱人工智能产品犯罪的情形。这里的“过失”指的是弱人工智能产品的研发者或使用者违反了预见义务。在使用或研发弱人工智能产品时,人工智能技术可以避免危害结果的发生的情况下,研发者及使用者仍需肩负相应的责任及义务,最终未预见或已经预见却轻信能够避免而导致危害结果的发生,表明一般过失犯罪成立,研发者或使用者应承担刑事责任[10]。其三,在研发或使用弱人工智能产品时,人工智能技术无法避免危害结果的发生。在该情形下,智能机器人的研发者或使用者已经尽到了合理的注意义务却仍未能避免危害结果的发生,所造成的危害结果不能由二者承担。有学者提出,此种情形可以参照民法中的“严格责任”,人工智能产品的研发者或使用者成立监督过失犯罪。笔者认为,不能参照民法中的“严格责任”认定研发者或使用者成立监督过失犯罪。一是因为刑法不同于民法,民法中的“严格责任”也称为无过错责任,而刑法则遵循罪、责、刑相适应原则,无过错也即既无故意也无过失,强加其二者无过错的刑事责任是不合理的;二是将所有责任都归于研发者和使用者,无疑会阻碍“人工智能产业”的发展,使得研发者因忌惮法律风险而无法致力于创新,使用者因畏惧承担法律责任而不敢购买使用人工智能产品,导致人工智能产业丧失发展活力。

在弱人工智能时代,无论行为人是故意利用人工智能实施犯罪行为,还是由于过失而致使人工智能实施犯罪行为,都仅是把人工智能产品视作“智能工具”。为加强刑事风险防控,刘宪权教授提出,未来我国刑法的改造可从下述几方面入手:第一,从源头防控风险:增设滥用人工智能罪;第二,确立严格责任:增设人工智能事故罪[11];第三,适时考虑赋予强人工智能机器人刑事责任主体的地位[12]。而马荣春教授认为,人工智能在实质上不具有受刑能力,在人工智能造成损害的场合根本不存在刑事意义上针对其本身的“处罚空隙”问题[13]。目前AI应用领域中,最为成熟的当属无人驾驶技术与智能医疗技术,两者对人们的生活及安全有极大影响,故应受到高度关注,在上述AI应用领域,驾驶与手术的过程作为行为主体的“人”已被虚化,并无实质的参与行为。“人”退居二线,如果基于“无行为则无犯罪”原则,使刑事责任主体无从可寻。查证AI的主观罪过也是技术上的伪命题。所有的人在智能驾驶时代都成为潜在被害者,传统的行为主体消失,将刑事归责完全转嫁到智能技术或智能汽车提供商显失公平。笔者认为,应当坚持“技术中立”,为防控刑法风险,应当推行强制保险制度来平衡用户和生产商双方的利害关系,加强被害人的救助补偿制度[14]。

二、强人工智能刑事主体肯定说

随着尖端科技日新月异的发展,未来的机器人在很大几率上会在无人介入的情境下做出系统算法中本无设定的行为。此时人工智能产品所做出的种种“行为”,有些并非是设计及制作过程设定的,而是具体操作时发生的变动,这些变动都是难以预估的,且是结合当下的实际需求重新设定而做出的。所谓的强人工智能,实际上就是能够决策及实施的行为不属于设计及编程范畴的人工智能。当强人工智能产品开始不受人类监管时,其在运转过程中可能会造成的对社会对个人的法益上的侵害结果,最终承担责任的对象应是谁,在刑法中并未明晰,在此情况下,就必须专门颁布“机器人刑法”。为了防止未来AI对人类法益实际产生侵害,国内外很多学者提出“人工智能独立承担刑事责任”的观点(下称“独立责任承担说”)。“独立责任承担说”的核心依据是AI符合施加刑事责任的内部要素,即独立的“控制能力与可培养的辨认能力”。“独立责任承担说”为AI设定了有针对性的刑罚措施。这包括对AI惩处罚金刑;对AI施以自由刑;对AI施加死刑,包括对躯体的永久销毁和对AI的数据予以删除[15]。具体而言,“独立责任承担说”主要观点如下:

(一)强人工智能符合刑法所规定的犯罪主体的条件

根据我国《刑法》的规定,只要实施了能够对社会产生危害的行为且具备刑事责任能力,即自我控制和辨认能力就能够成为抽象的犯罪主体,至于“应受刑罚处罚承担责任”则是来源于罪刑法定原则,是立法者在肯定了强人工智能产品具备刑事责任能力并能够实施具有社会危害性的行为之后在立法上的选择与回应,所以是否能够实施危害社会的行为且具备刑事责任能力才是决定人工智能产品能否成为犯罪主体的本质要件[16]。毋庸置疑,超出设计和编制程序的强人工智能能够自主决策,且能够基于自主意志实施具有社会危害性的行为,满足成为犯罪主体的两个条件,应当成为受刑法规制的犯罪主体。

(二)强人工智能的行为是刑法意义上的“行为”

站在历史的长河中,循着“行为理论”与时俱进的发展历程来看,当中较为典型且有代表性的包含目的行为、社会行为、因果行为、自然行为等理论,这些理论是基于人的基础上,以人的行为作为基础而构建[17],伟大的哲学家,思想家马克思曾说:“法律的对象并不是人,而是人的行为。”由此可见,法律是建立在人的行为基础上的,而“行为”又应如何定性?“行为”是否必须是“人”的行为?然而,对于人的行为的讨论,是否同样适用于人工智能系统呢?虽然人工智能系统与正常人有所不同,但事实上,尽管人工智能系统不属于生命体,但它的其余要素与“行为理论”完全吻合[18]。因此,赋予强人工智能机器人刑事主体资格是具有现实可能性的。

(三)承认强人工智能刑事主体能力,具有一定的社会治理意义

法律是案件判决的直接依据,对违法犯罪行为进行惩罚,本质上是为了预防犯罪,这种预防又可分为特殊预防与一般预防。一般认为,特殊预防的目的在于通过刑罚限制、剥夺犯罪主体的再犯能力,实现威慑与再社会化功能;而一般预防则是通过对犯罪人适用刑罚向一般社会主体宣告,犯罪就必须受罚,向一般社会主体施压及震慑,从根源上杜绝犯罪行为的产生。强人工智能产品,虽然不具有人类的生物体征和肉体上的痛感,但其拥有自我控制与辨认能力,如若对其进行剥夺自由、毁损等处罚,其也会感到痛苦、自责与愤懑,并且人工智能的核心数据库都是同步即时更新的,其他的人工智能犯罪人受到处罚,强人工智能产品也会受到威慑与教育,从而整体在人工智能产品中减少再犯率与犯罪率,以实现刑罚预防的功能与目的[19]。

三、强人工智能刑事主体否定说

“否定说”认为,强人工智能所具备的自我学习能力是人类所赋予的,不应将其神圣化。是人类用他们已知的技术将一些材料组合起来再辅以核心算法创造了目前我们称之为“人工智能”的东西,人工智能创造之初,就是为了便捷人类的生活,其地位在创造之初就已经被设定,如若赋予其类人的法律地位,无疑是否定了人类最初的构想,也不利于人类的可持续发展。人工智能的思维程序是机械式不带有情感的,虽然其具备辨认和控制能力,能够自主根据不同情况实施行为,但其仍旧无法感知、理解自身行为的意义,其执行任务的基点仍是冷冰冰的代码,无法像人类一样基于某种特殊的情感而做出某种行为。如小米系统中的“小爱同学”、苹果系统的Siri等等,对于阅读的内容具体为什么意思,这些人工智能并不了解,因各智能程序间存在的差异性使其无法学习、交流,且各程序的本体及知识表现形式也具有较大差异[20]。“否定说”指出,人工智能独立承担刑事责任不具有理论自洽性,强人工智能不能成为刑事责任主体,其主要理由如下:

(一)法律主体不应被过度抽象,强人工智能与自然人存在本质区别

有观点指出,虽然具备独立的自我辨认和控制能力是成为犯罪主体的前提,但是将人工智能过度的向自然人的抽象概念靠拢并赋予其主体资格无疑是荒谬的。自然人是具有社会属性的,鉴于人的多面相性,强人工智能和自然人有本质差别。假如人仅被都当成抽象化、理性化的法律主体,那其将不会存在其它的面相。人与人工智能系统不同,人是一个实实在在的实体,具有思考能力,行为能力,需要与他人进行接触[21]。因此,机器人再怎么“高智商”,它也不能成为“人”,“人”身上的种种独特的属性,是一个机器无论如何也无法具备的。“肯定说”坚持强人工智能产品的犯罪主体地位是站在一个非常抽象的法律角度来考虑的,忽略了作为法律主体的自然人的其他面相。

(二)强人工智能不具备可追究刑事责任的主体意志自由

黑格尔认为:犯罪本身就是一种经过理性思考才作出的行为,一旦人产生了犯罪行为,就必须接受法律的惩罚,在他看来,犯罪是犯罪人自由意志的体现[22]。若要寻找正当的刑罚根据,那必须由犯罪人的自由意志入手,实际上就是,犯罪人是通过犯罪来体现自由意志,那么自由意志不存在的情况下犯罪自然也不会形成,所以与刑法间也无实质性的联系[23]。现代刑法确立主客观相统一的犯罪构成理论。犯罪行为是否成立,不仅需要考量犯罪行为对他人或社会所造成的损害,而且还要考虑犯罪人的作案动机和心理状态。

1.强人工智能运行机理与人的意志自由进行形式匹配过于机械,与自然人的独立意志不具有对等性

就算是强人工智能,也只是在人为的干预下按照指令执行操作,即便人工智能技术继续发展,甚至能够脱离人类的控制,自主做出某种行为,但其仍然无法明白自身行为的意义,即便是做出了伤害性的行为,也可能谈不上任何作案动机,因此,人工智能系统本身就没有法律意义上的意志自由,与自然人的独立意志不具有对等性。自由意志是寻找正当的判处刑罚的根据,其若不存在的,那么根据自然也无从找起,强人工智能不具备独立意志,自然也就不具有被刑法规制的意义,不能成为名副其实的刑事责任主体。

2.强人工智能不具有理解并遵从法规范的能力,强人工智能行为属性判断无客观标准

刑事责任若要成立,作为行为主体需要满足以下两个条件:(1)对于法律规范,要有能够认识、理解的可能与能力;(2)要能够基于对法律规范的理解,具备在不同具体情境下抵制诱惑,即不做违法犯罪行为的意志力的可能性。但是,人工智能产品是在人类的努力下经过研发而诞生,对法律条例并不了解,甚至完全没有遵守法律条例的行为能力。换言之,即便人工智能系统违法了法律条例,作出了损害性行为,其本身也可能完全不自知,目前为止,人工算法并没有能力完全干预人工智能系统的行为,欠缺刑法所要求的对法规范遵从的意志自由。而且强人工智能也可能会出错,一旦算法错误,就会做出损害他人或社会的行为,那么从法律的层面来讲,这是纯属的机器意外事故,还是人工智能系统经过自主思考而作出的行为呢?人工智能系统是否应当承担相应的责任呢[24]?

(三)根据现有的刑罚体系对强人工智能判处刑罚无意义

若承认强人工智能的犯罪主体地位,就必须对其判处刑罚。我国刑法主要有五种主刑和四种附加刑,按照刑法轻重可分为管制、拘役、有期徒刑、无期徒刑和死刑;罚金、剥夺政治权利、没收财产和驱逐出境[25]。由于人工智能并不是正常的行为人,不会产生与人体同等的感觉和道德上的负罪感,对其判处现有体制下的刑罚没有人类所能理解的实际意义。对此有学者指出,可以通过对刑罚体系的重构来实现对强人工智能的刑事处罚,实施特殊的刑法惩治手段,如删除数据、修改程序、永久销毁等[26]。有观点认为上述看法不具有合理性,此类特殊的惩治手段无法实现刑罚的机能,强人工智能是冷冰冰的材料加以核心算法程序堆砌而成的产物,无血无肉,没有自然人与生俱来的伦理上和道德上的制约与情感,其也无法从其他机器人受到的惩罚中吸取经验教训进而实现一般预防的功能。另外,如若承认强人工智能为犯罪主体,对其特殊规制,其无法与自然人一律平等地适用刑法,依法定罪量刑和行刑,势必违反刑法面前人人平等原则,挑战刑法基本原则,引发法律体系的动荡。

四、结 语

尽管目前人类的技术还只是停留在弱人工智能阶段,但是当代科技迅猛发展的速度足以让人类相信在不远的将来,强人工智能不再是一个概念中的抽象物,而是真真切切会存在的具象物,所以对于人工智能产品目前以及未来可能会出现的一系列问题,还是应当考虑在先,思索在先。现当代人类社会所出现的弱人工智能产品是不具备刑事主体资格的,其在“使用”中所带来的致人伤亡等严重法律后果,建议通过完善人工智能应用被害人救助补偿制度加以解决。

随着科技发展日新月异,当强人工智能产品实施了严重危害社会,侵害他人法益的行为时,刑法又该如何应对?德国学者针对此问题有诸多不同看法,观点大致分为两派。一派的代表为希尔根多夫教授,其认为应当修改及完善当前已有的刑法概念,开辟适用于机器人的刑法。另一派的代表为贝克与约尔登两位教授,其认为刑法不可能适用于机器人,将此可能性直接抹杀,认为刑法是围绕着人的,并尝试解释及修正现有刑法理论予以应对[27]。本文在比较分析强人工智能主体“肯定说”和“否定说”的基础上,对人工智能发展所带来社会风险有可能拓宽责任主体范围,增加处罚危险犯等问题进行前瞻性反思。

当前,人类尚处于弱人工智能时代,应当强调刑法的谦抑性,在变革与秩序、创新与守护之间把握动态平衡。同时积极响应我国人工智能发展规划的要求,促进有关人工智能发展的法律法规建设,以期能够进一步有效完善刑事防控系统。

猜你喜欢
使用者刑法犯罪
公园里的犯罪
设计让您在喜爱的虚拟世界中自由奔跑
过度刑法化的倾向及其纠正
Televisions
新型拼插休闲椅,让人与人的距离更近
环境犯罪的崛起
抓拍神器
刑法的理性探讨
刑法的宣示性:犯罪黑数给我们带来的思考
释疑刑法