人工智能法律风险防范与研发者责任探讨

2021-09-14 02:07韩欣悦聂洪涛
北京警察学院学报 2021年4期
关键词:责任法律人工智能

韩欣悦,聂洪涛

(西安财经大学,西安 710061)

人工智能(Artificial Intelligence)的概念提出至今,其在制造、医疗、交通、服务等领域的应用迅速发展,正深刻改变着人类社会的经济形态、生产生活方式和法律结构。然而,人工智能时代是知识革命的时代,也是风险剧增的时代,人工智能时代的风险既表现为技术性风险,也表现为制度性风险,且这种风险未来会超越国界,没有社会文化、地理区域的限制。现有法律体系能否应对人工智能带来的新风险和不确定性,调和智能算法所引起的冲突与矛盾,在智能时代继续维持秩序与变革、安全与创新之间的平衡?科技创新是时代大势和国际潮流,法律工作者需要思考,如何以法律规范消解技术风险,促进科技创新和产业发展。对此,我们不仅需要科学的智慧,更需要制度的理性,在新一批人工智能技术开始大量应用之前,法律领域反省性的修改和根本性的变革正在逐步浮现。在人工智能技术健康有序发展的基础上探讨构建相关法律风险防控和责任分担机制将是新时代的一个重要法律课题。

一、问题缘起:人工智能的全球发展趋势与布局

人工智能作为智能产业发展的核心,是其他智能科技产品发展的基础,近年来,国内外科技创新企业纷纷开展人工智能产业链布局,许多应用成果相继落地。当前,人们对人工智能的关注度与日俱增,大量数据、资本和人才的汇集驱动AI技术研究不断向前推进。

图1 人工智能技术热点领域分布图

图2 中国人工智能企业类型及占比统计图

随着人工智能应用领域的扩展,“AI+”作为新兴业态开始萌芽,越来越多的行业投入人工智能技术研究,助力技术和产业的深度融合。根据中国信息通信研究院的统计,我国“AI+”企业总计占比超过40%,可见国内企业对人工智能应用环节的关注。可以预见未来几年,科技、制造等行业巨头的技术布局将更加深入,随着众多垂直领域的科技创新企业诞生和成长,人工智能将出现更多产业级和消费级应用产品。

图3 2015 — 2020年中国人工智能市场规模及增长情况统计图①数据来源:中国产业信息网https://www.chyxx.com。

随着我国人工智能产业政策不断落地,技术应用的商业化进程加快。在国家战略规划中,人工智能已超越技术概念,成为产业转型、综合国力提升的立足点和新机遇,巨大的行业应用前景、开放的市场环境与数据资源、研发能力的有机结合,形成了我国人工智能发展的独特优势。随着人工智能向不同领域的迅速渗透,其相关技术已获得全球范围的关注和研究,越来越多的创新主体加入了人工智能研发的竞争与布局。AI应用在世界各地呈现出了多元、广泛的特点,推动了深刻持久的社会变革,也带来了潜在的隐患和风险。

二、困境审视:人工智能开发利用的法律风险

人工智能广阔的发展前景正源源不断地吸引着世界各国的资金、技术和人才,在满足人们对智能社会美好愿景的同时,其带来的负面影响也不容忽视,人工智能应用中出现的事故足以让我们面对新技术时更加冷静和谨慎。智能算法带来的风险主要有:一是智能系统自身存在漏洞和缺陷而致人损害的风险,二是系统遭到外部侵入和操控而产生的风险[1]。智能算法产生的法律风险和责任归属问题如何解决,如依据何种规则认定责任、由谁承担责任以及如何承担责任等,事关受害人权利的及时救济,更影响到人工智能新技术的稳定和可持续发展。

(一)致人损害的风险

自人工智能诞生以来,其理论和技术日益成熟,应用领域也不断扩大,但与此同时也出现了一系列人工智能技术应用引发的事故。2015年德国大众汽车厂的机器人突然失控袭击安装工人致其当场死亡②参见新华网:http://www.xinhuanet.com/world/2015-07/02/c_127977462.htm。,美国研发的外科手术机器人发生故障,导致大量患者受伤、89位患者死亡。[2]深圳国际高新技术成果交易会上的机器人突然砸坏玻璃致使人员受伤……这些事件引发了公众对人工智能的恐慌和学者对法律完善的思考。[3]

在技术的发展过程中,人工智能的法律地位、责任、权利义务等如何界定一直备受重视。关于人工智能致人损害的责任问题,有学者认为人工智能自身可作为责任主体,也有学者认为其与一般的产品责任没有区别。诚然,人工智能工作物具有直接致人损害的客观事实,但它们对于自己行为的结果无法识别和控制,缺乏为自己的过失而承担责任的能力,因“无责任能力者之行为不得使负义务”,致人损害的责任主体仍需为自然人、法人或非法人组织。然而,基于人工智能的特点,其致人损害的责任与一般的产品责任也并不等同。

人工智能产品通常被视为科技产品,但与一般科技产品不同的是,智能算法具有一定的自主性,可能脱离人类控制或违背人类意志。[4]因此,人工智能致损的责任承担具有特殊性。根据现行法律,产品致损适用侵权责任的规定,由生产、销售方进行赔偿。如果智能算法完全由人主导,致人损害时侵权责任的归责方式尚属可行,但对于初步具有信息处理和自主决策能力的智能产品,如自动驾驶系统、智能机器人等,其责任主体及损害赔偿机制则有进一步讨论的必要[5]。

人工智能产品从设计、生产到使用,关系到设计研发者、生产者、销售者和使用者。将智能算法的缺陷归责于生产和销售者显然无法囊括其可能涉及的责任人[6]。如无人驾驶技术的应用使法律规制的对象由驾驶员转变到研发者及所有者,带来法律责任体系的重构。在人工智能致人损害的情况下,应就多方主体的责任予以考量。如使用者不存在不合理使用和操作失误,智能算法的设计研发者对人工智能产品的安全负有根本的责任,设计研发的科学性决定了产品使用的安全性。在设计开发阶段,研发者应充分衡量预期利益和潜在风险,使智能产品发挥出预期的功用。对于具有一定智能识别和自主决策能力的人工智能产品来说,应更注重损害的可预见性问题。

(二)外部侵入的风险

一些弱人工智能产品本身可能存在技术缺陷,强人工智能在深度学习之后,算法程序也可能偏离最初的预设,这些缺陷如被不法分子利用,将会产生危害社会的不良后果[7]。相对来说,人工智能的设计与研发行为,并不一定是犯罪结果发生的直接原因,通常是前端因素,即引发犯罪风险的最初原因。人工智能系统在设计之初通常就已经带有一定的目的性,倘若开发的目的就是用于窃听,则本身可能带有犯罪目的,最终产生犯罪的结果,研发者可能会构成故意犯罪;如果设计的目的不是用来犯罪,最终却被用于犯罪,则这种结果并不是研发者主观追求的,而是因存在技术上的缺陷和漏洞被人利用,或深度学习超出了研发者的预设和控制,由此引发的风险不应认为是故意犯罪,是否存在过失则需要进一步讨论[8]。

根据“技术中立”原则,如果本身不存在技术漏洞,也无犯罪目的,只是遭到他人非法利用,研发设计者则不承担责任。但由于人工智能的发展尚处在初级阶段,受到现有技术的局限,漏洞往往很难在开发阶段被研发者察觉和避免,使不法分子的侵入有机可乘。有学者认为对于可能危及人民生命健康和公共安全的应用领域,应按照无过错原则追究责任,但是这种归责方式加重了技术研发者的义务,或将挫伤科技创新者的积极性,抑制技术进步和行业的可持续发展。注意义务的合理设置,有利于明确过失的范围界定,但关于注意义务的来源目前学界仍存在争议。有学者研究了自动驾驶系统遭到外部侵入实施犯罪的案例,对注意义务的来源进行了归纳,还有学者把注意义务的范围限定于行业标准或者国家标准,认为处于标准范围内的风险是应由技术研发者注意的,但是行业标准多为民间标准,与注意义务未必能保持一致。

在现代社会诸多风险中,人工智能的应用是较为主要的风险来源,在防范风险的同时,应更加注重安全保障。技术研发者常常被认为是人工智能风险的最初源头,开发者对算法程序的设置充分影响到人工智能后续的运行方式。若设计之初并未违反法律法规、行业标准、责任者的自我承诺等,只是因技术漏洞遭到不法分子利用而产生危害社会的后果,可以适当放宽其注意义务。责任归属应基于实际危害结果的情况,而不能采取“一刀切”的做法,在防控风险的同时,应充分考虑规制的必要性和限度,避免技术创新受到抑制,阻碍科技发展和社会进步。

三、思路梳理:人工智能法律风险的特征分析

(一)风险源头与技术发展的局限性有关

人工智能致人损害或存在系统漏洞从而被不法利用等事件的发生大多与技术发展及人们对技术的认识和掌握程度有关。人工智能是新兴技术,尚处在试错阶段,人们对这类技术尚未完全了解和掌握,这些未完全成熟的技术在应用中本身就容易发生事故,存在的风险往往是开发设计者无法预料的。而产品责任致人损害事件的发生则不是由技术认识的局限性引起,多为生产或销售中不符合产品质量要求导致的瑕疵。人工智能算法程序的设计存在漏洞而致人损害或遭到外部侵入,与食品不符合卫生要求、车辆设计或制造不符合质量要求引起的事故在行为性质上并不相同。

(二)风险在研发设计阶段缺乏可预见性

一般的产品责任承担的前提是质量存在缺陷,设计、生产或制造中不符合质量标准或存在安全隐患。而在人工智能致人损害或遭到侵入的情况下,其危害结果往往并不是由质量存在缺陷引起的,考虑到新技术的“黑匣子”性,在开发和测试阶段看起来没有问题的系统在投入使用后也可能会发生出乎意料的故障,这种风险很难被开发者所预见。人工智能的应用不是由单个技术支撑的,而是技术的相互作用或者集成。在程序自身出现漏洞的情况下,由于“黑匣子”性,个别、具体的信息处理和交会如何影响运行结果常常是无法查出的。也就是说,即使操作结果出现了问题,也不能马上确定导致该结果的具体开发行为,因果关系通常难以认定。技术开发所出现的失误是否是“被允许的危险”,或者研发者是否未尽到注意义务而存在过失,往往有待进一步讨论。

(三)风险发生的可控性低且损害结果严重

人工智能的技术风险一旦爆发通常难以控制。2016年美国一辆特斯拉Model S因自动驾驶系统识别障碍而发生交通事故,致使车主当场死亡。2018年3月美国亚利桑那州一辆专门用于无人驾驶测试的车辆,由于系统未感知到前方有行人,没有及时刹车,致使行人被撞死。[9]人们意识到由自动驾驶程序控制的车辆若存在设计漏洞或程序输入有误极易发生交通事故。如果是由人工操作的产品,发生事故时人类的控制程度则相对较高,如自然人驾驶的车辆在发生突发事件时凭借丰富的驾驶经验可能会采取应变措施避免损害发生。而通过程序指令来控制设备的运行,意味着将面临系统出错和“黑客入侵”劫持的危险。人工智能的风险程度没有规范的测试方法,失去控制的操作系统可能波及到的当事人十分广泛。如果遭到侵入或输入了错误的数据,智能算法就会失控,给不特定多数人的生命和财产带来危险,且在短时间内使人不能控制,损害程度极大。早在20世纪70年代,日本一家工厂的切割机器人就曾经导致工人死亡①世界上第一宗机器人杀人事件发生在1978年的日本。据记载,1978年9月6日,日本广岛一家工厂的切割机器人在切钢板时,突然发生异常,将一名值班工人当做钢板操作,最终导致工人死亡。参见新浪财经:http://finance.sina.com.cn/chanjing/gsnews/20150702/175722574804.shtml。,随后由人工智能引发的致死事件也不在少数。一般的科技成果应用尚可在底层技术不稳定的时候进行开发,因为有些应用对系统的可用性要求并不高,即使出现漏洞所带来的损失并非不可接受。但是人工智能的技术漏洞和应用不当可能直接损害人的生命法益,由此带来的损失难以估量。

四、分析反思:人工智能法律风险的责任主体辨析

人工智能作为一项技术,必须通过一定载体进行运用、展示和体现其具体内容,但在此应用过程中也可能致人损害,也可能遭到不法利用进而产生犯罪结果。人工智能的运用载体多种多样,可能是自动驾驶汽车、车间作业或进行某项服务的机器人[10]。关于人工智能的性质,有学者认为其实质是为人类提供服务的工具,没有独立的意思表示能力,不具有独立法律人格。也有学者认为,人工智能的行为由人类所控制,行为后果由代理人承担。但随着技术发展,有些人工智能可以做出独立的意思表示,能够自主的选择和判断,并不是传统意义上的、无意思表示能力的“工具”。而行为后果由代理人承担则没有体现承担责任的公平性。

沙特阿拉伯曾是世界上第一个授予机器人公民身份的国家,美国联邦法律将用于自动驾驶的人工智能系统看作司机。但是人工智能的搭载物、工作物是否具有责任能力,能够独立承担法律责任吗?人们为增进人类社会的福祉,运用相应的科技手段制造人工智能以模拟人类的部分行为,促进生产效率的提高和生活的便利。[11]因此,人工智能并非一般意义上的自然人,但却具备人的一些要素,人工智能以智能化为主要特征,但始终需要人类的设计和程序的编制才得以运行。

就现有的技术发展程度而言,人工智能的“深度学习能力”均是通过人为的设计、制造并开启程序后才具有的,尽管人工智能机器人可以实施驾驶、诊断、下棋、对话等行为,但人工智能基于数据分析和概率统计的决策方式与人类具有情感和意识的判断之间具有本质的区别[12]。单独的算法程序并不具有真正的意思能力,不能进行积极的自我认知和情感、意念输出,人工智能表现出的自我决策和自我提升实质上来源于数据的更新和逻辑的运算,并非是在动机驱动下做出的意思表示,它们所表示的仍是设计者、生产者或使用者的意思,人工智能本身只是“忠实的程序执行者”[13]。并且,人工智能工作物不能独立拥有财产,它们无法通过劳动、继承或赠与等方式获得财产,名下没有财产归属,即便有财产赠与到它们名下,也无法自主支配和使用,仍需要自然人或法人组织来帮助管理,无法承担民事上的赔偿责任。同时,人工智能的认知水平与人类的善恶、伦理观存在重大差异,不能像自然人一样识别自身行为的违法性,无法意识到自身行为的法律后果,只能根据预先的设定来感知是否发生系统错误,更不能对自己的行为进行改正,也不具有承担刑事责任的条件。[14]

综上所述,就目前的情况来看,人工智能本身并不能对自己的行为承担法律责任,在使用者没有操作不当,生产者和销售者遵守生产与销售的安全标准时,人工智能由技术漏洞所引起的法律风险依然须由设计研发该项算法程序的自然人、法人或非法人组织承担。智能算法的特殊性要求我们在现有制度基础上构建符合人工智能产业特点的责任承担机制,从而规范产业发展、保障安全。联合国教科文组织与世界科学知识与技术伦理委员会提出,可以采取责任分担的方式,让参与发明、授权和分配过程的参与者分担损害责任。欧盟议会法律事务委员会曾提出对人工智能产品进行强制保险,设立赔偿基金来分担风险,使受损方及时获得救济,同时减轻开发者和生产者的赔偿负担。可参考车辆年检制度对人工智能的应用成果进行年检,对发生的事故进行备案。值得注意的是,人工智能越来越展现出自主决策、深度学习等能力,若这些高智能化的应用成果受现有技术水平的限制风险不可预见或难以控制,笔者认为可以依据这种技术水平局限性、风险不可预见性等免除部分主体的责任,或予以适当减轻。

五、冲突协调:保障技术安全与促进科技创新的平衡

(一)刑事司法介入的谦抑性

科学技术会带来怎样的社会影响,有时我们无法事先预测。在这其中,法律既须有追究事故责任的一面(对过去的责任),也须有为了不发生同类事故而请求相关人员协助的一面(对未来的责任)。问题是,如何对该冲突进行调整,以及由谁来调整更为适当。

认定责任的基本规则,应当由法律法规事先决定。比起行业内更为灵活和松散的规则,用稳定的法律条文进行规范才是明智之举。不安定的责任所在,只会给技术研究开发带来更多不安。以法律原则或法律规则表示其责任的内容,只要不违背罪刑法定主义的要求,也是可取的。之所以这么说,是因为法律具有稳定性,反过来说,也会存在滞后性,无法迅速应对环境变化,立法者也未必了解特定领域的具体情况。如何制定这些行为规范,正是立法者未来的研究方向。如果人工智能的各项应用进一步普及,我们完全可以预料到,算法的行为和结果将会对不特定多数人的人身安全和财产利益产生影响,因此通过行政程序乃至刑事程序对此加以规制的必要性很大[15]。

但是,刑事司法的介入应具有足够长远的眼光,面对由算法漏洞而引起的致损和犯罪行为,我们不应因科技进步过程中的缺陷和疏漏而冒然发动刑罚权,坚持刑法作为“补充性规制”不法行为的基本原则,力求将立法的滞后性对新兴行业的不利影响降到最小,这是我们一贯坚持的刑法介入理念。[16]如果规制施加不当,就会妨碍研究人员和科技企业的技术创新与开发,阻碍本应由新技术带来的社会福利的实现,甚至会削弱国家科技实力和国际竞争力。而且大多数的技术人员和研究型企业,对刑罚的感应力有时会超出我们的想象。对于优秀的科技企业、饱含开发热情的研究人员来说,研究和开发就是他们的谋生手段,越是有能力使新技术的福音流传于世的人,对刑罚的感应力越大。刑事司法如果对技术开发所产生的疏漏大加惩罚,则可能会影响技术研发人员的日常生活,甚至破坏社会对他们的认同感。不难想象,当意识到这种可能性时,以自由的思考和创造为基础的研究和技术开发将出现萎缩。刑罚应成为守护公益的最后手段,从以上的叙述来看,至少在技术发展的初期,刑法作为规制的主要手段并不合适。

就目前来看,对人工智能的规制应主要由非刑罚的手段来承担,刑法则坚持介入时机的“最后性”,即把刑罚作为所能采取的“最后的手段”,只有在企业内部规定、行业自治规范、行政法规和民商事法律等都无法解决矛盾冲突时,刑法才有介入空间。[17]法的干预应在“降低对科技创新的萎缩效果的同时,实现法益侵害总量的最小化”。这种“功利主义”的思考并不意味着防范人工智能法律风险与刑法理论无关,相反,将技术创新过程中的失误和纰漏当做“被允许的危险”和“信任原则”等过失责任的阐释,也是这种思考的产物[18]。一言以蔽之,以刑法的谦抑性基本原则来看,其介入的时机和限度应审慎且克制。对于智能算法缺陷引起的事故,由于损失大、危险性高、事发突然,更需要及时停止运行程序、采取算法修复等措施,由机动性强的行业组织参与更有助于实现迅速应对。同时,可能涉案的技术问题与各行业的内部规章也有密切的关系,对个别案件应有针对性地加以处理,广泛听取意见,也可以针对风险的不同类型和程度进行划分,配以企业自决、行业自治等应对策略,只对于严重损害人民生命健康和公共利益的行为根据罪刑法定原则定罪处罚。

(二)促进风险自决与行业自律

“法不是全知全能的神,而是有限的知识”[19],基于现有立法的矛盾带来新的见解和思考,再以进一步的立法或司法解释消除引起的矛盾,不断地刷新着法的内容的不只有法律人。在“矛盾带来新创造”的过程中,与相关法的效力拥有最迫切利害关系的当事人的主张和对法律的回应至关重要,他们甚至预见或触发着学术讨论,而以多种观点的知识贡献实现法向期待的方向发展。因此,对于人工智能等新兴技术产生的法律风险,有必要强调政府和司法以外的社会主体的作用。比起司法机关,有时企业、专家等社会主体更善于应对技术问题,多元主体的参与和协作对解决人工智能法律问题至关重要。

纵观发达国家,具有灵活性的大众媒体、掌握专业知识和技术并能够调动大学和智囊团的各类研究机构,也就是所谓的“第三方委员会”,他们或分担社会期待,或承担调查和诉求反馈功能,通过多元化配置,各自发挥专业特色。而在我国,现实情况是很难期待专家集团自主解决问题和行业发挥自净作用,除了侦查机关以外,缺乏具有查明事实能力的组织。一旦侦查机关介入,就意味着进入刑事程序,使刑事司法无法维持退居后卫的状态。为了实现刑事法“退到后方”的理想,社会对专家团和拥有相关专业知识的行业团体的信赖是不可缺少的。假设发生了因技术漏洞引发的致人损害事故,或系统缺陷被外部侵入导致的犯罪行为,具有专门知识、参与了开发和运营的机构或个人是否要被追究责任,他们是否还能获得社会公众的接受和信任?如果他们不被信任,他们作出的修复等措施不被接受,那么在目前的情况下,只有国家行政和司法机关进行介入。相反,如果研发者及其行业能够被信任,他们的观点和措施就会抑制刑事司法的介入。人工智能技术的应用要想获得社会公众的信赖,就必须不断积累技术和经验,赢得用户和大众的认可,而能实现这些的正是研发者本身。为此,发挥行业自律能力,履行信息披露和风险预警的义务,并且完成事故发生后的说明责任和算法缺陷的修复与补救是不可或缺的。

六、路径选择:“被允许的危险”与延期起诉协议的适用

现行法律中,非人类的行为不能从人类的意志中分离出来作为规范性文件评价的对象。也就是说,非人类的行为如果不与人类的自由意志相关联,就被当作自然现象一样对待。因此,离开了开发人员和用户的自由意志支配,程序算法和其出现漏洞所引起的结果不能作为规范性文件评价的对象。但关于“被允许的危险”和“注意义务”的设定可以理解为具有自由意志的主体——人的附带现象。不论是否承认非人类程序行为的“自发性”,算法程序因为不能完全被控制的程序漏洞致人损害或涉及犯罪,都不应该立刻对研发者追究责任。这是因为,即使发生这样的事故,技术研发的目的是为了增进人类社会的福祉,另外,研发者根据技术漏洞作出重新设计和修整,有助于实现程序算法的“重生”,从而促进科学技术的完善。

日本学者笹倉宏纪认为,并不是符合构成要件的行为就一定要处罚,以康德式的必罚主义作为逻辑起点在此并无必要,也可以选择不起诉,组织事故调查委员会,优先获得防止事故再发生所需的预防信息[20]。但是,这一方向是否符合司法制度背后的国民期待,是否会引起不公平感也令人担忧。在民主讨论和专业知识的有效合作基础上,当法律的价值指向实现“人类美好生活”愿景的时候,我们与智能时代的风险是共生的。由具有民主基础的治理系统来适用法律,能够将总体危险控制在合理的范围。为了将以上考虑落实到法律制度中,延期起诉协议Deferred Prosecution Agreements(下文简称DPA)的适用,有可能成为过渡形式。

如果对算法程序的运用和革新是以实现人类更好的生存为目标,规制算法行为也是为了实现“人类美好生活”的目标,而非对人类存在方式进行再设计的制度。在DPA中,关于技术开发企业的协助调查,提供具体涉案行为的信息是适用延期起诉的要件。因此,这个制度也可以解释为,为了实现增进人类福祉和司法介入的平衡,而获取智能算法底层技术及其开发、管理的方法和体制等信息的手段。如果人工智能的开发、运营、管理都由法人来实施,可使其整体作为造成事故的“涉案者”,或以开发、运营、管理中具有高度盖然性风险的“不当行为”为构成要件。如果执行DPA,为了提供信息协助调查和督促程序“再设计”整改方案的制定和履行,有必要将起诉、行政规制、注册制度等联动起来。基本的方针是,将风险的管理制度化,在现行法律的范围内实现增进社会福祉的目标。具体来说,由行政机关和专家委员会合作,调整智能算法开发、管理、运行的标准,在出现事故的情况下,技术开发者及其团队参与调查合作,提供数据信息,按照相关监督部门的标准及时整改,避免损失的再次发生和扩大。

因此,以立法为基础,由行政机关和专家集团合作建立风险预警和评价监督体系是适于当前形势的选择。只要提供了充分的信息,使算法的危险保持在合理的范围内,即使由开发设计中的漏洞引起致损或犯罪结果,也不应该起诉技术研发者。如果风险控制没有达到预期水平,只要研发者承诺提供真实的信息协助调查,并对出现问题的系统进行重新设计,可以推迟起诉。考虑到新技术的“黑匣子”性,在开发和测试阶段平稳运行的算法程序,投入使用后才发现缺陷或产生故障,研发者往往无法事前预料。在这种情况下,如果立即追究责任,有可能会阻碍科技创新,导致人工智能新的应用领域不再更新和发展。为了避免出现这样的情况,即使在风险水平与预想不同的情况下,追究研发者责任也应慎之又慎。

新技术的“黑匣子”性,虽然离完全消除还很远,但正在慢慢被克服,存在漏洞或不当使用的数理模型,数据处理方法等,也慢慢被识别。不过,要将这些行为全部用法律进行规定,在技术急速发展的当下,是很困难的。对于参与调查合作、提供信息,进行整改承诺的技术开发者和科创企业,延期起诉可作为协调各方利益的有效方法。在这种情况下,关于整改的内容,应该由监督机关的代表对开发者提出的方案斟酌之后再做决定。现实的改善方法只有向参与者提出、向受法律和智能算法应用影响的人提出,才能确保正当性和有效性。因此,研发者及其团队对智能算法系统重新设计,改善相关程序应听取各方提议,行政、司法和监督部门的代表,行业专家、受害者和其他关系人,都应该参与其中。

猜你喜欢
责任法律人工智能
法律的两种不确定性
文明养成需要法律护航
使命在心 责任在肩
法律讲堂之——管住自己的馋嘴巴
《责任与担当》
每个人都该承担起自己的责任
2019:人工智能
人工智能与就业
责任(四)
数读人工智能