人工智能法律主体资格之研究

2021-01-03 03:52天津大学徐岩
区域治理 2021年43期
关键词:主体资格客体人格

天津大学 徐岩

关键字:人工智能;法律主体;法律客体

法律最为核心的功能是维护社会规范性期望的稳定,但人工智能潮流来临,对现有的法律制度提出了新挑战,最为核心的问题在于人工智能是否具备法律主体资格。主体资格也称为人格,是法律赋予其成为法律上的“人”,进而在法律关系中享有权利、承担义务资格,即作为法律主体应具备的法律资格。学界对于人工智能是否具备法律主体资格观点不一,当前探讨该问题的代表观点包括主体说、客体说和折中说。

一、人工智能的法律界定

(一)人工智能的概念

“人工智能”这一概念于1955年由约翰·麦卡锡首次提出,将人工智能定义为“制造智能机器的科学和工程”。随着科技发展,人工智能定义愈发多样,但可以明确人工智能与智力技能水平直接相关,具有能够独立于开发人员或用户的理解、学习和自主决策的能力。因此本文认为,所谓人工智能是与自然智能相对的机器智能,能够感知所处环境,根据环境变化自主作出反应。

(二)人工智能的特征

人工智能以算法程序为基础,以类似于人类的智能水平运行。基于此,人工智能主要具有但不限于以下特征:一是借助搜索解决问题。当人工智能解决问题时,程序设计并未提供具体的方法,而只是给出让人工智能能够识别解决方案的描述。二是能够独自进行机器学习。人工智能通过数据进行事实学习,并用学到的知识去适应新情况。比如新一代的阿尔法狗,不需要学习历史棋谱,更不需要参考人类现有知识,只借助自身就可完成强化学习和参悟。三是能够“理解”自然语言。通过对人类语言的理解、加工和启发来进行人机交互,进而实现人工智能与人类的实时对话。四是拥有强大的人工神经网络。人工神经网络是一个复杂的自适应系统,可以根据外界环境变化、信息流动等作出相应的反应和调整。

二、人工智能主体资格的学术探讨

(一)主体说观点及论证理由

持法律主体说观点的学者认为,随着人工智能在各领域的应用,为了迎接人工智能社会化应用的趋势,应当肯定人工智能的法律主体资格。在民事领域方面,非自然人早已突破了自然人的范围局限,“非人可人”趋势日益明显,也为人工智能取得法律主体资格提供了理论基础。

应当指出,在法律主体资格的问题上,只存在“是”或者“不是”两种回答,并不存在模糊的中间地带。对于某个实体而言,即使其只享有部分权利义务,或者是享有的主体地位不充分,这一逻辑的前提,都在本质上承认了其本身的法律主体资格,而对于存在的部分瑕疵,则只是程度问题,并不影响对本质的判断。因此,基于上述思考,本文认为将这种观点放于主体说的讨论中较为恰当。

1.有限人格说

有限人格说认为,人工智能目前虽然应用于诸多领域,但其水平和人类智慧相比远远不在一个层级。但在实际应用中,人工智能已具备部分法律主体的必备要素,因此人工智能只能在有限的范围内享有权利、履行义务,是有限的法律主体。郭万明在其文章中指出,随着智能程度的提高,人工智能独立性增强,具有获得法律人格的可能性和法理基础。第一,“非人可人”的功利主义表明,法律承认主体地位是基于经济生活的客观要求;第二,承认人工智能的人格,能避免具体人格缺乏带来的现实问题;第三,人工智能有独立享有权利、承担义务的必要,其法律人各有独立的存在价值。因此,不应局限于自然人和法人这两种法律人格,而应该以更为多元的主体设计,赋予不同程度的权利、责任。袁曾指出,不同于以往的传统工具,人工智能具有高度智慧性和独立的行为决策能力,性质上可以定性为能独立表示意思的特殊主体。随着人工智能侵权事件频发,人工智能有必要设计成具有可责性和可验证性的实体,不能够因人工智能非人类,就可以逃脱法律制裁。但是,即使人工智能发展到了具备自主意志的程度,其内部构造、生产方式等方面与人类仍有本质差别,本质上是人类创造的工具,因此只能赋予其有限人格。

2.拟制人格说

持有拟制人格说观点的学者认为,人工智能具备人类思维能力,因而超越了一般的“物”的概念,但又不同于生物学意义上的人,本质上不能摆脱为人类服务的工具角色,因此对人工智能来说,其既不是工具也不是人,就可以像法人一样,为其在法律上拟制一个新的主体,赋予其类似于自然人的法律地位。

张绍欣从法律主体概念回归到法律位格概念,论述了古典罗马法中从上到下的“位格减等”制度。罗马公民享有三类身份权:自由权、市民权、家族权,其中的一种或者两种丧失便成为法律位格上不完整的人,在法理上以“位格减等”的方式把人转化为丧失三类身份权的自动化工具。接着以“位格减等”的反向逻辑“位格加等”为视角,解读现代法人制度如何实现法律主体意义上的“位格加等”:拟制人设组织的法律人格,赋予其一定法律位格的主体地位,进而明确其法律责任,享有既区别于自然人又有别于法人组织的法律位格。当然,人工智能作为人造物,实定法律地位也必然低于人类。

基于法释义学的讨论,陈吉栋分析了如何运用“拟制”这门法律技术,将实为权利客体的人工智能认定为民事主体,在“拟制”技术的运用下,具体问题也不应一概而论,比如,对于知识产权归属的实际问题就应交由现行法规进行分析,只要人工智能创作的作品符合知识产权法的作品要求,便无需进行智能测试,即可将其视为法律主体。

3.电子人格说

韩国制定了《机器人基本法案》,规定政府制定机器人伦理,政策赋予人工智能电子人格地位,从而享有相应的权利义务,进而确认人工智能致害的责任承担方案,人工智能设计方、制造商以及用户都应遵守这一政策,从而提升对于人工智能的伦理关怀。

郭少飞在其文章中认为,人工智能法律主体一方面拥有人类的智能特征,另一方面本质上是电子化技术构建的机器设备,因而可命名为“电子人”,其主体性通过权利能力来体现,而智能程度、理性程度影响权利能力的范围。“电子人”人格本质上是“人工类人格”,体现的是其辅助人类的工具价值,因并不具备自然血亲关系,亦不会产生社会结构,因此目前可享有物质性人格权和较为完全的财产权,而没有必要具备精神性人格权和身份权。类似于法人的设立与终止,“电子人”获得法律主体资格也需要经过严格规范的程序。作者在文章中给出的思路是,“电子人”以登记设立为主,由制造商等监管者提出设立申请,经过登记机关审核登记方可成立。

(二)主体说的评价

主体说的论证思路是由未知探需知、从结果推原因。学者对是否赋予人工智能法律主体资格进行了价值判断,认为应将人工智能纳入到法律体系中,进而在价值判断的前提下进行了选择,强调赋予人工智能法律主体地位的必要性,并探索人工智能成为法律主体的可能性。这也可以看出,主体说很大程度上是价值判断的选择结果,而忽略了从价值判断到得出结论这中间的论证过程和解释方法,因此论证并不完善。人工智能的活动本质是自身算法决定行为,并不具备人类所特有的自主思考能力,所以如何认定其独立人格?在一定时期,现有法律体系可以解决人工智能的致害纠纷,那是否有必要将人工智能纳入民事主体法律体系?这些都是主体说需要完善的问题。

(三)客体说观点及论证理由

持有客体说观点的学者认为,人工智能在本质上是人类的辅助工具,不具有法律的人格属性,因而不能赋予其法律主体资格。人工智能不具备人类肉体的生理构造,因而无法独立承担责任,无法独立拥有财产,亦不能像法人一样被“拟制”为法律主体。同时考虑到“人类中心主义”和“智能机器人工具论”,应在法律上将人工智能定位为客体。

1.绝对客体说

刘练军在其文章中指出,法律主体是人且只能是人。即使是法人,其本质也是一种有意识的人组成的集合体,而非随机生成的松散产物,作为一种目的性存在物,其权利义务具有独立性,享有权利承担义务的社团本身而非全体成员,此乃法人取得法律人格的基本条件。而人工智能缺乏基本的认知能力,作为其“大脑”的算法本质上是一套符号运算程序,其所有动作不是源于心理认知意志,而是来自大数据和算法的机械指令,因而不属于法律意义上的行为。时方通过检验刑罚目的实现与否,反面论证得出了人工智能没有必要认定为刑事主体的结论。从刑法惩治与安抚的功能来看,人工智能本身既无生命也无财产,亦无对行动自由、积累财富的客观需求,同时也无法产生类似于人类的肉体痛苦感和心理负罪感,故无法通过刑罚惩罚手段达到对被害人安抚的目的。从刑罚矫正功能来看,犯罪是行为人主客观要件相统一的结果,而人工智能的行为是程序运行的结果,其主观恶性难以认定,自然无法作出社会危险性和再犯可能性的判断,教育改造的目标也难以谈起。

2.特殊物说

刘洪华认为,人类之外者,本质皆是人类之工具。人工智能不具备人之理性,不能取得类似于自然人的人格,赋予其主体地位也无实际益处,故不能取得类似于法人的独立地位。鉴于人工智能的自主性和智能性,人工智能应被定义为法律上的特殊物而处于法律客体地位,同时根据智能程度对人工智能进行分类规制。

(四)对客体说的评价

与主体说相反,持有客体说观点的学者更注重解释作出价值判断的过程,即从已知条件推导结果。人工智能在根本上不符合法律主体的成立条件,因而不应纳入现有法律主体体系,亦没有纳入法律主体体系的必要。但是在客观说结论的推导过程中,存在的逻辑疏漏是自然人、法人、非法人组织是我国现行民事法律制度下的三类主体,而这三种民事主体何以成为民事主体?三种之外的主体何以不能成为民事主体?在民法规定中,并未对自然人、法人、非法人组织的民事主体参与资格作出解释,导致“民事主体成立根据”存在空白,也直接关乎到人工智能法律主体资格的最终答案。

三、人工智能的法律保障

虽然人工智能的法律主体资格尚存争议,但我们应在研究分析其法律主体资格的基础之上,为人工智能选择进行合理有序的制度设计,形成以人工智能技术发展与保障为主题的社会治理体系,笔者提出以下构想:

(一)明晰人工智能法律规制范围

根据人工智能发展的阶段性特征,推进其权利、义务、责任的法制化。一方面,根据人工智能研发应用的现实需要,创制人工智能的基础性法律,以弥补现有法律体系的缺失。另一方面,对于已在专门领域如自动驾驶等领域成熟应用的机器人,制定专门的管理规定,以明确法律责任。同时,也应制定一套完整的人工智能行业规范,作为内部约束的行为准则,为人工智能的研发与应用确定框架性制度,实现人工智能法律标准一体化。

(二)建立人工智能分级分类监管机制

就现有监管体系而言,我国是领域性的分类监管模式,监管力量分散于专门行业。人工智能监管对专业知识的要求程度较高,因此可设立独立的人工智能监管机构,统一对人工智能研发、应用等方面进行监管,从而避免职能推诿,提升监管效率。综合考虑人工智能的智能水平、社会风险和论题难题等因素,对生产型机器人、服务型机器人等进行分级分类监管,从而实现分级监管、重点治理。

猜你喜欢
主体资格客体人格
社会公正分配客体维度与道德情绪的双向互动
共产党人的人格力量
你是回避付出型人格吗?
远去的平凡背影,光辉的伟大人格
浅议犯罪客体
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
概述奥地利普通术语学中的对象客体
漫画之页