人工智能医疗侵权纠纷中的责任承担与举证分配

2024-05-09 23:24
关键词:义务证据人工智能

林 洧

(中国人民大学 法学院,北京 100872)

一、引言

如今,人工智能赋能普惠医疗逐步成为现实的场景,庞杂的医疗数据也为依靠深度学习的人工智能提供了大量的数据来源。许多医疗机构广泛地利用医学影像识别与智能诊疗来降低误诊率,甚至辅助医生的手术机器人也开始投入使用。智能医疗场景的应用在我国诸省、市开始推广,利用人工智能提升整体医疗服务水平具有广阔的前景,经济与科技发达省、市的人工智能医疗应用场景更为成熟[1]。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》强调推进智能医疗装备等智能产品的设计与制造,我国人工智能医疗产业布局不断优化已是大势所趋。但同时,人工智能产业的迅速发展不仅会对社会伦理或道德体系造成一定的冲击,还会放大因法律滞后产生的法律漏洞,甚至直接冲击当前的法律体系[2]。有关人工智能医疗最大的争议也主要是如何在人工智能医疗监管中充分尊重患者的权利自主性,以及在侵权救济中设置决策主体的注意义务与归责标准[3]。人工智能医疗在提升医疗水准的同时也要求提升法律上的注意义务,医生或医院需要承担更高风险的过失责任(过错责任)。

事实上,人工智能医疗侵权纠纷的类型多样,涉及产品责任、消费者保护、医疗过失责任等内容,责任主体与侵权损害原因也各不相同。鉴于此,本文首先在实体法上厘清不同主体的损害赔偿责任,并进一步确定相关损害责任的具体性质(过失责任或无过失责任);其次,对人工智能医疗侵权纠纷的举证责任体系进行分析;最后,完善人工智能医疗侵权纠纷中的举证责任规则。

二、侵权归责:人工智能医疗侵权责任体系的复杂性

(一)侵权责任复杂的溯因

1.法律属性具有复杂性

人工智能因机器学习而具有人格化的特征,可介入医疗行为并在其中发挥辅助性的作用。人工智能医疗与传统医疗器械的区别在于后者仅提供给医生测量数据,前者却在此基础上进一步分析相关医疗数据并给出意见,事实上已经接近医生在医疗行为中的角色。人工智能技术本身的法律地位仍存在争议,其或是法律关系的客体(客体说),或是法律关系的主体(主体说),或是强人工智能方具有法律人格(折衷说)。无论如何,至少在奇点来临前,人工智能的法律人格仍旧有限,人工智能只能发挥智慧型工具的作用。对此,需要适用“刺破人工智能面纱原则”,对人工智能背后的控制人进行法律规制,以尊重人工智能的权利义务有限的客观事实[4]。人工智能在法律层面无法独立承担责任,但可在事实或技术层面配套可问责的机制,这在计算机程序设计上要求能够为人类所掌控,并能够留存相关数据作为定责依据。

在人工智能医疗侵权纠纷中,人工智能医疗并非取代了传统医疗器械,而是取代了医生的价值。例如,人工智能医疗在医疗影像判读等特定领域能够胜任医生的岗位。但是,在既存法律体系下的人工智能却无法独立承担责任。由此,人工智能的发展模糊了人与工具之间的界限。人工智能医疗的法律规制思维是一种兼有规制传统医疗器械与规制医生的双重思维,技术规制层面具有复杂性。

2.医疗侵权责任的分配具有复杂性

人工智能产品侵权责任分配主要有四种路径,即产品责任说、高度危险责任说、用人者责任说与法律主体责任说[5]。人工智能产品虽具有部分自我意识并产生替代人类部分行为的现实效果,但目前仍不是法律意义上的“人”。在现实中,人工智能导致的损害问题可能是由侵权人非法控制造成的损害,也可能是人工智能自身产品瑕疵造成的损害。前者需要遵循技术中立原则,未尽善良管理义务之人需要承担替代责任;后者则直接适用产品责任原则即可,适用《中华人民共和国民法典》(以下简称《民法典》)关于产品责任的相关规定[6]。在这个角度,人工智能医疗使医疗行为不再仅是患者与医生之间的行为,可能在此之外还有人工智能或其控制人的行为,责任承担主体会比传统医疗行为更为宽泛。

其一,当前的人工智能医疗器械仍属于医疗器械,因人工智能瑕疵导致的医疗事故依《民法典》产品责任的规定进行侵权责任的分配。在外观上,人工智能执行的是医生的诊断治疗决策,可能被认为属于医疗行为,适用医疗纠纷的规定进行侵权责任的分配。人工智能产品缺陷的认定十分复杂,需要考虑设计上的“风险—效用”规则、制造上的“对预期设计的偏离”标准、警示方面的“合理充分”标准及跟踪观察方面的综合判断要求等内容[7]。

其二,医生进行人工智能医疗时,可能因违反注意义务而形成过失。其中,在因人工智能错误导致的医疗纠纷中,医生在客观上缺乏对人工智能的控制性,而过失本身又要求对损害结果具有可预见性,且相关主体需要有回避义务,但人工智能算法的不透明性无疑阻断了这种预见性,若过失产生的损害责任由医生负担,难免有对医生过于严苛的疑虑。

(二)侵权责任的域外应对

人工智能医疗需结合具体的智能医疗装备才能实现,即人工智能作为计算机程序必须依附于具体的医疗器械。基于此,域外法通常有两种问题意识:第一,智能医疗装备作为一种商品,其制造者是否需要承担产品责任(无过失责任);第二,人工智能程序的制造者或所有者是否需要承担产品责任。

1.美国不适用产品责任

美国《侵权法重述·第二版》第402A条要求产品销售者对产品缺陷采取严格产品责任,采纳消费者期待标准判断产品的不合理风险,并将举证责任负担分配给更容易接触到证据的被告。美国《侵权法重述·第三版》第6条对药品与医疗器械的侵权责任进行规范,要求瑕疵同时符合“损害存在可预见的危险”与“损害充分超过可预见的治疗利益”。这实际上已非产品责任,而是过失责任。承此,美国人工智能程序的制造者或所有者无需承担产品责任,设计缺陷与警示缺陷不属于产品责任的范畴[8]。一方面,人工智能医疗具备医疗属性,本质上属于医疗服务,美国产品责任仅适用于产品而非服务;同时,作为“博学中间人”的医生更了解其中的医疗风险,负有风险告知责任,智能医疗设备制造者并无直接的风险告知义务。另一方面,人工智能程序设计并非有形物,即使算法错误,也不属于美国《侵权法重述·第三版》第19条规范的客体范围,不能适用产品责任。

2.日本适用产品责任

日本《制造物责任法》并未免除医疗器械制造者的产品责任,智能医疗装备的制造者需承担产品责任。不仅如此,在人工智能配合医疗器械运作时,人工智能程序的制造者或所有者也需要承担产品责任,并落入无过失责任的归责范畴。在人工智能程序的设计者属于生产者的情况下,即使以技术无过失进行抗辩,也无法得到责任免除[9]。若设计者独立经营,则需要主张瑕疵是不可预见的,并在此基础上承担无法发现瑕疵的举证责任,才能不为人工智能的行为承担责任。另外,在人工智能纯粹作为软件程序运作而无需依托医疗器械时,人工智能程序的制造者或所有者不必承担产品责任,只承担一般过失责任。

3.侵权判断的具体标准

人工智能医疗对侵权判断具有反作用,也推动医疗侵权责任规则的发展。医生对患者进行诊断医疗时,若违背最低限度的勤勉、谨慎、专业等要求而造成患者损害,则医疗过失成立。其中,认定医疗过失行为的关键在于是否违反注意义务。依美国传统侵权法理论,若人工智能医疗对健康的诊断或治疗事实上比普通医生更可靠,则可能发生科技改变习惯的情况,并提升医生注意义务的标准[10]。当然,从美国医疗诉讼的实践上看,医生是否在医疗过程中达到理性医生的标准,属于陪审团的判断范畴;但至少人工智能在介入医疗过程中能动摇一般大众对医疗标准的认知与期待,应当予以承认。

日本法以临床医疗实践中的“医疗水平”作为认定医疗过失的标准,未达此标准时则有过失。在具体个案中,法官会权衡医疗知识的普及性、专业性、地域性及医疗机构的规模、性质进行综合判断。日本行政机关虽已明确因为人工智能的错误导致的医疗侵权事故由医生承担最终责任,但人工智能的错误并非为医疗机构所广泛知悉时,利用其进行医疗诊断的医生并不会被追究过失责任[11]。医生作为人工智能的利用者,对人工智能具有管理责任,类推适用动产占有人责任,其中涉及举证责任的推定问题。美国和日本正积极通过法律调整人工智能医疗风险承担关系,人工智能医疗基于深度学习而获得的“自主性”使其在某种程度上管控着医疗行为,进而影响法律标准的认定。

(三)本土的侵权责任分配

1.我国的医疗侵权责任体系

依我国法律规范与学界主流见解,人工智能本身仍旧是法律关系的客体,人工智能医疗侵权并不会动摇我国现有的侵权责任分配体系。根据我国2021年修订的《医疗器械监督管理条例》第103条的规定,医疗器械运行所需要的计算机软件也属于医疗器械。在我国语境下,作为计算机软件的人工智能属于医疗器械,因人工智能瑕疵导致的医疗事故,也有直接适用产品责任的解释空间。因此,人工智能程序的制造者或所有人也属于我国产品责任的适用主体范围。作为商品的人工智能程序还应当符合合理期待之安全性的要求,这种安全性要求需契合时代的科技水平与专业水平。由上述可知,医疗器械侵权具有一般医疗侵权与产品侵权两种属性,前者适用过失责任,后者则适用无过失责任。

随着侵权法理论与实践的发展,医疗器械与药品等侵权逐渐从一般医疗侵权中独立出来并走向产品侵权。医疗器械侵权的本质是产品致害侵权,这种见解能够更好地保护患者的权益[12]。我国不同于美国,服务也被纳入产品责任的范畴,即使是具有公益性的医疗服务,也同样采取无过失责任进行规范。无论是医生还是患者在使用智能医疗设备时,若非因设备本身的缺陷,而是由于自身过失导致的损害,则由相关的与有过失的主体承担损害赔偿责任。若是因智能设备自身缺陷导致患者遭受损害,则应由医疗机构先行赔偿,但医疗机构之后享有对生产者的追偿权。原因在于,依据《医疗技术临床应用管理办法》第6条的规定,医疗机构需要对人工智能医疗的临床应用和管理承担主体责任,智能医疗设备属于辅助性地参与医疗活动,医生对这种辅助工具的诊断具有核查义务。同时,有学者指出,以ChatGPT为代表的生成式人工智能技术具有广泛的用途,为避免对程序设计者造成过大的责任风险,不宜采取产品责任的归责路径,原则上应采取一般侵权的归责路径[13]。例外的是,生成式人工智能被集成至某硬件产品中或与硬件产品的功能具有密切的联系,则仍应采取产品责任的归责路径。在此意义上,当前的人工智能医疗仍属于以产品为主的应用,适用产品责任具有可行性。

2.产品责任下的责任主体

在产品责任的背景下,我国人工智能医疗侵权的责任主体呈现宽泛化与多元化的态势。依我国《民法典》第1223条规定,因医疗器械缺陷造成患者损害时,医疗器械的生产者和医疗机构都是医疗损害责任的承担主体。但最高人民法院《关于审理医疗损害责任纠纷案件适用法律若干问题的解释》进一步扩张了《民法典》的主体范围,除了医疗机构与医疗产品的生产者,医疗产品的销售者也是责任承担主体。原因在于,不同于《民法典》“医疗损害责任”章的条文规定,销售者承担的责任属于“产品责任”章的内容,二者因为法律对侵权行为的类型化而分立。我国司法解释则进一步明确了我国司法实务的主张,人工智能医疗侵权兼有医疗损害责任与产品责任的双重属性,故而相对于《民法典》的规定有主体范围扩张的情况。

在由人工智能引发的医疗事故中,人工智能的生产者需要承担产品责任,因科技水平或人类认知水平的限制造成的医疗意外除外。除了人工智能的生产者外,人工智能的使用者主要是医务人员。结合医务人员在因人工智能引发的医疗事故中的过失情况,医务人员未尽注意义务时需承担过失责任[14]。现实中的人工智能医疗行为往往更为错综复杂,一个医疗侵权损害结果可能是无意思联络的多个行为共同促成的,责任主体也因此多元化。例如,在人工智能医疗影像诊断侵权纠纷中,相关的侵权行为就属于典型的多数人侵权的情形,并且属于“间接结合”的分别侵权行为[15]。因为,人工智能医疗的影像错误诊断本身只是起到辅助性的作用,并不会对患者构成医疗损害,必须结合影像科医生的诊断与临床医生的治疗,才能最终对患者构成医疗损害。至于责任主体内部的损害赔偿额度,则需要另行依据多数人侵权的“原因力”规则进行分配。

由上述可知,我国人工智能医疗侵权纠纷存在医疗损害责任与医疗产品责任的双重结构。人工智能在医疗中仅具有辅助性地位,医务人员仍旧是相关责任承担的主要责任主体,前者在客观上发展了后者的义务内涵。一是重构理性医生标准,医疗人员应履行适当的判断义务;二是强化医务人员的特殊告知义务,医务人员应向患者警示人工智能医疗的算法与其他产品缺陷[16]。在此责任分配体系下,当前人工智能医疗法律规制的重点表现在三方面,即在前端强化医务人员的主体责任,在中端尊重患者的知情同意权与自主决定权,在后端注重产品责任与医疗过失责任的分配与认定[17]。这些也是未来我国在实体法层面对人工智能医疗责任分配体系予以完善的有益参考。

三、举证回归:人工智能医疗纠纷中举证责任的分配

(一)原告的举证责任分配

证据裁判主义要求依证据进行案件事实的认定,诉讼的成败常取决于当事人在证据攻防上的结果。举证责任制度就是在法律上分配由何方当事人承担因案件事实真伪不明产生的裁判上不利后果的制度。举证责任的分配常被认为属于实体法的问题,罗森贝克创立的规范说也要求与实体法上的法律要件结合以分配举证责任。因此,研究人工智能医疗纠纷中举证责任分配的前提是厘清实体法上侵权责任的性质及其认定规则。

因我国将人工智能医疗侵权纠纷视为具有医疗损害责任与产品责任两种性质的纠纷,人工智能医疗侵权纠纷属于请求权竞合(责任竞合)的情形。我国实务通说对此采取“择一行使、择一消灭”模式进行处理,允许两个请求权一并交由受害人在诉讼中选择其中一个行使,两种侵权在举证责任方面存在差异[18]。虽然两个请求权不得同时实现,但我国司法实务允许当事人在其中一个请求权被法院驳回时,就同一事件依另一请求权再行起诉,寻求另一种法律性质的损害赔偿救济。在类推适用《民法典》第186条规定时,患者作为原告可择定其中一种请求权进行民事诉讼的证明活动,患者在其中所承担的举证责任是不同的。例如,在人工智能医疗损害责任的背景下,患者仍需在优势证据标准下证明医疗机构没有达到诊疗注意义务的要求,证明侵权中的过失要件;在产品责任的脉络下,特殊情况下的患者可遵循高度危险责任下的无过错归责原则,由生产者证明产品不存在缺陷[19]。二者在证明要件及证明程度上存在明显的差别。

患者若以医疗损害责任作为请求权基础,则需要承担过失责任下的举证责任。根据“谁主张,谁举证”的一般规则,患者需要承担四个要件事实的举证责任,即侵权行为、过错、损害及因果关系。虽然学界对于医疗损害责任的举证问题存在过错责任说、举证责任倒置说等不同见解,但实务中仍采取第一种主张,立法也考虑到医疗行为的专业性与特殊性,为了避免过错推定对医学技术的阻碍,确认了依过失责任的归责方式进行举证责任的分配[20]。患者在这种侵权损害赔偿诉讼中需要承担较高的举证责任,败诉的风险较大。相较于此,患者因人工智能错误受到损害,依产品责任的请求权基础寻求诉讼救济时,其承担的举证责任则较轻。

在人工智能医疗产品责任的场合下,患者并不需要就被告的过失进行举证,只需要对人工智能的缺陷、遭受的损害及其因果关系进行举证即可。人工智能存在缺陷是产品责任的核心,产品无缺陷时即无产品责任。同时,虽然我国法律与司法解释并不支持缺陷产品的举证责任倒置,被告仅对免责事由承担举证责任,但司法实务常常从消费者权益保护的角度进行举证责任倒置或降低证明标准,只要求原告提出表面证据[21]。尤其是面对人工智能这种前沿科技的产品,要求患者对其缺陷进行充分的举证并不现实,提出缺陷的表面证据就应当认定完成缺陷的举证。由此,对于人工智能医疗侵权诉讼,患者主张产品责任所承担的举证责任较医疗损害之责任会更轻,胜诉的可能性亦会更高。

(二)被告的举证责任分配

1.医疗损害责任的举证责任

在医疗损害责任诉讼中,若原告已达成过失责任的举证要求,被告可以对相关法律要件提出反证,使原告所提出的证据无法达到证明标准的程度。此时,依举证责任转移规则,原告将继续承担相关法律要件的举证责任,其中的因果关系认定多依靠医学鉴定,而推翻因果关系本身并不容易。因为医疗损害责任属于过失责任,被告可以通过举证自己完全履行对人工智能医疗的管理义务与对患者的合理诊疗义务,因并无过失而不需要承担医疗损害责任。例如,人工智能得出的医疗分析结果认为患者需要进一步治疗,医生诊断后却得出相左的判断,因此对患者造成的损害并不能直接表明医生存在过失。医生若有合理忽略人工智能分析结果的医学上的论据支持,则并不构成过失。

即使是在人工智能医疗中,医生是否具有过失仍旧取决于其专业判断是否符合医疗常规或当前的医疗水准,而并不在于其是否与人工智能的判断不一致。盖因医疗常规或医疗水准是在实证医学证据的基础上形成的,相较于人工智能的诊疗判断更具有合理性,法律对其也更具有合理的期待性。当然,对于未经过充分医学验证的医疗常规,即使医生遵循该医疗常规,也不能直接主张无过失,此时则需要结合人工智能的意见、当事人的病情等具体情况判断其是否符合注意义务的标准。这种判断标准也与《民法典》第1224条的立法意旨相符合,即在紧急情况下医生已经尽到合理诊疗义务或限于当时医疗水平难以诊疗,医疗机构不承担赔偿责任。人工智能医疗与传统医疗对于过失的认定并无本质区别,判断被告是否具有过失仍旧以传统医疗中经过充分验证后的医疗常规为判断标准,在证据效力上,人工智能的诊断意见通常无法对抗前者。

2.医疗产品责任的举证责任

在产品责任的诉讼中,被告需要对不存在因果关系或不存在产品缺陷承担举证责任,借此进行无须承担产品责任的抗辩。在产品的缺陷问题上,被告需要对人工智能不存在缺陷进行举证,证明人工智能软件符合安全性的合理期待,若举证成功则无需承担产品责任。其中,人工智能技术发展迅猛,固然在出厂时被告未知晓人工智能医疗的安全风险,但若客观上能够在患者使用前预知相关风险,则该风险抗辩并无效力,产品仍属于存在缺陷的范畴。在人工智能医疗侵权纠纷中,被告可以通过主张《中华人民共和国产品质量法》第41条规定的三种客观上不可期待及时发现产品缺陷的免责事由,使自己免于承担产品责任。但是,复杂之处在于人工智能具有深度学习的能力,经过大量的数据分析后可能产生某种超出软件设计者初衷的结果,此种风险可谓是人工智能技术特征使然,是其潜在的固有风险。若该风险属于人工智能的缺陷,则因此导致的损害都无法主张产品无缺陷。这种因为机器学习导致的新的自主决定风险,其举证责任并不适合由被告中的医疗机构或原告承担,而需要由最有可能控制此种风险的生产者或软件设计者承担。

基于此,人工智能医疗侵权诉讼的被告需要遵守交易安全义务,承担及时告知与警示的义务,并对这些义务的履行承担举证责任。原告对人工智能医疗具有合理的安全性期待,这种期待应当受到法律保护,原告不需要承受较大的举证负担。法律对于自主决定风险的认定是,只要因此对原告造成损害即推定原告符合表见证明的要求而完成举证。另外,因为被告承担的是产品责任,一般侵权的免责事由,如原告自己的故意或重大过失、第三人过错或不可抗力等并不能免除被告的责任。可见,在产品责任诉讼中,被告需要负担较重的举证责任,这也是产品质量法与举证公平的要求。

四、举证完善:人工智能医疗纠纷中举证规则的重构

(一)理论端:危险领域说的适用

危险领域说来源于德国的民事诉讼法,是对规范说的一种修正。为了落实举证公平的理念,该理论要求对加害人就危险领域的举证责任进行重新分配。具体而言,加害当事人处于危险领域而更容易接近证据,相关的举证责任需要由加害人承担。其本质上就是基于武器平等的理念,在损害原因处于加害人控制范畴时,加害人需对此承担举证责任。在人工智能医疗侵权诉讼中,许多证据都是处于加害人可以控制的范围内。例如,人工智能的算法处于设备的生产者或软件的开发者控制的范围内,具体的医疗数据则处于医疗机构的控制范围内,这些都可能构成损害原因。危险领域说则要求此时进行举证责任的倒置,由被告负担不存在这些损害原因的举证责任。可见,危险领域说的实质就是对证据偏在情形下举证责任的调整,因此产生举证责任倒置的效果。

人工智能医疗侵权纠纷适用危险领域说的必要性源于人工智能医疗中存在的人工智能属性与医疗属性。在人工智能产品责任纠纷中,算法和数据具有封闭性的特征,这种不公开性造成了所谓的“黑箱效应”,生产者或软件设计者之外的主体都无法知悉算法的具体内容。技术与信息的不对称导致双方当事人与证据的距离不同,原告基本不可能对人工智能的程序运行与决策进行还原。为了实现双方当事人在举证能力上的实质公平,需进行举证责任的倒置,由被告承担人工智能不具有产品缺陷的举证,这也与被告对风险的预见及控制能力高的特征相吻合[22]。正因如此,对于非主体性人工智能的侵权证明问题具有实施举证责任倒置的必要,这也与我国产品质量责任与管理者责任中的举证要求保持一致[23]。基于此,原告应当只提供因人工智能造成损害的证明即可,被告需要承担不存在产品缺陷与不存在因果关系的举证责任。

同时,人工智能医疗所需要的各种患者个人信息及其他医疗数据,也大多由医疗机构所垄断,数据偏在于医疗机构一方。医疗活动的特殊性使得人工智能医疗也有适用危险领域说的余地,毕竟医疗过程全然处于医疗机构的控制之下,如果人工智能导致的损害是在医疗机构所控制的风险下造成的,举证责任也需要分配给医疗机构。基于此,德国实务有两类案件适用危险领域说:第一类是医疗相关事项安排不完善导致的损害,比如设备或人员调度不合理导致的损害;第二类是医疗设备不符合使用状态导致的损害,比如医疗设备使用不当导致的损害[24]。智能医疗设备通常都是由医疗机构所控制的,患者在使用前无法接触,医疗机构负有更高的注意义务,符合危险领域说的适用条件。进而,融合算法特性与医疗特性的人工智能医疗具有双重危险,适用危险领域说的举证责任分配机制也具有更充分的正当性。

(二)证明端:举证责任减轻的路径

面对人工智能医疗中存在的证据偏在、当事人对技术控制力之不平衡等情况,民事证据法为落实武器平等原则,需要引入举证责任减轻的机制。借鉴德国的重大医疗瑕疵理论,人工智能医疗可在此基础上发展出“重大人工智能医疗瑕疵理论”。在人工智能算法存在重大瑕疵时,原告所受的损害与人工智能重大瑕疵之间的因果关系证明需要被减轻,即法院应当推定因果关系成立,并转由被告负担推翻这种推定的证明责任。对人工智能的这种重大瑕疵的判定,表现为其明显违反人工智能相关技术规范,并发生客观上难以理解的人工智能错误。这种举证责任减轻的方式,并非为了惩罚产品生产者或软件开发者不履行其注意义务,而是因为人工智能技术在重大瑕疵的情况下常发生难以厘清的因果关系,原告常陷入举证困难。相较于此,被告存在技术上的优势,更可能厘清其中的因果关系,故而减轻原告的举证责任,要求被告承担更重的举证负担。面对难以厘清的技术性之因果关系,应当减轻原告的举证责任,解明因果关系的不利益由被告负担也较为公平。

在人工智能医疗纠纷中,除了技术性特征导致的举证责任减轻以外,也有行为导致的举证责任减轻。一方面,人工智能医疗纠纷中可以适用表见证明规则。这是一种减轻原告举证责任的方法,只需要证明某一客观存在事实,法院在该事实的基础上,借由一般生活经验能够推定另一重要待证事实的存在。例如,利用微型手术机器人对患者进行手术后,手术部位遗留了本应取出的微型手术机器人或者纱布等其他医疗品,能够直接推定医疗机构具有过失。事实上,针对过失行为的举证,通常需要结合常识判断来推定过失,而非提出直接证据。这种推定也有一定的要件要求,例如原告不存在故意或者原因力,以及被告对损害的发生具有排他性的控制力。

另一方面,被告方发生妨碍原告使用证据的情形,例如将相关医疗数据进行损毁或隐匿,也可推定相关证据所欲证明的事实为真实。此时并非举证责任的倒置,而是法院审酌妨碍情形之后,降低了自由心证证明度的要求而认定事实为真,属于举证责任减轻。例如,患者要求医疗机构提供人工智能诊疗记录,但医院无正当理由拒不提供,违反了诉讼法上证据调查的协力义务,法院可以推定患者欲举证的事实为真实。行为导致的举证责任减轻相当仰赖法院的自由裁量,个案的具体情况、证据的重要性程度皆不相同。举证责任是否减轻及减轻的程度,并无法律上的必然性,而是取决于法院依照个案情况进行的自由裁量。

(三)法院端:证据调查机制的完善

无论是因人工智能医疗的证据偏在,还是算法本身的不透明性,法律都很难期待原告有充足的证据收集能力。对此,法院、当事人及当事人之间发现真实的权能与责任需要重新分配,防止因证据法上不可归责于当事人的事由导致举证上的不利益。无论是大陆法系国家的事案解明义务还是英美法系国家的证据开示义务,其实都是对民事诉讼法律关系主体在发现真实方面的举证之再分配。我国虽然并不一般性地适用事案解明义务,但承认例外性、特殊性的事案解明义务。例如当案件同时符合三个要件时则更容易适用事案解明义务:其一,负担举证责任的一方因处于事件外而不得期待知悉主张的事实;其二,不负担举证责任的一方易于提出证据;其三,依诉讼法的诚信原则,要求不负举证责任的一方提出证据具备可期待性[25]。在人工智能医疗纠纷中,患者之外的主体可能符合事案解明义务的三个要件,承担事案解明的义务。事案解明义务是一种例外性的证明协力义务,法院基于相关主体的事案解明义务与促进诉讼的必要,期待相关主体提交相关的资料。被告不履行事案解明义务的结果是法院在原则上可以推定原告主张的事实成立。

在人工智能医疗纠纷中,在不可归责于原告无法收集证据的情况下,应当加强保障原告向法院申请证据调查的权利。人工智能医疗纠纷符合我国当事人申请证据调查的特定情形,即与案件相关的信息偏在于对方当事人,以及当事人无法知悉事件的经过。当事人申请证据调查除了主题特定化的要求外,还需要满足适时提出的要求与证据调查的必要性要求[26]。在因人工智能的错误导致患者损害的情形下,人工智能的错误属于产品责任成立的关键,患者本身无法接触到相关的人工智能技术与数据,当事人若及时提出证据调查申请,法院应当予以准许。在此基础上,法院可以向相关文书的持有人(包括对方当事人与持有文书的案外人)发出文书提出命令。对方当事人若违反文书提出命令,则需要承担证据认定上的不利益;案外人违反文书提出命令,则会受到罚款、拘留等强制制裁[27]。其中,因为人工智能算法本身涉及商业秘密,法院需对文书提出命令制度附加秘密保护制度,避免相关主体因秘密泄露产生的不利益。例如,设置拒绝文书提出的除外事由,明确文书提出的保密程序,在一定情况下允许不公开审判或进行私下审查等等[28]。故而,法院在进行证据调查时,不能追求增强一方当事人证据收集能力而罔顾对方当事人的利益。

五、结语

人工智能介入医疗行为后产生的侵权纠纷在侵权责任承担方面兼有医疗损害责任与产品责任两种属性,当事人可依照我国实务通说择定实现责任竞合中的一个请求权。不同的请求权路径对当事人的举证责任产生不同的分配机制。依规范说的要求,法院进行举证责任分配的基础是实体法上的法律要件。依一般医疗纠纷的举证责任要求,原告需要承担过失责任的四个法律要件的举证责任;依产品责任的举证要求,原告也需要承担无过失责任的三个法律要件的举证责任。然而,人工智能医疗本身具有算法的不透明性与医疗数据的偏在性等特性,我们并不能机械地运用规范说进行举证责任的分配,而需要引入危险领域说对其进行必要的修正,亦即为了尊重人工智能医疗纠纷的特殊性,需要在举证责任规则方面进行再度修正。对于不可期待原告进行举证的部分,采取举证责任的倒置及举证责任的减轻。在证据收集方面,法院也可以通过介入证据调查来提升当事人的证据收集能力。本文仅是从学理的角度进行探讨,未来如何将上述证据法上实质公平的理念贯彻于司法实务之中,仍旧有待学界进行更精细化的探索。

猜你喜欢
义务证据人工智能
幸福的人,有一项独特的义务
2019:人工智能
人工智能与就业
三十载义务普法情
跟踪导练(一)(4)
数读人工智能
对于家庭暴力应当如何搜集证据
下一幕,人工智能!
手上的证据
“大禹治水”有了新证据