人工智能产品侵权归责何以脱离产品责任?

窦海阳

    摘要:人工智能产品侵权的归责是适用产品责任,还是新设责任类型,比较法和国内法都无定论。基于受害者保护及促进产品安全的规范目的,当人工智能产品能满足产品责任中产品及相关规则的隐含要求时,产品责任能容纳该部分侵权的归责。因人工智能技术内在的不可控,人工智能产品侵权必然会超出产品责任的容纳范围。对于超出部分的归责,需在危险事由中确证其特殊性,即从抽象的一般性危险中具体界定符合人工智能产品致害特性的危险,从而有别于产品责任的危险和高度危险。这种人工智能产品致害危险源于生产者,基于非相互性风险理论,应由其承担无过错责任。在体系建构上,宜采以单行法新设责任类型与改进产品责任并行的方式。建构归责事由合理、规则完善的人工智能产品侵权责任体系,既能对受害者提供充足保护,也能为人工智能技术的发展与运用留有宝贵空间。
    关键词:人工智能产品;产品责任;危险责任;无过错责任
    一、问题的提出
    随着科技的发展,在家居、出行、医疗等产品上装载人工智能系统已成新的趋势。所谓人工智能系统,是设计用于以不同程度的自主性运行,在部署后表现出适应性的机器系统,并且为了明确或隐含的目标,根据其接收的输入,推断出如何生成可以影响物理或虚拟环境的输出。这种系统增强了产品的安全和功用,方便了消费者,但新产生的致害风险也不容忽视。对于这类人工智能产品侵权的归责,流行的观点认为它们脱离不了产品责任的范畴。其论证大致包括,这些新产品符合法律界定的产品样态,且致害原因是系统本身存在缺陷,应由生产者承担产品责任。这有利于激励他们持续完善系统,增强产品的安全。当然,产品责任要根据人工智能的特点在举证责任等方面进行修正。
    但是,将产品责任适用于人工智能产品侵权的归责并非没有争论。从比较法来看,指出产品责任无法完全解决此类问题的研究并不少见。欧盟法关于如何规定人工智能侵权责任以及如何处理其与产品责任之间的关系,都未有定论。从教义学来看,产品责任能否承担调整人工智能产品侵权归责的任务,应考虑其规范目的及其对产品和相关规则的隐含要求。若仅在表征上符合产品的界定而实质背离了相应规范目的和要求,则适用产品责任的效果可能南辕北辙。尽管可以对相关规则进行改进,但仍受制于其本身的修正限度及实际效果。
    本文试图对人工智能产品侵权的归责问题作系统讨论:一方面基于产品责任的教义解释,考察该责任对人工智能产品侵权归责的容纳空间;另一方面讨论当超出产品责任的调整限度时,何为人工智能产品侵权的合理归责事由,并且如何以此建构相应的规则体系。
    二、产品责任对人工智能产品侵权归责的容纳空间
    (一)容纳依据:技术分级还是责任目的?
    1.技术分级不能作为产品责任的容纳依据
    目前讨论大多提及自动技术的分级,常见的如引用汽车驾驶自动化分级,以此判断是否适用产品责任。但是,以自动化技术分级为标准存在很大缺点,最突出的是过于复杂多变。实际上,技术领域对自动化的分级远不止于此,既有研究只用了其中较为简单的一种。衡量某个系统的行动自主或取代人类的能力,技术上所需考虑的要素很多,其结果并不完全一致。即使是采用相同技术的系统,在不同情况下,由人完成的任务和由系统完成任务的划分也不尽相同。对于检查系统适应环境变化的能力,除了简单测试,即机器是否仅限于在预编程选项中选择,还有复杂的是否满足自主性的测试,包括人机互动的频率、机器对环境不确定性的承受度和机器的自行确定能力等,而每项测试还必须考虑观察、定位、决定和行动等具体的决策阶段。若在判断是否适用产品责任时依赖这些衡量因素,就要制定非常复杂的矩阵去说明自主性的各个方面。
    更重要的是,从适用法律责任的角度看,系统自动化在技术上究竟处于何种等级与法律责任并不完全适配。法律责任的适用要依其设定的规范目的,尽管可以对技术发展所导致的规则变化予以考虑,但不应被技术牵着鼻子走。产品责任能否适用于加装人工智能系统的产品侵权归责的根本在于能否实现其规范目的,相关规则能否妥当运用,即使对其修正也不应当使规则本身丧失原有的意义。
    2.产品责任的规范目的及隐含要求
    产品责任的规范目的之一在于对缺陷产品的受害者进行救济,由于受害者通常获得消费者保护规范的特殊保护,因此在责任构成上偏向于对生产者做更多要求。产品责任的另一个规范目的在于鼓励生产者提高产品的安全性,因为生产者最有能力通过一定措施消除或减少与其产品相关的风险。产品越安全,致害可能性越小,其承担责任的可能性也就越小。
    这两方面的规范目的实际上是在生产者与受害者之间作利益平衡。虽然对受害者提供倾向性保护,但并非绝对的无条件救济,而是以保证生产者利益为前提,即生产者仅有责任掌握设计、制造各个环节且最终不产生不合理危险的产品。其背景正是在大工业发展下生产者事先设计并以规模化流水线生产大量同类产品。与此相关,在生产者能对其生产的绝大多数产品进行把控的前提下,责任的压力才可实现整体提高产品安全的目的。保险人也才愿意以相应的保费进行承保,从而实现分散损失的效果。在此规范目的下,对于产品界定及相关规则都有往往被既有研究所忽视的隐含要求。
    第一,产品的界定对照《产品质量法》第2条,“加工、制作”用于区分人工产品和天然产品,“销售”用于区分是否流通,以列举方式确认是否属于产品。这种对照隐含着前提要求,即产品能被生产者全面把控,从设计定型、材料选用再到制造检验都掌握在生产者手里,并在使用期限内,只要产品合格且使用者按照使用规范操作,产品的功能都是按照生产者的预设发挥作用,通常不会出现设计与运行偏离的情况。正因为如此,未经加工、制作的产品,比如初级农产品等,因其质量并非由生产者把控,所以被排除在产品之外。
    第二,相关规则也隐含了相应的要求。以最具代表的设计缺陷规则为例,风险—效用标准认为当产品的可预见风险能通过使用可行的更安全的替代办法而最小化时,就存在设计缺陷。该标准在于促使生产者提高产品的安全性,但只有在对产品的改进是可行且经济的情况下才奏效。这是因为它并不要求使用最安全的设计,而要求安全只需达到特定程度,即成本不会超过相应的安全效益。因此,对生产者的要求是在设计产品时达到最佳程度的注意,而不要求其尽一切可能去达到绝对安全。实际上,这也是在平衡生产者利益与消费者保护。对消费者而言,虽然更为苛刻的缺陷规则更有利,却会导致生产者在推陈出新时疑虑重重。
    总之,生产者将产品交给消费者使用,不会出现产品的安全、功用超出生产者在设计、制造阶段的预设。只有在此前提下才能妥当做出产品的界定及相关规则的设置。反之,如果该前提不存在,那么产品责任的规范目的就难以实现,适用效果也随之存疑。检验人工智能产品侵权的归责能否适用产品责任,也应从上述方面展开。
    (二)人工智能产品侵权被产品责任容纳的考量
    1.人工智能产品是否符合产品责任中产品的要求
    人工智能产品侵权的归责能否被产品责任容纳,要考虑人工智能产品是否符合该责任对产品的要求。流行的观点是将人工智能产品与传统产品一样以《产品质量法》第2条统摄,即人工智能产品属于软件或动产,且经过加工、制造和销售,符合产品责任中产品的界定。这种形式性对照对于传统产品而言通常不会产生问题,却并不完全适用于人工智能产品的判断。 人工智能产品装载的系统与传统程序是迥然不同的技术路径,它进化为机器学习的新算法,与传统的人力设计不同,拥有独立学习和决策的自主能力。这意味着虽然人类设计、制造并部署了它们,却并非完全受人类指令约束,而是基于其所获信息的分析和判断展开,深度学习使智能机器能依自身通过数据训练而构建起来的决策逻辑,结合对环境的感知和交互,对活动作出具体指令。因此,自主能力带来的问题主要是人类对智能机器控制的下降,智能机器的行为具有一定程度的不可预测性,无法预见其将如何运行,更无法预测与第三方互动学习的结果。对于生产者而言,人工智能产品能进行后天学习,不仅完全可以预料,而且这种能力正是生产者追求的。也就是说,人工智能产品当然地被设计成具有不可预测性。欧洲议会和理事会《关于人工智能的统一规则并修订第300/2008号条例》[(EU)2024/1689](以下简称《欧盟人工智能条例》)指出,从设计来看人工智能系统意味着在一定程度上不受人类控制。
    较之产品责任对产品的界定,人工智能产品虽然符合动产及加工、制作等表征,但在实质上可能会脱离产品的范围。生产者在设计、制造人工智能产品的过程中并不能准确预知该产品交付消费者后的运行情况,随着用户的持续使用,人工智能系统不断进行自主学习,其活动会越来越难判断。若产品缺乏可预测性,生产者很难提高其安全性能。在此情况下,通过让生产者负担产品责任并不能实现提高安全的规范目的。
    因此,按照产品责任的产品界定,人工智能产品能否被容纳至少取决于两个方面:
    一方面是人工智能技术的发展。随着算力不断增强、数据收集与训练趋向全面化、模型逐渐完善,尤其是可解释人工智能技术的发展,算法透明的技术障碍在一定程度上将被克服。计算机学界研发了多种方法对模型进行事后解释,为补全人工智能产品欠缺的透明度提供技术支持。这些技术越能使生产者在设计、制造乃至运行中对人工智能产品进行把控,人工智能产品就越可以落入产品责任的产品范围。另外,还有人机转换技术的发展,技术能实现随时退出与人工智能系统的交互,其存在也会使人工智能产品得以在转换后处于生产者所预设的被控制状态,那么产品责任也能对此予以规制。
    另一方面是规范的管制。目前对于人工智能系统的运用有不断加强的各类管制。在基本原则层面,比如我国《新一代人工智能伦理规范》第3条第4项确立了人工智能活动遵循“确保可控可信”的伦理规范。在具体规则层面体现为各类特别义务的设置,比如《欧盟人工智能条例》第9条的与高风险人工智能系统风险管理相关的义务,第13条的高风险人工智能系统运营商的透明度义务等。另外还有某阶段对特定产品的定位,比如我国《全国公共卫生信息化建设标准与规范(试行)》确立了人工智能辅助诊疗的定位。由此可见,人工智能产品能否归入产品责任的范畴,也受制于规范的管制力度,对其做出限制和约束越大,就越能使生产者在与之相应的程度上对人工智能产品有所把控,人工智能产品也就越能受到产品责任的调整。
    2.相关规则及修正是否超出产品责任本身的限度
    既有研究对产品缺陷的判断标准是否适用多有讨论,尤其是聚焦于美国法中判断设计缺陷的消费者合理期待标准和风险—效用标准,同时也指出这些标准对于人工智能产品侵权的判断需作修正。实际上,学者的争论都是围绕某个抽象概念的弹性空间展开。这种弹性可以根据具体情况灵活扩展,使标准与新问题在个案中达致融洽,在一定程度上解决了因人工智能系统远超普通人的理解或优于传统产品功能而产生的原有规则的应用困难。
    然而,这种弹性的另一面是边界的模糊不清,容易为了适用某项标准而忽略其原本的目的和要求,以致超出极限而破坏原有的平衡。若按照上述标准进行检验,很容易认定人工智能产品不具有缺陷,或以当时的科技水平不能发现为抗辩。但是,超出生产者的预设而不为其控制在人工智能产品中是常见情况,而且这种情况是人工智能系统必然存在的。人工智能产品当然被设计成具有不可预测性,这与其优越的功能是一体两面的。在此背景下,这些规则的运用必然会导致产品责任中受害者保护这一规范目的无法实现。而若为了保护受害者而过度扩张上述标准,比如笼统将安全作为消费者的期待,所有不安全的情况都属于缺陷,这就破坏判断规则的原有功能,实质放弃了以缺陷为基础的构成要件,从而背离了产品责任。
    (三)小结:产品责任无法完全容纳人工智能产品侵权的归责
    产品责任并非不能满足人工智能产品侵权归责的需求,基于人工智能技术的发展及规范管制的要求,一部分人工智能产品实质上可归入产品责任的产品范畴。同时,对于相关缺陷、抗辩规则的修正,也能使其在个案中融洽地解决人工智能产品的侵权事件。
    但是,从人工智能技术的发展事实来看,必须承认产品责任无法完全容纳人工智能产品侵权的归责。多层级神经网络计算导致认识的不透明是难以克服的。算法黑箱是由算法的技术性造成的,而非人为。虽然人们试图以解释来解决透明问题,但正如《人工智能安全标准白皮书(2023年版)》所言,“算法模型日趋复杂,可解释性目标难实现:......由于深度型算法的复杂结构是黑盒,人工智能模型天然缺乏呈现决策逻辑进而使人相信决策准确性的能力。为提升可解释性,技术上也出现了降低模型复杂度、突破神经网络知识表达瓶颈等方法,但现实中效果有限。主要是因为当前模型参数越来越多、结构越来越复杂,解释模型、让人类理解模型的难度变得极大......人工智能是否具备可解释性一直缺乏统一认知”。有学者则直接指出人工智能的透明度并非万能,透明度是一个理想目标,它在本质上与机器人应用的优势相悖。可见,生产者对人工智能产品在一定程度上不可控制是必然存在的。
    由此,应认识到产品责任在这部分人工智能产品侵权归责上对受害者保护与技术发展面临的两难境地。如果按照既有的缺陷及风险抗辩规则,生产者很容易规避侵权责任,受害者很难得到保护。若是为了保护受害者对这些规则进行过度修正,则会使得规则形同虚设。产品责任的设置应能促使责任人不断提高产品的安全,否则就偏离了责任宗旨,而变为以产品责任之名,行“深口袋”的兜底救济之实。当然,为提高人工智能产品的安全,可以采取保守方式。比如装载人工智能系统的放射治疗机,若系统能自行决定寻找信息并覆盖各种信息源,从而自主根据不同情况确定辐射量,其信息源越动态,机器的智能性越高,生产者对其预见和控制的能力就会越低。生产者也可强化控制,以封闭数据库用于训练,这样就能保持对信息获取的预见和控制。这看似安全,却大大牺牲了人工智能机器的效能。对于人工智能技术的发展,人类不应对自己的监管过于自信,人工智能的发展显然会超出监管的步伐,尤其是技术发展初期,严格禁止或过度要求技术完备才能适用,实际上会阻碍我国人工智能技术的创新。 正如有学者指出,人工智能显然会因软件自主性及代码不透明性而使缺陷的识别越来越困难,这意味着受害者可能无法根据产品责任获得赔偿,产品的缺陷责任并非令人满意的对策。那么,对于超出产品责任容纳空间的人工智能产品侵权的归责事由就需继续探讨。
    三、人工智能产品侵权责任体系的建构
    产品责任不能完全应对人工智能产品的侵权问题,那么可行路径就是两方面:一是修正产品责任,二是对产品责任无法调整的人工智能产品侵权问题单独予以规定。对于前者,可基于《民法典》侵权责任编的产品责任作出完善。产品责任在人工智能发展情况下的修正,既有研究已有论述,本文不再展开。对于后者,当下契机是人工智能单行法的制定。我国对于此类单行法的设置,通常包含法律责任的规定,其往往设置《民法典》无法容纳的特殊民事责任。那么,在此部分可针对人工智能产品侵权的归责做特别规定。这里的核心是对其归责事由的探究以及基于此事由所确定的相关规则。
    (一)归责事由的争议与选择
    1.欧盟法的争议与共识
    由于欧盟在立法上关于人工智能的进展是领先的,因此笔者在此重点介绍欧盟的探索。欧盟目前至少先后形成了两份代表性的官方草案,由此可以看出不同的进路:一个是欧洲议会的草案,《向欧盟委员会提出关于人工智能民事责任的建议》[2020/2014(INL)],并附上《人工智能系统运行责任条例》(Regulation on Liability for the Operation of Artificial Intelligence-Systems)的全文。另一个是欧盟委员会的草案,欧盟委员会发布了两项旨在应对数字化挑战的立法提案,其中一项是《对欧洲议会和欧洲理事会关于使非合同民事责任规则适应人工智能指令的建议》[2022/0303(COD)](以下简称《人工智能责任指令》),该提案针对人工智能系统提供了具体的责任规则。
    就欧洲议会的草案而言,其内容较为丰富,其中一条主线内容是对责任类型的规定。与《欧盟人工智能条例》相对应,《人工智能系统运行责任条例》以高风险人工智能系统和其他人工智能系统的区分为基础。对于前者,其运营者将他人置于高风险之下,根据该条例第4条第1款承担严格责任。与《产品责任指令》的产品责任不同,这种责任是真正的严格责任,不依赖于缺陷证明,无需证明人工智能系统存在《产品责任指令》中的缺陷。而对于不会造成高风险的人工智能运营者来说,则根据该条例第8条第1款适用过错责任。对于上述区分规定的原因,《向欧盟委员会提出关于人工智能民事责任的建议》的序言第14项强调,不同的人工智能系统是确定责任的决定因素。当人工智能系统具有高风险并自主行事时,可能对现有民事责任制度提出实质挑战,为这些高风险的人工智能系统建立共同的严格责任制度是合理的。
    《人工智能系统运行责任条例》的另一主线内容是责任对象。该条例认为人工智能系统的不透明性、自主性会使人们在实践中很难将具体侵害行为追溯到人类的某项设计,因此宜侧重于针对人工智能系统运营者的民事责任。由于该条例所提出的责任主体与《产品责任指令》不同,也存在如何处理产品责任与人工智能责任之间的关系。根据《人工智能系统运行责任条例》序言第10项、第3条第d款以及第11条的规定,如果前端运营者也是人工智能系统的生产者,该条例优先于《产品责任指令》。如果后端运营者也属于《产品责任指令》第3条的生产者,则该指令应适用;如果后端运营者不在《产品责任指令》的覆盖范围,则适用条例。如果只有一个运营者,而该运营者也是人工智能系统的生产者,则该条例优先于《产品责任指令》。虽然条例做了复杂的规定,《产品责任指令》是否排除了根据《人工智能系统运行责任条例》对生产者提出的索赔,或《产品责任指令》只是优先适用,仍存在争议。
    就欧盟委员会的草案而言,《人工智能责任指令》主要规定了举证责任等事项,即赋予潜在原告请求披露证据的权利,并设立了因果关系推定等规则。对于责任类别及其他规则,根据第1条第4款的规定,各成员国可通过或维持更有利于原告就人工智能侵权主张赔偿的规则,从而保留了制定比该指令更细化规则的权力。虽然该指令仅简单规定了证据规则,但需注意的是对原告所赋予的针对被告披露其掌握证据的权利,前提是被告必须制造、销售或使用了高风险人工智能系统,且根据第2条第2款,该概念与《欧盟人工智能条例》中的概念一致。由此可见,普通人工智能系统和高风险人工智能系统之间的区别也被《人工智能责任指令》沿用。在侵权责任上,高风险人工智能系统同样受到更严格的制度约束。
    至于《人工智能责任指令》如何处理产品责任与人工智能责任之间的关系,该指令第1条第3款b项指出,这不影响受害者根据执行《产品责任指令》可能享有的任何权利。但有学者指出,关于产品责任和人工智能责任的两项指令之间存在重叠,比如这两项指令都针对相同的行为人,即人工智能系统的生产者,获取证据的权利也与《产品责任指令》第9、10条一致。因此,《人工智能责任指令》的实际意义在于补充修正后《产品责任指令》无法涉及的领域。受《产品责任指令》第6条的限制,产品责任的保护范围限于对生命、身体、健康和私有财产等基本利益的侵犯。那么,《人工智能责任指令》在于补充这些基本权益之外如一般人格权、纯粹经济损失等领域的损害赔偿,这些范围取决于成员国法的规定。
    从上述梳理可以看出,欧盟对于如何规定人工智能责任存在较大争议,针对如何处理人工智能责任与产品责任之间关系也没有一致意见。但无论如何,仍可从中得到基本共识:
    一是独立设置人工智能侵权责任。在明确了要对原有的《产品责任指令》进行适应数字时代的修改之后,两份草案并未将人工智能产品侵权的归责完全交由产品责任来调整。即使是较为简略的欧盟委员会草案,也明确了单独发展责任法的意向。早在2020年2月欧盟委员会就发表了关于人工智能监管的白皮书,其中包含了进一步发展人工智能责任法的考虑。欧盟委员会对《产品责任指令》改革提案做积极评价的同时还增加了对要求制定《人工智能责任指令》提案的压力。欧洲议会则直接提出了内容丰富的人工智能责任的细则。由此可引申出,产品责任并不能涵盖所有人工智能产品侵权的归责,仍有必要在产品责任之外单独确立人工智能侵权责任。
    二是对人工智能侵权的责任在规则设置上作区分,基础在于不同类型的风险。两份草案,或在责任类型上,或在证据规则上,都接受了人工智能系统对高风险、普通风险的区分。这种欧盟共同法层面的风险概念与分类,反映了德国法上危险责任的传统。当然,如何与成员国侵权法体系相融合,值得进一步考虑。但不管如何,由此可引申出,人工智能侵权责任规则所基于的风险应区别对待乃至具体化,不能一概而论。
    总体来看,比较法资料显示出对产品责任涵盖人工智能产品侵权归责的存疑,且对于人工智能产品所产生的风险及其特殊性已有充分的关注,这为产品责任之外新类型的人工智能产品责任进一步讨论提供了契机。在案例方面,欧盟在立法层面的发展无疑是具有高度前瞻性的,在实务中受制于欧盟立法的漫长过程,新责任类型的具体案例有待时日。在美国以及其他国家的比较法上,扩展产品责任乃至运用新类型的案例也同样值得期待。
    2.我国法的选择
    我国的流行观点认为人工智能产品侵权的归责完全可以由产品责任调整,其归责事由是产品的危险。也有少数主张认为可参照高度危险责任,比如高度自动驾驶交通事故适用《民法典》第1236条的高度危险责任。如前所述,产品责任不能完全容纳人工智能产品侵权的归责,在传统产品的危险之外仍需寻找合理的归责事由。至于高度危险责任的观点,似乎与欧盟法中调整“高风险”的严格责任类似,但实际上却相差不少,比较法概念与我国法类比需作细致斟酌。更重要的是,若运用高度危险责任,能否将第1236条解释为高度危险责任的一般条款,从而运用到人工智能产品侵权的归责?
    将人工智能产品的致害危险作为归责事由,无论是比较法还是我国法,都已有相当共识。但对于我国而言,问题是如何在民法典体系下妥当处理。侵权责任编的第四章产品责任已经处理了一部分人工智能产品侵权问题,剩余部分的归责是交由第八章高度危险责任,即通过将第1236条视为一般条款或通过扩张(或类推)解释来解决,还是以第1166条为基础在单行法中规定新的具体危险事由,并区别于其他危险事由?
    根据一般法理,危险责任是以特定危险为归责事由。持有或经营具有特定危险的物品、设施或活动的人在其所具有的危险实现而致害时,应承担赔偿责任。比较法上曾有观点建议以一般条款规定危险责任。但目前来看,关于设置类似一般条款的建议已并非主流。我国台湾地区“民法”第191条之3为危险工作或活动在侵权法上提供了概括条款,但这一规定被认为是一个不精确、无用的条文。我国台湾地区法院本着立法意旨和理由做严格解释适用,并未遁入概括条款而松弛侵权法体系。
    之所以如此,通说认为,虽然一般条款模式可以灵活应对各种新型风险,并能达到整合具体类型的体系化效果,但法律上所规定的各种危险情形在细节上是不同的,由此无法确定应将何者作为一般化处理的范式。同时,作为例外情况,以列举方式规定危险责任确保了法律的可预测性和确定性。责任人可以事先知道自己是否要承担严格责任,由立法者为每一类危险活动确立特定的赔偿责任范围和限度,可以通过对相关风险事先购买保险的方式为可能的责任做好准备。由此,对于危险责任,法典和各特别法都终结性规定了限定性的归责事由。这显然影响了欧洲议会的草案。根据《人工智能系统运行责任条例》第4条第2款的规定,受严格责任调整的高风险系统将在法规的附件中予以列举。如果某人工智能系统没有被列入法规附件,法院不得追究这些系统运营者的严格责任。
    在《侵权责任法》立法过程中,曾有设置危险责任一般条款的主张。但《侵权责任法》并未采纳这种观点,而是以无过错法定的一般要求限定了这些责任类型必须由法律明确规定。这种做法延续到了《民法典》第1166条。
    在现行法中,较为特殊的是关于高度危险责任的解释。有观点认为从事高度危险作业致害而承担侵权责任的规定具有与过错责任一般条款相似的特点,在范围上有一定程度的宽泛性,法官可以将其作为一般条款适用,从而适应社会发展和避免具体列举模式的弊端。这种观点也被官方用于《民法典》第1236条的解释,即该条规定了高度危险责任的一般条款,为司法实践处理尚无法律明确规范的高度危险行为提供了指导性原则。但有学者持否定态度:高度危险责任一般条款只是为单行立法确立新的高度危险责任类型提供基本的法律依据,并非意味着法官可据此决定哪些行为属于高度危险责任,进而适用无过错责任。
    实际上,与前述比较法上对危险责任一般条款的担忧一样,把第1236条解释为一般条款的弊端同样存在。以该条为一般条款将人工智能致害危险纳入高度危险范畴面临重大障碍,可能导致因一时解释的便宜而破坏整个侵权法的稳固结构。即使在美国法上,虽然可以根据多因素对异常危险作灵活解释,针对此危险活动的严格责任仍是相当受限的,认定异常危险活动的数量极少,而且权力在法院而非陪审团。也就是说,虽然《侵权法重述》提供了包含各种因素的灵活评估,但并没有扩展的可能。即使要在解释上对这类责任作扩张,也应符合谦抑原则:对于个别责任类型规定未尽周延者,只能进行非常有限的类推适用,如航空责任,仅限于在该责任类型内做类推,即涉及飞机降落前后事项的解释;对于立法没有涉及的危险事故,只能在性质类似的情况中类推适用,如立法详尽规定了空气污染,若遇到土壤污染,可类推适用空气污染责任的规定。这种对于扩展解释的谨慎也值得我国法借鉴。
    我国法的可行选择应是,在现有责任类型无法完全容纳人工智能产品侵权归责的情况下,以《民法典》第1166条为基础,寻找适合此类侵权归责的新事由。将所有的危险情况都以拼凑起来的共性予以勉强概括,不利于法律规范的精密建构和准确适用。在人工智能产品侵权上,有学者就主张要具体区分不同的危险,并适用不同规则。与笔者前述主张相一致,同样作为人工智能产品的致害危险,可能有的危险在产品责任中即可调整,而有的则超出此限度,需另外对待。这里就要对不能被产品责任所容纳的人工智能产品的致害危险的具体内核予以厘清。
    3.作为人工智能产品侵权归责事由的危险
    一般认为,危险责任是对许可从事一种危险行为的补偿。现代社会需要某些危险活动的开展,这对科技进步尤为重要,因此危险的存在是被法律容许的。而对于危险的发生,如果受害者难以获得赔偿机会,实属社会不公平现象。因此,要解决此类不公平问题,应合理分配不幸的损害后果。对此,在学理上主要有四种理由:一是危险开启;二是危险控制;三是危险报偿;四是危险分散。
    就危险开启而言,开启“特殊危险”的人,应就此种危险给他人造成的损害承担赔偿责任。对这种理由,以乔治·弗莱彻(George P. Fletcher)的“非相互性风险”(the nonreciprocity of risk)理论进行解释更为清楚:如果从被告处产生了一种“较受害者的风险制造活动而言不相称的、过高的损害风险”,那么被告将被认定负有法律责任。弗莱彻认为这是一种源于公平的理念,因为所有的社会成员都有权获得“与风险程度大致相当的安全保护”。非相互性风险理论的核心是,侵权责任的重要部分并非不法行为,而是我们彼此施加的风险。技术作为现代生活的一部分,会给社会带来固有的风险。一些技术的进步会产生意想不到的损害,起初人们可能担心这些损害。随着社会对这些新技术的适应,也会有相应的防御措施将这些新技术带来的风险降到最低。社会可以利用这些防御措施,直到社会至少可以接受非相互性风险所带来的后果。由于这些风险不可能被完全消除,社会必须决定在什么地方设置门槛,让我们仍愿意将这种技术融入生活。当然,弗莱彻提出的理论在于反思整个侵权法的构成模式。但正如有学者指出,人工智能问题为弗莱彻理论提供了新的机会,非相互性风险范式的应用有其独特和新颖之处。因为当今网络社会具有全新的交流方式以及与之相伴的新伤害方式,普遍存在的连通及不断提高的连通水平,使得一个人可能对他人造成的潜在损害大大增加,更强大的参与者有能力对大量受害者造成更大的伤害,这让我们能更好地理解自身行为所产生的影响,以及这些行为在整个互联生态系统中可能造成的危害。弗莱彻理论使我们能够通过研究事故网络的相互影响来衡量和理解这些事故。
    弗莱彻对非相互性风险的考虑主要从“施加了什么风险”与“什么样的人施加了风险”两个问题展开。就第一个问题而言,较之传统的人类社会,人工智能产品具有同时横跨多平台并以重复方式进行高速交流的能力。这促使我们聚焦于人工智能的活动水平(AI’s level of activity),其明显高于传统人际活动的水平,因而可以引发更多的风险。即便已尽到相当的注意,如此多数量、高频率的活动,加之人工智能系统本身的重复性、普遍性,也必然促使非相互性风险的产生。直接受害者可能知道人工智能产品的致害风险,且对其操作系统有一定了解,但并不能反过来对人工智能产品的生产者产生危险。在这些情况下,人工智能产品的致害危险可被视为造成了“与受害者的风险活动不相称的、过度的伤害风险”。就第二个问题而言,人工智能产品的生产者与用户之间的关系本质上是固定的,涉及的是特定类别的人群而非单个个体。在人工智能领域运营的公司数量虽少但规模大,这些公司作为一个群体拥有更多的财富。由于在此领域内的垄断地位,少数人工智能公司所拥有的巨大力量使得人工智能产品所造成的事故不同于传统侵权事件。因此,要在群体层面而非个体层面考虑分配性因素,这一实质将引发危险者的身份纳入考量,而不是以简单抽象的“平等”涵盖各类主体,这更好地说明了非相互性风险理论的合理性。
    危险开启这一理由也被欧洲议会草案所采纳。《向欧盟委员会提出关于人工智能民事责任的建议》第8项明确指出,无论是谁创建了人工智能系统,都应该对该活动、设备或程序所造成的损害负责。这源于被广泛接受的责任概念,即为公众创造风险的人,如果该风险造成了损害,就应承担责任,而且,应事前尽量减少或事后补偿该风险。这种解释也被学者运用到《人工智能系统运行责任条例》第4条的解释上:责任是对管理者无法以完全安全的方式运行系统所要求作出的补偿。如果损害的技术风险在社会上分布不均等,那么责任的实施就要在赔偿层面实现公平。任何创造对他人合法利益构成高风险的技术系统的人都必须对这种系统所造成的损害进行补偿。
    同时,该理由也能很好地解释何种主体应承担危险致害的后果,即如何确定开启人工智能产品致害危险的生产者。欧洲议会《人工智能系统运行责任条例》草案区分了前台运营者和后台运营者。我国也有学者借鉴了这种做法。而格哈特·瓦格纳(Gerhard Wagner)却认为生产者是决定人工智能系统安全特性的核心行为者。同时,让生产者承担责任并不意味着用户可以免于承担责任,用户仍要承担与技术无关的过错责任;而通过对人工智能系统施加严格责任来收紧用户的责任则完全没有道理。对于人工智能产品侵权的责任主体,笔者认为用户的过错致害与生产者的致害是有必要区分的,但不能将用户与生产者列于同一位置,因为从技术来看,关于人工智能产品的出厂、运行,生产者仍处于引发危险的关键位置,且交付用户后的维护也是从生产者处获得。而对于用户而言,与传统产品使用一样,其就使用不当而产生的损害仍要负责,只不过需要考虑在此新情况下的过错应如何判断。至于人工智能产品在使用过程中与外在环境的交互以及用户的指令,则并不能对人工智能系统的安全产生实质影响。
    其他三种理由对人工智能产品侵权的解释并不有力。就危险控制而言,传统教义学中责任理论的控制支配思想要求只有控制危险的人方可承担责任。若以此解释人工智能产品责任中的生产者,抑或所谓的运营者,都不妥当,因为人类的有限参与极大弱化甚至架空了人类对算法决策过程的控制,无论哪个主体都无法达到传统理论中的控制程度,自主性无疑对基于控制理由的归责造成冲击。就危险报偿而言,其强调“利益之所在,风险之所归”,享有其利益者,承受其风险。这种理由虽然能提供一种解释角度,但并不贴合,反而通过对获益做各种扩大解释,无论宏观还是微观的情况都能囊括进去,无法作针对性回应。危险分散理由也同样如此,因危险责任而生的损害赔偿,可以通过价格机制和保险制度分散风险,从而实现风险承担的社会化。这是可以用于各类损害救济机制的共同理由,无法针对性地解释人工智能产品侵权的归责。
    接下来需要对人工智能危险做准确界定,对此可以先看一下欧盟法的规定。欧洲议会《人工智能系统运行责任条例》第3条第c项规定,如果人工智能系统具有以随机和超出合理预期的方式对一人或多人造成损害的重大可能性,则该系统具有高风险。该草案中侵权责任制度的核心特征是区分对他人利益造成高风险的系统和非高风险系统。在高风险的界定上,瓦格纳运用弗莱彻的非相互性风险理论,对第3条第c项的解释是人工智能系统的运行所造成的风险,若可以通过适当的安全措施减轻,并且不会对身体完整性或个人财产造成重大风险,则为一般风险,即“不高”的风险。对此可适用相互性原则,即可以假定每个人对他人造成的伤害风险与该受害者对其造成的风险相当。在这种情况下,如果通过适当的注意就可以或多或少地消除风险,那就没有必要控制侵权人的活动水平。相反,如果人工智能系统在其运行过程中出现重大致害风险,侵权人所带来的风险属于不相称风险,则该系统属于高风险系统。
    这里提供了几项考量因素,包括可能造成损害的严重性、致害可能性以及系统的自主程度和使用方式。在解析之前,应先区分构成侵权责任的危险与监管机制下的风险。监管机制所规制的高风险对象与侵权责任所调整的并不一致。《欧盟人工智能条例》第6条第2款所述的高风险人工智能系统包括生物识别、关键基础设施、教育和职业培训、就业管理、执法等。《人工智能系统运行责任条例》中的高风险人工智能系统清单是否可以与《欧盟人工智能条例》中的完全相同?有学者认为,在相关产品导致重大损害的情况下,施加严格责任的理由与对不安全产品施加特定监管措施的理由并不相同。虽然在侵权责任中的人工智能系统可能是采取强化监管措施的人工智能系统的一个子集,但并非所有后一类人工智能系统都应被纳入侵权责任制度,因为并非所有符合《欧盟人工智能条例》规定的高风险产品都能满足严格责任的要求。所以,即使欧洲议会提案的思路成为法律,也必须起草一个专门针对侵权责任的附件,为责任目的而特别界定高风险人工智能系统。
    若从侵权责任角度考虑人工智能产品的致害危险,不应包括执法等公法领域的事项,也可以排除与社会保障及福利有关的基本权利,该危险所危及的对象应限于人身权等民事权益。当然,并非所有的民事权益都与这种危险相关,还要考虑其危害程度。如果此类危险状态事实上得以实现,其引发的损害结果将非常严重。这里的严重性要考虑被侵害的民事权益的位阶,生命、健康、身体等位阶高的民事权利构成这类危险的可能性大。除此之外,损害后果的严重性还要考虑其影响范围。这种危险实现所造成的损害可能不仅是个体性事故,也不只是事故发生地受影响,而是跨越了特定区域、人群成为普遍性危险,这尤其见于人工智能产品用于基础设施以及通用人工智能的情形。
    关于损害后果严重性与致害可能性大对于界定危险是否必要,有学者认为两者都是必要的,即危险必须特别巨大、特别频繁。但也有学者指出危险可以表现为高发生率,也可以表现为巨大损害范围与数额,这两种严重结果表现其一即可。有学者则明确指出,损害的量值是表明行为具有异常危险性的主要因素,其他则不是。所有的人工智能本质上并非极端危险。相反,只有当人工智能技术以比人类更安全的方式实现其目标,从而使其危险性低于先前,使用人工智能技术才是有意义的。基于人工智能产品所具有的更安全目标,其致害可能性应更低,而且通过不断完善,这种可能性还会不断降低。不能将人类对不可完全把控的未知恐惧等同于高概率的致害事件。因此,致害可能性大并不能用于人工智能产品致害危险的界定。
    人工智能的自主程度和使用方式也可作为考量因素之一。实际上这可以用于区分产品责任中的危险与这里讨论的人工智能产品的危险。如前所述,自主程度越低,使用方式越受管制,生产者就越能对人工智能产品进行控制,那么就越贴近产品责任中的危险。这里对自主程度和使用方式的考虑需区分控制和影响。《人工智能系统运行责任条例》第3条第g项对控制的界定是指操作者对人工智能系统的运行产生影响的任何行为,它会影响操作者将第三方暴露于与人工智能系统的运行和功能相关的潜在风险的程度;这种行为可以通过输入、输出或结果在任何阶段对运行产生影响;人工智能系统运行的这些方面由行为决定的程度取决于操作者对与人工智能系统的运行和功能相关的风险的影响程度。这里的控制实质上仅是对运行产生某种程度的影响,并非如传统产品生产者那样的完全掌控。产品责任之外的人工智能产品致害危险是因黑箱而必然存在的,人们尽最大限度的注意也无法将其彻底消除,已超出了主体的控制能力。
    另外,人工智能产品致害危险还要与高度危险相区分。如前所述,人工智能产品本身是为了更安全、更有用而设计的,其危险性质更多来源于民众的忧虑。因为只要黑箱问题存在,民众就会认为人工智能产品本质上是不可预测的,其存在会自动产生新的风险。这种对人工智能致害可能性的朴素假设,尤其是在已经发生了某种损害并围绕这类损害作未来预测的情况下,通常是不可避免的。这与高度危险的性质是完全不同的。高度危险作业是高空、高压等危险活动,高度危险物涉及易燃、易爆、剧毒、高放射性、强腐蚀性、高致病性等物品。这些物品或活动有其固有危险,也就是说高度危险源于物品或活动本身的特质。正因为如此,《民法典》才会规定第1241条遗失、抛弃高度危险物致害的责任,第1242条非法占有高度危险物致害责任以及第1243条所涉及的高度危险活动区域或高度危险物存放区域。而这些规定完全不能适用于人工智能产品的情况。由此可见,人工智能产品的致害危险无法被视为高度危险作业或高度危险物责任类型内的未尽周延事项,更无法将两者视为性质类似的情况进行类推。
    (二)基于人工智能产品致害危险特质的规则
    1.关于过错及相关问题的讨论
    关于是否需要过错作为此类责任的构成要件,存在争议。有观点认为,以过错责任而非严格责任作为人工智能产品责任归责原则,能最大化人工智能发展阶段的资源配置效率。事故本身难以解释或不能合理追溯到设计缺陷,或损害是因人工智能系统难以为生产者所预测到的特殊经历造成,让生产者承担责任将会导致不公平。有观点则认为对人工智能致害的侵权责任应适用无过错责任。主张过错的观点仍然完全以传统产品责任为路径,当然无法合理解释人工智能情况下所存在的多层次致害危险。笔者认为对于产品责任之外的人工智能产品侵权归责,无需以责任人的过错为要件。
    首先,这是人工智能产品致害危险的必然要求。尽管危险的归责并不必然导致过错不能作为构成要件,但从人工智能产品的致害危险来看,其高于传统产品的致害危险,可影响的范围不容小觑。由于生产者无法把控,对其要求不应比产品责任下的要求更低,因此在构成要件的层级上,应比产品责任基于缺陷要件的归责更为严格。有学者指出对非相互性风险的关注在辨别无过错责任时十分有用。按照非相互性风险的解释,针对他人造成非正常风险的行为,无过错责任的正当性可以清晰显露出来。这是因为在彼此施加的风险中,生产者对消费者产生了不相称的、过高的损害风险,超出了与风险程度大致相当的安全保护,基于公平理念就应予以赔偿,其中机理并不考虑行为人过错。因此,非相互性风险概念与无过错责任的正当性尤为相关。
    其次,并无必要担忧无过错责任会阻碍创新。无过错责任对于行为人的影响之一是在研究和开发方面进行投入,以产出新的安全技术。如前所述,有一些最初看来不同寻常、具有危险的活动,最终会在我们的选择下成为社会生活的一部分。它们出现时所施加的风险,虽被认为具有非相互性,却能更好地被社会理解和接纳。一开始通过非相互性风险概念接受,用严格责任调整,比绝对禁止更好、更符合创新。否则,社会对这些人工智能系统的接受可能会受到阻碍,导致人们对使用这些系统犹豫不决。无过错责任可以减少风险活动的频率和数量,而不一定完全禁止有害但有时是可取的活动。而过错责任在判断一个人是否存在侵权行为时,不是完全考虑其活动水平,而是聚焦于注意水平。无过错责任制度可以更好地激励人们减少这些危险致害活动,因为在此责任之下,责任人必须考虑其活动水平,且清楚地知道其将为可能发生的损害承担责任。以这种方式减少活动频率是无过错责任制度相对于过错责任制度最突出的好处。通过无过错责任制度控制活动水平将有助于规范人工智能产品,从而确保将人工智能产品的生产者在某些情况下对整个社会所造成的非相互性风险进行内部化处理。
    第三,可以更有利于对受害者提供保护。加装人工智能系统后的产品不应使得消费者的境况变得更糟,尤其是人工智能产品侵权的受害者不应面临比产品责任更低水平的保护。受害者所获损害救济是基于生产者开启危险,而非生产者生产缺陷产品,这在实体层面足以为受害者确立赔偿权利。同时,过错责任制度在人工智能情况下的实施效率低,在诉讼层面可能不如无过错责任制度,尤其是在过错等要件难以证明的情况下,诉讼成本将会非常高昂。无过错责任制度可以节约所有相关的成本,这对受害者主张赔偿更有利。
    与无过错责任相关联的是损害权益的范围及其救济。对生命权、身体权、健康权乃至隐私权等人格权及财产权的损害,纳入责任的保护范围并无异议。对于其他民事权益,尤其是人工智能产品可能导致人格歧视等权益的损害以及纯粹经济损失,能否纳入保护范围并进行救济则存疑。欧盟委员会《人工智能责任指令》将其交由各成员国来决定。有学者指出,至少在现阶段,必须拒绝将纯粹经济损失及对一些人格权的侵犯(如歧视)纳入责任的保护范围。就这些损失而言,没有进一步过滤的过错责任的统一规则已经走得太远,对此类损失的严格责任更是不可接受。笔者认为,在我国法上对于人工智能产品侵权的归责,若要严格其责任,相应地就要缩小其受保护权益的范围,由此对于纯粹经济损失及人格歧视之类的权益侵害,不应作为构成要件的损害后果以及救济范围,而只能在行为人过错的情况下才能考虑是否对其进行救济。这本质上仍是行为自由项下人工智能产品发展与运用的维护。
    另外,对于损害后果的救济是否要设置赔偿限额,欧洲议会《向欧盟委员会提出关于人工智能民事责任的建议》确立了责任赔偿应有上限并建议了相应额度。应否限制其赔偿数额,系立法政策的重大问题。“风险归责”使现代侵权法中针对此类责任普遍规定了最高限额的赔偿,这也是弥补无过错责任严苛后果的重要措施,我国法律法规针对一些危险责任也规定了最高限额。本文认为对于人工智能产品侵权责任也可在涉及重大损害的情况下设定最高赔偿限额
    2.是否设置特殊的证明规则
    是否要在立法中对证明负担设置特殊规则,笔者认为至少目前并无必要。因为举证责任的倒置规则对责任人过于不利,在我国现行法中仅有环境侵权因果关系等极少数的规定,而且这已有几十年的实践。即便如此,仍存有很大争议。对此能否用于人工智能产品侵权领域,尚待观察。对于推定规则,《最高人民法院关于民事诉讼证据的若干规定》第10条规定了两种推定:一是第3项根据法律规定推定的事实;二是第4项根据已知的事实和日常生活经验法则推定出的另一事实。前者主要用于违法事实而对过错进行推定,这并不适用于无过错责任,而后者在司法中个案适用,立法并无必要规定。
    另需说明,本文所主张的人工智能产品致害在责任类型上存在两种情况:一种是产品责任,另一种是新的人工智能产品侵权责任。相应,个案当事人的主张也存在特殊之处。如果生产者能证明其对人工智能产品的设计、制造乃至运营进行把控,尤其是能使用完备的训练数据、遵守透明度要求、确保人工监督、达到准确性、稳健性和网络安全标准,那么就适用产品责任,这对于生产者而言是有利的,因为他可以通过缺陷证明或者风险抗辩来减免责任,在个案中生产者会主动进行证明。如果生产者无法对此证明,则适用新的人工智能产品侵权责任。
    四、结论
    回答本文标题所提出的问题:人工智能产品侵权,当这类产品符合产品责任的产品特征,且相关规则及修正未超出本身的限度,应由产品责任来规制,这样可以实现受害者保护和促进产品安全的规范目的。但是人工智能技术具有不可控制的特性,其必然会超出产品责任的容纳范围。对于超出部分的产品侵权的归责,需在危险事由中确证其特殊性,从抽象的一般性危险中具体抽取出符合人工智能产品致害特性的危险,它区别于传统产品责任中的危险及高度危险。这种人工智能产品致害危险源于生产者,基于非相互性风险理论,应由生产者承担无过错责任。只有基于这种合理的归责理由并进行相应的规则建构,人工智能产品侵权归责方可脱离产品责任,成为一种新的侵权责任类型。
    对于人工智能技术的发展和运用,促进创新而不轻言加强监管,是目前应有的态度。妥当建构并充分运用合理的侵权责任赔偿制度,而非过度依赖监管禁止机制,既可以对受害者提供充足保护,也可以为人工智能技术的发展与运用留有宝贵的空间。
    作者:窦海阳,中国社会科学院法学研究所研究员。
    来源:《中外法学》2025年第2期。
相关文章!