雷磊:新科技时代的法学基本范畴:挑战与回应

雷磊

    【摘要】以人工智能和大数据的结合为特征的新科技时代,不仅给法律领域带来技术问题和法教义层面的问题,也对法理学知识体系,尤其是法学基本范畴形成挑战。对于这种挑战,大体有三种回应方式:部分基本范畴的独立范畴地位将被完全放弃(如“法律关系客体”“法律部门”),部分基本范畴的既有理解将得到彻底或部分重构(如“法律行为”“法律权利”),但也有部分基本范畴在新条件下应该得到坚定辩护乃至更好捍卫(如“法律责任”“法律主体”)。至于“法律”这一根本范畴是否需要重构,则仍无定论,有待未来通过充分的价值论辩来形成重叠共识。新科技时代并没有“肇生”全新的法理学问题,只是提供了“激扰”法理学知识体系、促使对既有理解进行反思的新语境。唯有对上述挑战作出及时有效的法理学回应,才能抓住中国法学自主性发展的新机遇。
    【中文关键字】新科技时代;人工智能;大数据;法学基本范畴;法理学回应
    一、背景与主旨
    新科技时代给法律领域同时带来了技术问题和理论问题。法律理论问题可以进一步区分为法教义学与法理学两个层面。目前学界关于人工智能与大数据的法理学讨论大体聚焦于法学方法论与价值论两个方面。相较而言,对于概念论即法学基本范畴的讨论比较少。本文意图是较为宏观却又有限的:通过择取一些代表性范畴,来例证法学基本范畴在新科技时代可能受到的冲击及其不同的回应方式,从而刻画出新科技时代法学基本范畴之处境的“大致图景”,为后续研究提供起点或指南。
    二、挑战与回应之一:独立范畴地位的放弃
    随着新科技汹涌而来,部分法学基本范畴继续存在的理论必要性和实践“有用性”面临根本质疑。其中,比较有代表性的范畴是“法律关系客体”和“法律部门”。
    (一)“法律关系客体”的消亡
    人工智能的基础性要素是数据和算法。新科技时代带来的问题是,个人信息法律关系或数据法律关系的客体是什么?相比而言,信息更难进行客体上的归类。基于信息与数据的不同,既有的思路可分为两种:一种思路是将信息视为个人人格利益的载体。虽然我们可以在语言上谈论“人格利益”,但人格或人格利益不能被客体化。如果将信息界定为“人格利益”或人格的组成部分,就相当于在某种程度上否认了信息的客体属性。另一种思路是将信息视为独立于既有类型之外的新的客体类型。但这种做法并不可取,不仅因为信息兼具主客体属性而无法单独归类为“客体”,还有一个理论分类上的原因:如果每诞生一种新的法律关系都独立出一种新的客体类型,那么客体清单将无穷无尽。既有的客体理论既无法说明民事法律关系的现状,也无法用于其他法律关系领域。从根本上说,这或许是因为“法律关系客体”在法理学知识体系中本就没有作为独立范畴的必要,新科技时代的到来则为这一认识提供了新的也更具有说服力的社会条件。
    (二)“法律部门”的解体
    新科技日新月异的发展迫切要求立法的及时跟进,因此我国近年来出台了不少信息保护、网络安全、数据安全等方面的法律法规。以这些法律文件为载体的法律规范该如何归类?这里大体有两种思路:一种是切割归类法。例如,如果既有的法律部门划分不变,那么就需要将整部《个人信息保护法》切割开来,将它所包含的法律规范分别归入民法、行政法、刑法等法律部门。另一种思路是整体定类法,也就是不对相关法律作切割处理,而是整体上划为一类。按照这种思路,可以单独设立一个新的法律部门(科技法部门),然后将诸如《个人信息保护法》这类法律整体上纳入新的法律部门。这两种思路各有利弊:切割归类法维系了既有的法律部门划分,但使得一部法律文件被零敲碎打,在适用和研究时人为将有联系的法律规范区隔开来,不利于从整体上把握整部法律的目的和精神。整体定类法虽然可以避免这一弊端,但会冲击既有的法律部门划分标准,使得整个法律体系的结构设计失去科学性和严谨性。无论是切割归类法还是整体定类法都已显得不合时宜。因此,或许是时候来瓦解部门法的分立格局,促成法律体系内部既有结构的解体了。进而,这终将促使我们彻底放弃将“法律部门”作为法律体系的组成单位,建立起“法律规范—法律体系”的二阶构造。
    三、挑战与回应之二:既有理解的不同重构
    与被放弃的法学基本范畴相比,更多的基本范畴需要在新科技时代得到重构。根据重构的不同程度,又可以分为两种情形:一些基本范畴需要彻底重构,另一些基本范畴则仅需要部分重构,或者说在某些层面上重构。
    (一)彻底重构:(狭义)法律行为
    (狭义)法律行为是私法自决的一般工具,(狭义)法律行为概念之形成所贯穿的中心线索,正是私法自治之维护。新科技时代进一步挑战了(狭义)法律行为的独特内涵。人工智能不具有物质意义上的人类心灵。因而人工智能并不具备“意思”:它没有观点,只有观察。可怖的是,虽然人工智能不具备心灵和意思,却可以依照事先设定的算法、甚至通过自我学习掌握的算法作出程式化的“表示”。在此,从“意思”到“表示”的逻辑链条被打断了:“意思”不必是“表示”之因,“表示”未必是“意思”之果。在大量日常的、程式化的社会关系中,内在的“意思”对于特定法律效果的发生不再必要,只要有自动化决策的外在“表示”就足以完成有效的法律交往。由于人工智能完全可以通过纯粹的表示行为胜任原本由人类的意思表示行为承担的社会功能,因此,至少在这类社会关系中,既有的(狭义)法律行为概念面临解体之虞。
    (二)部分重构:法律权利
    在传统法理学中,权利以个人为出发点,因为权利被认为与权利主体的主体性(个人性)密不可分。与传统权利的内容相比,个人信息具有鲜明的公共性面向。问题在于,权利与公共利益真的不可兼得吗?权利概念的独特之处在于,它是保护个人的内在独立性和个人自治的重要概念和制度设置。权利以主张为核心要素。权利固然反映利益,但利益未必都能够上升为权利。只有当法律制度将保护特定利益的自由或选择交由特定之人(权利人)时,才会产生权利。当然,尽管利益不等同于权利,权利的证成基础却在于利益。只有正当的利益才有可能被作为权利来保护。就此而言,个人信息的公共性的确对权利的传统证成方式提出了挑战。在新科技时代,由于个人信息承载着公共利益,个人权利的证成基础不再完全是个人利益,甚至不主要在于个人利益,而是同时在于对公共利益的保护。可见,在新科技时代,法律权利的概念(独特性)可以得到维系,但其证成基础却应当被修正。
    四、挑战与回应之三:坚定辩护与更好捍卫
    对于部分法学基本范畴而言,新科技虽然对它们造成一定冲击,但未形成根本性的撼动。这些基本范畴通常关联着被广泛承认且不可轻易动摇的基本理念和价值预设。
    (一)“法律责任”的辩护
    在传统过错责任学说中,归责的一个主要条件是控制力条件。具有某种自由是我们能够对行动承担责任的一个先决条件,而自由意志构成了责任的核心和前提。我们在新科技时代所面临的考验最终都会被还原或归结为对自由意志的挑战。这种挑战可分为三个方面,但它们都是不成功的。第一个方面的挑战是利用大数据的信息追踪和算法推荐营造“信息茧房”,削减人们的自由选择空间,从而诱导、影响乃至决定人们的行为。信息茧房并不必然挑战自由意志本身,而可能只是影响了自由意志发挥的现实条件。第二个方面的挑战是人工智能时代作用于神经的各种综合性医疗手段,比如人工耳蜗、脑机接口、生物芯片等,可能改变人的生物属性并进而影响到人的自主意识和决定。人工智能装置只要在科学的意义上对人的自主判断能力产生影响,就可以考虑减轻或免除相应的责任。但前提仍旧是承认以自由意志为核心的责任概念。第三个方面的挑战是强人工智能有可能创造出全新的非人类主体及其不以生物特质为基础的自由意志。人工智能体,哪怕是强人工智能体,都显然不具有回应理由的能力,无法通过了解来接受一套社会规则,形成对规则之规范性的认知。所以,人工智能体不可能拥有自由意志,因而也不可能成为承担过错责任的主体。
    (二)“法律主体”的捍卫
    在过错责任的意义上,人工智能体并非拥有自由意志的适格归责主体。被认可拥有自我决定的资格的,只有具有理性的人类。如此,要让人工智能体成为法律主体,唯一的可能就是放弃过错责任,将法律主体限于严格责任的承担者。但是,无论是哪种模式,都无法合理地证明人工智能体就是法律主体。让实施致损行为或招致风险的人工智能体自己承担责任并无实际意义。人工智能体并不满足法人作为法律主体的底层原理:法人虽然是由法律直接拟制的法律主体,但指称的是一个自然人的集合,它能通过“归入”技术与自然人的行为建立起联系。而强人工智能的情形并不相同:强人工智能体并不是自然人的集合,它的行为是自行实施的,而非由自然人来代理。它所以,至少就目前而言,人工智能体不能(就过错责任而言)或不必(就严格责任而言)被赋予法律主体的资格,而“人”的既有标准或者说“人”的独特性也应得到捍卫。
    五、终极挑战:“法律”范畴的范式转换?
    新科技时代至少从表面看对法律的三个传统特征构成挑战,但目前尚无充分理由来决定是否必须放弃这些特征。一是法律的国家强制性。新科技时代出现了大量非由国家机关创设的规范。此外,也有虽由国家机关创设但仅具有指导意义的规范。这些规范往往被称为“软法”。“软法”不依靠国家强制力保障实施,不具有绝对的拘束力,因而并不符合国法的标准。二是法律的普遍性。在人工智能和大数据时代,对每个个体活动所生成的数据进行全样本的收集和分析已不成问题。当人们从平台获取对法律运作结果的预测时,由于此前的认知与反馈都可能成为积累下来的数据,其获取的结果正是人工智能学习这些数据之后形成的结果,这种结果不是普遍的,而是与具体的个人数据联系在一起的。在此情形下,起作用的是围绕一个个“个人”形成的个别性规则。三是法律的规范性。一方面,在人工智能时代,算法如同法律一般调整和规制着人们的行为。另一方面,算法与法律依然具有重要区别:根据传统法理学,法律具有指引并拘束人们行为的性质。相反,算法只是通过技术的手段“迫使”行动者采取某种行为,行动者的行为是必然的(被强制的),而非应然的(有义务的),它并不需要行动者回应,只需其认知。所以,假如算法等同于法律,甚至替代法律,那么规范性就会被认知性取代。
    隐藏在上述问题背后的是这样一种根本范式冲突:在理解法这一范畴时,究竟应当采取概念分析的进路还是功能主义的进路?仅凭概念分析与功能分析本身都不足以证立算法是或者不是法律。是否要将算法划归法律的范畴,最终取决于我们是否珍视法律作为一种规范性实践的独特价值。
    六、结语
    新科技时代并没有“肇生”全新的法理学问题。部分法学基本范畴面临的问题其实一直以来都存在,只不过在新科技条件下,这些问题要么以改头换面的形式重新呈现,要么被放大了。所以,至少在法理学层面上,当我们说新科技的“全新挑战”时,并非是指“问题”的新,而只是指“语境”的新。在此意义上,新科技只是构成了对既有法理学知识体系进行“激扰”的环境。在中国实施新科技弯道超车战略的背景下,法学界不仅要提供应对工具性挑战的制度建议和教义学智识,也要及时提出有效应对根本性挑战的法理学方案。
    雷磊,中国政法大学“钱端升学者”,教授、博士生导师,法学博士。北大法律信息网签约作者。
相关文章!