谷佳慧:数字时代正义的内涵变迁及法治保障
谷佳慧内容提要:数字时代的到来促使正义理论研究进入一个新阶段。围绕数字正义、数据正义、算法正义等概念讨论所引出的核心问题是:数字时代的正义观是传统正义模式的移植,还是基于科技发展衍生出的新型正义结构?实质上,数字时代正义的内涵已发生了根本性改变:传统正义观中人的主体性地位因人工智能普及而降低,让位于技术理性;正义的作用对象扩大到机器行为,并因此产生算法公开的正义实现方式;正义的发生场域拓展到信息空间,出现场景正义和可视正义的新类别。正义内涵的变化带来了数字非正义问题,数字鸿沟、数字歧视以及数字强权成为区域和群体间不平等矛盾的新缘由。解决非正义难题需要建立全新的法律路径,在实在法层面合理分配数字权利,在程序法层面强化可视化纠纷解决方式,从而为数字正义的实现提供法治保障。
关 键 词:数字时代? 正义内涵? 数字不平等? 法治保障
数字时代人类社会的诸多概念面临重塑,作为法哲学基本问题的“正义”理念,也需被重新定义与建构。传统正义观经历了从古希腊“正义就是有自己的东西做自己的事情”①“善就是正义”,②到中世纪“理性是判断人类事务正义与否的标准”,③再到近当代“正义是社会制度的首要美德”④的变迁,正义内涵不断完善并成为社会政治结构的基石。然而,“社会正义并不是普遍的或者绝对的,社会正义随着社会的发展而发展”。⑤数字时代的正义生成背景正在发生这样的改变:从物理世界到信息世界、从人—人交际到人—机互动,以人为本的正义实现标准与机器智能状态下的工具理性产生冲突,传统社会的权利保护机制与数字社会运行模式存在错位。面对数字时代的社会变革,正义论的发展还能否延续前人的学理框架,数字时代的正义内涵是要建构在传统理论的脉络之上,还是完全以新时代的视角和规则来重构?对于以上问题,本文将通过阐释数字时代正义发生的背景、主体与客体范围、实现方式和场域变化,揭示数字正义内涵的变化,进而通过分析正义变迁带来的困境,在实在法与程序法上提出解决非正义问题的双重路径,为构建数字时代多维度的法治保障提供理论基础。
一、数字时代正义讨论新范式
数字技术革命对正义理论的冲击是不言而喻的,无论是正义的内涵还是实践路径,都面临着重大转变。在广泛的社会生活领域,数字技术拓宽了传统的社会连接的边界,数字网络实现了个人与社会的信息共享,⑥这种状态下纯粹的“无知之幕”不复存在,当包括个人信息在内的数据作为最具价值生产要素从而改变社会经济运行时,⑦个人和社会要作出“理性选择”显然面临更加复杂的影响因素。在法律生活领域,司法人工智能的介入带来了历史数据的同案预测和“法官画像”,改变了程序正义的实现模式,也引发了对实质正义影响的讨论;⑧而由于算法在技术层面的重要地位和对社会生活的影响,正义的实现需要经由算法,“算法正义将成为法治的核心价值”。⑨随着新的要素不断加入,对正义理论的研究从数字技术关键点出发,提出了“数字正义”“数据正义”“算法正义”“计算正义”等一系列概念,这些新元素覆盖了数字社会的各个面向,也构成了数字时代正义研究的基础。由于尚未有统一标准来定义正义表现,不同概念间的内容表达互有交叉或冲突,但这种范式的重合恰好更凸显了数字时代正义生成背景的多维性与复杂性。 (一)数字正义
“数字正义”是数字正义理念中包含范围最为广泛的概念,涵盖了司法建设的正义要求、数据资源的合理分配、新兴权利的妥善保障、算法技术的治理规制等内容。目前学界对数字正义的探讨主要集中在三个层面上。
第一,强调数字正义是数字时代传统公平正义的体现,侧重实质正义的描述。数字时代是人类社会发展的一个新阶段,但并未超出人类生活的基本规范和原则,因此数字时代的正义也应延续符合人类社会正义的价值标准。有学者提出,在数字技术时代,正义是美好生活的核心理念,建立在人类固有的尊严之上。⑩数字正义作为传统正义观在数字时代的延续和升级,体现了人类发展到数字社会后,对公平正义的更高水平需求。(11)第二,将数字正义作为实现正义的手段,即“以数字的方式接近正义”,突出司法价值,偏向程序正义属性。这类讨论的场景建立在纠纷解决程序上。在前数字时代,纠纷解决程序的门槛较高,需要更简便的司法程序帮助当事人进行诉讼,以达到“接近正义”的目标。而信息技术的进步,出现了线上法庭、智能司法等纠纷解决新措施,数字正义成为实现“接近正义”的方式。《最高人民法院关于规范和加强人工智能司法应用的意见》指出,要进一步推动人工智能同司法工作深度融合,全面深化智慧法院建设,创造更高水平的数字正义。此处的数字正义正是指向法院的信息化建设,通过在线诉讼规则、在线调解规则等智慧法院建设和互联网司法模式,提升审判能力和效率,保障司法为民、公正司法。(12)而数字司法因其裁判效率高、当事人应诉方便以及处理纠纷及时,被视为技术和法律的“乌托邦”。(13)第三,将数字正义作为数字技术应用的理想状态和规范指引,强调其在技术世界的价值导向作用。互联网、大数据、区块链、人工智能等技术的飞快发展使数字技术的开发和应用进入了一个前所未有的阶段,与此同时,社会关系也发生了一定变化,产生了以数据为基本元素、以算法为核心的数字社会。(14)在数字社会背景下,数据本身、数据的开发使用、数字权利的分配和使用需要得到有效规制,数字正义正是指导和约束人类开发、设计、应用数字技术的价值准则,从数字技术维度对社会关系、社会结构和社会问题(算法歧视、算法霸权、个人信息保护等)予以评价。同时,有学者认为数字正义应当包含数据资源的合理分配、数字权利的使用和保护以及算法决策的公开透明。(15)基于技术指引层面的研究,数字正义更凸显出对数字技术核心问题的解决和引导,数字本身成为正义概念讨论的客体,而不仅是解决社会正义问题下的手段。
(二)数据正义
随着数据跟踪、存储、处理、挖掘、评估和算法技术的进步,数据对社会进程和发展的影响加大,(16)人们生活在一个海量数据的世界中,数据错误反而可能成为公权力行使的核心,(17)因此数据正义成为衡量数字社会正义尺度的重要标准。在大数据的知识建构过程中,社会不同个体或团体,在占有、使用和分配上出现不平等,从而导致在数据资源的“代表性”“用户画像”、决策支持等不同维度上出现不增益的情形,(18)由此衍生出算法歧视、数据监视滥用等问题;而资本数字转型也引发了数字剥削和数字劳动贫困等不平等现象。(19)这种数据控制者与数据主体之间的不平等,(20)根源于政治上的不平等,在现实世界拥有特权的群体在数字世界拥有过度的代表权,反之则缺乏代表权,政治不平等又进一步带来数据权利的分配不公,分配不公又循环作用到现实世界,强化了线下世界的不正义。(21)因此,减轻和消除这种不平等是数据正义理论所应着力解决的问题。基于此,有学者建议为了实现数据社会多元利益的分配正义,享有公权力的规制者和数据处理者应自律、负责任地保护个人数据权利,数据处理者应同时关注公共产品的增长与市场利益的分配、落实差序分配原则。(22)区别于数字正义理念,对数据正义的研究倾向于数据相关技术的规制和数据在公权力、市场主体和公众个体间实现分配正义,以及通过实现传统社会正义来解决数据正义问题。数据正义实质上是一种关于如何使用数据才能实现个人自由和增进社会福祉的价值观,(23)因此有学者认为,讨论数据正义并不局限于数据在单一领域的应用,而应立足于“社会和政治主义准则”的高度,探索数据正义的理论框架。(24)
(三)算法正义与计算正义
算法是数字时代的核心技术,算法权力也因此被认为是一种新型的权力。随着算法歧视、算法黑箱、算法主体化趋势等问题不断衍生,算法正义也被广泛讨论。从正义的内涵来看,“算法正义观”分为将算法视为独立主体的内在正义观以及将算法归为社会规则一部分的外在正义观。前种观点认为输入数据的不正义将导致算法结果的不正义,(25)希望通过改善算法本体的缺陷来解决其所产生的问题,即构建算法内在的善。(26)例如,美国《算法正义与在线平台透明度法案》中要求算法透明度和算法问责就是以算法为正义原则的本位。(27)而后种观点则将算法正义的本质内涵划为社会正义,认为算法从来不是客观中立的,其体现的是设计者的价值选择与社会分配正义的问题,(28)否定了算法在算法正义中的主体性而体现其工具性。人工通过算法黑箱机制、价值的非中立以及决策结果的不受监督等方式完成了全方位的风险渗透,影响了社会公平正义。(29)为实现算法正义,须从拥有公权力的政策制定和监管方、作为市场主体的公司和平台方以及底线保障的司法机关几个路径展开,确立敏捷治理的监管机制、责任明确的自律机制、公正可靠的司法保障机制等。(30)
在算法正义的讨论之外,亦有学者基于算法技术与社会维度的共同价值追求,提出与算法正义类似的“计算正义”,认为计算正义是传统正义原则在算法实践中的体现,是人的社会合作和创造活动被计算化过程中所应遵循的价值准则。(31)实现计算正义,既要从算法实践中提炼出计算正义原则,更要将法律嵌入算法之中,进行算法与法律的关系重构。(32)
围绕数字时代正义的讨论对新正义形态的判断基本分为两个方向:一是在数字社会结构下重新理解正义内涵,二是认为数字时代的正义依然是社会正义,应承袭传统正义内容范式。实际上,虽然数字正义的生成和实现都是社会结构的反映,与社会正义同源,但数字技术对正义的影响已远非外观上的技术叠加,而是通过技术造就了有别于物理世界的信息空间即数字社会,在此社会中技术改变了人类的社会定位、行为模式和交集方式,与人类活动相对应的正义理念,尤其是正义内涵发生了结构性的改变,因此当下的研究已不能单纯从移植论角度来解读数字时代的正义。
二、数字时代正义内涵要素的变化
(一)正义结构中人的主体性地位改变
传统正义观中,人在正义理论结构中处于主体地位。正义是道德要求的最高标准,而道德的基础就是保障人的尊严与价值。“以人为本”的思想并非天然存在于正义理念中,早期文明认为只能假用一个有人格的代理人即神代替人的意志来维持社会活动秩序。(33)随着科学认知的发展,人们将支配世界的法则从超自然的神转向自然,(34)自然再转向以人为中心,于是出现“人是万物的尺度”的理念;而人的目的在于过一种最优良的生活,只有遵循正义才能实现。(35)自此,关于正义的讨论以人为根本,个人正义是社会正义的基础。在康德哲学中,人作为理性的人,先天具有设立符合正义要求的法律的能力。(36)而罗尔斯将“人的观念”作为正义原则的基础,(37)要求正义原则要合乎人作为自由平等的道德人的本性。(38)考夫曼则更加细化了正义理论中的人本位主张,提出“法的观念是个人性人类之观念,除此,它什么都不是”。(39)在马克思主义理论中,个人是思考正义的基点,“每个人的自由发展是一切人的自由发展的条件”,(40)人的自由全面发展是正义的根本价值目标,人民则是创造正义的主体。(41)以人为主体进行正义讨论是近代以来理论界的共识,数字时代的兴起对人主体性的地位造成了巨大冲击。正义理论中人的主体性具体表现在两方面:一是人作为独立个体拥有自由选择的能力和权利,二是人格尊严与价值的实现是正义追求的至高目标。数字时代这两方面都发生了质的改变。
首先,人类个体的选择自由权被机器智能削减,智能决策代替人类决策的范围逐步扩大。在数字时代,人类的许多决策并不再由人自身作出,而是被机器自动或者辅助作出。(42)自动化决策机制中智能算法介入并重新定义传统决策方式,决策者的理性和经验被算法技术重新清洗,而决策过程中则出现了算法权力化倾向。(43)这种机器决策机制被广泛地应用在行政审批、司法裁判、信用评估等社会生活的诸多方面,其作用范围也从简单的问题裁判演进至制定规则,逐步成为一个负责任的决策者。(44)这种模式也直接改变了传统的人机二元关系。正义的复杂选择包括选择何种正义标准以及在多大限度内实现正义,而标准的确定又包含了人类彼此间的共情心和同理心,高效率的机器决策代替了人类道德和情感考量,某种程度上也改变了选择的性质。
其次,人的尊严在社会价值位阶中的地位遭遇挑战,机器逻辑不再纯粹以实现个人价值为目标。人的尊严是社会每个成员抽去人的一切外在特性与外在表现后所拥有的不言自明的地位,在马克思的论述中,人的尊严包括“人的解放”“人的需求”和“人的发展”三个基本面向。(45)因此,人的尊严是具有先在性、基础性和永久性的准则,也是“法律、正义与道德论述的共同立基”,(46)是统合个人权利社会福祉的上位概念。(47)无论是包括程序正义和实质正义的法治理论,还是从内在视角规制人类行为的道德准则,人的尊严都是其设立基础和发展目标;而这种至高性在数字时代有明显下降。一方面,尊严的主体应当只能是活着的自然人而不包括其他的生命形态,而且不必再附加任何后设的社会身份。(48)另一方面,理性是人的尊严的基础,一旦其他物体具备理性可能会同样获得尊严的基础。(49)人工智能在信息处理和逻辑推理方面已经显现了重大优势,具备“类理性”的机器拥有了尊严的基础,且其运行往往以整体效益为考量,人在其中化为一个符号,其尊严很容易被机器的尊严所取代。
(二)正义形态和实现方式的扩展
正义论史中存在多种类型的正义形态:与个体德性相关的身份正义、与社会治理相关的分配正义和矫正正义、为实现自由平等的平等正义(50)和资格正义、(51)社群主义的应得正义(52)和分配正义,(53)以及罗尔斯的“社会正义”和“程序正义”。(54)身份、分配、矫正、平等、社会、程序等形态要素是不同正义的实现方式。然而,数字技术在拉近了空间上的距离和时间的同时,也分割了不同系统模块下的社会生活形态,新增模块与新的社会形态直接导致了正义形态与实现方式的改变。数字时代的正义已经超越了既有形态,实现方式也相应增加。
第一,正义实体范围扩大到人类行为之外的机器行为,正义形态从人的正义扩展到工具正义。在道德哲学和伦理学中,正义是实体与标准发生关系时产生的属性,而实体是用来交换的社会行为,(55)一般认为,只有人才能够做出实体的社会行为,包括人的思维活动、社会领域和自然领域。(56)在数字时代之前,对正义实体范围的辨析主要聚焦人与有脑力活动的动物,例如康德反对动物是正义主体,人对动物的行为有间接义务。(57)因此,当论及分配正义、矫正正义、实体正义、程序正义等概念时,实体对象一般指向自然人。在数字社会中,机器的行为确实影响了人类生活,人工智能机器活动在社会甚至自然领域构成了“类社会行为”。算法正义的实体是基本运算和规定的运算顺序所构成的次数为有限的、求解问题的步骤,这些规则本身带有类人脑的行为特点,即使并非人类社会行为。判断算法的运行是否符合正义标准,实则是对作为人类生产工具的算法活动进行评价,即使算法步骤本身没有生命,但其运行却改变了人们生活,因而具有不亚于人类行为的社会属性。数据正义的实体是数据分配范式,数据的分配由数据控制者与智能系统共同负责。数据正义要求数据分配符合正义标准,不论是大数据的收集和处理系统的设计模式还是运行过程都不能做出影响数据所有者权益的不公行为,被正义标准规制的行为不仅限于数据控制者,作为工具的数据系统也是正义的实体。无论算法正义还是数据正义都凸显了工具正义的属性,传统正义形态已经不能囊括数字工具在新正义理论中的影响。
第二,正义的实现方式源自正义发生背景,公开正义成为新的实现方式。传统正义观偏向政治、社会或司法导向,与之相应的实现方式是对政治权利的平等需求、社会生活选择的自由和司法程序公正的维持,处理好各方权利平衡的分配正义,这也是社会正义实现的基本路径。而在数字社会,单靠分配已不能妥善解决涉及数字技术的全部问题,对技术的公开成为实现正义的首要步骤。一方面,公开正义需要公开影响人类行为的技术信息的关键部分。技术壁垒越高人们越发无法判断技术本身价值导向的善恶,而算法黑箱下的不透明、大数据处理和运用有倾向地让人们身处信息茧房之中,迫使个体必须获得真实有效的技术运行方式才能据此作出符合正义的选择。(58)另一方面,公开正义需要技术操控者的行为公开。弱人工智能时代的工具没有道德理性,(59)但作为设计和操作者的人具备价值选择能力。因此,工具背后的人的行为需要接受公开的监督,在数字技术发达到普通人无法使用和控制时,公开正义是制约技术操控者,更是实现正义理性的屏障。
(三)正义发生场域的更迭
正义的发生依托于社会共同体,游离于社会性、公共性和人民性的正义缺乏实践的具体场域。(60)正义理念及实现必然与其所处的历史场域相融洽。当代正义发生的具体场域与数字化变革紧密相连,而且随着数字技术的丰富和差异化发展,其亦呈现出多元化、智能化的特点。具体来讲,数字时代正义主要在场景正义与可视正义两个维度下展开。
1.场景正义。早期正义史同法律史一样,经历了“从身份到契约的运动”,(61)梅因对于社会进步的论断同样适用于正义理论的发展。随着近代工商业的繁荣,对正义讨论的重心从崇尚政治地位的身份正义演变到以契约自由为基础的契约正义,而后者又包含了契约自由和程序正当。契约是社会正义的纽带,无知之幕后的人们依据契约达成正义共识,因此也可以说契约是正义发生的场域。进入数字时代,数字空间被分割成不同的场景:电子商务、智慧政务、自动驾驶、精准医疗等,多样化的场景具备不同规则。(62)借助移动设备、社交媒体、大数据、传感器、定位系统,不同场景实现了不同生活、学习、工作方式。(63)个体在每个场景下都涉及不同的规范,某些技术和信息使用在某些场景下是敏感的而在其他场景中是合规的。据此海伦·尼森鲍姆提出了“场景化公正”理论,认为数据信息的收集和使用应符合具体场景,(64)特定场景中的公正原则也可以视为场景下的正义。场景作为正义的新场域,在两个层面上存在与契约正义不同的取向:第一,契约正义追求一致性,而场景正义强调差异性。不同主体间订立的契约遵循相同的公平原则,否则就是不正义的表现;而各类场景下对正义的要求标准则不同,判断法益是否受损的基准是数字技术的应用是否符合特定场景。(65)第二,场景正义符合个体的合理预期。(66)数字时代的场景与传统生活不同的是具有更强的技术属性,技术操控者与普通个体间地位并不平等,合理预期可以限制“数字上位者”的权力滥用,让技术的使用更合乎正义原则。
2.可视正义。可视正义发生在司法场域,以数字技术进步为背景,在互联网和新媒体技术支持下的庭审网络直播、裁判文书公开、ODR模式、诉讼服务电子化等制度,将司法以透明化、可理解的方式呈现在公众面前。(67)在可视正义出现前,司法正义的实现被希冀通过“接近正义”运动完成,(68)通过法律援助、以公益诉讼和集团诉讼为代表的群体诉讼以及非诉讼纠纷解决机制,减低司法成本、简化程序复杂性,让司法承担起调整社会平等的更大责任。(69)而为了更好地实现接近正义,20世纪末开始,随着数字技术的发展,司法系统采用了庭审直播、电子送达、文书公开等一系列智能技术,通过这种科技方式实现正义也被称为一种“数字正义”,(70)而这种数字正义的实践过程正是“可视”的。可视正义的形成具备两个特点:第一,打破原有裁判过程和算法黑箱,使正义以可见的方式实现。(71)司法史上有十二铜表法将传统习惯法以成文法的形式公开于众,实现了法律条文的公开,奠定了法律正义的基础;可视正义则通过信息技术将裁判过程和结果以更透明的方式呈现给公众,重塑了程序的公开,改善了程序正义的质量。第二,增加了民众对裁判过程的观察,也提升了裁判结果的可接受性。可视正义强调过程正义,将裁判以民众可理解的方式展现,全过程的观察尽管容易造成民意过早干预司法的隐患,但也切实拉近了民众与司法的距离,于裁判接受度提升有所裨益。
三、数字正义内涵变迁带来的挑战
数字时代正义内涵的变迁是把双刃剑,技术大幅度升级的同时也使社会结构发生了变动,在这种变动的缝隙间滋生了各类非正义现象。非正义问题瓶颈发生在数字社会的不同层面,主要表现为数字鸿沟、数字歧视和数字强权,在理论和实践上引发了数字社会公平正义的困境。
(一)数字鸿沟引发的主体权利失衡
数据鸿沟是指在信息化社会发展中不同主体(国家、地区、行业、企业、人群)在互联网等新兴信息技术的接入和使用方面存在差距,从而引起技术普及不平衡、经济发展不平等、知识配置不均匀以及社会分化等一系列不正义现象。(72)数字鸿沟集中在获取信息和通信技术的各个方面,包括物理访问、使用动机、技能水平和实际获得,(73)即接入沟、使用沟、技能沟、知识沟。(74)不同层面的数字鸿沟也造成了各主体间权利地位的失衡,从个体到企业再到地区乃至国家,都存在数字鸿沟的问题。
第一,个体与个体之间的信息接入与获取的鸿沟。社会成员的数字技术使用有明显的分化特点,部分个体由于缺乏数字技能和知识而成为数字弱势群体。在信息设备接入端,经济落后地区的个体基础设备配置不足,与其他个体存在数字技术应用的“物理鸿沟”;在信息知识获取与利用能力上,年老或受教育程度较低的群体显著地低于其他群体,(75)具有“知识鸿沟”。数字技能接入和使用上的鸿沟,造成了这些社会成员无法适应数字时代的生活从而引发数字失能,而这种失能也进一步造成了社会成员间的机会不平等和结果不平等。(76)
第二,用户与企业间的信息收集与算法使用上的鸿沟。互联网时代数字信息最直接的对接发生在用户与提供服务的企业之间,原本应平等的信息技术提供方和使用方在许多场景下却表现出不平等。一方面,企业利用强制性、格式化的隐私条款、信息政策等方式收集用户信息,形成了具有商业价值的用户画像库;另一方面企业利用在算法技术上的上位优势,引导、限制用户作出符合企业利益的使用选择。用户只能被动接受企业提供的信息服务方式和内容,难以追溯并理解服务的计算方式且无法对此方式是否正义进行考察。这种企业与用户间的鸿沟推动企业形成市场垄断,也扩大了社会资本差异,(77)用户在此交易模式下难以实现和资本的平等对话。
第三,地区间发展上的鸿沟与国家间权力上的鸿沟。尽管我国数字技术发展迅速,但由于人口基数庞大,在农村和经济落后地区仍存在大量的数字弱势群体。据第51次《中国互联网络发展状况报告》记载,(78)到2022年12月,我国网民规模达10.67亿,互联网普及率达75.6%,其中农村网民规模达2.93亿,农村地区互联网普及率为58.8%。农村地区互联网普及率的偏低,照映出我国城乡间存在数字技术使用上的差异。在国际层面,国家间谁掌握了数字信息谁就有话语权。发达国家借助其在数字经济和科技领域的绝对优势,通过先占信息资源、制定游戏规则等方式,对相对落后的发展中国家进行信息掠夺。(79)在这种不平等的发展模式下,数字主权乃至数据霸权显现在国家竞争中,数字技术的发展曾给人们带来乌托邦的理想,但也见证了一些主权国家的衰落,数字技术甚至加强了一国域外权力,更催生了一些数字利维坦国家。(80)欧盟和美国在数字主权争夺中的战略表现,更使数字强国和数字弱国间的不平等进一步加剧,令国际秩序的正义遇到新的挑战。
数据鸿沟的表现形态是多样的、复杂的,而造成这种鸿沟的深层原因是不同主体间社会经济地位的不平等。数据鸿沟的本质是社会鸿沟。代际之间、地区之间个体掌握社会资源的差异对他们进入数字社会、融入科技生活带来了硬件方面的障碍,而这种障碍转而影响了个体对数字信息的获取和进一步使用;互联网企业资本的快速增长,容易使企业进入垄断者的角色,令用户无法获得对等的服务和资源;而国别间的数字鸿沟,更是综合国力竞争的产物。
(二)数字歧视带来的弱势群体失能
在社会学家看来,“歧视是指由于某些人是某一群体或类属之成员而对他们施以不公平或不平等的待遇”,(81)不平等分配和不公正待遇违背了正义的基本原则。(82)数字歧视就是发生在数字生活领域的区别待遇和不平等结果,表现为数字代际歧视、数字性别歧视、数字就业歧视、数据价格歧视等。传统歧视有依照歧视的理由划分的性别歧视、种族歧视等,也有依据是否具有主观上的歧视的意图划分的直接歧视和间接歧视。而数字歧视有着在意图上表现为间接歧视、方式上呈现出算法歧视的特点。
首先,数字歧视多以间接歧视的方式呈现。间接歧视是指某项规定、标准或做法看似中立和平等,实际上却将某人或某类人置于极其不利的地位。(83)间接歧视的关键在于主观上的非故意。在数字歧视中,这种表面平等实则不公的非正义情景屡见不鲜。歧视本身就隐含了“差异”,对于差异人群的无差别对待也会引起不公正的歧视,本源上的群体不平等会导致具体损害的发生,加剧社会结构的不正义。(84)数字歧视存在的前提是不同群体间存在巨大的数字鸿沟,在对待与其他群体存在先天差异的数字弱势群体上没有进行差别化对待,无差异的分配资源实质上造成了群体间不平等的拉大。在数字代际歧视中,老年人由于生理和心理原因,相较于其他年龄段人群缺乏智能设备使用的知识和学习意愿。在数字区域歧视中,偏远地区居民接入数字媒介的机会较少且对数字知识的认知程度更低,无法享受数字社会的红利。一旦政策缺乏对老年人的照顾和对偏远地区人群适应数字社会的引导,应用技术也忽视对适老化智能设备的研发和对落后地区的倾斜性扶助,“平等对待”就会在事实上扩大不同年龄、地区人群在数字时代的差异化待遇。
其次,数字歧视以算法歧视为主要方式。人工智能社会中人机交互的纽带是以大数据为基础的算法运行,数字歧视也多发生在算法决策程序中。算法通过深度学习将输入的数据作为算法学习的资源,而根据先前数据得出的结论和作出的决策再转换为另一轮供给算法学习的新数据,这样算法就会随着数据的更新不断推出差异化、个性化的决策。(85)在此过程中,算法并非完全中立,而是存在设计上的效率偏向、输入的数据自带偏差以及运行中的“算法黑箱”等情况,(86)在算法归类思维的模式下,(87)这些局限性打破了人们对算法公正特质的认知,触发了算法歧视。在算法运行中,算法控制者取得了事实上的资源分配权力,因此与用户之间的关系异化为横向权力关系,(88)而算法本身的局限性使这种权力关系失衡,造成了数字弱势群体被歧视。在现有的法律制度下,这种弱势群体身份与种族、性别、残疾、宗教等其他身份不同,其虽不是被保护的特征,(89)但本质上仍是社会身份歧视在数字社会的复刻。如常见的大数据杀熟、信息反馈歧视、社会身份歧视等算法歧视,通过将性别、年龄、社会身份等差异条件嵌入数字化的线上世界,在实质上造成了被歧视群体在公共生活中的失能。
(三)数字强权导致的区域社会不公
资源的占有不均会导致强权,在自然状态下强权具备分配资源实现正义的作用,而在社会状态下,强权支配一切则会引发非正义问题。在传统社会中强权掌握在具备更多生产资料的统治者手中,在资本社会增加了资本担任强权的角色;而在数字社会中,数字技术、数据信息等数字资源的控制者,利用其在技术资源上的优势,成为数字秩序下的强权者,并因其行为造成了实质上的非正义。
首先,数字强权表现为国际竞争中的数字霸权。凭借先发展优势和充足的人才、技术储备,部分国家在世界数字市场占据了巨大份额,在行业领域形成了数字霸权。例如,2020年美国推出的对华5G战略竞争倡议——“清洁网络”计划(Clean Network Program),2022年拜登政府签署的《保护美国人数据免受外国监视法案》,又如美国商务部建立的《确保信息和通信技术及服务(ICTS)供应链安全暂行规则》,这一系列措施均旨在将“外国敌手”所拥有的或控制、或受其管辖或指挥的人所设计、开发的某些软件程序和设备排除在美国供应链之外,避免美国数据的“不当流出”。(90)数字霸权实质上是国际竞争中部分国家霸权主义政策在数字权力领域的延伸,世界各国由于数字基础设施、技术水平、能力素质等方面的条件不同,实力差距进一步拉大,进而形成了国际数字鸿沟。然而与之相匹配的治理机制却相对缺失,相对于全球气候治理等领域,全球数字鸿沟治理尚未形成各国公认的国际条约,(91)而由此造成的国际竞争不平等,也加剧了国际政治的非正义现象。
其次,数字强权表现为社会运行中的数字利维坦。在社会契约之下,国家利维坦既保护民众为其创造安稳生活,也存在强权治理的缺憾,如何把利维坦关入笼子中一直是政治哲学关注的核心议题。数字技术原本是制约国家利维坦的工具,但随着科技本身的高速发展却异化成一种新型的数字利维坦。(92)政府与企业作为技术和数据的掌握者,构成了数字利维坦的主体,数字强权也在社会治理与资本运行两个层面同时发生,形成自上而下的数字资源垄断。一方面,数字利维坦利用技术手段恣意收集、使用个人信息,侵害个人隐私权,少数群体因主导社会的物质生产,进而自然成为社会精神生产的主导者,(93)无论政府还是企业,都可能利用数据信息引导用户的价值观,从而使社会运行高度依赖于这种非正常化的数据寡头。另一方面,个体理性让位技术理性,对数据分析准确性和客观性的崇拜禁锢了个人的自由判断,出现了“数字治人”。
“强权即正义”还是“强权非正义”是建构正义的先决问题,在修昔底德《伯罗奔尼撒战争》中的雅典人和柏拉图《理想国》中的色拉叙马霍斯的叙述里,“强权就是正义”被坦白提出,历史上从“弱国无外交”的国际政治竞争到数字时代数字强权对数字弱势群体利益的侵夺,无不在反复论证这一观念。但“强权没有足够理性”,(94)强权正义也许符合现实观察,但却不符合道德直觉。(95)制约强权、实现符合道德直觉的正义,需要以矫正社会制度为前提,具体到数字正义的实现,需要建构从国际政治、社会治理到资本运行的法律制约,才能获得具有约束力和稳定性的正义体系。
四、数字正义实现的法治保障
数字时代正义内涵的变迁引发了新的数字非正义问题,非正义的困境也阻碍了人类在数字时代的发展和社会正义的实现。在应对数字非正义挑战、提升国家数字治理水平方面,法律保护具有重要的价值和实践指引作用。面对新的社会经济发展形态,要不断满足人民群众对公平正义的更高需求,(96)建立符合数字时代的新正义价值体系,而提升数字社会治理水平,需要在法律层面提供规范性的制度供给,从实体法和程序法两个路径实现数字正义的法治保障。
(一)实体法保障路径:数字权利合理分配
在法律正义观中,正义被理解为一种客观实在,体现为人与法、人与人、人与群体关系均衡的“恰当状态”。(97)为实现这种正义状态,正义法理论要求公共利益与个体权利相互协调制约、个体权利之间平衡限制。正如法学家施塔姆勒在《正义法理论》中提出,正义是对所有自由意志的均衡和协调,对个体行为与社会整体的协调以及对冲突个体意志之间的协调。(98)在马克思主义正义观中,正义与权利被认为是价值与事实的二分,不同权利是不同社会在其所处历史阶段的主流性、主导性的正义指标。换言之,权利是正义的表现、记录、传承方式。(99)实现正义离不开保障合法权利,现代正义法理论必须解决权利的分配与平衡问题。数字社会在面对数字非正义问题时,也应遵循同一的逻辑结构与价值理念,从与数字正义对应的数字权利这一新兴权利形式着手,保障数字权利的分配与平衡,在实在法层面探索数字正义的法律建构。
1.完善数字权利证成并建立三元法律监管体系。数字鸿沟与数字歧视是现实社会中不同群体和区域间身份、经济地位的差异在数字世界的投射,而数字权利并非仅是现实的传统权利照搬到数字生活中。尽管在数字技术发展之初,大量传统权利通过扩张解释能够保障数字空间的公民合法权益,但数字社会与物理社会存在本质上的差别,必然会生成独有的新兴权利,如网络接入权(上网权)、数据权、数据遗忘权等。(100)同时,随着数字互联网的发展,一些平台和网络服务提供者具有了自身运营的管理权和政府转交的公法审查权,具备了某种公权特征的私权力,改变了传统国家与社会的二元框架,形成了数字时代的公权力—私权力—私权利三元博弈格局。(101)数据处理者、算法控制者在拥有巨大技术优势和数据资源的背景下不再是普通私主体,能够辅助或替代公权力中的部分数据权力、算法权力和平台权力。(102)在此情况下,公权力承担维护社会稳定公平的角色,会抑制私权力的过分扩张所导致的行业垄断以保护个体公民的数字权利;公权力和私权力会形成共谋机制防止私权利滥用影响社会秩序;私权力和私权利基于共同的市场发展、经济回报等需求,会形成合作来制约公权力的过度行权。因此,在新制衡结构下分配数字权利,需要在以下几个方面加以规制。
第一,在私权力运营中引入竞争机制,防止平台公司等形成垄断。为此要坚持数字时代信息服务的公共产品属性,杜绝涉及国家和个人信息安全的产品独家运营,强化公平竞争审查和反垄断执法,建立良性市场发展机制。(103)第二,规范和引导企业合理利用数字资源并帮助个人实现数字权利的行使。例如在大数据领域,《中共中央、国务院关于构建数据基础制度更好发挥数据要素作用的意见》提出对不涉及个人信息和公共利益的数据,市场主体享有依法依规持有、使用、获取收益的权益;同时企业也应遵守商业伦理,经营的同时可提供便民技术设置,协助处于数字鸿沟下端的消费者更好地接入线上场景。第三,保留个人信息权、隐私权、数据权等个人数字权利的空间。传统的痕迹主义权力制约既增加了行政成本,也使数字权力运作无法实现现代治理的权利主义逻辑。(104)数据与算法是数字权力研究的两个入口,(105)现行法律在这两方面也有介入:《数据安全法》规定政务数据可依法公开,个人隐私、个人信息、商业秘密等涉及私权利的数据要依法保护;《互联网信息服务算法推荐管理规定》要求算法推荐服务提供者应当告知用户算法服务的情况,并以适当方式公示算法的原理、目的和运行机制等。对数据和算法的治理应当在此基础上更加深入和全面,信息自觉权是数字权利的基础,通过立法加强保护相关的数据可携带权、数据隐私权(106)给个体数字权利保留合理空间,才能防止公权力与私权力的蔓延。
2.优化法律对技术的规制、凸显公民数字权利地位。维持数字正义天平要保障数字弱势群体权利,尤其是要重视以数字人权为中心的公民数字权利。数字弱势群体权利的缺失与数字非正义的出现既有物理社会中经济身份地位在线上世界的投射,也受制于人与技术工具在数字发展中关系的异化。数字社会是一个技术至上和强调工具理性的社会,技术属于手段领域,道德属于目的领域,(107)一旦技术判断取代道德判断,技术话语淡化道德话语,(108)人类在社会发展中的主体性就会遭到冲击。理顺技术理性与人类理性的关系,既要避免硬性技术的偏见和滞后给社会道德带来的风险,同时也要完善数字社会个人数字权利的内容,而此处的数字人权更泛指人类对数字科技掌握和使用时应享有的合理权利。具体而言,在实在法层面应当进行如下完善。
第一,通过宪法原则完成对未列举数字权利的宪法建构。宪法对基本权利的规定,其功能不仅在于可以对国家公权力加以防范,还在于基本权利作为“客观价值秩序”具有辐射整个法律体系的效力。(109)结合我国国情并借鉴欧盟数据权利保护的方式,通过宪法解释对宪法文本和部门法中未列举的数字权利进行证成,将构成数字基本权利的规范来源。
第二,以《民法典》为基础,细化数字人格权、完善数字财产权、灵活数字侵权责任规则。(110)数字人权的实现需要将客体权利在法律文本中具体化、明确化,近代民法以财产和人身为中心,在近代民法向现代民法转向中尚未形成完善的数字权利保障机制。例如,我国《民法典》没有创设数据财产权,但《数据安全法》却表明对数据市场的承认。(111)因此未来在《民法典》完善过程中,要在现有法律架构下注入数字权利价值。既有研究将数字人权分为作为基础人权的信息权和隐私权、作为衍生人权的网络介入权和数据自主权,(112)这些权利在民法体系中有交叉,可归纳为数字人格权和财产权,对不同数字权利细化并完善体系化的规范性建构是实现数字人权的重要方式。对于侵犯数字权利的民事行为,侵权法也应适应数字化形态,直指数字鸿沟背后的暗箱数字技术和资源掌控者,通过多元的归责原则和赔偿机制保障数字弱势群体的合法权益。
第三,推进法律与科技共治,将技术嵌入法律规范中。随着以ChatGPT为代表的人工智能飞速升级,传统法律治理科技的方式似乎日渐式微,技术理性凌驾于人类理性的风险日益加剧。应对数字技术的冲击,必须理性看待技术在社会生活中的作用和风险,技术应是社会治理的助手而非不受控制的数字利维坦。在法律建构层面,把技术规则上升为法律以实现“技术法律化”,把法律转化成代码并由算法自动执行以实现“法律技术化”,既可以提前阻却技术过度自由的危害,也可防止追惩危害结果的难题,(113)通过法律合作科技的方式,完成法律制度从传统物理空间到数字空间的升级。
(二)程序法保障路径:可视化纠纷解决
“数字正义”的一层含义即在司法领域通过智慧法院建设、大数据辅助裁判和智能执行等智能化措施以数字技术实现法律程序正义。面对数字社会不平等问题引发的纠纷,通过数字技术将纠纷解决从现场庭审的二元世界扩大到线上立案、处理、执行的多元化途径,智能化司法切实提高了法律工作的效率。但对于技术的广泛切入,警惕人工智能替代司法人工理性的怀疑也与日俱增,(114)在程序法上建立实现数字正义的法治保障就必须论证智能司法的正当性以及完善具体实践路径。
1.司法裁判和执行智能化的正当性。数字技术使正义的发生场域和冲突类型发生了变化,数字弱势群体在这两个方面都不具有优势。法律作为保障权利的有效防线,智能化司法方式能够在平等行使诉讼权利和公正裁决方面给数字弱势群体更大的助益。
首先,智能化司法扩宽了当事人进入司法保护途径的接入口,便于诉权平等的实现。数字鸿沟引发的问题在于不同主体由于区域、经济条件的限制无法便捷行使数字社会的各项权利,对于发生在线上世界的权利纠纷更难以处理,传统诉讼模式下当事人因路途遥远、诉讼费用负担沉重等原因放弃诉权行使的问题也成为制约当事人实现司法正义的阻碍。司法部门通过“人民法院在线服务平台”“人民调解平台”、智能辅助办案系统等智慧法院建设,扩宽了群众参与诉讼的途径,省去了线下诉讼高昂的时间和经济成本;并结合5G数字基站建设、农村互联网普及等硬件条件提升,降低了弱势群体进入信息化生活的门槛,为原本不敢、不愿选择司法途径救济权利的群体在数字时代开辟了接近司法正义的捷径。
其次,智能司法作为工具理性具有逻辑上的正当性。智能司法在发现案件事实和预测判决结果两个方面已经显示出一定的机器优势。(115)以上海市高级人民法院研发的“上海刑事案件智能辅助办案系统”为代表,类似的智能司法工具对司法实践提供了技术支撑。对于机器替代法官的部分工作,必然要证明其作为工具理性的正当性。第一,智能司法可以作为主体进行公正审判。在智能环境下纠纷解决的规则并未改变,人不能作为自己的法官,机器裁判也并非当事人裁判并不违反居中裁判的原则,当然也不会改变司法公正的性质。第二,智能司法符合法律逻辑推理过程,利于提升法官处理信息工作的效率。法律逻辑推理要求符合“三段论”原则,智能机器的运行规则完全可以依照“三段论”逻辑设计;同时,人工智能项目最有价值的贡献在于对潜在现实任务及其信息处理需求的分析,(116)机器替代法官处理掉审判过程中烦琐重复的程序性工作,可以缓解案多人少的效率压力。第三,智能司法可以保留法官自由裁量空间。对人工智能裁判最多的争议在于机器代替人类思考,在面临具体情景时难以发挥法官自由裁量的作用。实际上,通过算法规则的设计,技术上可以实现通过分类系统来推断是否适用建模推理,当存在典型的指导性案例时,可以使用基于案例或者规则的推理,如果现有案例与既有案例和规则间没有任何联系,可以更多适用法官自由裁量。(117)这样既在提升审判效率的同时确保了同案同判,也保留了个案中的自由裁量权,利于实现更高质量的司法正义。
2.纠纷解决程序的可视化。包括诉讼、调解、仲裁等在内的多元纠纷解决机制可视化,是数字正义发生的具体场域延伸到司法领域的必然要求。“司法可视化”强调在法律与技术紧密结合的背景下,信息自身及其表现方式的可视化。(118)可视正义既是信息技术在纠纷解决制度上的结果转化,也代表了司法权、监督权、信息公开权等权益在数字时代的诉求。正义理念的法治保障在于司法公正,而公正的前提是公开。传统司法的发展经历了从口述时期的神明仪式到文本时期的现场庭审的转变,法律文本和审判过程的公开是人类社会司法文明面向公众监督的重要转折,而数字时代司法公开将通过信息媒介技术实现信息公开的实质性变革。其一,可视化促使纠纷解决机制从精英化走向大众化,进一步剥离司法神秘化的面纱,降低法律不可知、难以知的障碍,扩宽群众接近司法正义的路径。其二,可视化加深了正义公开的程度,通过视觉传达了更多实质化的纠纷解决程序信息,在保障了程序正义的同时审视了实质正义。其三,可视化也保证了公民对司法制度的监督权和知情权,庭审直播的线上线下互动、VR法庭示证技术的异地展示,都为公民知悉纠纷解决机制提供了便捷条件,也满足了公民对司法程序监督权的行使。
为了发挥法律在维护数字正义方面的保障性作用,应当在多元纠纷解决机制的制度建设、过程实现、权利保护等多维度推进可视化正义目标。具体来说,第一,展开司法数据的可视化改革,建立技术基础之上的类案同判模式。目前我国司法数据公开主要依托于中国裁判文书网、最高人民法院信息中心的人民法院大数据管理和服务平台(119)以及中国司法大数据服务网等平台,现有司法数据公开基本机制已建立,但总体上公开情况仍不理想。中国社会科学院法学研究所法治指数研究中心对2019年全国94家法院的调研显示,仅有30家法院公开了本院司法统计数据,且部分法院存在信息更新不及时的现象。(120)司法公开是可视化正义实现的前提,更是实现类案同判中寻找“本体”的先决条件,利用可视化规则进行类案同判,意义在于以民众能看到、看得懂的方式将裁判过程和结果呈现出来。推进司法数据的可视化公开,须建立数据公开的常态化机制,同时加强信息平台建设,为数据可视化提供技术保障,帮助落实类案同判原则。第二,完善庭审公开范式,实现智能辅助司法系统的算法可视化。庭审直播和裁判文书公开奠定了我国审判程序和结果可视化的基础,在未来智慧司法建设中,在保障庭审直播安全性的前提下,应提升公开的规范性和质量,利用新媒体和自媒体直播等方式联合构建智慧庭审,满足当事人和社会大众对审判公开的新需求。(121)同时,应对庭审使用的智能辅助系统算法进行合理化规制,通过交互式的方式将“深度学习”与“知识图谱”结合,真实重现决策的计算过程和执行情况,(122)将之改造成可视化的算法公开。第三,充分考虑纠纷解决中当事人信息权利和诉讼权利的保障,避免技术的扩大使用侵犯个体权益。在程序可视化广泛推进的同时仍须警惕超越限度的公开对个人权利保护的影响。庭审直播、线上质证、司法数据公开造成了侦查权的增强、审判权的嬗变和司法行政权的扩张,这些对个人信息权、辩护权和程序参与权都有不同程度的限制。(123)因此可视正义的实现也须遵守必要限度,赋予当事人程序公开权与不公开权、保证司法程序的完整和公正。
当然,数字智能司法的未来发展尚有长路要走,需要数字正义的实践与技术发展相结合。在司法智能产品的研发中需要加强对案件背景预设的判例丰富和对人类道德推理的模仿,当机器发展到具备理解其他理性价值的纯粹理性阶段,再将其应用于法律之上,此时权力与责任关系就能符合道德上的标准。(124)
五、结语
正义理论的研究演进至数字时代,传统正义观的内容被数字技术所影响,在已有正义观的框架下融合数字社会的生产资料分配和权利结构范式,形成了新的正义内涵构成。数据、算法、算力等技术要素成为数字正义讨论的客体,与数字正义内涵的生成紧密相关。在数字时代正义结构中,人的主体性地位明显受到人工智能的威胁,无论是人在社会生活中的自主选择权还是人格尊严的实现,都有让位于工具理性的趋势;同样,正义观的客体也延伸至机器行为,随着算法成为数字社会的秩序规则,正义也必然要经由算法公开的模式来实现。新的正义发生场域正由技术层面展开,场景化和可视化塑造了人们在网络时空实践正义的方式。
正义作为法哲学基本范畴包含了各得其所、扬善抑恶的内涵,同时与公平、自由、平等、道德、权利等元素相关联,形成一种积极的价值调和。(125)当数字时代正义的内涵发生变化,相对应的非正义问题也随之暴露。技术发展的双面性造成了数字权利行使缺失的数字弱势群体,在不平等的数字权利分配结构下,不同群体和区域间出现数字鸿沟、数字歧视和数字强权等现象。解决数字非正义问题,需要通过法律的社会治理手段对数字资源分配进行矫正。在实在法上,可通过证成数字新兴权利、强化对数字工具的运行规制,构建合理的权利分配制度;在程序法上,可通过突出可视化的多元纠纷解决机制,打通当事人数字司法救济的路径,最终形成人类发展与科技进步相协调的系统化数字正义法律保障生态。处理好数字正义问题不仅关乎国家在数字时代发展公平与效率统一的新经济形态、实现更全面公平正义、提升国家治理现代化水平和国际竞争力,更是实现社会正义与人类善治根本宗旨的必由之法。
注释:
①[古希腊]柏拉图:《理想国》,郭斌和、张竹明译,商务印书馆1986年版,第154页。
②[古希腊]亚里士多德:《政治学》,吴寿彭译,商务印书馆1965年版,第148页。
③[意]托马斯·阿奎那:《阿奎那政治著作选》,马清槐译,商务印书馆1963年版,第116页。
④[美]罗尔斯:《正义论》,何怀宏等译,中国社会科学出版社1988年版,第2页。
⑤[德]施塔姆勒:《正义法的理论》,夏彦才译,商务印书馆2012年版,第3页。
⑥参见王天夫:《数字时代的社会变迁与社会研究》,载《中国社会科学》2021年第12期,第79页。
⑦参见[奥]维克托·迈尔-舍恩伯格、[德]托马斯·拉姆什:《数据资本时代》,李晓霞、周涛译,中信出版集团股份有限公司2018年版,第16页。
⑧参见雷磊:《司法人工智能能否实现司法公正?》,载《政法论丛》2022年第4期,第75页。
⑨蔡星月:《算法正义—— 一种经由算法的法治》,载《北方法学》2021年第2期,第137页。
⑩参见[美]克利福德·G.克里斯琴斯:《数字时代的新正义论》,刘沫潇译,载《全球传媒学刊》2019年第1期,第98页。
(11)参见卞建林:《立足数字正义要求,深化数字司法建设》,载《北京航空航天大学学报(社会科学版)》2022年第2期,第23页。
(12)参见张晨:《主动拥抱先进技术 唱响数字正义最强音》,载《法治日报》2022年12月22日第6版;《努力创造更高水平的数字正义》,载《人民法院报》2022年10月11日第1版;宁杰:《以数字正义创造更高水平的司法文明》,载《人民司法》2021年第16期,第1页。
(13)See Jane Donoghue,The Rise of Digital Justice:Courtroom Technology,Public Participation and Access to Justice,80 Modern Law Review 995,995-1025(2017).
(14)参见彭诚信:《数字法学的前提性命题与核心范式》,载《中国法学》2023年第1期,第86页。
(15)参见周尚君、罗有成:《数字正义论:理论内涵与实践机制》,载《社会科学》2022年第6期,第170页。
(16)参见郑智航、雷海玲:《大数据时代数据正义的法律构建》,载《国家检察官学院学报》2022年第5期,第79页。
(17)See John Elizabeth,Data Mistakes and Data Justice,61 The Journal of Things We Like 1,1-2(2016).
(18)参见林曦、郭苏建:《算法不正义与大数据伦理》,载《社会科学》2020年第8期,第16页。
(19)参见卞靖懿:《大数据时代数字劳动正义觉解》,载《道德与文明》2022年第4期,第137页。
(20)参见前引(16),第80页。
(21)参见黄家诚、田广兰:《西方数据正义研究的三条进路》,载《自然辩证法研究》2022年第3期,第44页。
(22)参见郭春镇:《数字化时代个人信息的分配正义》,载《华东政法大学学报》2021年第3期,第55页。
(23)单勇:《犯罪之技术治理的价值权衡:以数据正义为视角》,载《法制与社会发展》2020年第5期,第203页。
(24)See Linnet Taylor,What is Data Justice? The Case for Connecting Digital Rights and Freedoms Globally,Big Data & Society,Volume 4,Issue 2,Jwly-December 2017.
(25)See Thomas B.Nachbar,Algorithmic Fairness,Algorithmic Discrimination,48 Florida State University Law Review 509,501-521(2021).
(26)参见吴太轩、周珊珊:《算法正义软法保障的理论证成及具体路径》,载《政法学刊》2023年第1期,第119页。
(27)See H.R.3611-Algorithmic Justice and Online Platform Transparency Act.
(28)参见董青岭、朱玥:《人工智能时代的算法正义与秩序构建》,载《探索与争鸣》2021年第3期,第87页。
(29)参见郭春镇、勇琪:《算法的程序正义》,载《中国政法大学学报》2023年第1期,第167页。
(30)参见马长山:《算法治理的正义尺度》,载《人民论坛·学术前沿》2022年第10期,第75页。
(31)党东耀、党欣:《计算传播学视角下的智能推荐系统建构与算法治理》,载《郑州大学学报(哲学社会科学版)》2022年第5期,第116页。
(32)参见郑玉双:《计算正义:算法与法律之关系的法理建构》,载《政治与法律》2021年第11期,第102页。
(33)参见[英]梅因:《古代法》,沈景一译,商务印书馆1959年版,第2页。
(34)参见[法]让-皮埃尔·韦尔南:《希腊思想的起源》,秦海鹰译,生活·读书·新知三联书店1996年版,第102页。
(35)参见前引①,第172页。
(36)参见[德]康德:《道德形而上学》,张荣、李秋零译,中国人民大学出版社2013年版,第61页。
(37)参见李金鑫:《论罗尔斯正义理论中人的观念问题》,载《东南大学学报(哲学社会科学版)》2020年第3期,第20页。
(38)参见前引④,第13页。
(39)参见[德]阿图尔·考夫曼:《法哲学的问题史》,载[德]阿图尔·考夫曼、温弗里德·哈斯默尔主编:《当代法哲学和法律理论导论》,郑永流译,法律出版社2002年版,第197页。
(40)《马克思恩格斯文集》(第2卷),人民出版社2009年版,第53页。
(41)参见包大为:《马克思的正义观:超越古典与启蒙的真理探寻》,载《北京行政学院学报》2022年第6期,第62页。
(42)参见郑智航:《平衡论视角下个人免受自动化决策的法律保护》,载《政法论丛》2022年第4期,第94页。
(43)参见侯东德、张可法:《算法自动化决策的属性、场域与风险规制》,载《学术研究》2022年第8期,第40页。
(44)See Emre Bayamlioglu,Contesting Automated Decisions,4 European Data Protection Law Review 443,433-446(2018).
(45)参见胡玉鸿:《人的尊严的法律属性辨析》,载《中国社会科学》2016年第5期,第112页。
(46)[美]罗纳德·德沃金:《民主是可能的吗?——新型政治辩论的诸原则》,鲁楠、王淇译,北京大学出版社2014年版,第10页。
(47)庄世同:《法治与人性尊严——从实践到理论的反思》,载《法制与社会发展》2009年第1期,第46页。
(48)参见杨茜茜、曹刚:《“自然人”的尊严——生命科技的道德边界》,载《湖南师范大学社会科学学报》2019年第6期,第68页。
(49)参见[意]卢西亚诺·弗洛里迪:《第四次革命——人工智能如何重塑人类现实》,王文革译,浙江人民出版社2016年版,第108页。
(50)See Ronald Dworkin,What is Equality? Part 2:Equality of Resources,10 Philosophy and Public Affairs 281,281-318(1981).
(51)See Robert Nozick,Anarchy,State and Utopia,Basic Books,1974,p.151.
(52)See Alasdair Macintyre,Whose Justice? Which Rationality?,University of Notre Dame Press,1988,p.39.
(53)参见[美]迈克尔·J.桑德尔:《自由主义与正义的局限》,万俊人等译,译林出版社2011年版,第4页。
(54)前引④,第29页。
(55)参见李寿初:《“正义”概念辨析》,载《文史哲》2014年第6期,第153页。
(56)See Lawrence C.Becker,Encyclopedia of Ethics,Garland Publishing,1992,p.32.
(57)参见[德]康德:《判断力批判》,邓晓芒译,人民出版社2002年版,第291页。
(58)See Yavar Bathaee,Artificial Intelligence Opinion Liability,35 Berkeley Technology Law Journal 113,113-170(2020).
(59)See Ray Kurzweil,The Age of Spiritual Machines:When Computers Exceed Human Intelligence,Penguin Books,2000,p.60.
(60)参见王海明:《数智时代的正义:复杂性及其当代旨归》,载《浙江社会科学》2022年第1期,第71页。
(61)[英]梅因:《古代法》,沈景一译,商务印书馆1997年版,第97页。
(62)参见申卫星、刘云:《法学研究新范式:计算法学的内涵、范畴与方法》,载《法学研究》2020年第5期,第4页。
(63)[美]罗伯特·斯考伯、谢尔·伊斯雷尔:《即将到来的场景时代》,赵乾坤、周宝曜译,北京联合出版公司2014年版,第4页。
(64)[美]海伦·尼森鲍姆:《场景中的隐私——技术、政治和社会生活中的和谐》,王苑等译,法律出版社2022年版,第43页。
(65)参见前引(64),第125页。
(66)姜野:《人脸识别技术应用的场景化法律规制》,载《法制与社会发展》2023年第1期,第218页。
(67)参见牟春花:《行政类案同判的可视化正义及知识图谱分析》,载《行政法学研究》2022年第3期,第74页。
(68)See Deborah L.Rhode,Access to Justice,Oxford University Press,2004,p.2-5.
(69)参见孟醒:《智慧法院建设对接近正义的双刃剑效应与规制路径》,载《中国政法大学学报》2020年第6期,第38页。
(70)参见前引(11),第24页。
(71)参见陈景辉:《同案同判:法律义务还是道德要求》,载《中国法学》2013年第3期,第55页。
(72)参见闫慧、孙立立:《1989年以来国内外数字鸿沟研究回顾:内涵、表现维度及影响因素综述》,载《中国图书馆学报》2012年第5期,第86页。
(73)See Kamal Ahmed Soomro,Ugur Kale,Reagan Curtis,Akcaoglu Mete,Malayna Bernstein,Digital Divide among Higher Education Faculty,17 International Journal of Educational Technology in Higher Education 1,1-16(2020).
(74)参见黄雨晴:《中国数字鸿沟的成因与赋权式治理》,载《学习与实践》2022年第9期,第31页。
(75)参见付立宏:《关于数字鸿沟的几个问题》,载《图书情报知识》2003年第2期,第9页。
(76)参见陈梦根、周元任:《数字不平等研究新进展》,载《经济学动态》2022年第4期,第131页。
(77)参见周慧珺、邹文博:《数字化转型背景下数字鸿沟的现状、影响与应对策略》,载《当代经济管理》2023年第3期,第61页。
(78)参见《第51次中国互联网络发展状况统计报告》。
(79)参见宋保振:《数字时代信息公平失衡的类型化规制》,载《法治研究》2021年第6期,第89页。
(80)参见刘晗:《域名系统、网络主权与互联网治理历史反思及其当代启示》,载《中外法学》2016年第2期,第520页。
(81)[美]戴维·波普诺:《社会学》,李强等译,中国人民大学出版社2007年版,第337页。
(82)参见王曼倩:《论禁止歧视的正当性》,中共中央党校2014年博士学位论文,第11页。
(83)参见陈静熔:《间接歧视的悖论及其破解》,载《法学家》2007年第3期,第125页。
(84)参见金韬:《歧视可以“间接”吗?——对间接歧视可责性问题的分析》,载《法制与社会发展》2021年第6期,第64页。
(85)崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,载《法律科学(西北政法大学学报)》2019年第3期,第38页。
(86)参见谢永江、杨永兴:《人工智能时代下的算法歧视及其治理研究》,载《北京邮电大学学报(社会科学版)》2022年第5期,第21页。
(87)曹博:《算法歧视的类型界分与规制范式重构》,载《现代法学》2021年第4期,第117页。
(88)参见宁园:《算法歧视的认定标准》,载《武汉大学学报(哲学社会科学版)》2022年第6期,第161页。
(89)See Gilman,Michele Estrin,Expanding Civil Rights to Combat Digital Discrimination on the Basis of Poverty,75 SMU Law Review 571,571-624(2022).
(90)洪延青:《数据竞争的美欧战略立场及中国因应——基于国内立法与经贸协定谈判双重视角》,载《国际法研究》2021年第6期,第78页。
(91)田刚元、陈富良:《经济全球化中的数字鸿沟治理:形成逻辑、现实困境与中国路径》,载《理论月刊》2022年第2期,第88页。
(92)参见郧彦辉:《数字利维坦:信息社会的新型危机》,载《中共中央党校学报》2015年第3期,第48页。
(93)参见林扬千:《关于大数据意识形态问题的思考:“数字利维坦”的生成与治理》,载《北京科技大学学报(社会科学版)》2021年第5期,第570页。
(94)前引①,第30页。
(95)陈德中:《“霍布斯条件”与“洛克条件”——论二者何以构成讨论正义问题的规范空间》,载《哲学动态》2011年第2期,第73页。
(96)习近平:《高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告(2022年10月16日)》,载《人民日报》2022年10月26日第1版。
(97)参见陈皓:《法律正义的客观叙事》,载《北方法学》2021年第1期,第7页。
(98)[德]施塔姆勒:《正义法的理论》,夏彦才译,商务印书馆2016年版,第169-173页。
(99)参见孟桢:《唯物史观视域中的权利正义问题研究》,载《内蒙古社会科学》2022年第2期,第46页。
(100)参见龚向和:《人的“数字属性”及其法律保障》,载《华东政法大学学报》2021年第3期,第75页。
(101)参见马长山:《智能互联网时代的法律变革》,载《法学研究》2018年第4期,第37页。
(102)参见罗有成:《数字权利论:理论阐释与体系建构》,载《电子政务》2023年第5期,第52页。
(103)参见时建中:《数据概念的解构与数据法律制度的构建 兼论数据法学的学科内涵与体系》,载《中外法学》2023年第1期,第118页。
(104)参见姚尚建:《数字治理中的权力控制与权利破茧》,载《理论与改革》2022年第3期,第138页。
(105)参见前引(104),第139页。
(106)See Daniela Copetti Cravo,How to Make Data Portability Right More Meaningful for Data Subjects?,8 European Data Protection Law Review 52,52-60(2022).
(107)See Latour B.,Venne C.,Morality and Technology,Theory,19 Culture & Society 1,1-21(2002).
(108)参见郑智航:《数字人权的理论证成与自主性内涵》,载《华东政法大学学报》2023年第1期,第46页。
(109)李忠夏:《数字时代隐私权的宪法建构》,载《华东政法大学学报》2021年第3期,第49页。
(110)参见高一飞:《〈民法典〉的人权之维:论数字人权的私法保障》,载《人权法学》2023年第1期,第30-40页。
(111)参见季卫东:《数据保护权的多维视角》,载《政治与法律》2021年第10期,第9页。
(112)参见桂晓伟:《智慧社会的数字人权保护——基于“能力路径”的理论建构》,载《法学评论》2023年第1期,第158页。
(113)参见马长山:《智慧社会背景下的“第四代人权”及其保障》,载《中国法学》2019年第5期,第22页。
(114)关于司法人工智能的负面影响,参见季卫东:《人工智能时代的司法权之变》,载《东方法学》2018年第1期,第127页;左卫民:《关于法律人工智能在中国运用前景的若干思考》,载《清华法学》2018年第2期,第109页;马长山:《司法人工智能的重塑效应及其限度》,载《法学研究》2020年第4期,第38页;张妮、蒲亦非:《司法智能裁量系统:问题、措施及趋势》,载《四川大学学报(自然科学版)》2023年第2期,第184页。
(115)See Harry Surden,Artificial Intelligence and Law:An Overview,35 Georgia State University Law Review 1305,1305-1338(2019).
(116)See Sartor Giovannia,Branting L.Karl.Introduction:Judicial Applications of Artificial Intelligence,Judicial Applications of Artificial Intelligence.Kluwer Academic Publishers,1998,p.190.
(117)参见彭中礼:《司法裁判人工智能化的正当性》,载《政法论丛》2021年第5期,第121页。
(118)参见江国华、李鹰:《司法可视化与可视化司法——以庭审直播为样本》,载《理论月刊》2020年第5期,第90页。
(119)其中人民法院大数据管理和服务平台是人民法院系统的内网数据平台,汇集了案件文书、卷宗、法院案件管理、司法研究、司法政务、信息统计管理等数据资源,是全球最大的审判信息资源库。
(120)参见王祎茗、田禾:《司法公开的现状与完善路径》,载《法律适用》2020年第13期,第160页。
(121)参见自正法:《互联网法院的运行模式、量化评估及其理性对待》,载《政法论丛》2022年第3期,第69页。
(122)参见杨淞麟:《预测算法在我国刑事司法程序中的运用与规制》,载《重庆社会科学》2022年第8期,第103页。
(123)李小猛:《司法大数据和法律人工智能的唯公权力化倾向及应对——以私权保障为中心》,载《苏州大学学报(法学版)》2020年第4期,第6页。
(124)See Wendel W.Bradley,The Promise and Limitations of Artificial Intelligence in the Practice of Law,72 Oklahoma Law Review 21,21-50(2019).
(125)罗国强:《正义的法哲学之维》,载《学术界》2023年第1期,第105页。