张凌寒:中国需要一部怎样的《人工智能法》?——中国人工智能立法的基本逻辑与制度架构

张凌寒

    摘要:人工智能已经成为当前国际技术竞争与规则竞争的关键领域。人工智能立法是重点领域、新兴领域、涉外领域的综合立法,承载着“统筹推进国内法治和涉外法治”的使命。我国的人工智能立法,需适应人工智能发展的不确定性,明确回应本土的独特性,更好地适应国际合作与竞争,提炼既往网络立法经验,合理借鉴国外法律制度和国际规则中的制度资源,夯实立法的理论基础。中国的《人工智能法》应以促进发展为目标,制度设计应彰显人本主义,采取“总则式”的立法体例,确立适宜本土实践与发展阶段的监管制度,并逐步推进制度完善。
    关键词:人工智能法;立法逻辑 ;总则式体例;国际竞争;制度架构
    一、问题的提出:中国需要一部怎样的《人工智能法》?
    人工智能已经成为当今国际竞争的关键领域,人工智能的治理之争也日益凸显。随着2023年初生成式人工智能惊艳问世,欧美等国家密集展开人工智能治理活动,加快布局人工智能立法,力图引领国际规则制定:2023年欧盟因通用人工智能特点迅速修改《人工智能法案》并达成初步协议,意图在人工智能新技术治理领域重现布鲁塞尔效应;2023年10月30日,美国总统拜登签署《安全、稳定、可信的人工智能》行政令(下文简称为“AI白宫行政令”),以确保美国在AI发展和管理风险方面处于领先地位。我国高度重视人工智能的发展和治理,早在2017年,国务院发布的《新一代人工智能发展规划》提出了“三步走”的立法规划,并在2023年6月6日发布的《国务院2023年度立法工作计划》中明确将《人工智能法》列入立法规划。2023年8月世界上第一个有关生成式人工智能的成文法《生成式人工智能服务管理暂行办法》生效实施,“暂行”二字意味着一部统一的、综合的《人工智能法》正呼之欲出。 中国需要并会制定一部怎样的《人工智能法》?这是摆到立法者、监管者和学术界面前亟待回答的问题,也是备受世界瞩目的中国法治建设的重要内容。从立足国内法治建设角度来看,人工智能立法正处在中国法治建设继往开来的关键节点。2023年9月第十四届全国人民代表大会常务委员会部署了立法规划实施工作,2024年恰逢中国网络法治建设起步三十周年,《人工智能法》既是对既往三十年网络领域立法经验的总结与升华,也将成为未来五年立法规划中“加强重点领域、新兴领域、涉外领域立法,统筹推进国内法治和涉外法治”的典型示范。在积极参与全球治理方面,新一代人工智能技术的可持续发展不仅是技术层面的竞争,也是法治软实力的竞争。多个国家和多边组织希望在全球人工智能治理中发挥主导作用:联合国成立高级别专家咨询机构,拟建立国际人工智能监管机构;七国集团提出人工智能监管的“广岛进程”;英国举办“AI Safety”峰会并发布了《布莱切利宣言》;国际电信联盟、经合组织等多边机构迅速做出反应推动人工智能治理多边议程。2023年,我国在“一带一路”峰会上提出《全球人工智能治理倡议》,并提出十一点中国治理方案。中国的《人工智能法》代表人工智能全球治理规则之争中的中国主张,将随着我国人工智能产业发展产生域外影响,也将成为未来全球人工智能治理规则中的重要组成部分,发挥世界影响力。
    基于此,我国的《人工智能法》既应力求具备前瞻性、先进性,立足本土实践,也应具备国际视野,提出人工智能治理的中国方案,在国际竞争中发出中国声音。本文分析人工智能立法不同于其他领域立法的独特之处,探讨中国人工智能立法多维度视角下应遵循的基本逻辑,进而在此基础上讨论我国《人工智能法》的制度框架与具有中国特色的治理制度。
    二、人工智能立法应当遵循的基本逻辑
    中国的人工智能立法具有不同于其他领域立法的独特之处,因此人工智能立法需遵循以下三个基本逻辑:其一,能够高度适应不确定性。人工智能技术的颠覆性与快速迭代性,使得未来技术发展与可能引致的风险具有高度的不确定性。这与传统立法相对稳定性和滞后性存在冲突,因此我国的人工智能立法需容纳并适应人工智能发展的这种高度的不确定性。其二,明确回应本土的独特性需求。因人工智能技术与产业具有独特的国际地位,故我国的人工智能立法需表达依托于特定国际环境条件而产生的本土化诉求,与科技领先的美国和以输出治理理念为先的欧洲均有显著区别。其三,完善人工智能法律制度,有效应对国际竞争。人工智能立法因其调整对象人工智能技术的跨国性、涉及国际竞争的复杂性、对中国治理主张的代表性,将成为涉外法治领域的重要组成部分,因此制度设计需具有高度的国际竞争视野。
    (一)人工智能立法需适应技术发展的不确定性
    与传统立法相对稳定的社会关系与调整对象比较,人工智能立法需应对人工智能发展的高度的不确定性。这种不确定性来自技术飞速发展给调整对象带来的不确定性、技术产业迭代给调整的社会关系带来的不确定性、技术飞速发展带来的风险种类和程度的高度不可预见性。
    第一,技术飞速发展给调整对象带来的不确定性。为了适应科技的飞速发展,我国的科技立法一向以“小快灵”为特点,“小”意即调整对象精准,既指规制的技术聚焦,也指立法仅限于部门领域。有关部门在其职责范围内制定了与人工智能相关的行政法规、部门规章,如《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《网络交易监督管理办法》等。然而,人工智能立法则面临着新技术迭代升级和产业快速增长。从纵向来看,人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进引发了技术的链式突破,人工智能立法需从之前网络立法关注的应用层面拓展至技术研发层面与要素治理层面。从横向来看,人工智能立法推动着经济社会各领域从数字化、网络化向智能化加速跃升,人工智能医疗、自动驾驶、科学研究、公共服务、电子商务、金融服务等领域均面临颠覆性改变,人工智能立法需对广泛的应用产业落地带来的社会深度变革予以回应。从时间维度来看,人工智能的技术迭代以周或月为单位,科技研发“千帆竞发”。如在底层技术层面,OpenAI从发布GPT3.5到发布GPT4仅间隔数月;在社会应用层面,人工智能正迅速嵌入社会生产生活,Gartner预测,到2026年超过80%的企业将使用生成式人工智能的API(应用程序编程接口)或模型,或在生产环境中部署支持生成式人工智能的应用,而在2023年初这一比例不到5%。与此相比,人工智能立法周期可能以年为单位计。这意味着人工智能立法应当对调整对象的不确定性具有高度的适应性,能够有效包容未来可能的技术发展。
    第二,产业迭代带来的调整社会关系的不确定性。随着生成式人工智能的广泛应用,通用人工智能已经初现端倪。这不仅意味着技术的迭代革新,而且意味着法律调整的社会关系的深层变革。近十年间,数据、算法、平台是我国人工智能治理的主要对象,平台则是人工智能治理的核心。这是由于,在数字社会生产中,平台已经成为汇聚用户生产的信息内容和调动生产资源要素的社会生产组织者,平台责任的扩大过程,则是平台逐步在数字社会生产中组织更多社会资源、加强数字基础设施建设与增强对生产要素控制力的过程。然而仅2023年一年间,通用人工智能出现重大进步,大模型可广泛赋能千行百业,形成了“基础模型—专业模型—服务应用”的分层业态,改变了以平台责任为核心的制度体系。生成式人工智能大模型的通用性,使其在技术垂直类领域的应用也将快速多样化,既往监管模式面对各种新问题可能会应接不暇。如在2023年初因ChatGPT的出现,欧盟的《人工智能法案》(AI Act)立法紧急讨论修改以应对“通用型人工智能系统”(general purpose AI ,GPAI)带来的社会关系的改变。直到2023年12月欧盟达成政治协议的最后一刻,在有关通用型人工智能和基础模型进行监管的辩论中,关于立法是否会过度阻碍技术创新的认识分歧仍然存在。面对生产力发展带来的生产关系变革,我国的人工智能立法应能够包容产业迭代带来的社会关系的不确定性,需要立法者拿出较高的智慧制定发展与监管政策。
    第三,法律应对风险的种类和程度的高度不可预见性。目前,人工智能技术发展的速度超出了社会预期,社会治理体系并未做好充分的准备。人工智能技术除了可能加剧已经被认知和识别的歧视、滥用风险,在目前阶段带来的风险种类和程度也具有高度的不可预见性。2023年3月ChatGPT展现出巨大潜力后,未来生命研究所(Future of Life Institute)发布了千余名科学家的联名信,呼吁暂停更高级别人工智能开发至少六个月。社会担忧强大的人工智能系统未能与人类价值观“对齐”进而会带来灾难性风险(Catastrophic risk),人工智能在军事领域快速发展可能引发“第三次战争革命”,恶意使用者故意制造出具有自主采取行动能力和危险目标的流氓人工智能,人工智能可能会为非专业人员提供生化武器的指导和设计等。此外,网络诈骗、虚假新闻、舆论操纵、人工智能替代人类导致大规模失业等既有被认知的风险也引起了人们的广泛担忧。既有的经验和制度并不足以全知全能地应对各种高度不可预见的风险。人工智能立法应对风险的措施如何确保既不给人类带来灾难性风险,又不过度限制技术发展,成为立法的核心议题。
    相比调整对象与社会关系相对稳定的传统立法活动,人工智能立法需同时应对调整的对象、调整的社会关系以及相应风险的高度不确定性,除了对已有风险的准确认知,还应很好地适应技术在未来发展中产生的各种不确定性。这是我国进行人工智能立法制度设计应遵循的底层逻辑之一。
    (二)人工智能立法需回应中国本土的治理需求
    中国的人工智能立法需立足中国实际,回应中国的治理需求。中国的人工智能技术、产业与欧美的技术、产业相比,具有独特的国际地位,制度环境与欧美的制度环境相比有较大差异,既往的由下至上的工程化立法也决定了《人工智能法》角色与作用不同于欧美相关立法的角色与作用。
    第一,人工智能立法需符合我国技术产业发展的独特国际地位。“世界领先的追赶者”是我国人工智能技术与产业发展的独特地位。一方面,世界上有实力独立拥有自己人工智能技术与产业的国家寥寥可数,目前仅美国、中国和少数欧盟国家有力量进行生成式人工智能大模型的开发与训练。另一方面,我国技术水平距离美国仍有较大差距,具有迫切的追赶需求,因为人工智能发展直接关系到国家经济发展、政治安全与国际地位。与其他通用型技术相比,人工智能建立在大模型、大参数、高算力和大数据的基础上,不仅产业融合程度高且易于形成垄断,因此人工智能技术发展水平已经成为国家实力的关键指标。人工智能技术发展成为政治、经济和技术三位一体的复合型问题,美国高度警惕我国的技术追赶,并为此出台了大量针对中国人工智能领域的封锁、制裁和惩罚性举措。基于此,我国人工智能立法需充分考虑我国技术产业发展的独特地位,既要体现出技术领先的世界大国对于人工智能技术发展风险的担当与责任,也要以支持和促进产业发展作为我国人工智能立法的主旨。
    第二,人工智能立法需考虑我国本土的制度环境。人工智能立法重要的基础因素是本土的制度环境,包括“一个组织所处的法律制度、文化期待、社会规范、观念制度等‘广为接受’的社会事实”,因为制度环境是激发组织生存策略转变的重要原因,组织的行动同时会受到市场逻辑与国家逻辑影响。人工智能产业发展的主导逻辑是市场逻辑,但同时人工智能研发与应用等行为在世界各国不同程度地受到国家治理逻辑的影响。有国外学者认为中国对数字经济和数字社会的管理模式为“国家驱动模式”。此观点虽有一定的偏颇之处,但在一定程度上反映出,相较于欧美,在我国的本土制度环境中,人工智能研发、应用的科研机构与企业等在与政府的互动关系中,更易受到政府影响,立法更易于发展出国家治理意愿驱动下的制度安排,并采取相应的行动机制。美国盛行企业游说文化,产业常常会驱动监管政策的形成;欧盟立法进程冗长并存在诸多分歧,具体制度在成员国的实现过程漫长。相较于欧美,我国的国家治理意愿更能够充分地在政策法规中实现,并迅速有效地通过行政执法落地。基于此,我国的人工智能立法更需既体现科技立法的前瞻性,又应增强监管的稳定性和可预期性,避免陷入“一放就乱、一管就死”的两难境地。
    第三,人工智能立法需考虑我国相关制度的前期基础。《人工智能法》既应是对既往网络法治和科技领域立法的总结,也应扩展调整范围,增加制度治理的维度,以形成更高层级的体系化法律制度。我国人工智能领域的立法一直秉承工程化思维,立法设定总体目标后,往往采用“急用先行、务实管用”的思维,同步建设多项制度。早在2017年7月,我国《新一代人工智能发展规划》即提出人工智能治理的“三步走”规划,以2020年、2025年为中期时间节点,计划在2030年完成总体目标,“建立人工智能法律法规、伦理规范和政策体系”。已经出台的《数据安全法》《个人信息保护法》等法律,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章,都体现了这一立法思路。随着近年来国内治理进程的加快,客观上,我国已经是世界范围内唯一一个系统建设覆盖政策规划、科技伦理、法律、行政法规、部门规章与技术标准全位阶、多层次人工智能治理制度的国家,特别是制定公布了世界上第一部实质生效的生成式人工智能治理法规。这种从具体到综合的立法模式,与欧盟立法人工智能治理体系从统筹规划至具体建立制度的发展思路迥异。欧盟期望能首先通过一部综合性、通用性《人工智能法案》开启治理体系的建设。基于总体规划,我国的人工智能立法一方面需要承继我国已经实际建立并在实践中运行良好的具体制度,另一方面需修正“急用先行”理念可能带来的与技术发展和社会经济状况不尽适应的具体制度,尤其是应协调人工智能立法与其他法律的关系,推动人工智能立法迈向体系化、协调化。
    相较于美国与欧盟,我国有着独特的技术产业发展地位、本土独特的制度环境、既有的治理基础,这决定了中国的《人工智能法》立法需充分考虑本土特点,实现产业发展与技术安全的平衡,增强制度的稳定性和可预期性,并在总结既往经验的基础上实现人工智能治理法律制度的体系化。
    (三)人工智能立法需具有合作博弈的国际视野
    人工智能技术具有很强的跨国性,人工智能立法的国际竞争具有高度的复杂性,并应很好地回应国家治理的主要主张,因此人工智能立法需要具备广阔的国际视野。人工智能领域国际交往日益频繁、经济与技术发展联系日益密切,因此,我国的人工智能立法一方面应对域外的遏制予以回击,另一方面需推广自己的理念制度,这是涉外法治建设的重要领域。
    第一,中国的《人工智能法》需充分考量设计法律的涉外溢出效应。2023年,很多国家开展了人工智能治理活动,出台大量法规、政策、指导性文件,国家的竞争重点已从科研投入、产业布局和市场争夺进一步延伸到国际规则制定和国际治理影响力领域。有专家认为,在全球AI合作治理缺席的情况下,中美欧三方主要力量可能会向全球推进各自对人工智能时代的不同愿景、争夺对未来技术的控制权并扩大自身在数字世界的势力范围,其他国家则面临进入哪个势力范围的选择。欧盟希望利用自身市场规模和规则制定能力,延续《通用数据保护条例》的“布鲁塞尔效应”在未来人工智能全球治理中赢得话语权。美国“AI白宫行政令”强调了“在人工智能领域扩大双边、多边和多方利益攸关方的合作”的重要性,旨在将美国定位为人工智能政策的全球领导者。欧盟与美国追求制度的“率先出台”,注重制度出台速度的领先性以及制度的独特性,不仅期望自己的制度成为本国或本区域的人工智能监管依据,而且期望自己的制度能够影响到其他国家和地区人工智能治理规则的制定和产业发展。很显然,率先出台法规具有较强的制度溢出效应。人工智能竞争不仅是前沿技术之争,而且是规则先发优势之争。我国的人工智能立法,需充分考量如何设计我国人工智能治理规则的溢出效应与全球影响效应,为此,相应的治理规则确立应能够准确判断关键技术走向和发展趋势,并有针对性地进行规则制定和竞争力量布局。
    第二,《人工智能法》应成为中国人工智能治理理念、制度规则的代表作。中美之间在人工智能治理理念和措施上存在共识,也存在较大区别。在理念上,中国《全球人工智能治理倡议》和多份立场文件主张立足人类共同福祉,“以人为本”;美国的“AI白宫行政令”则明确主张美国国家利益本位,“确保美国在AI领域的领先地位”。中国《全球人工智能治理倡议》主张关注发展中国家的利益,支持各个国家在人工智能领域的发展权;美国则专注于其盟友(like-minded)利益,主张合作建立国际框架来管理全球人工智能的发展和应用。在具体制度上,美国“AI白宫行政令”强调关键基础设施和仅与政府分享安全“红队测试”标准(即通过即为安全),反对披露模型权重等技术信息。中国目前的生成式人工智能大模型监管则主要聚焦透明度制度,如备案制度要求披露包含语料库来源和内容权重等多维的技术信息。由此可见,中国人工智能的治理理念、治理主张均有独特之处。中国的涉外法治建设不仅应立足于建立健全反制裁、反干涉、反制“长臂管辖”等阻断域外不当法律管辖和适用的法律制度,而且应成为体现中国人工智能治理理念、主张与规则的代表作;不仅要有力应对遏制和打压,而且应成为中国人工智能治理的国际制度名片。
    第三,《人工智能法》需对国际合作与博弈议题做出回应。人工智能技术将国家安全与国际和平带入新一轮的蜕变期,使“安全”与“和平”超出了传统政治议题的范围,成为政治、经济和技术三位一体的复合型问题。人工智能给我国发展带来了机遇,但也面临被个别国家通过“污名化”以阻碍我国企业出海发展、参与全球科技治理的困境。中国的《人工智能法》相较既往的立法,更应重视对国际合作与博弈的议题回应。一是在国际合作层面,我国现行法律中已有较多的有关国际合作的成功立法例,人工智能治理领域国际合作的迫切需求也应在我国的人工智能立法中有所反映;立法应以平等互惠或平等互利为原则,聚焦具体领域的国际规则制定以及国际合作与交流。二是在国际博弈层面,需回应可能的长臂管辖与制裁打压。各国高度重视人工智能立法对域外效力的争夺,如欧盟《人工智能法案》规定了属人、属地和实质判断等多个管辖标准,只要对欧盟市场提供产品或者开展服务,或其产品的输出物有可能在欧盟被销售,甚至位于欧洲的用户可能因使用其产品受到不利影响,均受其管辖。中国的人工智能立法可以合理拓宽域外管辖范围,通过管辖权条款赋予中国执法机构和司法机构域外管辖的权力。
    不断提升的科技创新实力对我国参与全球科技治理的责任担当也提出了更高的要求,为此,立法既要考量并设计我国《人工智能法》的外溢效应,成为传播中国理念与中国制度的名片,也要对国际合作需求与日趋激烈的国际博弈做出回应。随着科技创新能力增长及企业在全球产业链中优势地位的凸显,《人工智能法》应成为中国参与全球治理并获得国际社会认可的重要组成部分。
    三、中国人工智能立法制度选择的理论考量
    在互联网治理与科技治理中,中国累积了较为丰富的本土经验,形成了自己的法治理念。三十年来,在网络信息传播权、个人信息保护、算法治理、生成式人工智能等几个重要技术变革的治理节点上,中国从学习者、跟随者逐渐成为并行者。中国如果想在人工智能规则竞争中成为领跑者和主要规则制定者,立法的制度选择必然需要基于自身特点做好理论考量:第一,对我国网络、科技治理的制度安排和规制实践进行学理化、逻辑化和系统化的总结提炼。第二,批判性吸收外来学理,合理借鉴域外制度,完善本土法律制度。第三,在从规则遵守者到规则制定者视角转变下,对人工智能治理这一全球公共性法治议题给出更好的理论回应。
    (一)提炼网络立法中应对技术发展不确定性的经验
    本土法治实践是中国人工智能立法的经验来源。在网络法治发展的三十年中,我们可充分观察到我国的监管理念与监管手段会随着网络、平台、算法等技术系统嵌入社会经济运行中的阶段差异而及时调整以适应社会治理需求的变化的特点。在人工智能法的立法中,我们可充分借鉴既往法治实践中累积的应对不确定性技术发展、社会关系变化风险的经验,准确判断当下的技术发展阶段和未来走向,进行回应性和前瞻性立法。
    既往的治理中是如何应对技术发展带来的诸多不确定性的?我国的互联网治理是典型的可供制度借鉴的对象。全面回顾网络法治发展的三十年,我们可充分观察和提炼我国的规则制定者为应对技术带来的新问题而不断回应、调适、改变和完善制度,最终引导技术朝着合理方向发展的制度经验。早期,互联网作为单纯的信息技术,围绕信息的生产、传播和使用展开。中期数字经济兴起后,互联网平台依托开放模式将社会各类生产要素逐步数字化,并依托算法进行信息的分发、匹配,发展成为兼具市场与企业二元属性的社会生产组织。近期平台经济具备规模后,大型互联网平台逐步形成稳定的数字社会生产结构,一方面进行信息基础设施建设,另一方面通过完善制度维系架构的相对封闭以获得竞争优势和经济权力。与此相适应,早期的法律将互联网视作信息传播工具,网络治理基于网络信息传播权为主的知识产权制度进行构建。后来的法律将技术系统视作数字市场机制,一方面将线下市场中的主体审核、合同纠纷处理、交易金融服务等机制移植到线上,另一方面注重处理诸多市场要素数字化引发的新问题,从版权、隐私、劳动者权利、合同、垄断、竞争等角度予以一一回应。近期的法律则将互联网平台系统视作社会生产的组织者,一方面国家权力介入社会生产组织过程,对平台进行穿透式监管,推动平台反垄断、强化平台的主体责任,另一方面注重通过制度保障社会生产组织者的合法权益,如推进信息基础设施建设,推动数据要素获得法律承认,司法中注重保护企业数据财产权益等。中国在网络法治体系发展进程中形成的可供人工智能立法的参考或借鉴的经验有:
    第一,网络治理的“小、快、灵”立法表面上是通过位阶较低的规范来应对技术高度发展带来的不确定性,实则是法律制度不断调整对于技术的定位,进而做出制度上的合理回应。科学立法的首要问题是确定调整对象的性质,准确把握立法调整对象背后的规律和本质。但人们对事物的观察和思考并非完全客观,制度观察者、制定者常常有自己的立足点。早期将互联网作为工具时,法律在原有框架内进行相应调整,如通过信息网络传播权对著作权、邻接权等做制度上的微调。后来的法律则以领域来看待互联网,多个专门领域互联网治理集中针对诸如互联网金融、网约车、电商平台等进行治理。近期的法律制度,注重以体系化和整体的视角对数字社会生产带来的社会变革进行回应,如国家数据局等部门印发了《“数据要素×”三年行动计划(2024—2026年)》《生成式人工智能服务管理暂行办法》,明确将科研和产业应用排除在上述规范适用范围之外。网络法治发展形成了对具有高度不确定性对象立法治理的方法论:即立法者首先对技术性质进行判断,并根据立法需求确立治理理念与制度体系架构。
    第二,网络治理的制度只有具备高度迭代演化的能力,方可有效应对技术治理需求的不确定性。网络法治在实践中逐步通过以下方式来实现对不确定性的包容:一是以具有高度开放性的科技伦理入法来应对风险的不确定性。伦理学与社会学的讨论往往先于法律的规定,但在人工智能治理领域这一情况则被改写。例如在医学实验领域,医学伦理先达成基本共识然后才逐步转化为法律规范。而近年来,法律则直接、密集地将科技伦理要求纳入规范,如2021年颁布的《新一代人工智能伦理规范》中的促进公平公正、保护隐私安全、确保可控可信等,这一情形表明,科技伦理规范的出台时间与近年法律行政法规制度的出台时间高度接近或重合。二是以具有迭代演化能力的制度应对技术和规制需求的不确定性。如评估制度已经成为互联网治理的基础性手段。目前我国互联网治理领域法律制度中的评估种类与名称多样,有风险评估、影响评估、安全评估等。评估制度具有高度的容纳性,已经超越事前的风险认知视角,发展为治理体系重要的监管措施,注重从事前到事中激励相对人预先构建技术机制来预防和规避技术风险。评估制度不仅包括以自我规制为主的影响评估,而且包括以预防和化解安全风险为目的的安全评估。这些经验均可为人工智能立法所吸纳。
    如何对人工智能做出法律性质的判断,并进行相应的制度设计,才能够应对技术发展、社会关系变革和潜在风险的不确定性?很显然,人工智能不应再被视为单纯的技术或工具,而是社会生产方式与社会关系重大变革的驱动力,法律需基于“生产关系适应生产力发展”这一原理对前述问题做出系统性回应。
    (二)优化建构与借鉴并重的法律制度生成机制
    中国人工智能立法需要直面独特的本土实际与治理需求。何种机制下生成的制度能够最大限度地合理回应中国独特的治理诉求?在人工智能规则竞争领域,可资借鉴的制度,既有汗牛充栋的欧盟系列成文法,又有相对领先的美国产业实践与治理制度体系,法律借鉴是本土化制度生成必须面对的议题。与此同时,人工智能产业的相对发达是我国人工智能法本土制度生成的现实基础,人工智能法的系统科学研究,则是建构中国法学自主知识体系,推动中国人工智能立法完善的重要理论基础。
    既往的法律建构中是如何处理法律借鉴与本土法律实践的关系的?我国技术治理和互联网领域治理的三十年经验是极好的观察对象。早在20世纪末,美国《千禧版权法案》几乎成为世界网络立法的模板。互联网平台责任的国际范本是美国国会于1998年通过的《数字千年版权法》(Digital Millennium Copyright Act,DMCA),该法确立了著名的避风港原则和红旗原则,后来这两大原则也被包括我国在内的世界多国立法采纳。互联网立法一直以产业发达的美国立法为借鉴对象,直到欧盟数字经济立法成为世界各国效仿的对象。欧盟《通用数据保护条例》(GDPR)是披着基本权利保护法外衣的经济立法,服务于欧洲统一数据市场的需要。我国的《个人信息保护法》制定过程中曾一度存在“走美国路线还是欧盟路线”的讨论,最终的法律文本则在一定程度上体现了“布鲁塞尔效应”的示范效应。我国算法治理的三年规划与相关法律文件,被西方智库与媒体广泛关注,他们认为“随着世界各国政府加大对大型科技公司的监管,中国将成为一个潜在的开拓者”。我国在网络法治领域开创了一系列独特的本土化制度,这些制度的生成经验可成为人工智能法制度生成的重要参考。
    首先,中国本土制度建构离不开对外来法律制度的借鉴。随着对于西方中心主义和世界法治模式是否存在“一尊”的反思,中国法学理论与法律制度开启了从“中国特色”走向“自主”的转型。通过对于外来法律制度与理论的借鉴,中国法学期望能实现从西方理论的“搬运工”到中国学术的创造者、世界学术的贡献者角色的根本转变。技术治理法治体系的建设肇始于对美国互联网法律制度的借鉴,同时中国根据自己的实际进行了制度设计和调试。如早期的《侵权责任法》第36条网络侵权条款,尽管看似借鉴了红旗规则,但实际上该条款的适用范围和调整对象均与美国的法律制度存在较大不同。在《个人信息保护法》的制定过程中,学界也一直在对欧盟严格的数据保护制度对数字经济发展的作用进行反思,并持续性地对其进行追踪研究。任何法律制度及其实践必须紧密结合一定的地理环境、历史传统、经济社会基础、民族心理等才能有效展开。我国互联网治理领域的法律的建设,无论是对产业发展的法域还是对制度设计占据优势法域的学习,都一直保持扎根本土的理性。人工智能领域的法律借鉴,也必须考虑中国产业独特的国际生态地位,谨慎学习国外的人工智能治理制度,避免法律发展与产业实践出现障碍。
    其次,中国本土特色制度生成中的内在驱动力量。迄今为止,中国网络治理与技术治理中已经形成了一系列具有中国本土特色的制度。以未成年人网络保护制度为例,游戏“宵禁”制度与“未成年人模式”制度是目前世界独有的制度,也是被美国与欧洲业界和规制者广为关注和讨论的制度。又如算法推荐规制中的“一键退出”制度也是中国规制者对互联网企业提出的独特要求。这些特色制度是如何生成的?一是监管部门基于自身职能的大力推进。如我国网信部门在网络信息内容安全管理职能下,积累了大量内容安全领域的制度和监管经验,并早在2023年1月10日开始实施的《互联网信息服务深度合成管理规定》中对生成内容提出了“标识”的要求,且该制度已经落地;而2023年欧盟和美国在多边会议和监管文件中则刚刚提出这一制度。二是人民群众切身感受和社会舆论的推动是我国本土制度生成的重要力量。如“大数据杀熟”之所以成为治理热点,是因为“大数据杀熟”问题在我国受到了民众的高度关注,并成为社会舆论关注的热点。监管部门的推进、社会舆论的推动,未来势必会直接影响我国的人工智能立法,也一定会有效推动各相关部门监管需求与产业发展的平衡。
    最后,产业发展和技术实践需求在规则形成中扮演了重要角色。在以往的技术治理规则形成过程中,产业界和技术界发挥了重要作用。如《生成式人工智能服务管理暂行办法》的公布实施稿对征求意见稿进行了较大调整,这与产业界与技术界参与“开门立法”并发挥其积极作用密切相关。又如立法者在数据跨境相关评估制度的形成和调整过程中,充分考量了业界在数据跨境实践中遇到的实际困难。人工智能治理制度的形成离不开产业、学术、监管部门密切交融和互动,尤其是产业界在相关制度生成中的作用更加应该得到重视。例如对于人工智能安全的认定和评价,既要跟进技术发展,了解和识别可能的风险,又要依赖企业自律形成产业发展的自我监管制度。未来,产业界在人工智能立法中应提供更多的经验智慧,而立法者也应对产业创新保留一定的容错空间,合理设定责任豁免制度。
    法律制度的生成机制,不仅是制度文本的撰写,更是制度环境的合理建构。人工智能立法领域本土化的法律制度的生成,既需要扎根本土实践与国情紧密衔接,也需要重视产业和民众在现实生活中的基本要求,还需要重视前期立法基础,构建人工智能法律领域的中国自主法学知识体系。
    (三)统筹涉外法治建设的多维制度资源
    人工智能法是我国涉外法治建设的重要领域,关乎国内法涉外制度建设和参与国际规则制定两个方面,也是“建设中国自主法学知识体系”,并推动中国成为世界法学理论贡献者的重要发力方向。中国人工智能治理方案关乎国家的核心竞争力,参与国际规则的制定,既应推动自身从制度的遵守者成为制度的引领者,也应兼顾国家产业发展与参与全球治理的共同需求。为此,需要系统研究我国涉外法治建设中可资借鉴的各种制度资源。我国涉外法治发展的重要目标之一是“建设建立健全反制裁、反干涉、反制长臂管辖等阻断域外不当法律管辖和适用的法律制度”,为此,相关制度的构建应从《反外国制裁法》《反出口管制法》等法律的制定和完善开始。涉外法治建设隐含着“本土—外来”“东方—西方”的底层二元逻辑,这是相关法律制度建设中应当关注的又一基本逻辑。
    其一,中国现代化的发展路径、指导思想、实现目标与西方(欧美)存在较大差异,具有中国特色的话语体系和制度如“和平共处五项原则”“人类命运共同体”“中国特色大国外交”等均可成为我国人工智能治理领域涉外法治建设的基本理论资源。以人工智能领域世界各国和多边组织普遍接受的“以人为本”伦理原则为例,美国“以人为本”原则落地为法律制度,具体体现在信息主体知情、选择、拒绝、救济的权利上;我国“以人为本”原则的落地除尊重信息主体知情、选择、拒绝、救济的权利外,还设计了对用户的“防沉迷机制”等具有中国特色的制度。再如,人工智能应用于人脸识别的制度导向截然不同,世界各国规则的巨大差异性,导致了国际共识难以达成。我国将其视作社会安全治理的应有之义,但因人脸识别涉及隐私保护与数据安全等敏感议题,欧美对其认识存在较大分歧。在人工智能治理领域,我国涉外法治建设既要借鉴外来制度,也应具备涉外法治建设的主体意识,充分借鉴相关制度资源。二是在涉外法治建设中,需重视全球治理的“南方”法治资源。我国《全球人工智能治理倡议》中将“发展权”作为参与国际规则制定的重要指导思想。全球“南方”国家是我国在外交中争取和团结的重要对象。未来我国的产业出海,应全面考量亚非拉发展中国家、与传统西方政治制度与文化不同的欧洲国家、价值和文化体系不同于西方的其他发展中国家,重视这些国家在人工智能法律发展中的内在需求。
    其二,抓住参与国际规则制定的机遇,紧跟国际规则制定的目标。国家竞争力的胜出最终依赖于全球博弈视野下的国家能力的相对优势,这既包括技术与产业优势,也包括制度治理优势,尤其是一个国家参与全球治理的能力优势。参与国际规则制定的目标如何设定?(1)将可能存在对抗的领域问题,通过法律制度的完善,推动问题的常态化解决。有学者指出,面对外部法律风险和挑战,我国经常避免以法治方式正面解决纠纷,更依赖于双边谈判、临时应对、政治妥协和经济交易等手段,法治反击和反制的案例在实践中并不多见。中国涉外法治建设应该建立一套妥当的、符合国家利益和国际法治价值的管辖攻防体系,兼顾短期防御与长期防御、个案防御与体系防御、有效防御和适度反击。在世界人工智能治理变革过程中,任何国家都没有绝对优势,尤其是在全球科技治理体系建设和发展方向共识均未达成的情况下,我国这样的后发新兴科技国家会遇到更多更新的参与全球规则制定的机遇。(2)在各领域的国际标准和规则制定中,大力宣传国家的核心理念,同时应充分关注其他国家的治理诉求和治理逻辑,并将其吸纳至中国人工智能治理理念之中,进而为制定符合大多数国家利益的国际人工智能规则做好理论准备。
    中国的《人工智能法》应成为“重点领域、新兴领域、涉外领域”立法的一张中国名片,兼具前瞻性、科学性和国际性。人工智能立法需要充分发掘既往网络法治实践中积累的本土经验,形成扎根本土的深厚理论。我国网络法治发展的三十年提供了丰富的应对科技快速发展带来的调整对象、社会关系和风险不确定性的经验,也诞生了一批在中国国情与制度环境中生成的有效的法律制度,这些都构成了人工智能立法重要的理论资源。中国的《人工智能法》在统筹国内法治与涉外法治建设的过程中,应充分重视全球“南方”国家的法治知识资源,并明确参与国际规则制定的目标,共同推动《人工智能法》成为构建中国自主法学知识体系与制度的典范。
    四、中国人工智能立法的目标与制度架构
    中国需要一部什么样的人工智能法?国内学术界和政策界存在大量争论,国际上也有多个国家和国际组织为我们提供了参考和范本。中国人工智能法是人工智能治理体系的提纲挈领之作,关系着人工智能技术产业的长远发展,更会深刻地影响人工智能时代的个体权利、社会运行、国际地位等诸多方面。现阶段中国的人工智能立法,目标定位需明确为高擎发展旗帜,建立人工智能技术产业健康发展的良好生态;制度设计应彰显人本主义,既确认既往实践中形成的良好制度也要在未来制度设计中更好地体现人文关怀;在框架体例设计上应选择“总则式”体例,廓清立法主线而不必急于“毕其功于一役”;在制度设计上,应重点回应现阶段本土产业发展和治理需求,并为技术和社会发展的不确定性留足制度空间;在推动的步骤进路上,国内立法推进速度宜与参与国际人工智能治理同步联动,既适时建立国内制度体系,也应积极参与国际规制的制定。
    (一)定位:高擎发展旗帜
    发展与安全是技术立法的永恒命题。在全球激烈竞争格局下,不发展是最大的不安全。在立法基本逻辑的厘清中,一方面我国人工智能产业“领先的追赶者”的独特国际地位要求我们在技术和产业的国际竞争中必须以发展作为制度设计的主要目标;另一方面,面对技术发展和技术可能带来的不确定性风险,立法既需要观察技术的进一步发展以明确其未来前景,也需要通过技术发展来回应和解决人工智能的安全问题。基于此,我国人工智能立法的目标定位为,高擎发展旗帜,既要体现对技术产业发展的促进导向,也要推动人工智能在生产生活中的合理应用。这意味着《人工智能法》不仅要设立专门的推进技术发展的制度板块,也应设置监督管理、责任则度等内容。
    第一,《人工智能法》中应设立“发展与促进”的专门板块,体系性地部署促进人工智能技术产业发展方面的制度。以单一技术系统为表现形式的科技创新无法单独存在,科技创新需要外力的介入,需要法律为其搭建公共基础服务的保障性制度。基础模型等技术的发展既需要海量算力、数据要素的支撑,也需要国家层面的法律制度的支持。我国向来重视人工智能产业发展的促进工作,如国务院2017年印发了《新一代人工智能发展规划》,2021年我国修订了《科学技术促进法》,都为人工智能的发展在国家层面提供了制度保障。但前者在稳定性、效力位阶上远不如法律,后者也并非专门针对人工智能技术的法律。唯有通过《人工智能法》这一针对性强、位阶较高的专门立法,才能够制度化地解决如下问题:一是在法律层面明确国家和地方政府将人工智能发展纳入本级国民经济和社会发展规划。二是通过法律制度建立算力基础设施建设和算力资源调度利用的制度。三是相比普遍的科技促进制度,应强化专门针对人工智能算法、模型、芯片等关键技术发展的制度保障。四是针对人工智能的发展需求,明确政府推进数据要素的供给机制,进一步确立和扩展在《生成式人工智能服务管理暂行办法》中提出的“公共数据池建设”的发展促进机制。五是明确人工智能技术发展与知识产权制度的冲突应通过法律制度来协调解决。专门立法会直接影响到生成式人工智能训练数据和生成物的保护问题,也与相关产业的发展密切相关。
    第二,《人工智能法》的相关制度应充分促进人工智能技术在生产生活中的应用,避免设立“高标准严要求”的监管制度。人工智能技术与产业的长远有效发展,有赖于其充分地融入社会生产生活,成为推进社会发展的动力。为此,一方面需要反思现阶段的制度对于法律责任的设置是否有利于保障产品和技术的发展,另一方面需要打消公众对人工智能产品服务的安全顾虑。以法律责任的设置为例,如果生成式人工智能代表未来生产力的发展方向,其发展的社会成本即包括合理的法律责任。二十年前各国为鼓励网络产业发展,法律对网络服务提供者通常施以较轻的注意义务。但后来随着产业的发展,法律对网络服务提供者设定的责任水平逐渐提高。如果我们相信生成式AI代表着未来人工智能模式发展的重要技术路径,就应对大模型数据训练与其生成物的法律责任保持一定的宽容,因为未来生成式人工智能成功应用于社会生产与生活可以反过来惠及更多的行业和开发者。生成式人工智能的专业模型在发展早期,应设置一定的免责规则,甚至立法应当为其设计精巧的避风港责任,降低企业履行注意义务的成本。为此,立法对人工智能的研发和提供行为设置义务的数量和范围要合理。尽管欧盟就《人工智能法案》游说亚洲国家效仿其在人工智能领域的领先立法,但多国保持了观望态度,担忧过于仓促、严厉的监管会扼杀技术创新。欧盟的学者也担忧法律义务和监管要求的数量规模如此之大,实施成本如此之高,其威慑作用可能导致研发活动转移到欧盟之外。
    (二)主旨:彰显人本主义
    《人工智能法》的立场主旨应彰显人本主义。“以人为本”的理念已在我国一系列立场文件中得到多次表达,未来应更加具体地落实到法律制度设计中,彰显人本主义。人本主义与技术理性相对,技术理性是指人类追求技术合理性、规范性、有效性和理想性的抽象思维活动、智慧和能力。它以数学的结构来解释世界,只注重功能和操作、只关心其实用目的,把事实和价值、技术实用价值与技术应当遵循的伦理、道德严格区分开来。在技术理性的理念下,人类的独特性被理解为一种特定的生物结构,就像计算机配置一样,是一个进化意义上的短暂事件。人工智能时代,过度地追求技术理性可能使机器在日益“人化”的同时,人也被“机器化”,这一过程包含了人的数据化、数据的商品化、人的客体化以及人的意识的客体化。这一过程也在逐步消解人的主体性——从技术改善人类生活,到技术重新设计人类,再到可能迈向消亡人类的灭绝。基于这种担忧,我国在《全球人工智能治理倡议》中提出,“发展人工智能应坚持‘以人为本’理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展”。“以人为本”的人本主义理念具体落实在人工智能法律制度中,应包括以下三个方面的内容:
    第一,设立“权益保护”专章,特别彰显“以人为本”的人本主义理念。《人工智能法》应以安全与发展为理念,社会各界、研发者和服务提供者应更多关注促进发展的制度体系建设与监督管理机制的设置。整部法律在制度设计中,应当将个体权益保护作为专门章节,更加完整地构建人工智能时代个体权益保护的制度体系。由于公法保护缺乏灵活性、前瞻性,政府部门也往往囿于资源限制无法充分对其进行规制。赋予个体使用人工智能产品和服务时获得私权救济的路径,既可实现对层出不穷的新场景下技术“探路人”的法律保护,也可以有效弥补公法保护的缺陷,扮演权利宣示与权益保护“最后一道防线”的角色。由于私权救济是唯一能够由个体主张而启动的制度,《人工智能法》中的权益保护专章更需被重视,以保障救济路径的通畅。
    第二,涵盖更广的个体权益保护范围。个人信息和数据作为数据权利的客体,承载了人格与财产利益,因此有学者将数据权利分为涉及人格权益的数据权利如自决权、知情同意权、被遗忘权,涉及财产权益的数据权利如使用权、收益权、可携权。在人工智能技术无法充分实现可视化与被解释的预设前提下,立法应从保护个体权利角度出发,防止人工智能技术对个体意思自治、个人信息及人的主体性等其他合法权益的不当限制或损害。如,当前对个人信息与数据的保护制度,更多关注主体是否知情同意、数据的真实性、个体是否可以自由修改与删除数据。《人工智能法》中的权益保护应涵盖更多的内容,关注人工智能产品和服务对个体权利、人格尊严和人本主义的影响。再如,当前有关人格尊严的法律制度主要围绕“隐私”的侵害矫正展开,对个人数据的关注点停留在可识别性、自主性、数据控制权利和名誉权等传统问题上,与数据保护混为一谈。人工智能时代的人格权问题、人的自主决策(自治权)、人类主体性保护等问题应在制度设计中予以体现。
    第三,关注和重视社会弱势群体的权益保护。数字技术并不是中立的客体,它们被赋予了与性别、社会阶层、种族民族和年龄相关的意义。《中国关于全球数字治理有关问题的立场》强调,各国应致力于向本国不同人群,特别是社会弱势群体,提供持续、稳定、普惠、开放的数字产品和服务……应加强对老年人、妇女、未成年人、残疾人、贫困人口等群体数字技能培训,维护和促进有关人群的发展权。贯彻这一立场,人工智能立法就应当做到:一是人工智能设计应该以满足人的需要为标准,人工智能产品或服务的研发者、提供者应提供适当的人机交互方式,便利用户使用。二是保障老年人、妇女、未成年人等社会弱势群体的权益,设置适老模式、女性模式、未成年人模式等专门的保护制度。三是重视人工智能对劳动者可能产生的影响,关注劳动者在人工智能时代参与劳动规则制定、劳动自主性等相关权益的保护。四是增加获得帮助权,涉及个人重大合法权益的人工智能产品或服务,人工智能产品的提供者应当对个人、组织提供帮助,加强技能培训。
    (三)框架:立总则,留接口
    《人工智能法》面临的重要挑战是如何解决技术、风险和社会发展不确定性等问题。国内学界的讨论中,不乏人工智能立法时机尚未到来的观点,但从国际视角出发的学理研究成果,却多从回应企业出海需求、塑造国际形象等角度,主张国家应制定一部综合性的《人工智能法》。《人工智能法》如何容纳和化解高度不确定性的诸多风险?这一问题可通过《人工智能法》的框架体例来解决:以“总则式”为框架体例,以“廓主线”为主要内容,以“留接口”解决容量问题。
    第一,《人工智能法》应确立“总则式”的框架体例,定位为人工智能治理的提纲挈领制度。立法既要满足人工智能治理的紧迫问题,又要为未来的发展留足空间;当下的《人工智能法》拟涵盖迫切需要解决的核心问题。《人工智能法》的调整对象是治理人工智能技术、产业和应用全链条以及在此基础上形成的复杂系统与社会生态;立法不能抱持“毕其功于一役”的理念,试图去涵盖所有人工智能技术、要素和应用等不同维度的治理规则。社会各界无论是否支持启动制定《人工智能法》,《人工智能法》都应在重要问题上达成最大共识。《人工智能法》关系着我国未来人工智能产业发展、技术和社会治理体系变革,因而应为人工智能时代个体权利的保护制度体系定调,绘制人与技术的合理关系图谱。正是因为《人工智能法》的重要性,现阶段的《人工智能法》的立法应参考《民法典》的立法经验,采用“总则式”的立法体例。正如《民法总则》被认为应确立我国应奉行的立法哲学,通过确立民法立法目的、基本原则、法律制度,来表达对时代所面临问题的基本看法和态度。“总则式”体例的《人工智能法》同样应确立人工智能立法的立法目的,人工智能技术、产品与服务必须遵循的基本原则,基本法律制度应遵循的一般性规则,表达我国人工智能治理的基本理念与基本立场。
    第二,《人工智能法》应以“廓主线”为主要内容。主线是指人工智能治理的基本框架脉络,应该在《人工智能法》中得到确定。《人工智能法》的基本框架脉络可包括一般原则、促进发展、权益保护、安全义务、特殊应用场景、监督管理、国际合作、法律责任等若干板块内容。这些板块可能成为章节抑或法条,但基本能够统领和涵盖当前和未来一个时期人工智能治理的主要问题。这些章节的内容排列可考虑按如下顺序设置:一是确立《人工智能法》的立法目的、基本原则,作为统领性章节确立中国人工智能治理的基本立法目的和立法态度;二是将促进发展内容排列其后,强调本法促进发展的主旨;三是将权益保障置于安全义务之前,明示以人为本的立法主旨;四是将安全义务和监督管理并列安排,安全义务章节设置人工智能产品、服务的研发者和提供者的安全义务规范,监督管理章节设置监管部门的规制措施,并对特殊应用场景做出原则性规定;五是国际合作,我国现行法律中已有七部法律设有国际合作专章的立法例,人工智能立法中的国际合作应聚焦国际规则制定以及国际合作与交流的开展;六是法律责任章节,设定人工智能产品与服务的行政责任、民事责任与刑事责任等。这样一条主线基本覆盖了人工智能治理的主要制度,能体现将人工智能作为生产方式和社会治理系统的综合治理思路。
    第三,《人工智能法》要“留接口”解决容量问题。一部《人工智能法》无论如何“大而全”都无法涵盖人工智能时代技术产业和社会生活方方面面的问题,这既是由人工智能技术的战略意义决定的,也是由人工智能技术发展的不确定性决定的。一是处理领域立法与通用立法需要“留接口”。人工智能领域已经深刻影响到了教育、医疗、金融、交通等领域,这一趋势未来还会继续延续。诸多社会生活领域的具体规则的制定,只能交给专门领域立法解决,《人工智能法》只能在有限条款中对特殊应用领域问题予以强化,此谓留足“领域接口”。二是处理现有制度与未来发展需要“留接口”。以往法律处理不确定性问题更倾向于使用模糊术语进行表达,扩张其适用范围。《人工智能法》立法中,可预留授权的制度接口,将技术、要素与产品应用的规制部门确定,将位阶较低的制度授权有关部门细化。如未来基础模型如果实质上构成关键信息基础设施,则应承担相应的法律义务。在满足一定的产业发展条件后,立法可改变对法律义务与责任的设置,当下的制度设计可预留未来变化的制度“授权接口”。
    (四)制度:治当下,谋长远
    《人工智能法》的制度设计既应注重“治当下”,还应兼顾“谋长远”,具体制度的设计,需平衡发展和安全,对发展需求和安全隐患均予以考虑和回应。既应解决人民群众、国际社会迫切关心的问题,也从宏观上把握规制的尺度,特别是技术带来的生产激励、公平分配等问题。
    第一,确立多元治理框架。如《中华人民共和国数据安全法》提出国家支持各相关主体广泛参与数据安全保护。治理主体的多元化是实现科技立法与决策民主化的必然要求,多元化的治理框架可有效提高治理的科学性和包容性,防止单一利益需求主导国家治理秩序。我国已经积累了一定的主体多元化的治理经验,但要避免多元化治理模式流于形式,真正建立“包容共享型法治”。《人工智能法》的立法中,应明确国家支持人工智能的主管部门、行业组织、企业、教育和科研机构、有关专业机构等在人工智能的安全风险评估、防范、处置等方面开展协作;鼓励建立人工智能行业相关组织,加强行业自律,制定行业规范、行业准则,发布行业最佳实践案例与合规指引,为企业合规建设和使用者权益保护提供指导;鼓励人工智能主管部门、相关行业协会、市场开发者,共享人工智能安全监测技术工具和手段,构建良好的人工智能监管生态。
    第二,设定合理的分类分级认定规则。依据风险进行分类分级管理是技术治理规则设定中普遍采用的原则,在欧盟的系列立法推动下,人工智能依据风险的分级管控已经成为各国监管普遍采取的手段。2023年欧盟《人工智能法案》(AI ACT)将人工智能风险等级划为四类,并扩大了人工智能高风险领域的分类范围,将对人们健康、安全、基本权利或环境的危害考虑在内;对高风险人工智能系统采取多项监管措施,并且新增规定了部署商的义务,体现了折中草案对于人工智能监管趋势趋严。但欧盟对风险的认定标准和监管成本过高,与我国立法的标准体系难以完全兼容。风险规制既需反映当下迫切的治理需求,也需要留足应对未来发展与不确定性的空间。我国也确立了算法、场景、主体、数据多个领域分级分类监管制度,但人工智能的分级分类标准需做出针对性的制度安排。《人工智能法》不宜在现阶段技术产业发展走向尚不十分明朗的情况下划定不同级别,而应划定“红线底线”以满足当下监管需求,并为不确定性的发展留足空间。欧盟对风险的认定标准包括处理应用场景、影响权利的类型等,这与我国国内立法的话语体系难以兼容。我国可考虑建立关键人工智能特殊监管制度,在人工智能一般监管要求基础上,实行重点监管,并可以与我国已有的关键信息基础设施保护制度实现对接。关键人工智能产品与服务包括:涉及公共通信和信息服务、能源、交通、水利、金融、公共服务、电子政务、国防科技工业等重要行业和领域的;对公民的生命、自由、人格尊严等重大人身权益有重要影响的;在算力、参数、用户规模等方面达到一定级别的通用人工智能系统。立法既应与已有的关键信息基础设施制度对接,也应从重大权益影响角度进行制度覆盖,并对未来可能造成系统性生存性风险的人工智能治理予以回应。
    第三,完善人工智能动态监测、预警、响应机制。人类与人工智能未来将长期共存,技术与风险的不确定性将是技术治理的常态。应对这种“常态”,应在《人工智能法》中建立人工智能风险的动态监测、预警、响应机制。如,国家设立人工智能专家委员会,定期通报人工智能技术的发展、部署和应用,并且动态监测风险、共享风险评估、实施安全事件报告、建立应急响应机制。这一系列风险监测、预警、共享、报告和响应的体制机制将成为能够长远监管人工智能风险的制度。再如,人工智能产品和服务的研发者、提供者应当建立人工智能安全事件决策和处置流程,对于引起社会舆论、产生广泛社会影响的人工智能安全事件,应当及时向主管部门报告。这一制度将有助于公众更好地了解人工智能,并推动国际社会就人工智能进化的速度和影响达成共识,逐步建立标准,以更加科学地衡量人工智能对社会生活各个领域产生的影响。
    第四,对当下和长远发展的人工智能治理共性问题做出制度安排。一是从当下来看,人工智能与知识产权的紧张关系成为世界各国立法面临的难题。在立法层面,欧盟、美国、日本等加快了推进人工智能版权立法的进程。在司法层面,国内外已有多起有关人工智能生成内容的可版权性、训练数据版权侵权等诉讼。在输入端,训练数据的获取与使用始终面临合法性问题,国内外有关训练数据版权侵权的案件已经呈现出井喷局面,各方对于训练数据能否构成合理使用持不同立场。在输出端,关于人工智能生成内容的可版权性问题引发了学界广泛的讨论,“国内AI生成图片著作权侵权第一案”的裁判更是引发了各界关注。基于我国当下“世界领先的追赶者”角色,立法应尽快协调人工智能产业发展与知识产权保护制度,为技术产业高质量发展创造条件。二是从长远来看,通用人工智能初现端倪,治理具有比人类计算能力强大的技术系统成为各国必须通力合作的议题。《人工智能法》宜预留通用人工智能的规制条款,对于未来可能出现的非限定任务的、多领域通用的强大人工智能系统设置更高的安全规范。
    第五,根据现行技术产业发展阶段探索新型监管制度。如各方广泛关注的沙盒监管制度,是允许企业在真实的市场环境中测试产品、服务或商业模式,同时又能将新技术潜藏的风险控制在一定范围。美国已经在人工智能金融、自动驾驶等领域相继开展沙盒监管测试,并鼓励参与企业在沙盒内开展红队对抗、自律管理等活动。欧盟《人工智能法案》第五编专门规定了沙盒制度,细致规定了沙盒制度的运行和相应的监管措施,同时还特别强调中小企业使用沙盒的优先准入和费用减免制度,被认为是欧盟保护本土企业、增强产业竞争力的重要制度。为支持人工智能创新发展,相关部门可以探索人工智能产品与服务监管的试点机制,设定监管试点技术的准入条件、试点范围与期限、试点的运行规则等,明确试点目的、定期与试点企业展开技术交流和治理经验共享,为人工智能研发提供必要测试环境的同时提高监管机关自身的监管能力。对初创企业、小微企业等难以获得专用设施、缺乏财力人力的市场主体,可以适当减轻或豁免其进入试点的条件。
    (五)进路:适于时,宜于世
    对《人工智能法》立法这一主题进行讨论,是为了尽快地回应当下紧迫的社会治理需求。人工智能的发展存在诸多争议。“法与时转则治,治与世宜则有功”。所谓立法适于时,是指依据社会需求推进国家层面的人工智能治理框架,综合性的人工智能立法宜择机出台。所谓立法宜于世,则是指立法应回应全球“南方”国家的发展需求,实现《人工智能法》与《全球人工智能治理倡议》的联动。
    一方面,当立法共识尚未充分形成,全面立法条件不成熟时,可采用灵活方式推进国家层面人工智能治理。在我国的法治实践中,2012年全国人大常委会制定公布了《关于加强网络信息保护的决定》,对公民个人信息、网络信息内容管理等作出框架性规定。在该决定施行的4年后,广受瞩目的《网络安全法》顺利出台,成为网络安全和信息化领域的基础性立法。科技立法相对传统法律部门创制具有更强的时效性,故中国《人工智能法》可以考虑通过灵活的形式载体,以小快灵立法、全面性立法乃至法典化立法等形式适时推进,这样既可以提高治理体系的敏捷程度,也有助于最大程度地化解法律滞后与技术创新的固有冲突。
    另一方面,在国际层面倡导人工智能发展权。我国在《全球人工智能治理倡议》中提出,各国均有“平等发展和利用人工智能的权利”,主动为国际人工智能治理规则的形成贡献中国方案,为技术后发国家谋求主动提供了可借鉴的制度路径,有助于避免人工智能强化技术壁垒、加深数字鸿沟。《人工智能法》中应设立“国际合作”专章。国际合作应兼顾横向合作与纵向合作。横向合作旨在确定覆盖人工智能整个社会技术环境的最低要求,凝聚全球人工智能治理共识,主要体现为促成人工智能的共同定义、制定兼容性的国际原则、建立跨国治理协调机制等。纵向合作应围绕特定领域开展,依托部分贸易协定和国际经济论坛。目前主要国家就人工智能在国际贸易的影响和应对已经展开长期对话,但人工智能算力基础设施建设、人工智能标准制定和人工智能数据安全治理等事项还有待更深入的国际合作。
    人工智能时代已经到来,中国的《人工智能法》的出台还有多远?从2023年初OpenAI的ChatGPT惊艳问世,到2024年初Sora再一次引起全球关注,技术发展的脚步日益加快,人工智能正加速改变着产业、社会和世界。围绕中国《人工智能法》的立法,本文从基本逻辑、理论考量、目标主旨和制度架构等角度进行了初步思考。笔者确信,中国应当有一部《人工智能法》来彰显立场,为人工智能技术产业发展保驾护航。也只有在法律这一位阶层面制定人工智能法律制度,才能够统筹协调并确立国家层面人工智能治理制度,真正实现立法先导,发挥法治在人工智能发展治理领域固根本、稳预期、利长远的基础性作用。
    作者系中国政法大学数据法治研究院教授、博士生导师张凌寒,联合国高层人工智能顾问机构中方专家之一,《中华人民共和国人工智能法(学者建议稿)》起草组牵头专家,中国人工智能产业发展联盟政策法规工作组组长。
    本文刊载于2024年第3期《法律科学》【中国人工智能立法专论】专栏。
    
相关文章!