张欣:生成式人工智能的数据风险与治理路径
张欣摘? 要:生成式人工智能具有泛化性、通用性、迁移性的显著优势和巨大潜力,但其训练过程需要海量的多源数据。ChatGPT作为生成式人工智能的代表,存在多种数据质量和安全风险。数据质量方面,标注数据质量参差不齐,可能导致模型生成毒害内容;训练语料库代表性不足,可能引发价值偏差;数据集时效性不足,可能引发可信度危机。数据安全方面,存在交互数据自动迭代传输引发敏感信息泄露、定制化训练导致用户数据泄露以及数据安全防御能力不足等多重局限。针对生成式人工智能的多维属性和产业链特点,应以数据解释机制为核心,强化人工智能2.0时代个体的信息掌控和自决能力,构建精准多元的数据主体责任矩阵,打造灵活高效的数据治理监管工具体系。
关键词:生成式人工智能;数据治理;数据责任
? 目? 次?
一、引 言
二、生成式人工智能的数据治理风险
三、面向生成式人工智能的数据治理框架 四、结 语
一、引 言
随着ChatGPT日益强大,其潜在的法律风险和可能对社会带来的颠覆性影响引发了社会各界的担忧。技术社群内部发出了暂停研发巨型人工智能模型的联名信。美国联邦贸易委员会也收到了请求调查OpenAI的动议。联合国则敦促各国毫无延迟地实施《人工智能全球伦理框架》。与此同时,意大利个人数据保护局率先封禁了ChatGPT,法国、爱尔兰、德国等国也跃跃欲试考虑采取封架措施,担忧技术失控的情绪正在全球蔓延。可以说,ChatGPT既带来了人工智能技术的“奇点时刻”,也带来了人工智能治理的“关键时刻”。我国2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》提出了发展与治理双轮驱动的治理思路。在此思路之下,我国近年来陆续颁布了推荐算法、深度合成等垂直领域的专门性规章;4月4日,我国《科技伦理审查办法(试行)》公开征求意见,规定“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”需开展专家复核,实行更为严格的伦理审查程序。4月11日,《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,就训练数据合法性、人工标注规范性、生成内容可靠性以及安全管理义务等予以规定。种种努力意味着我国监管机关正在加速推动建立生成式人工智能负责任创新的治理框架。面对类ChatGPT式的新型人工智能,如何平衡发展与治理的关系,如何确保生成式人工智能安全可控发展成为当下亟需关注的重要议题。本文以ChatGPT为研究对象,剖析生成式人工智能的数据治理风险,结合我国行业发展与最新立法实践,探索契合生成式人工智能技术特性和产业链特点的数据治理方案。
二、生成式人工智能的数据治理风险
长期以来,由于人工智能开发门槛高,应用场景复杂多样,对场景标注数据依赖性强,人工智能模型一直难以规模化落地。ChatGPT是基于预训练的大型文本生成式人工智能,其不仅解决了前述问题,而且在识别、理解、决策、生成等人工智能任务的泛化性、通用性、迁移性方面表现出显著优势和巨大潜力,成为人工智能产业链条中的“元能力引擎”。与此同时,ChatGPT也衍生出了多种法律和伦理风险。有研究将大型自然语言模型的伦理和社会风险总结为二十一种六个类别,分别是歧视、仇恨言论和排斥、信息危害、虚假信息伤害、恶意使用、人机交互危害以及环境和经济危害。欧洲刑警组织则从安全视角列举了ChatGPT技术滥用带来的网络犯罪风险。为实现更优的识别、理解、决策、生成效果,赋能后续下游工作,生成式人工智能采用巨量参数的大模型进行开发,所需数据集规模随参数量增加而不断攀升。因此,海量多源数据是生成式人工智能的研发燃料,是AIGC行业发展的基石,也是产业智能化过程中最为宝贵的资源。本部分内容聚焦生成式人工智能的数据层,研判生成式人工智能的数据质量风险与安全风险,为探索与之适配的治理方案提供认知基础。
(一)数据质量风险
通常而言,生成式人工智能至少需要五个维度的数据:通用数据、垂直领域数据、特定任务下的标注数据、合规需要的审核和标注数据以及由创作者提供的内容素材等生态数据。ChatGPT虽未公布训练数据集的详细信息,但我们仍可推定出其训练数据集的主要来源。有研究者指出,OpenAI主要基于维基百科、书籍、期刊、Reddit链接、抓取大型数据集以及由GitHub等代码数据集、StackExchange等对话论坛以及视频字幕数据集展开大模型训练。为进一步赢得数据优势,OpenAI一方面开放接口权限供各类应用程序使用,另一方面开放插件嵌入多元场景。通过爆发式的用户增长和场景扩展,OpenAI获得了海量、多元的新增数据。这些数据能够高效反馈训练和微调模型,提升优化模型效果,形成产品质量与用户规模的“飞轮效应”。但在如此庞大的训练数据集之下,可能暗藏一系列数据质量风险。
1.标注数据质量参差不齐引发生成毒害内容
为了模型生成内容更好地实现与人类意图对齐(align),ChatGPT引入了基于人类反馈的强化学习机制。该机制通过指令学习和监督、精调等方法降低训练成本,提升模型性能。该机制需要OpenAI引入人类标注员作为系统的额外奖励,由人类标注员模拟用户与代理进行对话,生成对话样本并对回复评分,将优质结果反馈给模型,使其在人类评价奖励和环境奖励中学习。这一过程需要使用成千上万个蕴含人类偏好的标签。这些标签多闭源运行,存在显著的不透明性。人类标注员可能在为数据添加标签的过程中引入有害偏好。以InstructGPT为例,其在训练阶段至少存在Instruction标注、模型输出标注、模型排序标注、有害输出标注以及补充标注等几种类型。虽然OpenAI已经制定了极为详细的标注流程和规范,但标注人员群体仍然存在文化水平有限、社会阅历较低、综合素质参差不齐、地域分布不均衡等局限。标注员从认知和感知层面可能无意识地将隐性偏见通过标注方式引入模型,其在标注过程中的情绪状态和价值观差异均可能影响候选答案排序的公正性和普适性。因此,标注数据质量参差不齐可能引发模型生成毒害内容。
2.预训练语料库代表性不足导致价值观偏差
ChatGPT的预训练主要基于英文语料库,这导致了对其他文化的包容性和多样性的不足。以InstructGPT为例,其微调指令中超过96%为英语,仅包含20种少量的以西班牙语、法语、德语等为代表的其他语言。虽然经过微调它能够取得一定程度的泛化能力,但仍然存在文化和价值观偏差。在最新公布的GPT-3训练数据集的语言占比中,中文语料在总语料中占比不足0.1%,且其中包含繁体中文。在人工智能研发过程中,数据集代表性不足可能导致统计性和计算性偏差,进而产生系统性偏差。有研究以人脸识别系统为例,揭示了因数据代表性不足对边缘群体面部识别准确率的显著影响。具体到大型语言模型,因训练数据集的代表性不足,可能导致针对不同特征的个体与群体的内容输出存在显著差异。如,当询问ChatGPT对于中国志愿军和美国军人在抗美援朝战争中的评价时,其生成的内容反映了西方价值观,这是有失偏颇的西方价值观。由此可见,运用高质量中文语料,训练能够体现我国价值观和文化特点的大型语言模型具有不言而喻的重要意义。
3.数据集时效性偏差引发可信度危机
尽管ChatGPT以聊天机器人的形象呈现,但其实质上是一个大型自然语言处理模型,在许多关键场景中拥有广泛的应用前景。训练数据集的时效性直接影响其生成内容的可信度。训练数据本身的质量、更新频次和有效性直接关涉模型性能。现阶段,ChatGPT因无法实时融入新知识,其生成内容的可信度受到实质性影响。由于ChatGPT通过与用户进行信息交互的方式提供服务,不具有可信性的生成内容可能对个体权利带来较大影响。据报道,印度一名法官在决定被告是否能够获得保释时选择求助ChatGPT-4,后者生成了长达94页的报告;根据GPT-4提供的法律专业知识,法官最终拒绝了被告的保释申请。无独有偶,哥伦比亚的一位法官也使用ChatGPT的生成内容撰写裁判文书。此前,受自媒体发布不实信息的干扰,我国司法审判中曾出现法官在刑民交叉案件审判中引用虚假司法解释的“乌龙审判”事件。由此可见,ChatGPT作为大型自然语言模型,可能被嵌入到诸多利益攸关的场景之中,其数据集的时效性将对输出内容的可信性产生重大影响。现阶段,ChatGPT的预训练模型数据截至2021年9月,其知识范围局限于预训练数据时间截点之前,可回答的问题范围存在明显边界。对于这一性能局限,当前尚无可靠的技术解决方案。人类作为高级动物,具有持续获取、调整、传递知识的终身学习能力。然而,深度神经网络学习模型如何获取这一能力在现阶段仍然存在技术挑战。如果在已经训练好的模型上进一步训练,可能会出现现有任务性能显著下降甚至被完全覆盖的灾难性遗忘(catastrophic forgetting)问题。因此,目前ChatGPT无法通过增加2021年9月以后训练数据集的方式进行再次训练,专家们尚无法在稳定性和可塑性之间找到有效的平衡方法。尽管OpenAI尝试通过整合搜索引擎和联网等方式提高生成内容的准确性和时效性,但其可信度问题仍然存在。
(二)数据安全风险
与小模型相比,大模型在数据安全层面更具脆弱性。对于ChatGPT而言,其数据安全问题已经成为攸关发展的重要议题。正是因为近期在数据安全保护方面的不足,意大利个人数据局封禁了ChatGPT的运行。法国数据监管机构业已收到两起与ChatGPT数据安全相关的投诉。加拿大隐私专员办公室则公开宣布调查OpenAI的数据安全和个人信息处理问题。从设计和运行阶段来看,以ChatGPT为代表的大型自然语言处理模型在以下三个方面可能产生数据安全风险。
1.交互数据自动传输迭代存在数据泄露风险
大量案例显示,用户与ChatGPT交互过程中输入的信息将成为迭代数据,存在数据泄露风险。OpenAI的隐私协议表明,其具有继续处理个人数据以及派生数据从而改善其系统和服务的权利。这意味着当用户缺乏对生成式人工智能数据处理机制的清晰认知时,可能在使用过程中不经意提交自己的敏感信息。例如,数据安全服务机构赛博天堂(Cyber Heaven)的检测显示,其客户公司的160万名员工中已有4.2%的员工将包含商业秘密的数据输入ChatGPT。其中有企业高管将战略文件复制到ChatGPT并利用其生成幻灯片,还有医生将患者的姓名和医疗状况输入系统并生成给保险公司的信函。近期,三星公司引入ChatGPT仅20天,就被曝出已发生三起误用和滥用导致的“设备信息泄露”和“会议内容泄露”事件。与之相关的半导体设备测量资料、产品性能数据等内容或已被存入ChatGPT训练数据库中。以ChatGPT为代表的生成式人工智能具有模型即服务(Model as Service, Maas)的部署特性,在完成各类任务时会收集到海量数据。2021年3月,OpenAI曾宣布其GPT-3语言模型已经被“超过300个应用程序使用,平均每天能够生成45亿个词”,这意味着仅单个模型每分钟就能生成310万词的新内容。结合微软的资源和渠道加持,ChatGPT已经形成了顺畅的动力传递机制,用户使用与模型迭代之间的“数据飞轮”效应凸显。在如此庞大的数据流动反馈之下,如何通过技术和治理建立高效常态的数据安全保障机制已成为一大治理难题。
2.定制化训练存在数据泄露风险
在OpenAI探寻商业化落地的过程中,针对特定需求和场景,为不同主体在细分领域量身定制专属ChatGPT一直被视为关键的商业拓展方向。在为用户打造定制化的ChatGPT时,开发者首先需要收集与定制化需求和场景相关的数据,包括用户的个人信息、在特定场景下的偏好与需求、特定行业知识等。为更好地满足定制化需求,这些数据需要上传至服务器进行处理和训练。其次,需要将完成预处理的数据划分为训练集、验证集和测试集,对模型进行微调和性能评估。微调后定制版本的ChatGPT可以部署到具体的应用中,并可实时进行优化。如,若想训练ChatGPT写一首七言律诗,需要先将七言律诗的创作规则和正确样例输入模型之中,ChatGPT凭借极强的自我学习和迭代能力会迅速迁移学习并掌握完成特定任务的技能。然而,在这一过程中,用户需要提供与其需求相关的“定制数据”。当这些数据传输到服务器时,就可能存在泄露风险。近期,ChatGPT因数据安全问题广受关注。由于缓存软件开源库中的错误,部分用户能够查看其他用户的历史对话标题。经深入调查,安全事件发生后至关闭服务之前的几个小时内,约有1.2%的ChatGPT Plus用户处于活跃状态,可能无意间看到其他在线用户的姓名、邮箱地址、支付地址、信用卡后四位数字等支付信息。尽管OpenAI已及时通知受影响的用户,但这一事件暴露了ChatGPT的数据安全隐患。如果在定制化训练过程中出现类似的数据安全问题,用户的敏感或重要数据泄露风险难以处置和有效救济,可能给用户造成严重损失。
3.大模型数据安全防御能力不足
?大型自然语言处理模型抵御攻击的能力有待提升。现阶段的技术局限导致大型自然语言处理模型应对训练数据提取攻击、数据投毒等数据攻击活动的稳定性不足。如前所述,大型自然语言处理模型在预训练过程中需要处理海量数据。由于大模型存在过度拟合现象,导致模型从训练集中记忆了相关示例,技术人员可借此通过简单的技术提取查询大型自然语言处理模型,展开训练数据提取攻击,以重现单个训练实例。从技术实现效果来看,通过机器学习推理进行渗透,展开训练数据的提取攻击可以收集敏感信息并窃取知识产权。有研究者在GPT-2模型的训练数据中提取到数百个文本序列,其中包括个人可识别信息(姓名、电话、电子邮件地址)、敏感代码和128位的通用唯一识别码。研究者进一步发现,模型规模与数据存储呈现显著相关性。大型自然语言处理模型比中小模型可以记忆更多的训练数据。当人工智能模型变得越来越大之时,其脆弱性会更加凸显,隐私泄露问题会变得更为普遍。更加令人担忧的是,虽然现阶段训练数据提取攻击较易操作,但能够与之对抗的有效技术方案却仍在探索和发展之中。大型自然语言处理模型在训练时使用了海量由公共网页爬取的数据,其模型安全防御能力的局限势必引发治理挑战,如何加强模型防御,建立安全可控的数据治理机制,成为摆在开发者和监管者面前的共同议题。
三、面向生成式人工智能的数据治理框架
与传统的分析型人工智能相比,生成式人工智能实现了人工智能从感知世界到生成创造世界的跃进,推动了人工智能进入新时代。如果说推荐算法通过让“信息分发”边际成本接近于零的方式撬动了社交媒体的行业格局,ChatGPT则通过让“智力分发”边际成本接近于零的方式颠覆了整个人工智能行业。OpenAI凭借其爆发式的创造力和强大的工程能力,构建出与“芯片”“飞机引擎”齐名的模型壁垒。距离ChatGPT面世近四个月时,ChatGPT和GPT-4已相继推出,但迄今为止,尚未有科技企业和团队能够成功复现ChatGPT。借助首发优势,ChatGPT的数据飞轮效应已难以被撼动,一旦探索出适宜的商业落地方式,其将会迅速成为内容行业上中下游的关键卡口。正如我国科技部高新技术司司长陈家昌所指出,ChatGPT是一种现象级的应用,其表现出很高的人机交互水平,展现出自然语言大模型已经具备了面向通用人工智能的一些特征。与OpenAI相比,我国科技企业在芯片、算力等硬件方面受限,工程师人才红利逐步递减,融资频次与体量也与国外企业存在一定差距。但在全球人工智能竞争激烈的格局之下,我国仍应全力开发自研类的大型自然语言处理模型。根本原因在于生成式人工智能对人类的信息环境、价值观塑造以及社会秩序和产业升级均具有重要意义。一方面,ChatGPT中文基准的模型性能不佳,可能在应用层面出现不良价值观引导和干扰社会舆论和社会秩序的风险。另一方面,当ChatGPT实现大规模商业化落地之时,如果与国外的大模型代差过大且不得不用之时,基础底座模型可能受制于人,进而在产业智能化升级和现代化进程上受到不利影响。因此,当国内科技企业投身于生成式人工智能开发浪潮,积极布局并投入大量资源之时,秉持创新与治理双轮驱动的理念,积极探索与之适配的治理框架具有重要的理论与实践意义。在人工智能的开发链条中,数据作为新型生产要素是驱动人工智能技术研发的燃料。本节将从人工智能新技术范式对治理带来的根本性挑战切入,结合我国最新发布的《生成式人工智能服务管理办法(征求意见稿)》深入探索科学可行的数据治理方案。
(一)生成式人工智能对技术治理的根本性挑战
第一,算法的日益强大进一步削弱人类主体性。当算法从分发信息迭代至生产信息,从学习知识转向生产知识时,人的主体性将进一步受到冲击。与此同时,用户权利体系和私法调整机制的效用边界将会进一步凸显。相较于动物,人类并非在运动智能和感知智能方面独树一帜,而是在语言智能方面表现出独特的优势。然而,当以ChatGPT为代表的生成式人工智能能够封装人类智慧,开展类人化的对话、推理、翻译和写作之时,人类的自主决策能力、创造力与创新能力、信息掌控与自决能力均会受到结构性挑战。这也是为何在人工智能技术开发领域中“得语言者,得天下”之深意。在这一趋势之下,可以预见,面向人工智能1.0时代构建的用户数据权利和算法权利在面对生成式人工智能时对其权力制衡效果将会大打折扣。
第二,生成式人工智能产业链变革对以平台主体为抓手构建的问责框架产生冲击。在人工智能1.0时代,算法模型主要采用高度定制化的“手工作坊式”生产方式,从研发到投入应用需要完成确定需求、数据收集、模型算法设计、训练调优、应用部署、运营维护等整套流程。这一生产方式既缺乏通用性,也不利于产业链条的优化。但在这一阶段,研发、部署和运行的主体可清晰界分。1.0时代的诸多平台位于产业链的中下游,通过微调上游人工智能企业供给的大模型,提供个性化、实时化和自适应化的服务。然而,在人工智能2.0时代,规模化、流程化生成通用模型成为主流。此时,“模型即服务”的商业模式与人工智能技术发展方向不断汇聚,以无需定制、协同部署、轻量通用等方式实现大模型的快速普及和规模化应用。这一范式变革在突破传统行业瓶颈的同时,也拓宽了“平台”的内涵与边界。在此阶段,平台不再是仅面向双边或者多边市场的建设者和运营者,而是扩展到面向中下游产业、在云上运行和协同部署的通用大模型技术平台,以及细分垂直行业的中间层平台和面向用户侧的下游应用型平台。这意味着处于具体应用之中的大多数平台企业不再具备对算法模型定义、设计和部署的终局影响力。鉴于这一变化,《生成式人工智能服务管理办法(征求意见稿)》拓展了以算法服务提供者为抓手构建的备案管理、监督检查、风险监测和安全评估等问责体系。引发这一变化的关键原因在于,真正负责的研发模型且对模型安全具有终局影响力的主体可能并未与应用层用户产生直接交互,而与用户在各个具体场景中紧密互动的服务提供者对上游大模型却不具有最终控制力。
第三,生成式人工智能技术的迭代速度之快、变化之复杂,使得介入治理变得更加困难。生成式人工智能的技术迭代已经以日为单位狂飙突进,引发了技术早期风险难以预测、后期风险难以控制的技术社会控制困境,导致治理介入的时机更难把握。著名的科林格里奇困境理论揭示了新兴技术治理面临的两重挑战。第一重挑战在于技术的社会后果通常在研发等早期阶段难以被准确预见;第二重挑战则在于一旦该项技术产生不良后果时,它往往已经成为经济和社会结构中的有机组成部分,故难以对其施加控制。具体到生成式人工智能,一方面,内容消费需求拉动AIGC成为新晋科技赛道,市场研发热情不断高涨,产品迭代周期不断加速。在ChatGPT发布后,Bard、文心一言等多项生成式人工智能模型和产品相继发布。据Gartner预测,生成式人工智能在未来两到三年就会进入技术成熟期并迅速商业化落地。另一方面,生成式人工智能具有代码生成功能,可生成程序甚至训练下一代模型。据透露,GPT-5是用GPT-4来训练的,代码生成和迭代的能力呈指数型增长。因此,面对迅速迭代、复杂部署的生成式人工智能,其在技术层面的逻辑可塑性决定了社会融合过程中的治理复杂性和风险不确定性。如何在这一发展链条上找到合理的介入时点和介入方式,让公众面对技术变迁的“无知之幕”仍然保持对技术选择的开放性和从容感是构建技术治理框架的一项巨大挑战。
(二)面向生成式人工智能的数据治理框架
从技术属性来看,生成式人工智能是一种多维度存在,其既是一种新兴的技术工具和客观存在,又是人工智能产业链条的底座,更是一种参与社会建构的新型社会权力。因此,面向生成式人工智能的数据治理框架需要进行纯粹技术工具主义的转向,从提升个体主体性、构建面向产业链的数据主体责任矩阵以及探索数据治理风险前瞻机制等三个核心思路协同展开。
1.以数据解释机制为核心强化个体的信息掌控和自决能力
无论是康德哲学中对“人是目的”的终极判断,还是黑格尔语境中的“人作为一种精神存在”,主体性哲学奠定了人类法权体系生成的基础。当生成式人工智能时代来临,算法模型高度智能化的认知能力甚至超越人类,引发了数字空间中主体能力和关系结构的重大变化。对应于数据治理领域,这一变化表现为人类难以全面和准确认知生成式人工智能的数据收集和运行机理,自身是否应当授权同意以及面对数据滥用时的应对策略不再清晰。最终,数据安全与质量风险的关联效应使得面向人工智能1.0时代构建的旨在保证个体信息掌控和自决能力的法权体系可能失效。如前所述,生成式人工智能具有架构复杂、参数海量的特点。普通终端用户难以全面理解其运行逻辑,无法作出与之对应的合理决策。故而频现用户在与ChatGPT对话过程中误将商业、医疗等机密和敏感信息输入系统,导致数据被用于系统迭代并引发信息泄露的事件。典型案例恰如近期引发社会广泛关注的三星公司芯片机密泄露事件。在该起信息泄露事件中,三星公司的员工均具有技术背景,其中两位还隶属于设备解决方案部门,事发时使用ChatGPT来检测代码和优化代码。纵使具有专业技术背景,三星员工也未能充分意识到ChatGPT技术特性可能引发的数据风险。对于社会公众而言,更难以理解其中艰深的技术机理,遑论行使数据权利与之抗衡。在这一治理挑战之下,应深入生成式人工智能的技术机理,对个体全过程、全方位赋能,强化个体在人工智能2.0时代的信息掌控和信息自决能力。
具体而言,为了强化用户信息能力,应面向生成式人工智能研发者和部署者构建以用户为中心的数据透明义务体系。虽然预训练大型语言模型是黑箱模型,算法可解释性存在诸多局限,但并不妨碍企业从数据处理层面给出清晰易懂、准确可信的解释,为用户理解数据处理机制以及预期影响提供合理指引。对于生成式人工智能而言,研发者应就模型训练时的数据类型、数据来源、数据处理方式、数据质量、数据标注规则、减少数据中潜在偏见和歧视的措施,以及数据输入后可能对个人、系统以及社会产生的影响与后果履行全面的告知义务。对于系统安全性能,设计和部署生成式人工智能的企业还应当就系统准确率、系统按照预期执行的概率、系统不稳定时的处置措施以及压力测试等情况予以解释和说明。在呈现形式上,企业可通过文本声明、可视化媒体、图形展现、汇总表等方式将抽象的基本原理转化为清晰易懂、准确可信、鲜明可见的解释形式。企业还可探索人机交互方式提升解释的有效性。例如,比起单纯的在隐私政策中嵌入声明式解释,允许用户与解释系统单向互动甚至双向互动,为其深入理解数据运行机理提供后续对话机会是更为有效的解释方式。此外,还可建立数据解释评估体系,不断调优数据解释机制。例如,可通过模拟人类使用人工智能模型的过程,衡量数据解释是否会对用户的决策产生影响。再如,建立合理性检查评估解释的准确性。此外,还可通过弹出提醒让用户知晓系统的设计条件和知识界限,防止系统在可信度不足的情形下生成误导性、危险性、偏误性输出。目前,或是基于技术竞争的考虑,OpenAI并未明确披露其在模型训练中使用的数据类型,亦未就数据来源予以说明;对于人机交互过程中数据的传输、使用以及预期影响方面,仅在其隐私政策中提供了极为简要的说明,尚未构建起以用户为中心的数据解释体系;不过在其近期发布的声明中提到会对隐私保护框架加以持续投入和改进。就我国而言,监管者已敏锐意识到生成式人工智能的数据风险,并采取了强化提供者透明义务的思路。一方面,生成式人工智能提供者需要强化面向监管者的透明义务,履行安全评估手续,开展算法备案和变更、注销备案手续,并对训练数据的来源和质量负责。另一方面,提供者还应提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等内容。与此前颁布的推荐算法和深度合成应用管理规定相比,此处的数据透明义务得到了实质性拓展。然而,《生成式人工智能服务管理办法(征求意见稿)》第17条设置了启动前提,即以“国家网信部门和有关主管部门的要求”为要件。这意味着此处的数据透明义务虽在内涵层面得到扩展,却对主体范围加以限定。对于广大用户而言,可否依据第17条要求提供者履行数据披露义务,存在规则上的不确定性。倘若“网信部门和有关主管部门”未发布明确要求,即使用户依据《个人信息保护法》第48条主张个人信息处理者履行解释说明义务,也难以有效填平生成式人工智能为用户带来的信息沟壑。原因在于,这一解释说明义务仅局限于个人信息处理规则,但数据来源、数据质量、标注规则以及用户输入数据的处理与存储均会对用户信任和互动策略产生实质影响,均应成为提供者主动加以解释说明的对象。因此,我国治理机制应考虑此局限,适当扩展提供者履行数据透明义务的对象类型,将面向“监管端”的数据透明义务拓展至“用户端”。
2.面向产业链特性构建多元精准的数据主体责任矩阵
面对技术所带来的社会控制困境,科林格里奇从技术工具主义视角出发,提出应从技术的可改正性、可控制性和可选择性三个方面入手,遵循技术逻辑施加产品形塑效应以应对挑战。然而,对于生成式人工智能这种既具有工具属性,又具有基础设施属性的技术而言,仅依靠技术反馈来调控,可能会因为维度单一而难以应对其带来的风险和挑战。有学者因此提出“行动者网络理论”。该理论关注“技术—社会”的互动特性,将任何参与技术建构过程中通过事件制造差异并改变事态的所有人和物均视为行动者。根据这一理论,负有技术治理责任的主体不仅限于研发者、监管者,还应扩展至部署者、使用者甚至作为接受者的社会公众。通过扩大参与技术建构的行动者网络,将纳入治理网络,赋予各主体在技术构建过程控制和治理技术的责任。这一治理思路在生成式人工智能治理实践中正逐步得到贯彻。例如,英国信息专员办公室提出,使用个人数据开发生成式人工智能的主体应履行数据控制者的数据保护义务,如果是正在使用或者微调他人开发模型并部署于特定领域的主体则可能同样具有“数据控制者、联合控制者或者处理者”的地位。我国《生成式人工智能服务管理办法(征求意见稿)》第5条规定了生成式人工智能产品服务提供者、内容生产者以及个人信息处理者的概念,将位于产业链条各环节可能对该技术运行与建构产生差异性影响的主体均纳入治理网络。但从产业链特性来看,我国的规定仅以“涉及个人信息”为前置条件,毫无区分地要求其承担“个人信息处理者”的法定责任,可能过于模糊和宽泛。同时,第7条笼统地将生成式人工智能产品服务的提供者设定为对预训练数据、优化训练数据来源的合法性、真实性、准确性、客观性和多样性负责的主体可能与产业实际运行有所脱节。因此,应结合生成式人工智能研发、部署和应用的产业链条,精细设计面向所有行动者的数据责任矩阵。具体而言,需要结合生成式人工智能的产业链条,清晰定位上中下游各环节的行动主体。以ChatGPT为例,其产业链条中至少有以下四类行动主体:第一,开发者(developer),即最初创建和预先训练模型的主体,以OpenAI、谷歌、百度、华为等大模型开发者企业为代表。该主体在欧盟《人工智能法案》中第3条第2款被认定为提供者(provider)。第二,部署者(deployer),即为特定用途而微调模型的主体,包括垂直集成场景中的开发者和其他对模型微调后的部署主体。第三,用户,即使用生成式人工智能服务的主体,可分为由企业、组织、行政机构等构成的专业用户以及由个体用户构成的非专业用户。第四,接受者,即接受人工智能生成内容的主体,如生成广告的消费者、学习人工智能生成教学课件的学生等。从模型训练视角来看,上游研发环节还可能存在各类型的第三方服务提供商(subprocessor)。就生成式人工智能模型训练而言,至少涉及云服务提供商、数据标注提供商、第三方数据提供商等。以OpenAI为例,微软Azure作为其独家的云服务提供商,不仅可直接调用模型,也同时为包括ChatGPT在内的产品、API接口服务以及研发工作负载提供基础设施服务。如果该系统存在漏洞或者遭到黑客攻击,会导致存储在服务器上的模型数据被窃取和泄露,直接引发数据安全风险。同时,由于大模型训练过程中对数据标注有着极高需求,Sama作为数据标注公司为OpenAI招募了标注团队并提供海量数据标注服务。此外,由于需要海量数据集甚至多模态数据集进行训练,还可能涉及数据交易平台以及第三方数据提供商或者合作机构等分享特定领域的数据。因此,应首先明确,在大模型训练、部署和应用的不同环节,存在多个行动者。每一主体应承担与之对应的数据治理义务。此外,由于预训练大模型需要通过微调才能适用于具体的应用场景以完成特定领域任务,还可能出现微调后对模型安全性产生“实质或者显著”影响的情形。所谓微调,是指在预训练模型基础上针对特定任务进行少量的参数调整。例如,可利用Adapter在预训练模型每层中插入用于下游任务的参数,将模型主体冻结,仅训练用于特定任务的参数以减少训练时的算力支出。一般而言,微调不会对上游模型带来实质和重大影响。但由于预训练大模型架构复杂,是否会对上游模型产生实质性影响还需要结合具体的技术场景予以精确评估;在为每一类主体设定数据治理义务并归责时还应具体分析下游模型“微调”时是否实质性地改变了预训练模型的安全性能,以施加更为精准的治理。结合生成式人工智能的研发、部署、运行等生命周期,面向其产业链的数据主体责任矩阵可用下表表示:
3.构建灵活高效的数据治理监管工具体系
以ChatGPT为代表的生成式人工智能,融技术工具与社会基建为一身,具有强大的技术可塑性。随着其技术的不断发展与更新,它将不断嵌入社会系统之中,可能引发各类复杂风险。对于可塑性强的技术,控制的关键在于灵活、弹性、多元介入技术的规划、设计和发展。德波尔等学者进一步提出,技术不可避免地会对社会产生影响,与其阻止这种不确定性,不如认真管理好创新的整个过程。因此,前瞻性评价、社会技术试验以及技术调节等多元化技术治理方法被渐次提出,以更为灵活地应对新兴技术的不确定性风险。这些技术治理思想也不同程度地投射于人工智能治理领域。例如,美国、加拿大构建了系统化的算法影响评估制度,将治理节点前置,精准动态地捕捉算法技术和应用可能产生的风险。我国也构建了算法安全评估以及新技术新应用评估制度,针对技术创新带来的影响与潜在风险展开系统评估。然而,此次《生成式人工智能服务管理办法(征求意见稿)》第6条要求所有生成式人工智能产品服务提供者均按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估报告。实际上,生成式人工智能技术具有多维属性。例如,医疗健康领域就是生成式人工智能的一个率先落地的场景。目前,生成式人工智能为实时问诊、按需生成新蛋白质结构提高药物研发以及医疗影像的辅助诊疗等医疗健康场景注入新动能。因此,应对生成式人工智能施加更为科学的精准治理。这需要一系列高效适配的监管工具体系支撑。
第一,探索与我国人工智能产业格局相匹配的人工智能监管沙盒。当ChatGPT创始人Sam Altman被问及如何看待大模型将引发的各类风险时,他回应道,虽然ChatGPT可能引发各类风险,但我们不可能永远将之封闭在实验室里。实际上,对于潜在风险较高、不确定性较强的创新科技而言,人工智能监管沙盒能够鼓励创新、包容试错,既不必因担忧风险将新兴科技束之高阁,又不会导致全盘放开介入滞后的不利局面。“监管沙盒”制度发端于金融科技领域,2015年由英国金融行为监管局提出。受该理念启发,新加坡、芬兰、英国、法国等数据保护机构和国际组织已将其应用于隐私保护领域之中。2022年,欧盟《人工智能法案》折衷草案也借鉴了监管沙盒理念,提出通过建立受控实验和测试环境的方式促进监管者与开发者协同合作,探寻最佳监管方式。与无差别监管相比,人工智能监管沙盒可为监管者收集精准的监管信息,其较低的合规成本可为中小型和初创型企业提供制度便利,促进和加快人工智能技术市场研发。鉴于沙盒监管的诸多制度优势,我国金融科技领域和汽车安全领域均已启动了试点工作。(1)就生成式人工智能而言,可率先向两类企业开放:一是服务于公共安全、公共卫生等重大公共利益领域的开发和应用;二是对中小型企业和初创企业,应提供优先进入人工智能沙盒的机会,以较低的合规成本为其顺利进入市场提供监管支持。未来,还可依据技术和应用发展的客观现状动态调整优先获得沙盒试点的清单。(2)可结合生成式人工智能训练和部署的数据风险特性构建沙盒运行、资格准入、测试评估、沙盒退出等相关标准。此外,还需由监管机构领衔,成立专家组制定和执行该标准,及时识别和应对数据风险。
第二,以数据治理和算法治理一体化思路拓展算法备案制度的数据治理效能。算法备案制度是我国在算法治理领域的一项创新性举措,由《互联网信息服务算法推荐管理规定》首次提出,兼具技术备案与规范备案双重属性,在推动算法安全综合治理、提升数字治理现代化方面发挥着显著效能。截至2023年1月,国家互联网信息办公室公布了223项算法备案清单。算法备案制度不仅有利于监管机关研判算法风险并施以精准治理,还可构建合理的算法透明度,通过促进企业自治推动算法向上向善发展。鉴于算法备案制度的积极治理效能,欧盟《人工智能法案》的折衷提案就借鉴了我国的算法备案制度。目前的算法备案制度主要包括算法主体信息、算法备案信息、产品及功能信息四个部分,尚未就不同算法类型提出精细化的备案要求。鉴于生成式人工智能在训练过程中对数据的高度依赖性,在数据安全和数据质量领域可能存在诸多风险,可以适当拓展算法备案制度的数据治理效能。具体而言,可以为生成式人工智能制定更具针对性的备案要求,引导开发者和部署者在自评估报告中就数据安全保障、数据质量保障、数据公平治理、数据委托监督以及与数据来源、处理、标注等相关内容予以动态评估和备案,从而为监管机构提供精确、动态、全面的决策信息研判生成式人工智能的数据治理风险。
第三,构建面向生成式人工智能研发和部署的数据审计制度。数据审计已成为各国信息安全治理实践的一项标准制度。《英国数据保护法》第146条、我国《个人信息保护法》第54条、《网络数据安全管理条例(征求意见稿)》第58条均规定了数据审计制度。国际标准化组织还专门制定了信息安全首席审计员资格的行业标准。数据审计是指根据法律规范、技术标准以及企业内部控制要求,由专业审计人员或者监管机构实施的,以企业数据保护管理和问责、员工数据保护培训、个人数据安全、个人数据权利保护概况、信息共享、记录管理以及数据保护影响评估和数据风险管理制度为内容的审查性活动。数据审计制度能够全面、客观地反映数据处理者的活动,评估其履行数据安全治理义务的情况。在数据审计过程中,审计团队不仅可进入企业询问、访谈,还可访问技术文档和调阅相关资料,使用特定方法和工具开展数据泄露扫描、数据脱敏有效性测试、数据质量测试等相关评估工作,还可作出安全性评级、提示数据安全风险、针对薄弱点和风险点提出最优改进建议。鉴于数据审计制度的治理效能,我国监管机构已布局数据安全审计制度,拟以固定时间为周期,由第三方专业机构对数据安全情况开展审计并出具审计报告,逐步建立常态化的外部监督机制。对于生成式人工智能,可先期创建自愿性数据审计制度,以上文提出的数据安全义务和数据保障义务为重点定期开展审计,系统性地预防数据风险,并持续跟进审计结果作为合规评级和分类分级监管的决策参考。
四、结? 语
生成式人工智能虽以算法为引擎,但数据作为滋养其发展的养料具有不言而喻的重要意义。只有在高质量、大规模的数据中学习和迭代,算法模型才能不断优化改进,展现卓越性能。本文从多维度视角审视生成式人工智能,正视其工具属性,关注其基础设施潜能,并洞察其成为新型社会权力的前景。通过提升个人主体性、构建面向产业链的数据主体责任矩阵以及打造前瞻性治理工具体系,提出面向生成式人工智能技术特性和运行机理的数据治理框架。未来,还需在生成式人工智能数据治理领域加以持续不断的探索,关注如何将数据伦理与法律治理有机结合,如何创建科学高效的治理工具和治理科技,以及进一步探讨适应生成式人工智能产业链特性的主体责任归责框架,以期为我国生成式人工智能的科技创新与健康发展提供关键性理论支持。