2023年1月10日,中国深度合成技术规制领域的首部专门立法——《互联网信息服务深度合成管理规定》(" 《深度合成规定》")正式施行。4月11日,国家网信办公布了《生成式人工智能服务管理办法(征求意见稿)》(" 《办法》")。截至目前,除《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等上位法外,在深度合成技术/生成式人工智能(" GAI")及其"作品"的规制这一细分领域,我国已有《网络信息内容生态治理规定》《网络音视频信息服务管理规定》《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(" 《安全评估规定》")《互联网信息服务算法推荐管理规定》(" 《算法推荐规定》")《深度合成规定》及尚在立法进程中的《办法》等多部相关规范性文件。那么,GAI的法律风险究竟如何?《办法》的主要内容有什么?本文将一一进行解析。
- 与ChatGPT谈GAI的法律风险
在撰写本文的过程中,笔者与当下最为火爆的GAI模型ChatGPT就GAI的特点、风险等话题进行了简单"对话"。
ChatGPT"自我介绍"道,与传统的基于规则的人工智能技术相比,GAI技术具有以下特点:数据驱动,即其核心在于训练数据,通过对大量的数据进行学习和训练,GAI能够输出具有高度"真实性"和多样性的内容;模型复杂,指GAI模型往往比较复杂,需要消耗大量的计算资源和时间进行训练;不确定性,由于GAI是通过学习数据生成内容的,因此其输出的内容难以预测,可能会带来一定的风险。这与公众及各领域专业人士对于GAI的认知基本是一致的。
作为GAI界目前的佼佼者,ChatGPT还进行了"自我批评"。它认为,GAI可能导致的法律风险包括知识产权风险、隐私权风险、歧视性风险及伦理道德风险等。遍观各司法辖区最近的立法执法动态,人类与AI似乎关于后者所致风险的认知达成了一致意见。此前,意大利监管机构要求OpenAI采取公开ChatGPT的数据处理逻辑、对用户年龄进行筛查、明确数据主体拥有的权利等措施,否则将保持对该产品的封禁。德国、法国和爱尔兰等国也表示考虑封禁ChatGPT,西班牙数据保护机构也已要求欧盟相关机构评估ChatGPT所致的隐私问题。作为我国对GAI技术的最新回应,从《办法》规定不难看出,我国立法者与监管者也对GAI可能导致的法律风险有充分认识,秉持了对相关法律风险进行全流程管控的思路。下文将对《办法》进行全面解析,以厘清其规制思路以及与同类相关规章的分工合作关系。
-
《生成式人工智能服务管理办法(征求意见稿)》全解析
- 交叉的适用范围与规制对象
《办法》第二条规定,其适用于一切研发、利用GAI"面向中华人民共和国境内公众提供服务"的场景。与此前同类规章中"在中华人民共和国境内应用算法推荐技术/深度合成技术提供互联网信息服务"等表述相比,其适用范围似乎有了进一步扩张,根据其文义,境外实体向境内公众提供GAI服务将落入《办法》的规制范围。
就规制对象而言,我们将《深度合成规定》与《办法》相关条文整理如下表:
《互联网信息服务深度合成管理规定》 |
《生成式人工智能服务管理办法(征求意见稿)》 |
第二十三条 本规定中下列用语的含义: 深度合成技术,是指 利用深度学习、虚拟现实等 生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,包括但不限于: (一)篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术; (二)文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术; (三)音乐生成、场景声编辑等生成或者编辑非语音内容的技术; (四)人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术; (五)图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术; (六)三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术。 |
第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。 本办法所称生成式人工智能,是指基于 算法、模型、规则生成 文本、图片、声音、视频、代码等内容的技术。 |
深度合成最初通过以明星为"主角"的换脸视频走入公众视野,长期以来以AI换脸为实质的深度伪造成为了深度合成技术的代名词。事实上,AI换脸绝非深度合成技术的唯一应用形式。《深度合成规定》对深度合成技术的细分类型及其应用场景进行了非穷尽式列举,除人脸生成与替换为代表的图像、视频内容中生物特征的生成与编辑这一最为著名领域外,基于特定算法的文本、语音、非语音音频、图像视频中非生物特征信息及数字人物、虚拟场景等的生成与编辑均被被纳入《深度合成规定》的规制范围。
而本次公布的《办法》对GAI作出了相似度较高的定义。"算法、模型、规则"看似比《深度合成规定》中"生成合成类算法"涵摄范围更广。但事实上根据业内人士的观点,模型由算法输出,由模型数据和预测算法组成,[1]或者说算法是获得模型的路径。[2]由此,"算法、模型、规则"在某种程度上可以认为是算法及其产物的总称,在文义上与"利用......生成合成类算法"的分别并不明显。根据定义,二者所生成的产品也高度近似,分别为"文本、图像、音频、视频、虚拟场景等网络信息"与"文本、图片、声音、视频、代码等内容",侧重点或许有所不同,但语义上存在重叠。
有学者提出,二者规制对象的雷同是否意味着可以通过修改《深度合成规定》的方式对GAI服务所引出的新问题进行规范,进而认为《办法》的立法必要性值得进一步探讨。[3]但也有观点认为,《办法》关于规制对象的定义与《深度合成规定》一脉相承,与业已施行的相关规范性文件衔接较为紧密,有利于从不同侧面管控相关技术及其应用所产生的法律风险。
- 一脉相承的规制体系
《办法》公布前,现已生效的规范性文件中不乏涉及包括GAI在内各类算法及其应用的规定。典型如《算法推荐规定》,根据该规章,"利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息"均属于其规制范围,并设立了建立健全识别违法和不良信息特征库等一系列法律义务,以应对有关法律风险。又如《深度合成规定》,如前文所述,其规制对象本已与《办法》具有较高一致性,其确立的各相关主体的诸多义务也部分覆盖了GAI技术的应用场景,如第十六条、第十七条,具体列举了标识义务所适用的主体与情形,其中包括目前最为出圈的GAI应用——ChatGPT所属的智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务。下表列举了《办法》中明确与其他规章之规定相衔接的条款及其关联条款。
《办法》条款 |
其他规章中的关联条款 |
第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门 申报安全评估,并按照《互联网信息服务算法推荐管理规定》 履行算法备案和变更、注销备案手续。 |
《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》 第三条 互联网信息服务提供者具有下列情形之一的,应当依照本规定自行开展安全评估,并对评估结果负责: (略) 第五条 互联网信息服务提供者开展安全评估,应当对 信息服务和新技术新应用的合法性, 落实法律、行政法规、部门规章和标准规定的安全措施的有效性, 防控安全风险的有效性等情况进行全面评估,并重点评估下列内容: (略) 《互联网信息服务算法推荐管理规定》 第二条 在中华人民共和国境内应用算法推荐技术提供互联网信息服务(以下简称算法推荐服务),适用本规定。法律、行政法规另有规定的,依照其规定。 前款所称应用算法推荐技术,是指利用 生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等 算法技术向用户提供信息。 第二十四条 具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息, 履行备案手续。 算法推荐服务提供者的备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续。 算法推荐服务提供者终止服务的,应当在终止服务之日起二十个工作日内办理注销备案手续,并作出妥善安排。 |
第十六条 提供者应当按照《互联网信息服务深度合成管理规定》 对生成的图片、视频等内容进行标识。 |
《互联网信息服务深度合成管理规定》 第十六条 深度合成服务提供者 对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。 第十七条 深度合成服务提供者提供以下深度合成服务,可能导致公众混淆或者误认的, 应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况: (一)智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务; (二)合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务; (三)人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务; (四)沉浸式拟真场景等生成或者编辑服务; (五)其他具有生成或者显著改变信息内容功能的服务。 深度合成服务提供者 提供前款规定之外的深度合成服务的,应当提供显著标识功能,并提示深度合成服务使用者可以进行显著标识。 第十八条 任何组织和个人不得采用技术手段删除、篡改、隐匿本规定第十六条和第十七条规定的深度合成标识。 |
当然,《办法》中明确法律原则、义务及法律责任的条款并不限于以上两则。各条款内容总结为下表。
条款 |
主要内容 |
第四条 |
提供GAI产品或服务应当遵守的基本原则 |
第五条 |
服务提供者的内容生产者责任及潜在个人信息保护义务 |
第六条 |
前置安全评估与算法备案义务 |
第七条 |
预训练数据、优化训练数据来源合法性义务及内容要求 |
第八条 |
GAI产品研制中人工标注相关的规则制定、人员培训、抽样核检义务 |
第九条 |
提供者的用户真实身份验证义务 |
第十条 |
提供者采取适当防沉迷措施的义务 |
第十一条 |
提供者的用户输入信息和使用记录保护等用户个人信息保护义务 |
第十二条 |
提供者的非歧视性义务 |
第十三条 |
提供者建立用户投诉接受处理机制及侵权危害防止义务 |
第十四条 |
提供者在产品生命周期内安全、稳健、持续服务义务 |
第十五条 |
提供者的内容审核、过滤及防止不合规内容再生成义务 |
第十六条 |
提供者对于GAI 生成内容的标识义务 |
第十七条 |
提供者的产品信息透明度服务 |
第十八条第十九条 |
提供者的用户指导义务及相应的用户举报权 |
第二十条 |
法律责任条款 |
上表中突出显示的为部分较值得关注的条款。
如第六条所规定的前置安全评估与算法备案义务,此前在《安全评估规定》《算法推荐规定》《深度合成规定》等文件中已有所体现,而此次明确将其时间点设定于"向公众提供服务前"作为一项开展服务前必须履行的前置性义务。
再如以第七条、第十条、第十二条、第十五条及第十六条等为代表的、体现全流程法律风险控制思路的条款。一方面,通过第七条设定预训练数据、优化训练数据来源合法性义务,对知识产权、个人信息等方面的风险(如前文ChatGPT所言)进行源头治理;另一方面,确立防沉迷措施实施义务,内容非歧视性义务,内容审核、过滤及防止再生成义务及内容标识义务,覆盖了内容初次生成直至内容再生成的GAI运行全过程可能产生的法律风险。其中尤具特色的或许正是规定防止不合规内容再生成义务的第十八条,必须肯定的是本条所持的事前预防与事后处置相结合的规制思路,但也应注意到,对于具有一定"自主性"、生成内容高度不可控的GAI及相关技术,如果对其生成内容采取过于严格的管控标准,可能妨碍算法、模型、规则的迭代升级,其具体尺度还有待监管部门通过文本与实践进一步探索与明确。
值得注意的还有第十八条和第十九条,明确要求提供者引导用户科学合理使用产品,并暂停或终止为有违背商业道德、社会公德行为的用户提供服务。
- 结语
对前沿技术的治理需要高度智慧,严管或放纵,或将扼杀技术进步,或将导致技术乱象,均非长久之计,监管与创新似乎是不可兼得的鱼和熊掌。《办法》与其他相关规章共同组成的规制体系存在叠床架屋的隐忧,可能在一定程度上为从业者设定过于沉重而繁杂的义务,与GAI等前沿技术不够兼容。但也应当注意到,短时间内对前沿技术的最新发展作出回应已属不易,这体现了我国互联网治理领域的法治思维,《办法》也与近来《深度合成规定》等相关规章所表现出的多主体、全流程、将事前预防与事后规制相结合的的治理思路转变一脉相承。希望随着监管者对技术理解的深化与监管实践的深入,随着企业、学界等各方更加积极地参与到GAI等技术的开发及治理实践中,对于GAI为代表的前沿技术的规制思路还可得到进一步的调整与优化,更好地实现技术治理与技术创新"两手抓,两手都要硬"。
Footnotes
[1] 参见《算法与模型的浅析》,https://mp.weixin.qq.com/s/Of8oojo96gCws5zZIuXEmw。
[2] 参见《"算法"VS"模型"机器学习的两大山脉还容易混淆厘不清?》,载上海大数据股份百家号,https://baijiahao.baidu.com/s?id=1673085620954885079。
[3] 参见《寿步:《生成式人工智能服务管理办法》的立法必要性探讨》,载北大法宝微信公众号,https://mp.weixin.qq.com/s/UrHhdl4k3GTxEpodiI3qqg。
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.