- within Technology topic(s)
- with readers working within the Retail & Leisure industries
- within Technology, Criminal Law and Antitrust/Competition Law topic(s)
生成式人工智能产品(AIGC),一般是指利用生成式人工智能技术向用户提供生成文本、图片、音频、视频等内容的服务产品。此类产品自进入公众视野起即不可避免地引发了若干集体诉讼。相关法律争议集中体现出生成式人工智能的广泛普及与既有的数据安全制度、著作权保护制度的碰撞与摩擦。就我国企业而言,在提供AIGC跨境服务时,可能会受到不同法域及司法辖区的监管规制。如何规避因产品侵犯众多不特定主体权益从而引发集体诉讼值得思考。本文拟梳理相关核心法规并对相应风险点进行提要。
一、生成式人工智能产品新发涉诉案例
根据France 24新闻台于4月13日在EU privacy watchdog sets up ChatGPT task force一文vi中的报道,法国国家信息自由委员会(CNIL)在收到五项投诉后,将对Chat GPT开展调查。其中一份投诉来自国会议员Eric Bothorel。该议员声称Chat GPT输出的内容中包含了错误的个人信息,包括但不限于他的生日和工作经历。
这并非偶然事件。根据英国新闻网站The Telegraph于7月13日的报道vii,美国联邦贸易委员会(FTC)披露的用户投诉记录中,投诉人指责Chat GPT生成的内容中包含损毁他人声誉的评价,包含Chat GPT对他人做出的虚假、误导、诋毁或有害的内容。
根据美国华盛顿邮报6月28日报道,一家位于加利福尼亚州的律师事务所正在代理一起针对Open AI及微软公司的集体诉讼,并向北加利福尼亚地区法院递交了起诉书。本案中,原告为十六人组成的团体,该团体声称Chat GPT使用从互联网上“窃取”的数据来训练其技术,此行为大规模侵犯了无数人的版权和隐私viii。原告在起诉书中主张,Chat GPT在用户不知情的情况下,获取了包括姓名、联系方式、登录凭证、账户和支付详情、交易记录、IP 地址、位置和社交媒体等在内的大量个人信息,并收集了用户的个人按键、搜索查询和聊天条目等详细数据。上述信息主要被集成Chat GPT的应用程序截获,且用户没有删除被收集信息的机会ix。
二、生成式人工智能产品相关立法现状
(一)欧盟立法现状
在AIGC数据安全方面,欧盟对个人信息的保护主要可以分为三个层面:条约、法规、条例和指令,其中:1981年欧洲理事会制定了《关于自动化处理的个人数据保护公约》(the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data),是全球范围内有关数据治理最早的国际条约。1995年,欧共体在此基础上颁布了《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》(Directive 95/46/EC on the protection of individuals with regard to the processing of personal data and on the free movement of such data,“95号指令”)。鉴于95号指令本身不具备法律效力,指令在被成员国立法转化为国内法后才具备可实施性。各国因此存在适用不统一的问题。2018年,欧盟通过《通用数据保护
条例》(General Data Protection Regulation, “GDPR”),取代95号指令成为欧盟范围内直接适用的法律。欧盟由此迎来GDPR时代,并在世界范围内对数据保护产生重要影响。
根据鉴于条款第二十二项x、二十三项、二十四项xi及第三条xii,我们认为,针对我国企业而言,GDPR主要适用于以下两类情形:
- AIGC数据控制者或数据处理者在欧盟境内设有分支机构
在此情形中,无论数据处理行为是否发生在欧盟境内,数据控制者和处理者都受到GDPR的约束。
例如在我国成立的互联网企业,同时在欧盟境内设立子公司或分公司,无论用户数据处理活动发生在欧盟境内还是国内,均受到GDPR的约束。
- AIGC数据控制者或处理者未在欧盟境内设立分支机构
在此情形中,只要相关主体向欧盟境内的数据主体提供商品或服务,或监控欧盟境内数据主体的行为,亦受到GDPR的约束。
例如,我国境内运营的人工智能企业,将其上线的人工智能聊天软件设置法语、德语页面,允许用户使用欧元支付并开通权限。该企业即属于向欧盟境内的数据主体提供服务,需要适用GDPR。
此外,在版权保护方面,2019年3月欧洲议会通过了《数字化单一市场版权指令》(Directive on Copyright in the Digital Singles Market,“版权指令”),对“文本挖掘(data mining)”行为作出了限制。
(二)美国立法现状
与欧盟GDPR不同,美国目前并没有一部直接适用于全国的数据保护规则。相关规范分散在不同州、不同行业、不同领域的AI相关立法当中。
以加州为例,作为全美第五大经济体,加州是出海美国的互联网企业的重要市场。同时,加州也是当前被公认为AIGC数据保护规则最严格的州。2018年,加利福尼亚州出台California Consumer Privacy Act(“CCPA”),该法案是美国首部关于数据隐私的全面立法,旨在对加州消费者个人信息安全提供保护。2020年11月3日,加州选民投票通过The California Privacy Rights Act(“CPRA”),该提案对CCPA法案进行了修正,进一步细化了消费者的权利和企业、服务提供商的义务,与其他法案共同构成该州数据保护规则体系。
符合以下标准的企业,应当受到CPRA的约束:年总收入超过25,00万美元;每年出于商业目的单独或累计购买、接收、出售或共享100,000及以上消费者、家庭或设备的个人信息;其年收入的50%及以上来自出售消费者的个人信息。
此外,在版权方面,美国法院在实践中逐渐形成的“转化性使用(transformative use)”制度能否适用于生成式人工智能还有待于进一步观察。
(三)我国立法现状
在数据安全方面,2017年我国《网络安全法》生效。2021年,我国《数据安全法》《个人信息保护法》相继生效。三部法律共同搭建起了我国数据安全制度的框架。与此同时,各领域的专门规定也在进一步发展完善。《生成式人工智能服务管理暂行办法》自2023年8月15日起施行。上述规则将对生成式人工智能的发展产生重要影响。
此外,在著作权方面,我国的《著作权法》对人工智能产品因训练模型而使用作品是否构成合理使用、生成内容的著作权归属等问题尚无明确规定。
三、引发AIGC跨境服务相关集体诉讼的风险点例举
- 风险点一:不同法域对个人信息的界定差异
针对AIGC跨境服务所涉及的个人信息保护,当前立法例对个人信息保护普遍采用“普通信息+敏感信息”的双层结构进行管理,两类信息的划分标准在不同法域存在显著差异,值得给予特别关注。
- 风险点二:未经数据主体同意收集个人信息
人工智能产品“挖掘(data mining)”网络信息进行训练等行为可能侵犯数据主体的权利。无论是“嵌入”人工智能产品的程序还是产品本身,在获取个人信息时,应当及时通知用户,避免面临被认定大规模侵权的风险。
- 风险点三:未告知数据主体个人信息的收集情况
AIGC企业可以结合不同法域的具体规定,向境外用户提供符合当地要求的格式文本,披露收集个人信息的相关内容。同时,建立用户知情权/访问权请求的提交机制,便于用户提交申请。
- 风险点四:未向数据主体提供删除被收集信息的方式
GDPR、CPRA及我国《个人信息保护法》均规定人工智能产品用户享有“被遗忘权”或删除权。这体现了数据主体有权依法处分数据的权利。AIGC企业建立相应的删除请求提交机制、依法定期删除信息机制具有必要性。
- 风险点五:未及时更正不准确信息
AIGC用户数据主体有权请求修改不准确信息。我国《生成式人工智能服务管理暂行办法》也指出服务提供商应当采取措施提高数据质量,增强准确性。AIGC企业宜建立相应的修改
信息请求提交机制并采取有效措施增强收集信息、生成内容的准确性。
- 风险点六:个人敏感信息的使用
承前所述,尽管不同法域对敏感信息的划分存在差异,但敏感信息的处理目的和处理行为会受到严格管制,特别在生成式人工智能领域。
- 风险点七:限制处理个人信息
在AI数据准确性存在争议、超出收集时目的等情形中,信息的收集、使用、保留、共享等处理行为可能会受到限制。
- 风险点八:未响应数据主体拒绝处理个人信息的请求
鉴于AI数据主体有权利撤回对信息处理的同意,甚至有权拒绝个人信息向第三方共享或出售,AIGC企业应当尊重主体的意愿,依法不予处理相关信息。
- 风险点九:数据泄露后的通知义务
欧盟、美国加州法律等均明确规定了数据泄露后,相关主体对用户的通知义务。AIGC服务提供商可依据不同法域的规定,制定相应的数据泄露报告格式文本,并设立专人或专属网页作为联系渠道,及时处理AI数据泄漏事故后的通告事宜。
- 风险点十:未保障数据主体免受自动化决策的不利影响
AIGC服务提供商可将自动化决策相关事宜写入隐私政策,保障用户的知情权。同时,设立依法使用自动化决策的范围,着力避免因造成“法律影响或类似严重影响的决策”或“不合理的差别待遇”引发用户集体诉讼。另建议提供链接或联系人员为用户提交相关诉求提供便捷。
- 风险点十一:数据控制者形成 “可携带” 数据
根据欧盟及我国法律,AIGC服务提供商在特定情形下有义务将已收集的个人信息传输至用户指定的接收方,但由此可能引发法律争议;如原数据处理者将信息转入新数据处理者,发生数据泄露后的责任分担问题。目前,国内的相关实践尚不丰富,仍有待观察。
- 风险点十二: AIGC产品以商用目的 “挖掘(data mining)”版权作品内容作为训练素材
在欧盟规则下,人工智能产品以商用目的“挖掘”版权内容作为训练素材可能被认定为侵权。在美国,AI产品出于服务用户的目的收集的版权作品信息能否构成“转换性使用(transformative use)”,进而被认定为美国版权法下的“合理使用(fair use)”,仍然有待观察。在中国法下,人工智能援引受著作权保护的作品内容可能因无法适用例外条款被认定为侵权。
- 风险点十三:人工智能系统生成的作品著作权归属尚存争议
根据美国《版权登记指南:包含人工智能生成材料的作品》(Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence)相关规定,人工智能产品生成的作品存在被认定为作品的可能;企业在美国申请作品版权时,应当证明人工参与的部分。
以英国为例,在《版权,外观设计和专利法》(Copyright, Designs and Patents Act)中规定:“对于计算机生成的文学、戏剧、音乐或艺术作品,作者应为创作该作品做出必要安排的人。”对计算机生成作品进行“必要安排”的人,我们可以理解为包括程序员、使用者,也可能是计算机系统或设备的投资者xiii。
根据我国《著作权法》及相关司法实践,在有“人”发挥主导作用下人工智能系统生成的内容可能被认定为作品;但目前尚不存在对此类作品著作权归属的直接规定。
有鉴于此,AIGC服务提供商可以考虑在服务协议中就著作权问题提前作出说明或约定。
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.