ARTICLE
4 April 2023

AI生成图片的著作权侵权风险规避

K
Kangxin

Contributor

Kangxin Partners is a leading Chinese IP firm, providing comprehensive IP services to global and domestic clients for over 25 years. Experienced IP professionals work with clients ranging from startups to Fortune 500 companies to secure their IP assets. Kangxin grows exponentially while continuing to provide exceptional IP services.
随着人工智能技术的发展,AI已经渗透到人文艺术领域,AI赛道已成为资本青睐的宠儿,各类AI生成图片软件也已大规模商业化。AI生成图片与定制
China Intellectual Property

随着人工智能技术的发展,AI已经渗透到人文艺术领域,AI赛道已成为资本青睐的宠儿,各类 AI生成图片软件也已大规模商业化。AI生成图片与定制化推送等应用的底层逻辑是类似的,需要一个庞大的数据库存储海量的图片素材。在用户输入自身的需求指令后,根据已经设定的算法,从数据库提取满足用户需求的要素进行组合后呈现给用户。这种随机组合后生成的图片无法排除仍有部分图片与数据库中还在著作权保护期的图片构成实质性近似,进而构成著作权侵权。因此,在享受先进的AI技术带给生活便利和愉悦的同时,不应忽视AI生成图片的著作权侵权风险。

一、著作权侵权风险

目前AI技术的发展程度还无法保证其生成的图片能与数据库的每一张图片都不构成实质性近似,能完全规避著作权侵权风险。因此,如果AI生成图片与数据库中还处于 著作权保护期内的图片构成实质性近似的话,那么该生成图片涉嫌构成著作权侵权。涉及生成该图片的AI生成图片服务的提供者、技术提供者和图片使用者均可能面临著作权人的侵权主张。

二、规避侵权的措施

规避AI生成图片著作权侵权风险可以通过对数据库的图片进行归类处理,和提高技术措施来实现。

AI生成图片服务的提供者和技术提供者可以将数据库的图片分为三类。第一类为过了著作权保护期的图片,第二类为获得著作权人授权的在保护期内的图片,第三类为未获得著作权人授权的在保护期内的图片。对于不确定是否获得授权的图片和不确定是否过保护期的图片,也放在第三类。

针对第一类 图片,不用设技术措施,直接让算法抓取就行。

针对第二类图片,拿授权的时候最好拿永久授权且使用方式不限,这样的话其处理方式与第一类图片相同。如果拿的授权是非永久的或者使用方式有限定的,那么需要在系统设置到期日,在到期后或者使用方式不满足后对仍在保护期内的自动转移到第三类图片的领域进行处理。

针对第三类图片,应加强技术措施,对其算法抓取设定更加严格的条件,在抓取其他图片能满足用户需求的情况下,不对第三类的图片进行抓取。或者提升AI抓取技术,确保其抓取的结果与第三类的图片均不构成实质性近似。

目前互联网图片繁杂,多数图片授权与否、过保护期与否难以查明,如果以目前互联网所有图片作为数据库进行抓取的话,存在一定侵权风险。因此AI生成图片服务的提供者、技术提供者可以考虑与图片作者团体机构合作、或者抓取谷歌 图片中作者放弃著作权的所有图片。

我国第一部针对深度合成服务治理的专门性部门规章《互联网信息服务深度合成管理规定》2023年1月10日已生效。根据该规章,深度合成指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息,包括图像生成、图像增强、图像修复等生成或者编辑的图像、视频内容。也即AI生成图片的服务提供者、技术提供者和使用者应遵守该规定。根据《互联网信息服务深度合成管理规定》第六条,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。AI生成图片可能涉及著作权侵权,因此,AI生成图片的服务提供者、技术提供者和使用者应遵循《互联网信息服务深度合成管理规定》,避免侵犯他人著作权。

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More