可以理解,艺术家们忧心像 Stable Diffusion 这样的自动图像生成器可能会削弱他们艺术作品的市场。 毕竟,我们的社会并不对自动失业提供保障,而作为一名视觉艺术家本已是一个不稳定的职业。 

在这种情况下,人们很自然地想到了版权法,因为版权法本应有助于确保艺术家能从他们的作品中获得创作的报酬。 不幸的是,在最近一场由一群艺术家发起的针对 Stable Diffusion 的集体诉讼中,法庭推进了一种对人类创作者来说是极其危险的版权理论。 其他理论——包括在那起诉讼和 Getty Images 的另一起诉讼中的理论——一般建议以干涉研究、搜索引擎以及使新旧技术互动能力的方式改变和扩大版权限制。 

本文的法律分析是我们另一篇描述 AI 图像生成技术以及我们如何看待其潜在风险和收益的帖子的姊妹篇。 我们建议您先阅读那篇文章了解上下文,然后再回到这篇文章来了解我们对美国法下版权问题的看法。 

总的来说,版权法应在给予艺术家充分的创作激励(通过赋予他们控制其艺术作品的某些使用方式)与赋予公众基于已有作品进行创新或将已有作品使用于新的、有趣的方式的权利之间取得平衡。 这里的问题是,是否图像版权所有人应当有权阻止他人使用其版权图像进行AI生成模拟器训练。 

要想回答这个问题,首先我们需要了解一些美国版权法的基本原则。 

首先,版权法不禁止对作品中所体现的事实进行观察或复制(这称为思想/表达区别)。 相反,版权禁止以可以替代原作的方式对原作的创造性表达进行复制,以及过度使用原作的创造性表达进行衍生作品制作。 

其次,即使有人复制或创作衍生作品,如果是合理使用,则该使用不构成侵权。 使用是否公平取决于多种因素,包括使用目的、原创作品的性质、使用量以及对原创作品市场的潜在危害。 

版权与训练集  

步骤1: 从网络抓取图像  

与复制以创建搜索引擎或其他分析用途一样,下载图像以对其进行分析和索引以创建新的非侵权图像很可能属于合理使用。 当一项行为可能涉及版权但又是实现非侵权使用的必要步骤时,它通常本身就属于合理使用。 毕竟,以非侵权方式使用作品的权利只有在非版权人也被允许执行这些创作的必要步骤时才有意义。 因此,作为中间用途和分析用途,抓取不太可能违反版权法。 

步骤2: 存储图像相关信息  

在此步骤中,系统分析图像并存储有关像素排列如何与文本注释中的单词相关联的信息。 

Stable Diffusion模型对超过 50 亿张图像进行了 4 GB 的观察。 这意味着该模型所含有的对于每个被分析图像的信息少于一个字节(一个字节只有八位——一个零或一个一)。  

针对 Stable Diffusion 的诉状将此过程描述为压缩(并存储)训练图像,但这是错误的。 除了少数例外,基本无法根据存储的有关图像的事实信息重新创建模型中使用的图像。 即使是最小的图像文件也包含数千字节; 大多数将包括数百万。 从数学上讲,Stable Diffusion 不能存储其所有训练图像的副本(目前先让我们暂时搁置它是否存储其中任何一个副本这个问题)。  

所以模型不存储训练图像的副本。 但它是否在此过程中生成并存储了训练数据中所有图像的侵权衍生作品?  

很可能没有,至少因为以下三个原因:  

首先,衍生作品仍然必须与原作基本相似才能构成侵权。 如果原作被转换、删节或改编到不再原始的程度,那么它就不是衍生作品。例如, 15,000 行史诗的 10 行摘要不是衍生作品,人们为了向他人描述这些受版权保护的作品而制作的大多数书籍摘要也不是。 

其次,版权不授予任何人对流派或事物的主题及比喻的垄断权,例如表示摇晃的波浪线等表达元素,赋予动物更多人性化的面部表情,以及类似的常见(即使是创造性的)选择。 更重要的是,版权根本不适用于非创造性的表达——比如将一只猫描绘成有四条腿和一条尾巴。 由AI 艺术生成器存储和生成的大部分信息都属于这些类别。 

第三,从训练集中的每张原始图像中提取的受版权保护的表达量可以被认为是最低限度”­­——这是一个法律术语,意思是太少以至于不能构成侵权 

即使法院裁定一个模型是受版权法保护的衍生作品,创建该模型也可能是合法的合理使用。 合理使用保护逆向工程、搜索引擎索引和其他形式的分析, 只要这些分析可以创造关于作品或作品主体的新知识。 此处,该模型用于创建新作品这一事实使其倾向于被认定为合理使用,因为该模型包含对训练图像的原始分析及相互比较。 

针对 Stable Diffusion 的集体诉讼并不关注系统的输出(即模型响应文本输入而产生的实际图像)。 反之,艺术家声称该系统本身就是一个衍生作品。 但是,正如前文所讨论的那样,与人类艺术家从课堂上或独自习得的创造性选择一样,模型从现有作品中习得一种风格并不违法。 

此外,人工智能系统学习模仿的风格不仅来自单个艺术家的作品,还来自被标记为具有同样风格的其他人的作品。事实上许多有助于 AI 进行风格模仿的信息都源自其他艺术家创作的图像。这些艺术家享有版权法赋予他们的自由,其作品可以模仿一种风格而不被视为版权物的衍生作品。 

步骤3: 生成输出图像  

Stable Diffusion 诉讼案不同,针对Getty Images 的诉讼侧重于AI系统的输出。原告声称系统输出有时与训练数据基本相似。 但是除了在某些 Stable Diffusion 输出图像中存在水印外,Getty 诉讼没有提供这方面的示例。 

这些诉状中没有包含基本相似图像的示例也就不足为奇了。 关于隐私问题的研究表明,基于扩散的模型不太可能产生与输入之一非常相似的输出。 

根据这项研究,如果相关图像在训练过程中被多次复制,扩散模型存储足以复原输入图像内容的信息的可能性很小。 实际上,即使是在被专门设计成输入图像还原的系统中,训练数据集中的图像被输出复制的可能性也不到百万分之一。 

这意味着最多仅有少数可能对AI艺术提出版权主张的权利人存在。 到目前为止,两起诉讼都没有表明原告属于这一类权利人。 

当然,这项研究中使用的统计标准与版权法中使用的法律标准有所不同。但我们仍然可以从中获得许多有用信息。并且,它们与扩散模型存储的每张图像的少量数据一致。 

总结一下:在极少数情况下,扩散模型可以生成类似于训练数据元素的图像。 去除重复数据可以大大降低发生这种情况的风险。 但是,针对基于扩散模型的 AI 艺术生成器的最猛烈的版权诉讼很可能还是那些由版权所有者针对被实际复制的图像提起的诉讼。 

与大多数创新工具一样,AI系统的用户可能才是导致系统输出新侵权作品的一方。用户可向系统提供一系列提示,引导系统复制一件作品。 在这种情况下,用户,而不是工具的制造商或提供者,应承担相应的侵权责任。 

若法院认定Stable Diffusion侵犯著作权,这对艺术将意味着什么? 

Stable Diffusion集体诉讼中推进的版权理论对艺术家来说是极其危险的。 如果原告说服法庭,认定将他人艺术的任何方面融入作品的行为均构成衍生作品创作,即使最终的作品并不十分相似,那么仅是模仿您最喜欢的艺术家的风格就将使您处于触犯法律的危险之中。 

目前,版权法通过允许模仿他人作品的元素来保护那些受到同事和导师以及他们欣赏的媒体影响的艺术家,只要他们的艺术不是基本相似/或属于合理使用。 因此,这些允许艺术家们从他人作品中寻找灵感的相同法律原则也保护扩散模型。 重写这些基准所造成的危害可能远远超过Stable Diffusion所造成的损害。 

在其他相关博文中,我们还探讨了一些别的后果。 特别是,我们讨论了到底谁会从这种制度中受益(剧透:绝对不是个人创作者)。 我们还讨论了一些可能真正帮助到创作者的替代方法。 

如能正确实施,版权法应能激励创新。 将其延伸到取缔 AI 图像生成器等工具——或者将其交到已利用强大经济实力挤占创作者生存空间的经济参与者的手中——都可能产生相反的效果。

This article has been translated by one of EFF's volunteer translators: Talia D. 

 

Related Issues