美国版权局正在就生成人工智能使用受版权保护的材料的潜在新规则征求公众意见,世界上较大的人工智能公司有很多话要说。我们收集了来自Meta、Google、Microsoft、Adobe、Hugging Face、StabilityAI和Anthropic的论点,以及Apple的回应,重点关注人工智能编写的代码的版权。
他们的方法存在一些差异,但大多数人的总体信息是相同的:他们认为他们不应该付费来训练受版权保护的作品的人工智能模型。
版权局于 8 月 30 日开启征求意见期,并于 10 月 18 日截止日期就其正在考虑的围绕人工智能模型训练使用受版权保护的数据、人工智能生成的材料是否可以在没有人类参与的情况下获得版权以及人工智能等方面的变化提出书面意见。版权责任。去年不乏版权诉讼,艺术家、作者、开发商和公司都在不同案件中指控侵权行为。
以下是各公司回复的一些片段。
Meta:版权所有者无论如何也拿不到多少钱
现在实施首创的许可制度,在事后很久,将会造成混乱,因为开发商试图识别数以百万计的权利持有者,而几乎没有什么好处,因为鉴于考虑到任何公平的特许权使用费都将非常小,人工智能训练集中的任何一项工作都是微不足道的。
谷歌:AI训练就像读书一样
如果培训可以在不创建副本的情况下完成,那么这里就不会有版权问题。确实是“知识收获”的行为。用 Harper & Row 法院的比喻来说,就像阅读一本书并了解其中的事实和想法的行为,不仅不侵权,而且会进一步实现版权法的目的。作为一个技术问题,需要制作副本才能从受版权保护的作品中提取这些想法和事实,这一事实不应改变这一结果。
微软:改变版权法可能会伤害小型人工智能开发者
任何需要获得同意才能将无障碍作品用于培训的要求都会阻碍人工智能的创新。即使作品及其所有者的身份已知,要达到开发负责任的人工智能模型所需的数据规模也是不可行的。此类许可计划还将阻碍初创企业和没有资源获得许可的进入者的创新,将人工智能的开发留给少数有资源运行大规模许可计划的公司或已拥有大规模许可计划的国家的开发商。认定使用版权作品训练人工智能模型不构成侵权。
人择:现行法律没问题;不要改变它
健全的政策始终认识到需要对版权进行适当的限制,以支持创造力、创新和其他价值观,我们相信现有法律和所有利益相关者之间的持续合作可以协调不同的利益攸关方,释放人工智能的好处,同时解决问题。
Adobe:这是合理使用,就像 Accolade 复制世嘉代码一样
在世嘉诉 Accolade 案中,第九巡回法院认为世嘉软件的中间复制属于合理使用。被告在逆向工程中制作了副本,以发现使游戏与世嘉游戏机兼容的功能要求(未受保护的信息)。这种中间复制也使公众受益:它导致世嘉游戏机上独立设计的视频游戏(其中包含功能和创意方面的混合)数量的增加。这种创造性表达的增长正是《版权法》旨在促进的。
Anthropic:复制只是中间步骤
对于克劳德来说,如上所述,训练过程会复制信息以进行数据统计分析。复制只是一个中间步骤,提取整个作品语料库中不受保护的元素,以创建新的输出。这样,对原始版权作品的使用是非表达性的;也就是说,它不会重复使用受版权保护的表达方式来将其传达给用户。
安德森霍洛维茨:投资者已经花费了“数十亿美元”
在过去十年或更长时间里,人工智能技术的开发投入了数十亿美元的巨额投资,前提是人们认识到,根据现行版权法,提取统计事实所需的任何复制都是允许的。这一制度的改变将严重扰乱这一领域的既定预期。这些期望是私人资本对美国人工智能公司进行巨额投资的关键因素,而这反过来又使美国成为人工智能领域的者。破坏这些预期将危及未来的投资以及美国的经济竞争力和国家安全。
抱脸:受版权保护的材料的培训属于合理使用
在训练中使用特定的工作具有广泛有益的目的:创建独特且富有成效的人工智能模型。该模型不是取代初始作品的特定交流表达,而是能够创建与底层的受版权保护的表达完全无关的各种不同类型的输出。出于这些和其他原因,生成式人工智能模型在训练大量受版权保护的作品时通常是合理使用的。然而,我们故意使用“一般”,因为人们可以想象一些事实模式会引发更严厉的呼吁。
StabilityAI:其他国家称AI模型训练合理使用
包括新加坡、日本、欧盟、韩国、台湾、马来西亚和以色列在内的一系列司法管辖区已经改革了版权法,为人工智能培训创造安全港,从而达到类似的合理使用效果。” 在英国,首席科学顾问建议“如果的目标是促进英国创新型人工智能产业,就应该能够挖掘可用数据、文本和图像(输入)并利用[原文如此]现有的版权和知识产权法对人工智能成果的保护。
苹果:让我们对人工智能代码进行版权保护
在人类开发人员控制输出的表达元素以及修改、添加、增强甚至拒绝建议代码的决策的情况下,开发人员与工具交互产生的较终代码将具有足够的人类作者权以受版权保护。