谁负责?部门

由 AI 工程师和专家开发的 ChatGPT 等大型语言模型 (LLM) 的技术奇迹在版权法领域提出了独特的挑战。这些先进的人工智能系统经过了对不同数据集(包括受版权保护的材料)的广泛训练,并提供高度依赖于用户“提示”的输出,引发了关于合理使用的界限以及人工智能开发人员和技术人员的责任的问题。用户。

建立在索尼主义,它保护具有大量非侵权用途的双重用途技术,我为 chatGPT、Claude 和 Bard 等人工智能法学硕士提出了 TAO(“训练和输出”)原则。该人工智能原则认识到,如果使用受版权保护的作品训练善意的人工智能法学硕士引擎,其中(1)原始作品不会被复制,而是用于发展理解,并且(2)生成的输出基于用户提示,则任何潜在版权侵权的责任应由用户承担,而不是人工智能系统。这种方法承认人工智能技术的“双重用途性质”,并强调用户意图和输入(例如提示和 URL)在确定输出性质和任何下游使用方面的关键作用。

了解法学硕士及其培养机制

法学硕士通过分析和合成大量文本数据来运作。他们生成回复、创造性写作、甚至开发代码的能力都源于这种培训。然而,与传统的复制方法不同,像 ChatGPT 这样的法学硕士会根据从训练数据中学到的模式和结构进行学习和生成新内容的复杂过程。这个过程类似于一个人通过各种来源学习语言,然后独立使用该语言来创建新句子。人工智能法学硕士对于社会的进步非常重要,因为它们是“想法引擎”,可以有效地处理和共享想法。

版权法不保护事实、想法、程序、过程、系统、操作方法、概念、原理或发现,即使它们是在受版权保护的作品中表达的。这一原则意味着法学硕士培训期间提取的句法、结构和语言元素不属于版权保护范围。使用文本来培训法学硕士主要涉及分析这些非版权元素,以理解语言模式并对其进行统计建模。

法学硕士的培训符合合理使用的原则,因为它涉及历史上重要的变革过程,而不仅仅是复制受版权保护的文本。它利用语言的非版权元素来创造新的和有价值的东西,而不会降低原始作品的市场价值。LLM技术将社会带入了思想处理器时代。总体而言,根据现行版权法,使用文本来培训法学硕士可以被视为合理使用。

拟议的 AI LLM 索尼学说或“培训和输出”(“TAO”) 学说

对受版权保护的作品进行人工智能大语言模型 (LLM) 的训练,以及随后根据用户提示进行的输出,为被认定为一种双重用途技术提供了令人信服的案例。这种认识可以概括为“人工智能培训和输出”(“TAO”)原则,保护开发者免受版权侵权责任。与《索尼主义》相似,《索尼主义》在能够实现实质性非侵权用途的前提下保护录像机等军民两用技术的制造,《AI TAO 主义》可以保护人工智能的发展并阻止诉讼的泛滥。

法学硕士与 VCR 一样,具有双重用途。当用户提示或不当使用时,它们能够进行短暂且适度的侵权活动,但更重要的是,它们具有有益的非侵权用途的巨大潜力,例如丰富教育、增强思想和进步语言处理。AI TAO主义的本质将集中在这种双重用途特征上,强调人工智能的实质性、合法应用远远超过潜在的滥用。

在这种原则下保护法学硕士培训和自动化输出的开发人员符合促进创新和技术进步,同时认识到负责任使用的需要。AI TAO 主义不会完全免除善意的人工智能开发者实施强有力的版权侵权保护措施的责任,但会承认人工智能技术固有的双重用途性质,从而促进在人工智能开发中对版权考虑采取平衡的方法。

用户责任和人工智能输出

用户在如何利用法学硕士方面发挥着关键作用。现在,考虑用户“提示”,即用户的食谱说明。法学硕士提出有关受版权保护的文章的提示可能会产生公平或错误的输出。深思熟虑的“总结和批评”提示提取要点并提供分析完全属于合理使用。这就像读完一本书后做笔记并形成观点——这是学习和批评的一个重要方面。以这种方式使用的法学硕士是一个优秀的“想法处理器”。

然而,要求法学硕士“逐字复述整篇文章”的提示可能会越界。参与《纽约时报》诉 OpenAI 诉讼的“用户”团队是否走得太远,在制定激进的提示时玩弄技术或采取不干净的手段?法律是否应该容忍这种短暂且罕见的游戏,以支持法学硕士必须提供的更大利益?随着案件的进展,我们很可能会了解到很多关于产生引人注目的结果的过程。人工智能法学硕士很可能会继续针对此类类似的版权“游戏”事件进行调整。

但是,仍然存在这样的逐字输出和后续使用可以构成合理使用的用户上下文。为了公平使用和言论自由的蓬勃发展,可能需要容忍某种程度的版权“游戏”。举一个具有讽刺意味的例子,法学硕士协助对《纽约时报》诉 OpenAI 诉状进行法律分析,就其性质而言,应包括对诉状所有部分的合理使用,包括其中嵌入的《纽约时报》“受版权保护”文章。法庭文件。在 LLM 输出中批量“屏蔽”此类文章文本可能过于宽泛,尤其是对于法律学者而言。

涉及 LLM 输出的版权侵权也很大程度上取决于用户如何在场外或下游使用内容。使用相同输出的学生、新闻机构和律师等用户可能会针对其场外用例进行不同的版权侵权分析。一个用户的合理使用是另一用户的侵权行为。如果用户提示法学硕士生成以侵犯版权的方式使用的内容,则责任应由用户而非法学硕士承担。

关键在于:LLM 本身无法预测用户的意图。它只是根据提示处理模式。LLM 学习机器和创意处理器不应该因为潜在的用户误用而受到抑制。相反,在极少数情况下,当存在合法的版权侵权时,用户应该对其提示和随后的使用负责,并向 AI LLM“双重用途技术”开发人员提供 VCR 制造商的非侵权状态。索尼主义。

这种方法将受益于开发面向隐私的人工智能系统,该系统可以标记潜在的侵权用途并引导用户负责任地使用,从而培育数字领域的意识和问责文化。必须注意不要通过分析私人提示和输出并存储它们来侵犯用户隐私,这些提示和输出可能会泄露有关个人的最敏感信息,从医疗保健问题到商业秘密。

具有讽刺意味的是,人工智能法学硕士根据合理使用原则保留原始版权作品,以散列部分并支持指纹技术,可以帮助创建更好的版权侵权过滤、反馈和警报系统。如何平衡版权风险与创新,需要所有利益相关者采取整体方法。赌注很高。太多的摩擦和其他采取“技术优先”政策的国家将在全球人工智能领域处于领先地位。

在合理使用和后续输出的框架下,对受版权保护的材料进行法学硕士培训,以响应拟议人工智能中的用户提示道教,提出了在尊重版权法的同时促进创新的平衡方法。这种观点强调人工智能培训的变革性、用户意图在生成输出中的重要性,以及需要技术工具来协助负责任的使用。这种做法不仅支持人工智能技术的进步,而且维护知识产权原则,确保技术创新与版权法和谐共存。

Ira P. Rothken 是社交网络、娱乐、互联网、云服务和视频游戏行业公司的领先顾问和法律顾问。

提交如下:,,,,,,,
公司:纽约时报,开放性