兰台「知」道丨生成式人工智能服务提供者版权注意义务研究(上)
发布日期:
2025-12-05

2022年底,ChatGPT的横空出世迅速点燃了人们对生成式人工智能的热情,生成式人工智能产业呈现出蓬勃发展的鲜明态势。版权被誉为“技术之子”,其制度演变始终与技术的发展紧密相连。在生成式人工智能出现前,技术的更新对版权制度的影响可能仅限于催生出新的作品类型或成为辅助人类创作的技术手段。但随着生成式人工智能的不断发展,网络内容创作模式迎来了“PGC(专业生成)-UGC(用户生成)-AIGC(人工智能生成)”的巨大变革,人们逐渐意识到未来生成式人工智能或将成为一种通用的创作工具。

然而,技术的发展具有两面性。降低了创作门槛的生成式人工智能也催生出更多的版权侵权风险。网络版权侵权责任也因生成式人工智能的出现而变得更加复杂。依照生成式人工智能的运行原理,产生的版权侵权风险主要存在于输入端的数据使用环节及输出端的生成内容环节。因此,确立生成式人工智能版权侵权的责任分担规则对于版权人合理维权和网络版权产业的发展十分重要。根据我国网络版权侵权的治理框架,网络服务提供者居于核心环节。鉴于生成式人工智能目前尚无法承担侵权责任,通过提供生成服务获得相应的流量关注和经济收益的生成式人工智能服务提供者则理应成为承担版权侵权责任的主体。为此,对生成式人工智能服务提供者要求一定的注意义务以有效遏制版权侵权事项发生的相关议题引发了学界与实务界的重点关注和讨论。

01

生成式人工智能服务提供者版权注意义务现状考察

生成式人工智能服务利用深度算法和大语言模型,从大规模的数据中集中学习,根据用户指令,自动生成文本、图片、音频等多样化的内容。1目前,鉴于人工智能产业的发展现状,公法领域出台的各项有关人工智能的管理规定均表明生成式人工智能服务提供者2是治理人工智能侵权问题的关键主体,依照过错责任承担侵权责任。然而,生成式人工智能复杂的技术原理和产业形态,致使侵权因果关系的判断变得纷繁混乱,难以理清。新型侵权场景致使版权侵权形态发生根本性变化,“直接侵权/间接侵权”二分法在人工智能版权侵权场景中逐渐暴露出一定的理论短板。传统“通知-必要措施”规则在人工智能版权侵权场景下暴露出种种问题,难以被生成式人工智能服务提供者直接适用。

(一)生成式人工智能服务产业形态

生成式人工智能的产业形态主要有三个层次,分别为“基础模型层-专业模型层-服务应用层”。3基础模型层位于人工智能产业的最底层,需要巨大的成本投入和技术支持,囊括生成式人工智能模型的基本运行流程。开发过程包括以下三个阶段。其一,数据收集阶段。数据是被用来训练基础模型的“原料”,数据的质量和多样化都对模型性能的提升优化具有重大影响。模型开发者通过各种途径收集到包含文字、图片、音视频等多种形式的数据后,进行整合处理,形成不同的数据集,分别用于模型训练、参数调整和模型测试等环节。其二,模型训练和微调阶段。以GPT系列模型为例,模型开发者通过大量数据喂养后得出预训练模型参数,随后通过人工标注的方式,对提示词进行相应答复,得到一个微调模型。随后,模型开发者设计一个评价满意度的奖励模型,要求微调模型针对一个问题产出多个回答,人工对其回答进行排序,这种排序暗含了对于输出效果的预期,标注数据形成新的数据集,用以训练奖励模型。最终,利用奖励模型,通过强化学习算法来优化答复策略。即先用微调模型产出答复,奖励模型对其回答打分,根据打分结果微调模型会自行调整答复策略,以此循环往复,实现“AI训练AI”的效果。4其三,内容生成阶段。模型可以按照输入的指令自动生成相应内容,并通过使用者的反馈不断优化回答内容。

专业模型层是对基础模型进行垂直领域知识和数据的优化训练,能够满足高精尖领域的个性化定制要求,弥补基础模型通用性过强而导致的在专业领域方面精细化和深度性不足的短板。专业模型在基础模型的基础上可以简化开发工作和降低投入成本,在数据收集和模型训练过程中加入一些个性化的参数设置以获得更可信的回复内容。新加坡金融公司长桥集团借助GPT基础模型的自动语言生成功能,开发出具有金融投资专业性的Port AI专业模型,能够在短时间内分析海量的金融数据,帮助投资者了解最前沿的金融市场动态。5有学者亦提出手握许多优质数据资源的出版集团可以通过建立分工明确的行业联盟来开发专业性的垂域模型以丰富优质的内容服务。6

服务应用层不负责模型开发,而是直接将模型推至客户端,供用户获取符合其要求的生成内容。服务应用层类型多样,可以通过API三方接口将基础模型或专业模型接入聊天软件、短视频平台、搜索引擎等界面向用户提供服务。7当基础模型直接向用户提供服务时,其也同时具备服务应用层的形态。

(二)生成式人工智能服务版权侵权场景

生成式人工智能版权侵权风险集中于收集数据与内容生成阶段。数据的体量与质量对生成式人工智能模型的性能具有直接影响,可以被视作在生成式人工智能产业竞争中取胜的关键。授权许可和爬虫抓取是实践中收集数据的主要方式。获取的数据会存储于特定服务器,数字化处理后转换为适合模型学习的格式。8然而版权视角下,这一过程属于未经版权人许可,对抓取作品进行全面数字化复制,具备复制权侵权的风险。此外,对于数据的清洗、标注、筛选环节,体现出独创性特征,可能属于改编行为,存在侵犯版权人改编权的可能性。但目前来看,对于爬取数据喂养模型行为的最终定性仍不明确,存在较大分歧。多数观点试图通过对合理使用规则的进一步释明与协调,保障训练数据的合理获取。9少数学者认为机器学习中各个阶段的数据处理行为属于“非作品性使用”,并不构成版权侵权。10更有学者指出模型利用数据进行深度学习的运行机制属于“算法黑箱”,版权法无需在意黑箱内部发生什么,只需关注黑箱最终生成内容是否构成与原作品相同或实质性相似。11

在内容生成阶段,生成式人工智能的侵权行为则较为明晰,且学界已达成基本共识,故本文将对此阶段的版权侵权行为予以重点讨论。模型输出端的“成品”受到版权法规制,其特定使用和传播受到版权人的控制。如果模型最终的生成内容与版权人作品构成“实质性相似”,产生替代版权市场或分流版权市场的不利影响,则会侵犯版权人的复制权或改编权。此外,人工智能的生成输出环节亦可能侵犯版权人的信息网络传播权。“模型记忆”是生成式人工智能模型的固有缺陷,存在向不同用户输出同一侵权内容的现实可能性。具体而言,生成式人工服务的侵权场景分为以下两种。第一种是用户并没有发出侵权指令,模型因自身固有缺陷产出侵权内容,随后被用户进一步使用或传播;第二种是用户有意向模型发出侵权指令,诱导模型生成侵权内容,随后将侵权内容上传至互联网平台,扩大版权侵权的损害。

对于用户发出版权侵权指令的场景,生成式人工智能具备中立的工具属性,此时生成式人工智能服务提供者可以被看作是间接侵权主体,若未履行版权注意义务,则被认定存在过错。然而,对于生成式人工智能的运行缺陷而产生的侵权内容的场景,生成式人工智能服务提供者的侵权主体身份则难以界定。用户并未发出侵权指令,模型自动生成了版权侵权内容,此行为形式上应当属于直接侵权,而非“引诱或帮助他人”的间接侵权。但根据生成式人工智能的运行原理可知,生成式人工智能的生成内容是众多因素共同作用的结果,每个因素对最终产出内容的贡献比难以判断。上游模型开发者的数据收集,中间服务提供者的调试训练,以及下游终端使用者的不当诱导均有可能导致版权侵权内容的生成。生成式人工智能服务提供者作为生成式人工智能应用链的中间主体难以知晓和干涉上游的数据收集环节,其对具体生成内容无法实现精准预测和控制,这与“直接侵权/间接侵权”主体二元划分的初始设计理念存在错位。

因此,有学者认为应对新型侵权形态的可行方式是注重侵权责任的合理分配,不再依赖传统侵权法中的主观过错和因果关系进行判断。12生成式人工智能版权侵权符合数字时代大规模侵权的特征。输出端频繁出现“相似”内容可能会在短时间内对海量个体造成微型侵权。13侵权行为中的因果关系也从一一对应转变为多重因素的叠加。在此背景下,以注意义务为中心的追责模式可以在一定程度上有效化解生成式人工智能版权侵权责任的分担难题,即通过客观化设定版权注意义务,绕过“直接侵权/间接侵权”的前置判断,在具体侵权案件中评估生成式人工智能服务提供者的履行方式和效果,以此认定其在运营过程中是否应当承担版权侵权责任。14

(三)生成式人工智能服务提供者版权注意义务现存问题

我国对于网络服务提供者注意义务规定的基本框架由《民法典》第1194-1197条和《信息网络传播权保护条例》(以下简称《信网条例》)构建而成,主要体现为“通知-必要措施”制度。如未履行上述义务,则网络服务提供者可能被认定为存在过错,需要承担相应的版权侵权责任。为防止“通知-必要措施”制度在司法实践中的滥用,最高人民法院在《信息网络传播权规定》列明对网络服务提供者“明知”“应知”“必要措施”的界定应当结合网络技术服务形态、受侵害权利类型、侵权内容明显程度等科学考量。随着多种网络新业态的出现,我国也通过相应的管理规章和法院指导案例,对不同网络服务提供者的注意义务范围进行适度调整,细化至一系列的具体行为要求。由此可见,我国已初步形成了网络服务提供者注意义务行为标准体系。

生成式人工智能服务属于网络服务发展的新业态,一经出现便席卷全球。仅中国的生成式人工智能模型已达190余个,用户体量达到2.3亿人。15与此同时,此项服务亦催生出巨大的版权侵权风险。生成式人工智能复杂的产业形态和技术原理,使得生成式人工智能服务提供者的身份性质处于模糊地带,难以适用“通知-必要措施”制度对其进行侵权责任认定。

1.生成式人工智能服务提供者定位不清

为更好适应深度合成和算法推荐等新技术的出现,我国公法领域搭建出“技术支持者-服务提供者-内容生产者”三分主体的新型网络监管框架,服务提供者是主要的治理枢纽。16然而,生成式人工智能的复杂业态分层和“模型即服务”的商业模式却使得上述法律主体的界限再度模糊。以ChatGPT为例,其既可以直接向用户生成内容,同时也开放API端口供第三方接入后再度训练。Open AI公司同时兼具模型开发、服务提供和内容生产的三种主体身份。专业模型层的开发公司也遭遇相同的情况。接入基础模型后,专业模型的开发公司既可以直接面向市场提供服务,同时也可以将模型出售至不具备模型训练能力的第三方中小型公司。生成式人工智能产业中的服务提供者内涵被无限扩大,与上游的模型开发者和下游的内容生产者在实践运用中出现重叠。

此外,私法版权视域下生成式人工智能服务提供者法律定位同样存在模糊之处。一般来说,网络版权侵权案件中,网络侵权主体一般被划分为网络服务提供者(ISP)或网络内容提供者(ICP)两类,随后确定其承担何种版权侵权责任。生成式人工智能服务提供者应该归入哪种类别存在界定难题。从技术特征分析,生成式人工智能听从用户指令直接生成内容,似乎符合网络内容提供者的形式特征;但生成式人工智能具备强烈的工具属性,即生成内容由用户指令触发且存储于封闭的交互页面,生成内容的后续传播由用户掌控,这好似与网络服务提供者亦存在相通之处。生成内容的服务特性使得生成式人工智能服务提供者兼具技术服务与内容提供双重主体身份,难以适用传统版权注意义务予以规制。17

2.现行“通知-必要措施”制度适用障碍

传统的网络服务提供者版权注意义务的重点在于阻止侵权内容的进一步传播,防止给权利人造成更大的损害后果。在我国现有法律框架体系内,网络服务提供者的注意义务可被简单总结为《民法典》第1194-1197条的“通知-必要措施”制度,即“网络服务提供者明知或应当知道存在网络侵权行为或侵权内容时,应当采取制止侵权的必要措施”。而生成式人工智能服务作为一种新型网络服务,其以巨大的内容生成能力“闻名于世”,同时也使得对生成式人工智能服务提供者版权注意义务的关注需要由传统的内容传播阶段转向全新的内容生成阶段。“通知-必要措施”制度在生成式人工智能版权侵权的具体场景中呈现出局限性与滞后性。

(1)“通知”制度难以适用

“明知”是对网络服务提供者是否知晓侵权行为发生的一种法律判断,需要版权人通过现有证据予以证明。18“通知”制度由此应运而生。版权人通过发送“通知”的方式让网络服务提供者知晓版权侵权行为的存在,从而在遭受损失后,证实网络服务提供者构成“明知”过错。然而,在生成式人工智能版权侵权场景中,“通知”制度面临着不小的障碍。

首先,生成式人工智能产出内容具备隐蔽性。生成式人工智能模型的具体生成内容均以对话形式存在于封闭的用户交互界面之中,只有当用户将生成内容上传至传播平台或进一步利用后,生成内容才具备被公众知晓的可能性。换句话说,即便生成内容存在版权侵权风险,其只会停留至用户的个人交互界面,版权人实际上根本无从发现侵权内容的存在,也自然无法知晓用户随后的侵权使用行为,难以及时维权。19

其次,生成式人工智能产出内容具备不可预测性。我国《信网条例》第14条明确规定了“通知”的形式要件。生成式人工智能的生成内容是算法不断叠加的结果,即使是同样的指令,也难以保证生成同样的内容,这使得版权人难以对侵权内容精准定位并将其通知至生成式人工智能服务提供者。如果版权人试图通过输入指令以验证寻找侵权内容的产生界面获取初步证明材料,也可能会被质疑具有“诱导侵权”之嫌,例如在举世关注的“纽约时报诉Open AI侵权”一案中,原告纽约时报认为Open AI会生成与其发布文章高度相似的文字内容,但Open AI随后抗辩称纽约时报通过故意操纵提示词,输入大量的文字摘录,诱导模型产出相似内容。20而在我国“全球AIGC平台侵权第一案”中,原告也是通过主动输入“奥特曼”相关提示词,监测模型是否输出相应侵权内容,从而成功举证被告构成版权侵权。但此举也引来了一定的质疑,即如果模型生成的作品相似内容是由原告刻意制造,而非用户自然生成,该行为对版权人是否构成损害或构成损害的实际程度尚且不明。21近日,上海市青浦区人民法院公布的一则案例中,法官对此种利用AI模型学习能力,反复输入被侵权商标名称进行系列非正常搜索操作的行为不予认可。22

(2)“应知”推定造成挑战

“应知”是美国“红旗规则”在我国的本土化适用。即当侵权事实已经非常明显时,便可以推定网络服务提供者应当知晓侵权事实的存在。我国《信息网络传播权规定》第9-12条列举了在认定网络服务提供者“应知”的考虑因素,主要落脚于信息管理能力、侵权明显程度和事先预防措施等多种因素。广州知识产权法院在“广州阿里文学公司与上海玄霆娱乐公司一案”判决书中表明阿里文学公司对软件内嵌唯一搜索引擎的运行方式具备监管能力却未履行监管义务,继续为侵权作品提供书评查阅等服务,应当认定阿里文学公司对侵权行为属于“应知”状态,存在主观过错;23在“上海鑫进文化传播公司与潇湘书院一案”中,天津三中院认为上海鑫进文化传播公司作为免费小说聚合应用的运营方,应当知晓被链网站存在众多权属来源存疑的小说作品,运营此种服务可能具备较大侵权风险,但仍未采取任何预防措施防止侵权行为发生,故认定上海鑫进文化传播公司具有“应知”的主观过错。24

但在生成式人工智能的背景下,“应知”的适用效果显得捉襟见肘。从技术角度分析,生成式人工智能的技术特性大大削弱了生成人工智能服务提供者的信息管理能力。引入自注意力机制进行深度学习的大模型属于经典的黑箱算法,目前尚无清晰的技术方案能够对其予以解释。即使服务提供者可以在模型运行的各阶段进行微调,但此种微调对于最终生成的内容是否具有影响、影响的程度如何均处于不可知状态。深度学习的底层运行机制已经脱离了人为掌控与干预,服务提供者不具备针对侵权内容的控制能力,也无法采取针对性的预防措施,难以判断其具备“应知”的过错。然而,若仅仅依据生成式人工智能不可预测的技术特征便对服务提供者采取相对宽松的注意义务标准,则有可能对版权人以及我国版权产业造成巨大的损害。从版权保护的角度分析,生成式人工智能服务提供者是版权侵权风险的直接制造者,亦是利益获取者。即使其对于侵权内容的控制能力整体呈现出减弱趋势,但在版权侵权的具体场景之中,其控制力仍远超版权人,理应负担更高的注意义务。因此,现行“应知”条款的内涵需要相应调整,从而科学判断生成式人工智能服务提供者在相应的版权侵权场景中是否具备过错。

(3)“必要措施”概念模糊

“必要措施”的含义是网络服务提供者在明知或应知侵权事实后及时采取制止侵权行为或防止损害扩大的有效措施。网络服务提供者注意义务语境下的“必要措施”应当满足“及时性”和“有效性”。25我国法律规定的必要措施大致包含事后阶段的“删除”“屏蔽”“断开链接”“终止服务”,然而随着网络服务的不断发展,在司法实践中已然出现要求网络服务提供者采取事前的过滤词设置,似乎有“必要措施”扩张之嫌。而新出现的生成式人工智能服务提供者所应采取“必要措施”的界限也尚不明晰。结合生成式人工智能内容生成的特性,服务提供者理论上会被要求采取“删除侵权内容”以及“停止生成侵权内容”的必要措施,但能否在实践中要求服务提供者落实上述措施,仍需从技术可行性与成本可行性两方面进行分析。

生成式人工智能模型并非机械复制已有数据,而是在对数据进行深度学习后自主产出新内容。侵权素材往往并未置顶至服务界面首页,而是隐藏于庞大的数据集中。生成侵权内容也独立封闭于用户交互界面之中且具备一定的随机性。26生成式人工智能服务提供者不仅在技术层面尚无法精准定位并删除侵权内容,而且从成本层面也无法回溯至数据收集阶段删除侵权数据,承担模型重新开始训练的又一轮资金消耗。27而对于近些年频繁提出的“事先审查”或“过滤词设置”等措施,可能亦收效甚微。生成服务属于高度定制化服务,允许用户通过指令生成与众不同的内容,内容的形式与主题完全由用户控制,区别于传统上传至平台的静态内容,难以被服务提供者一一监测。

此外,究竟应以行为主义还是结果主义来判断“必要措施”的有效性也成为一大难题。在“全球AIGC平台侵权第一案”中,被告在收到权利人的侵权通知后,已经设置关键词过滤措施,试图避免“奥特曼”内容的生成。但在庭审中输入与“奥特曼”相关的关键词仍能产出相应内容,法院认为被告所采取的必要措施尚未达到“有效性”标准,应当采取进一步技术措施防范措施。28而在近日宣判的“上海市首例人工智能大模型著作权侵权案”中,上海市金山区人民法院认为“被告向用户尽到了合理告知义务,设置了投诉举报机制和发布审核机制,在收到起诉状后及时下架了全部美杜莎LoRA模型,并更新平台审核机制中的筛选关键词,客观上尽到了‘采取必要措施’‘转通知’义务,不应认定构成侵权。”29由此可见,不同法院之间对于“必要措施”的内涵及需达到的标准尚未达成一致意见。

3.生成式人工智能服务提供者的公私法义务界限混乱

具备丰富发展前景的生成式人工智能在提高社会发展水平的同时,亦引发了多方面的危机感。作为复杂算法和数据大模型的集合体,生成式人工智能的不可控性增强,巨大的数字鸿沟亦使得公众对其产生恐惧心理,甚至出现应当停止人工智能研发的悲观论调。但理性分析可知,人工智能的发展已呈现出无法逆转的趋势,每一次新技术的颠覆性发展都蕴含着巨大的机遇。如果国家层面能够以积极政策引领推动相关技术产业发展,便能在激烈的世界竞争中脱颖而出、勇立潮头。2023年8月15日,我国七部委联合发布的《生成式人工智能服务暂行管理办法》(以下简称“《管理办法》”)正式生效,用以规范生成式人工智能服务的应用与发展。《管理办法》沿用了此前《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐管理规定》”)和《互联网信息服务深度合成管理规定》(以下简称“《深度合成管理规定》”)的治理思路,为生成式人工智能服务提供者设定了包括算法监管、算法训练、内容管理和使用者管理等系列合规义务。

虽然《暂行办法》试图与《算法推荐管理规定》《深度合成管理规定》形成良性互动,以构建我国对于生成式人工智能的多维度规制,但是在具体条款的衔接适用方面仍存在一定的问题。生成式人工智能服务提供者履行相关义务的边界仍处于模糊的地带,有待进一步说明。《深度合成管理规定》中精确划分深度合成技术支持者、服务提供者与使用者的责任与义务;而《暂行办法》则笼统要求生成式人工智能服务提供者也要承担本应由模型开发者负担的数据标注、模型训练等义务,这其中固然有一定的现实考量,30但就长远来看,随着市场的发展,势必会出现大量通过API接口或插件接入第三方模型的独立服务提供者,其并不具备对模型数据的实质优化手段,无法满足《暂行办法》要求的合规义务。

具体至版权领域,《暂行办法》中的合规义务可以为生成式人工智能服务提供者的版权注意义务提供一定的参考和方向引导,但无法直接套用。直接以生成式人工智能服务提供者违反《暂行办法》规定为由,认定其具备侵权过错,承担版权侵权责任的做法尚值得商榷。《暂行办法》的上位法依据为《网络安全法》和《数据安全法》等法律法规,具有明显的公法属性,侧重于为生成式人工智能服务提供必要的行政管理和制度保障。31《暂行办法》中要求生成式人工智能服务提供者承担网络信息内容生产者责任,履行较为严苛的合规义务,其出发点更多倾向于抑制减少虚假消息、歧视言语、以及危害国家安全和个人安全等具备公共属性内容的产生风险。《深度合成管理规定》中开始建立的生成内容水印和标识制度,其本意也并非用于识别、追踪和保护版权作品。生成式人工智能服务的本质是知识创造,而非知识复制。海量且多元化的数据直接影响模型的智能性,从而影响模型的生成水平。整体来说,越智能的模型学习的能力就越强悍,产出的内容独特性越强,构成版权侵权风险的可能性就越小。因此,如果忽视规制内容之间的差异,制定相似的注意义务规则与标准,极有可能出现宽严失据的现象,从而导致权利平衡机制的失灵。32生成式人工智能服务提供者的版权注意义务与合规义务、版权侵权责任与合规责任之间的关系还需进一步厘清与探讨。

向上滑动阅览

【1】本文对于生成式人工智能服务的概念界定与《生成式人工智能服务管理暂行办法》中第2条第1款“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务”保持一致,指代向公众提供生成信息服务。

【2】为行文简洁,后文中出现的服务提供者均指代生成式人工智能服务提供者。

【3】 参见张凌寒:《生成式人工智能的法律定位与分层治理》,载《现代法学》2023年第4期,第130页。

【4】参见丁磊:《生成式人工智能:AIGC的逻辑与运用》,中信出版社2023年版,第32-33页。

【5】长桥科技:《Port AI: AI投资知识服务平台》,https://longbridge.cloud/zh-CN/portai,2025年2月25日访问。

【6】参见邓香莲、步凌霄:《技术浪潮中的人文规束:生成式AI背景下出版业角色转变》,载《中国出版》2024年第16期,第31页。

【7】参见腾讯研究院: 《AIGC发展趋势报告2023》,https://mp.weixin.qq.com/s/9AjTpyL4HmQ6BDhWIDbD0A,2025年2月27日访问。

【8】参见[黎]玛丽特·阿瓦德、[美]拉胡尔·肯纳:《高效机器学习:理论、算法及实践》,李川等译, 机械工业出版社2017年版, 第1-6页。

【9】参见徐小奔,杨依楠:《论人工智能深度学习中著作权的合理使用》,载《交大法学》2019年第3期,第40-42页; 张吉豫、汪赛飞:《大模型数据训练中的著作权合理使用研究》,载《华东政法大学学报》2024年第4期,31-33页。

 【10】See Michael Murray, Generative AI Art: Copyright Infringement and Fair Use,26 SMU SCI.&TECH.L.Rev. 259,314 (2023).

 【11】参见刘晓春:《生成式人工智能数据训练中的“非作品性使用”及其合法性证成》,载《法学论坛》2024年第3期,第72页。

【12】参见丁晓东:《从网络、个人信息到人工智能:数字时代的侵权法转型》,载《法学家》2025年第1期,第46页。

【13】参见丁晓东:《人工智能促进型的数据制度》,载《中国法律评论》2023年第6期,第180-181页。

【14】See Felix Wu, The Structure of Secondary Copyright Liability, 61 Hous. L. Rev. 385, 401 (2023).

【15】《我国生成式人工智能产品用户规模达2.3亿人》,http://www.news.cn/20241202/1ba471a5d0db496d88249ba817d93b9b/c.html?utm_source=chatgpt.com,2025年10月27日访问。

【16】参见张凌寒: 《深度合成治理的逻辑更新与体系迭代———ChatGPT 等生成型人工智能治理的中国路径》,载《法律科学》2023年第3期,第45页。

【17】参见杨显滨:《生成式人工智能服务提供者间接侵权责任的承担与限制》,载《法学家》2024年第3期,第50-51页。

【18】参见司晓:《网络服务商知识产权间接侵权研究》,北京大学出版社2016年版,第69页。

【19】参见黄玉烨、杨依楠:《论生成式人工智能版权侵权“双阶”避风港规则的构建》,载《知识产权》2024年第11期,第46页。

【20】参见Open AI 回应《纽约时报》版权侵权起诉的声明,https://openai.com/blog/openai-and-journalism,2025年1月3日访问。

【21】参见朱开鑫:《AIGC服务提供者版权侵权责任研究》,载《上海师范大学学报(哲学社会科学版)》2024年第6期,第42页。

【22】参见知产财经:《利用人工智能“幻觉”恶意取证诉讼牟利,法院判了!》,https://mp.weixin.qq.com/s/X8EUaDurMD4BHOdNILG90A,2025年11月7日访问。

【23】广州知识产权法院(2019)粤73民终6450号民事判决书。

【24】天津市第三中级人民法院(2023)津03民终2377号民事判决书。

【25】参见芮松艳:《视频分享网站的侵权责任认定——由华夏树人诉优酷网案着手》,载《电子知识产权》2009 年第4期,第17-20页。

【26】参见刘伟斌:《生成式人工智能版权侵权注意义务的设置逻辑与制度安排》,载《网络法律评论》2024年第00期,第81-82页。

【27】See William Morris, Will AI Destroy the DMCA Copyright Compromise?, https://frostbrowntodd.com/will-ai-destroy-the-dmca-copyright-compromise/ (last visited Jan.5, 2025)

【28】参见方贵敏:《论停止侵害责任在AIGC著作权侵权案件中的适用》,载《出版广角》2024年第23期,第77页。

【29】上海高院:《斗破苍穹》美杜莎形象被抄袭 人工智能大模型著作权侵权案一审落槌》,https://mp.weixin.qq.com/s/Plae0snaOEsqqmodLU9j4g,2025年11月11日访问。

【30】生成式人工智能服务的发展需要强大的技术支持和资金储备,故当前多数生成式人工智能服务提供者也兼具模型开发者的身份,可以暂时满足《暂行办法》中的规定要求。此外,巨大的数字鸿沟也使得权利人先天处于弱势地位,直接设立服务提供者义务有助于权利人维权,避免服务提供者和模型开发者互相推诿。

【31】参见赵精武:《论人工智能法的多维规制体系》,载《法学论坛》2024年第3期,第53-54页。

【32】参见孔祥稳:《网络平台信息内容规制结构的公法反思》,载《环球法律评论》2020年第2期,第143页。


作者:史怡美