兰台「知」道丨生成式人工智能服务提供者版权注意义务研究(下)
发布日期:
2026-01-12

2022年底,ChatGPT的横空出世迅速点燃了人们对生成式人工智能的热情,生成式人工智能产业呈现出蓬勃发展的鲜明态势。版权被誉为“技术之子”,其制度演变始终与技术的发展紧密相连。在生成式人工智能出现前,技术的更新对版权制度的影响可能仅限于催生出新的作品类型或成为辅助人类创作的技术手段。但随着生成式人工智能的不断发展,网络内容创作模式迎来了“PGC(专业生成)-UGC(用户生成)-AIGC(人工智能生成)”的巨大变革,人们逐渐意识到未来生成式人工智能或将成为一种通用的创作工具。

然而,技术的发展具有两面性。降低了创作门槛的生成式人工智能也催生出更多的版权侵权风险。网络版权侵权责任也因生成式人工智能的出现而变得更加复杂。依照生成式人工智能的运行原理,产生的版权侵权风险主要存在于输入端的数据使用环节及输出端的生成内容环节。因此,确立生成式人工智能版权侵权的责任分担规则对于版权人合理维权和网络版权产业的发展十分重要。根据我国网络版权侵权的治理框架,网络服务提供者居于核心环节。鉴于生成式人工智能目前尚无法承担侵权责任,通过提供生成服务获得相应的流量关注和经济收益的生成式人工智能服务提供者则理应成为承担版权侵权责任的主体。为此,对生成式人工智能服务提供者要求一定的注意义务以有效遏制版权侵权事项发生的相关议题引发了学界与实务界的重点关注和讨论。

兰台「知」道丨生成式人工智能服务提供者版权注意义务研究(下)

04

生成式人工智能服务提供者版权注意义务具体内容

本节具体构建了生成式人工智能服务提供者的版权注意内容,并分别讨论了其在现阶段的适用标准。主动注意义务与服务提供者的技术能力、服务规模紧密相关,应当进行个别评估以判断现阶段是否应当引入行业标准或是上升为刚性法律义务。对于被动注意义务,则应当结合内容生成的服务特性,将投诉处理义务与制止重复侵权义务作为传统“通知-必要措施”制度的优化升级。在未来,亦可以探索版权补偿金、版权保险等机制,为人工智能版权侵权问题提供更灵活的解决方案。

(一)引入符合“技术发展水平”的主动注意义务

我国公法领域的《暂行办法》中对生成式人工智能服务提供者规定了多项合规义务,但并不适宜被全部纳入版权注意义务的范畴。只有具有保护个人权益的目的且针对具体性义务的规范属于保护性规范,可以作为服务提供者的版权注意义务,对服务提供者在具体案件中的过错认定产生影响。1具体包括《暂行办法》第7-8条规定的使用合法来源数据和模型义务;第12条规定的对图片、视频的标识义务;第14条规定的警示、停止生成等义务。第7、8、12条的事前和事中合规义务迁移至版权领域,便主要体现为模型安全审查义务和内容标识义务。但鉴于前述两项义务均考验服务提供者的技术能力和资金支持,尚不宜过早将其上升为版权法中的刚性规则,应当引入行业标准中以实现“软法治理”,有利于服务提供者具有一定的心理预期,可以提前通过服务协议或构建合作机制对相应义务予以划分协商。

为服务提供者引入的另一项主动注意义务即为内容识别过滤义务。版权法并未对网络服务提供者施加以一般性的审查义务,其主要原因即为网络服务提供者并不具备审查内容的技术能力。然而,生成式人工智能具备独特的技术特性。传统网络服务与版权过滤算法分属于两类截然不同的领域,并不具备技术共通性。但生成式人工智能本身就是算法的集合体,在生成内容的过程中,模型高度依靠原有数据集和算法。这意味着内容识别过滤技术可以内嵌至模型的生成算法之中,不会造成服务提供者额外的技术负担。2但目前来看,内容识别过滤技术的具体适用效果因技术能力不同而具有较大浮动。因此,可以在法律层面考虑要求服务提供者承担对知名作品的事前内容过滤义务;而对于一般作品的屏蔽过滤,则应当着眼于权利人通知后的必要措施阶段进行规制。

1.模型安全审查义务

模型安全审查是模型开发者与服务提供者之间版权侵权风险转移的“缓冲带”。此处“安全”采用狭义解释,要求生成内容尊重他人知识产权,并非公法意义上涉及国家利益或他人隐私的信息安全。从人工智能的运作流程分析,模型开发者自行建立或采买的数据集如果包含未经授权的作品,模型便可能会生成与之相似的内容,构成版权侵权。虽然此种侵权因果关系尚未被100%证实,但一些对人工智能采取严监管的国家却已要求模型开发者披露模型训练数据,此种义务的合理性尚待商榷。在人工智能发展现阶段,训练数据披露义务可能会使模型开发者面临高昂的数据公开费,深陷具有投机目的诉讼的囹圄之中,进而影响我国人工智能产业的持续发展及对域外新型科技企业的吸引力。3在此背景下,模型安全义务审查便彰显出其独特优势,其无需模型开发者向公众公开训练数据,而是通过服务提供者的审查,对模型的训练数据和生成内容的侵权可能性具有初步评估,为服务提供者的下一步微调及规范用户使用明确重点。

具体来说,模型安全审查义务是指服务提供者在接入模型时,应当要求模型开发者提供一项关于模型安全性的证明材料。4证明的形式或内容均可由服务提供者与模型开发者进行协商。证明的具体内容应当以模型版权侵权可能性低为核心论点,包括训练数据授权作品比例、训练阶段生成侵权内容的比例、是否内置版权保护措施及效果、是否明确排除包含权利标记的作品等方面。5服务提供者可以要求模型开发者提供一项完整的安全报告,也可以采取其他方式,例如查阅模型开发的训练摘要和操作日志或通过合同条款进行约定。需要明确的是,服务提供者并不需要对于上述证明材料进行实质审查核对。相比内容真实性,更为重要的是证明材料的程序意义,其属于模型开发者的自我承诺,是证明服务提供者具备防范模型版权侵权风险主观认识的一种客观化表现,也是法院在日后认定服务提供者主观过错的依据。

模型安全审查义务可以激励服务提供者与模型开发者进行合作协商,其目的并非将版权侵权的风险全部推脱至模型开发者或服务提供者之上,例如模型开发者提供的相应防止侵权数据无法达到100%,服务提供者就不应接入该模型,以此为由认定服务提供者存在过错。恰好相反,模型安全审查义务能够使得服务提供者与模型开发者更为明确的分担风险,从而使得自身不必负担过重的成本,并保障版权人的利益。如果模型开发者证明材料中提供的相应数据较低,例如虽然内设版权保护措施,但成功拦截率为70%;亦或者表明模型在文本生成或音频生成方面侵权风险较高,而服务提供者仍坚持接入的话,这就表明服务提供者愿意接受上述版权风险的迁移,其也应当明确接受的“代价”,即为在接下来需要模型微调阶段和用户交互阶段需要尽最大努力弱化这一版权风险。这一思路也符合市场的调节机制。人工智能产业模型开发者或服务提供者的能力不等,形式性的审查模型义务具有相应的灵活性。模型的版权安全系数与价格一般成正比。若服务提供者的经济实力有限,就应当根据自身未来发展策略,选择接入的模型。若接入价格低且版权安全系数较差的模型,服务提供者则应当在后续的模型微调阶段加大版权保护的投入成本;若接入价格高且版权安全系数较高的模型,服务提供者版权保护的成本已经被包含在购入模型的价格内,其后续在版权保护方面的投入可以相应减少。即使后续发现模型开发者的数据造假,但由于服务提供者并不进行实质审查,故不能认为服务提供者未履行模型安全审查义务,此时应当将模型开发者纳入责任承担的链条之中。

从版权人视角分析,若服务提供者履行模型安全审查义务,势必会向法院披露模型开发者的身份及其证明材料,并提供相应证据证明版权侵权问题是由模型缺陷或是其他用户恶意引导所致。如此一来,版权人即可明晰侵权内容发生的所有参与主体,在庭审中厘清各主体的能力边界,以提高维权效率。由此避免在各主体的相互推诿之下侵权损害持续扩大,版权人求诉无门的困境。

2.生成内容标识义务

内容标识是治理人工智能版权侵权问题的靶向路径和关键手段。一方面,内容标识帮助公众辨识内容的具体来源,提高警戒心,避免在无意间成为版权侵权内容传播的助推者,起到有效预防版权侵权风险的作用;另一方面,内容标识可以溯源追踪生成侵权内容的源头和服务提供者,及时采取阻断侵权内容的再次生成的必要措施。我国《深度合成管理规定》第7条规定深度合成服务可能导致公众混淆或误认的,服务提供者应当在信息内容的合理位置进行显著标识。《暂行办法》第12条也规定生成图片或视频服务提供者具有内容标识义务。2023年8月,我国发布《网络安全标准实践指南——生成式人工智能服务内容标识方法》(以下简称“《标识方法》”),规定了四类生成内容的具体标识方法。

虽然内容标识的思路具有一定的合理性,但如何将其落实至具体实践中并产生较好的版权治理实效,就需要对内容标识义务进行细化。当下有学者将内容标识实践中的问题总结为三个方面,一是标识义务主体不明确,二是标识内容过于泛化;三是标识形式应用局限。62025年9月,我国正式实施《人工智能生成合成内容标识办法》(以下简称“《标识办法》”),该办法虽然对内容标识的要求进行了一定的细化,对前述学者提出的问题有所回应,但仍然在实务过程中面临种种应用难题。因此,版权视域下内容标识义务需结合《标识办法》中的相应要求进行具体构建与设计。

明确服务提供者需要承担主要的内容标识义务。服务提供者直面用户,对提供服务的形式和具体场景享有决定权。7模型开发者与服务提供者在版权侵权风险认知方面可能存在差异。8服务提供者在接入模型后,针对相应的目标群体会对模型进行微调和再训练,例如模型在初始研发可以处理多项通用任务,但服务提供者接入模型后专注于训练模型的“文生图”功能,模型生出侵权图片的风险性变高。服务提供者对模型具体应用场景下的产出内容以及相应提升的版权侵权风险更加了解。此外,内容标识义务并不会不合理的增加服务提供者的技术成本。添加显著标识的各种技术已经较为成熟,大多文字处理、视频剪辑等软件均可以通过自动处理或用户界面添加等方式附着明显水印;而隐形标识技术则可以向上游模型开发者寻求技术支持,通过合同协议予以明确。服务提供者位于人工智能应用链条的中间环节,向上可以辐射模型开发者,向下可以引导使用者,故应当将其作为内容标识义务的核心主体。

服务提供者应结合技术水平对不同类型的生成内容进行标识。《标识办法》中服务提供者在不同的生成内容中均需添加显式标识及隐式标识的要求在版权领域过于笼统,依次为依据要求未履行相应义务的服务提供者承担版权侵权责任不具备合理性。

目前人工智能市场中生成内容具体可以分为视觉类的图片、视频和非视觉类的文字、音频。对于视觉类的图片、视频,可以选择强制性的标识。人工智能模型能够通过用户的参数设置创造出具有美观和创意的图形或视频。由北京互联网法院“AI文生图著作权纠纷”一案可知,目前我国对于用户调整模型参数设置生成的具有独创性的内容能否被认定为作品持开放肯定态度。9故图片、视频生成服务在专业艺术领域已被发掘出了相应潜力,一定程度上能够反哺人类作者的高效创作和更具创新性的内容出现,在相应行业内人工智能的接受度良好。虽然此种图片、视频生成服务涉及原始图像的剽窃率也相应较高,侵权特征较为明显,但对其进行标注的难度也较低。故可以要求生成图片或视频的服务提供者履行内容标识义务,在合理位置予以标识水印或其他信息,以被公众清晰识别。

但对于非视觉类的文字、音频等生成内容则不宜采取强制性的标识手段。10第一,文字、音频具有可碎片化的特征,单独的词句或音阶可以被随意排列组合,具有自然多样性,对此类作品的标识较为困难;第二,用户可以轻易通过剪辑将语句或音段剥离出模型生成的原文本和音频,使得内容标识义务的追踪溯源目的落空;第三,对于利用人工智能模型生成文本和音频等内容,大众接受度较低,通过技术手段强硬添加标识,可能会影响用户的后续使用并破坏人工智能服务的商业价值。例如,用户可能只是利用人工智能模型完善研究报告中的部分词句,但在优化的文字片段中标识以人工智能水印,可能会降低评阅者对报告的整体印象,怀疑用户有投机取巧之嫌。ChatGPT近30%的用户表示,如果ChatGPT启用了水印功能而其竞争对手没有,他们可能会减少使用ChatGPT。11因此,对于文字、音频等非视觉类生成内容,服务提供者可以提供任意性标识选择,实现内容标识义务的形式履行。在技术成本允许的情况下,为生成文本或音频自动附加内容标识。同时对用户予以提示,如果此种标识并不影响用户的后续使用,建议用户保留服务提供者设置的内容标识,作为后续的权利凭证或涉及责任划分承担的证明依据;但如果用户认为标识可能会影响后续使用,也可以选择移除。12

《标识方法》包括能被公众察觉的显性标识和通过技术手段提取的隐性标识。显性标识能够使得公众保持警惕,一定程度起到预防风险效果,而隐性标识则可以最大程度的不影响用户后续使用,同时在技术层面起到追根溯源的效果。依照人工智能产业的发展,隐性标识将是未来技术发展的重点,也是服务提供者与模型开发者义务相衔接的重要商讨条款。

短期来看,在人工智能侵权风险较高的发展早期阶段,仅标识“AI创作”并不足以完全覆盖人工智能所引起的版权风险,还应当包含内容标签、版权声明、署名等多个部分,但如果披露上述所有信息则与标识应当具备的精简直观要求所违背,故对于某些信息可以隐形标识呈现。长期来看,服务人类是技术发展的最终使命。尤其在版权领域,人工智能应当作为一种具备无限潜力的工具被人类加以使用,从而创造出更优质的作品以反哺版权行业的发展。通过内容标识手段将人类创作与人工智能创作划分为楚河汉界,一定程度上也会导致公众对于人工智能生成内容存在偏见并产生强烈的不信任感,影响未来人工智能产业和版权产业的发展。不过在现阶段,隐藏标识需要较高的技术支持,Open AI最近表示正在开发一种先进的文本水印技术,通过对ChatGPT选择单词的方式进行微妙调整,从而在文本中嵌入一个不可见的水印,未来可以被一个工具单独检测到。但Open AI也承认此项技术尚存在诸多挑战。13故在此阶段,对服务提供者的内容标识义务仍应当以显性标识为核心,标识信息主要体现为“AI创作+服务平台”,以达到事先防范和事后追责的预期效果。嵌入隐藏标识则是服务提供者内容标识义务的未来发展目标。

3.内容识别过滤义务

内容识别过滤义务是网络版权创新治理中被频繁讨论的热点话题。虽然我国目前对版权内容过滤义务作出尚未统一的立法规定,但在具体的司法实践和地方立法中,过滤义务的正当性已经被予以认可并在个案中予以适用。在“袁怡芳诉百度网讯公司”一案中,成都市中级人民法院认为被告负有较高的注意义务,应主动实施预防侵权的必要措施。14《北京市知识产权保护条例》第28条也明确要求网络服务提供者要“采取与其技术能力、经营规模以及服务类型相适应的预防侵权措施”。

在人工智能时代,生成式人工智能直接参与内容生成。用户可以通过描述他人作品或上传侵权作品以恶意引导模型生成版权侵权内容。虽然生成式人工智能服务提供者对侵权内容不具备完全控制能力,但其仍然对模型可能产出版权侵权内容具有概括性的知情。在传统网络版权侵权中,上传侵权内容的用户是直接侵权人,除网络服务提供者外,版权人也可要求用户承担侵权责任。而在生成式人工智能版权侵权的场景下,会出现模型缺陷生成侵权内容或找不到输入侵权指令的用户的可能,若服务提供者不承担侵权责任,版权人将无从救济,故应当向版权人给予倾斜保护。15数字时代治理人工智能侵权问题应当采取“向前看”的策略,合理威慑潜在的违法行为。16

从版权人视角分析,由于法学界对于模型利用数据进行深度学习这一行为是否构成侵权存在争议,法律尚无法对此行为作出统一定性予以规制,版权人早已对模型开发者未经授权爬取版权作品的做法心生不满,却苦于无处发泄。而内容过滤技术作为预防侵权的主要手段,已经具备较为深厚的研究基础,故版权人则寄希望于服务提供者能够采取内容过滤手段,作为侵权内容生成的“最后一道防线”,起到事先防范的作用。立法者也采取了相同的规制思路,《暂行办法》第9条明确将生成式人工智能服务提供者的角色定位为“网络信息内容生产者”,需要承担一定的内容审核义务。此种公法义务也为服务提供者的版权注意义务提供一定参考,即除“通知-必要措施”制度外,服务提供者也应采取一定的预防侵权措施,目前主要体现为内容过滤。

人工智能语境下的内容过滤包含两种模式,一种是事先防范性过滤,另一种是事后通知性过滤。17前者是指服务提供者主动对存在版权侵权风险的内容采取的过滤措施;而后者更加注重于版权人发出侵权通知后,服务提供者采取的制止重复生成侵权内容的必要措施。事先防范性过滤是本节讨论的重点。接下来将从过滤主体、过滤对象以及过滤方式三个方面讨论内容过滤义务的具体适用。

UGC时代的内容过滤义务一般施加于大型的在线内容分享平台,因其过滤技术较为成熟且资金雄厚,类似于Youtube、谷歌等大型互联网公司早已拥有内容过滤系统并取得不错的过滤效果。而一些初创的中小型内容分享平台,因其对侵权内容的识别能力较差,且用户受众规模较小,引发的版权侵权风险也尚在可控范围内,故不要求其承担内容过滤义务。但在AIGC时代,内容过滤义务的主体应当进行调整。

版权内容过滤技术是设计出一套算法与版权库内容进行比对,将具有相似性的内容筛出。而生成式人工智能究其本质属于算法的升级综合体,服务提供者参与模型微调并且直接决定生成内容的具体面向用户,具备一定的算法设计能力,不同于UGC时代的中小型内容分享平台。公法领域,服务提供者已被要求采用关键词或人工抽检等方式,充分过滤全部语料中的违法不良信息,从源头避免违法不良信息与内容的生成。服务提供者所采用的针对不良信息的过滤算法与版权内容过滤算法并不存在巨大的技术壁垒,只是专精程度和最终效果可能存在差别。因此,内容过滤义务不应仅仅针对于大型服务提供者,经评估具备一定技术能力的中小型服务提供者也可被涵盖在内。但此种义务应当被看作是一种行为性义务,而非结果性义务。18换句话说,服务提供者承担内容过滤义务,并不意味着服务提供者均需采取业内最为先进的内容过滤技术,也不要求版权内容过滤效果必须达至100%。19可以参考欧盟《版权指令》中的“尽最大努力”标准,即服务提供者应当采用一定的内容过滤手段,但最终的过滤结果的“有效性”,只要是其规模、能力下所能尽到的最大努力,即算作履行了内容过滤义务。当然,服务提供者承担内容过滤义务的前提是其具备设计算法的技术能力,是能力“高与低”的区别;而对于那些只接入三方模型而不进行任何微调,俗称“换壳”的服务提供者,其不具备基本的技术能力,是能力“有或无”的区别,故其可以免于承担内容过滤义务,但应当予以时间或营业额的限制,22以引导督促人工智能产业的整体向善发展。

内容过滤技术的最终效果与过滤对象的影响力有关。在版权领域,适用内容过滤技术的前提是需要建立一个存储版权作品的数据库,以便将生成内容与数据库中的作品进行比对,版权过滤的技术难度要明显高于对歧视内容或情色内容的过滤。鉴于此,目前服务提供者的过滤重点仍应当以知名作品或IP为主。在实践中,一般限定为进入国家版权局公布“重点作品版权保护预警名单”的版权作品。一方面,对知名作品予以重点过滤,更能实现激励高质量创作的目的,符合激励理论的要求;另一方面,知名作品的版权数据库可以由国家版权局牵头建立,要求版权人提供作品显著部分以满足过滤要求,服务提供者采用过滤技术通过与该数据库进行比对,所取得的过滤效果较好,技术成本较低,更加具备可行性。而对于一些普通作品,受制于版权的地域性和分散性,无官方扶持下,服务提供者难以建立统一的作品数据库进行内容比对,对普通作品的事前过滤效果并不理想。因此,现阶段的服务提供者应当以知名作品作为主要的事先过滤对象。针对普通作品,则可以通过事后“必要措施”中的事后屏蔽进行保护。此时被侵权作品已经明晰,版权人可以提交版权作品的相应数据,以帮助服务提供者取得更好的过滤屏蔽效果,避免侵权内容的再次生成。在未来,国家版权局或国家数据局可以牵头建立“版权作品内容对比数据库”,参考开源软件的思路,让版权人可以自行上传作品数据至数据库中,以便服务提供者进行内容过滤比对。

服务提供者承担内容过滤义务方式为算法过滤为主,人工审查为辅。人工智能时代,技术治理的思想将发挥更重要的作用。有学者提出我国应当致力于发展人工智能监管的数字化技术和数字化监管工具。212020年新修《著作权法》明确技术进步催生的版权侵权问题应当回归技术手段加以解决。22有学者认为此次修法引入“技术措施”作为制度接口,可以通过后续配套法规及司法解释,为部分网络平台施加以版权过滤义务。23AWS、Google Cloud、Azure等云服务平台提供了易于集成的第三方内容识别和版权保护工具,资源有限的中小型企业也可以通过API接口快速接入版权过滤系统,实现版权内容的有效过滤和管理。此外,滥用算法技术进行版权内容过滤的问题在人工智能版权治理中也有所缓解。在UGC时代,用户是上传内容的直接主体,而内容分享平台只参与内容传播阶段,故可能会为了规避版权侵权责任而滥用过滤措施,未经通知直接屏蔽用户的上传内容,致使该用户的权益受损,挤压公众言论自由空间。但由于生成式人工智能服务深度参与内容创作,且生成内容的质量直接影响用户的使用体验及后续商业利益,故根据商人趋利避害的本性,服务提供者所设定的过滤阈值24只可能较“高”,不能过“低”,否则有限的生成内容将会使其在人工智能市场中缺乏核心竞争力,等同于自掘坟墓。25此外,人工审查也是过滤版权内容中不可缺少的一步。26第一,服务提供者应当配备一定的人工审查人员,不定时的对过滤技术的效果进行抽查复验,以检查技术的有效性;第二,对于过滤技术错误过滤的内容,应当通过人工审查将其记录,随后向本身技术部门及第三方技术支持者进行反馈以进行优化。

(二)完善以“通知-必要措施”为基础的被动注意义务

建立投诉处理机制义务是对“通知”制度的优化升级,将公众纳入监督链条,有利于缓解由于侵权行为隐蔽性而导致的版权人维权困境。制止重复侵权义务则是生成式人工智能版权侵权发生后,服务提供者应当采取“必要措施”的核心内容,规制重心由停止传播前移至停止生成。生成式人工智能侵权内容的产生具有随机性,处于不稳定状态,适用传统的删除、断链等办法可能会为服务提供者带来过重的成本负担,而通过关键词屏蔽以避免重复侵权的方法则更为有效。除此之外,在用户恶意生成侵权内容的场景下,服务提供者也应及时对重复输入侵权指令的用户采取警告或封号的手段,避免其利用人工智能服务反复生成侵权内容。

1.投诉处理机制义务

《暂行办法》第15条规定,服务提供者应当健全投诉、举报机制,设置便捷的投诉举报入口,及时受理公众举报并公布后续处理流程和处理结果。《生成式人工智能服务安全基本要求》(TC260-003)也在5.2条中明确规定,服务提供者应当建立知识产权问题的投诉举报渠道。投诉处理机制能够一定程度上缓解“通知”制度应对生成式人工智能版权侵权问题的局限性,尽最大可能帮助版权人通知服务提供者采取必要措施,防止后续侵权损害的扩大。

投诉举报机制主要是对“通知”制度的主体和具体内容作出的变革升级。在传统的网络版权侵权中,侵权内容常处于公开状态,可以被任意主体在任意时间浏览下载,故版权人可以精准定位至侵权内容的具体网址并通知相应的网络服务提供者。但在生成式人工智能版权侵权的场景下,生成内容一般只停留在用户的交互界面中,而参与对话的用户可能并非版权人。此种封闭的界面使得版权人难以及时得知侵权内容的相关消息,只有在用户后续公开使用或传播形成一定效应后才能知晓。但与此同时,具备高效产出性能的人工智能模型可能已经为成千上万的用户产出了同样的侵权内容。投诉举报机制的完善能够将通知主体从权利人扩展至发现侵权内容的普通用户。对于“通知”制度中的主体能否扩张至权利人以外这一问题,反对者认为对通知主体的肆意扩张会导致网络服务提供者的义务不合理的加重;且网络版权侵权大多都是对于私法权益的侵害,权利人不通知即表明其可以接受此种损害,法律无需额外为其提供保护。27但此种观点在技术变迁背景下的合理性受到质疑。

首先,生成式人工智能服务参与内容创作,客观上提升了版权侵权风险的可能性,据法理分析,相应注意义务应当转向至内容生成阶段。但鉴于技术层面提前过滤版权内容的效果有限,故相应的事后注意义务应当予以优化升级,以弥补事前防范阶段的技术漏洞,从而对版权人形成更加全面的保护。其次,在生成式人工智能版权侵权场景下,权利人未通知并非表明权利人有意忽视或接受了此种侵权损害,而是其根本无从得知侵权内容的出现。司法实践中,也有法院判决表明通知人并非必须是权利人的司法案例。28因此,用户向服务提供者发出侵权内容的投诉具备合理性。从成本上看,在互联网平台经济下,投诉举报机制已经是较为成熟的产物,也并不会大幅度地增加服务提供者的负担。

此外,投诉处理机制也是平衡版权人利益和服务提供者成本的一种折衷方案。在传统网络版权侵权中,构成合格通知的要件之一是侵权初步证据,大多可通过提供网络地址来实现。然而,在生成式人工智能版权侵权中,侵权内容并无法通过网址定位,对权利人提供侵权证据构成挑战。目前来看,搜索引擎侵权通知所采取的“检索词+截图”具有一定的参考价值。权利人和普通用户也可采取“对话+截图”的方式提供证据至服务提供者。但接下来服务提供者将会面临查验难题。一般来说,网络地址和搜索词产生的内容具有稳定性,便于网络服务提供者进行复查核实。生成式人工智能生成内容具有不可预测性,且一定程度与用户指令的上下文相联系,故服务提供者无法对侵权内容进行精准再现。受制于技术成本和数量繁杂的侵权通知,除一般理性的服务提供者理应想到的对话指令,其不应负有多次尝试再现侵权内容的强制性义务。29此时,投诉处理机制便可与权利人的侵权通知互相补充,服务提供者可以在后台投诉处理频次较多的内容中找寻是否存在类似侵权内容,以减少版权人陷入孤立无援的困境之中。此种由版权人和服务提供者共同负担较小的成本以阻止侵权损害扩大的方案远比将服务提供者负担全部复查成本更加灵活和高效。30

综上,投诉处理机制的设置将公众也纳入监督的链条之中。用户作为接触侵权内容的第一人,保留证据更为便利,此时设置醒目的投诉举报入口,有利于用户第一时间将“疑似被侵权作品名称+对话+侵权内容截图”及时反馈至服务提供者的后端平台进行处理。需要注意的是,投诉举报机制只是对于“通知”制度的一种变相的补充优化,并非对原有“通知”制度的取代。权利人对于侵权内容的判断较之普通用户更为准确,误差较少,故服务提供者依然应当设置专业的邮箱接收权利人的侵权通知,并予以优先处理,通知内容应当包括“对话+侵权内容截图”、侵权内容的基本说明及版权人真实信息,以便及时获得服务提供者的处理意见。而对于投诉举报机制所获取的普通用户反馈,过于繁琐的流程可能会使得用户失去投诉动力,故应当通过相应的筛选系统予以分级,将投诉内容相近或重复的划为一类,根据累计数量排列次序,要求服务提供者能够组织相应人员或采取技术手段按照数量进行针对性的查验,避免为其施加过高的核验成本。对于投诉多次的侵权内容,即使相应版权人并未发出侵权通知,服务提供者在核实后也应当主动采取必要措施防止侵权内容的再生成。服务提供者接收到多次不同用户针对相同或类似的侵权内容的投诉应当属于《民法典》第1197条的“知道”范畴。

2.制止重复侵权义务

《民法典》第1195条指导性的列举了删除、屏蔽、断开链接等必要措施,以防止版权侵权行为的重复发生。但在新型服务的不断冲击下,必要措施的范畴逐渐变得模糊。生成式人工智能服务提供者也面临着相同的困境。采用删除手段以阻止版权侵权内容的生成传播需要耗费极其昂贵的时间和经济成本;且一旦出现误判,语料库中的数据已经处于物理状态下的“毁灭”,对服务提供者造成的损害后果难以弥补。31虽然,Open AI、百度等人工智能头部企业在用户协议中宣称若发现模型产出侵权内容,会删除或断开涉嫌侵权内容的信息。但需注意的是,这些头部企业具备模型开发者和服务提供者的双重身份,同时也具备较强的资金实力和技术支持,不能将其对用户的承诺上升为对所有服务提供者的强制性义务。

制止人工智能重复侵权的必要措施关键在于阻止侵权内容的再次生成和持续传播,在设定时应当着重考虑以下两个方面,一是主体与义务的适配性;二是技术层面的可行性。首先应当明确采取必要措施的是服务提供者并不参与最初的数据收集,而是参与内容生成和用户交互,故其采取的阻止侵权内容生成的措施应当具备针对性,具体围绕以下三个阶段展开:第一阶段,服务提供者在确认核实版权侵权行为发生后,及时调取和留存生成侵权内容的指令记录和操作日志,以明晰侵权内容产生的真正原因;第二阶段,采取关键词屏蔽措施,防止版权侵权内容的再次生成。因此,《暂行办法》第14条以“消除”一词替代“删除”具有合理性,不要求服务提供者一定要“毁灭”训练数据中的相关作品,而是通过屏蔽手段让侵权内容达到“消除”状态即可。32例如界面会生成“无法生成受版权保护人物形象”的回复;第三阶段,与链条上下游主体的衔接。《暂行办法》第14条也要求服务提供者应当采取模型优化等措施进行整改。但该条并未考虑到服务提供者中存在众多的中小公司或创业公司,其技术水平有限,难以对模型进行实质性的调优。相较之下,与其为服务提供者设定一个难以达到的义务,不如将重点放置在不同主体之间的衔接环节,要求服务提供者在自身水平受限时,应当将侵权情况及时反映至模型开发者,寻求技术帮助,对数据集和模型予以优化整改;对于发出侵权指令的用户,服务提供者也应对其予以动态监控,告知其避免将侵权内容上传至第三方传播平台。

制止重复侵权义务的“有效性”标准应当结合服务提供者的技术水平予以认定,不对屏蔽侵权内容效果做统一要求。对于服务提供者技术水平的评估也更宜由行政机关承担,而非司法机关。绝大多数法官并不能准确分析技术类案件所涉及的复杂多变的技术。在“全球AIGC平台侵权第一案”中,法院并未说明具体依据,直接要求服务提供者的屏蔽措施应当达到“用户正常使用奥特曼相关提示词,不能生成与案涉奥特曼作品实质性相似的图片”的水平,33引发大众质疑其可行性。而行政机构在技术知识和技术人员的储备方面更加丰富,更有能力调用行政资源,督促相应行业制定评估准则,对于技术水平的裁断更具说服力。34结合我国人工智能产业规制现状,不难发现网信办主要负责管理生成式人工智能服务提供者的备案信息,且参与了《暂行办法》的出台实施。网信办对于不同规模服务提供者的屏蔽技术水平的评估应当更加细致。因而,在人工智能版权侵权的具体案件中,面临服务提供者的技术水平难以认定的复杂问题,法院可申请网信办或其他的技术行政部门出具评估说明和建议,以增加评估技术水平的确定性,增加法院审理技术案件的公信力。

此外,如果服务提供者认为采取相应的必要措施需要耗费较大的成本,其愿意向版权人支付相应的许可使用费以弥补版权人的损失,法院也可以通过调解等方式探索服务提供者与版权人的合作机制。35一方面,版权人可以通过版权许可使用合同获得经济利益;另一方面,服务提供者也可将资金投入至人工智能服务后续的优化升级之中,生成更加高质量的内容。

3.监督用户使用义务

模型缺陷和用户诱导是生成式人工智能产出版权侵权内容的两个具体原因。一般来说,模型缺陷导致的模型自发生成与训练作品相同或高度相似的内容属于一种小概率意外事件,是人工智能模型运行的非正常状态。26根据人工智能产业的发展来看,模型缺陷所引发的侵权问题可能会逐渐通过技术的不断完善而被克服,并非单纯对服务提供者施加以强制性审查或过滤义务便可解决。故相比之下,用户诱导应当是规制现阶段版权侵权治理的重点关注对象。

首先,虽然人工智能模型生成内容具有不可预测性,但具体的内容仍受限于用户的指令,若用户输入特定作家或作品的名称并加以“参照”“仿照”等词,则生成侵权内容的概率便可能大幅上升。如果用户若将未经授权的版权作品上传至模型交互页面,该作品便成为模型的训练数据,随后模型可能会产出在原有作品上再加工或再创作的内容,构成对版权人复制权或改编权的侵害。其次,模型采用“基于人类反馈的强化学习”模式(RLHF)来确定回答。37无论是模型研发阶段还是随后服务提供者针对具体应用场景的微调阶段,均是以人类反馈评分作为奖励机制,因此比起内容本身的正确,模型更为关注用户输入的指令,使得用户通过诱导词利用模型生成版权侵权内容的可能性加大。38最后,模型生成内容只停留在用户的交互界面,只有用户将内容上传至第三方平台或通过其他途径公开利用,才涉及后续的版权人维权和进一步侵权责任承担问题。

因此,服务提供者应当尽量避免用户输入诱导性的指令。在用户使用前,服务提供者应当在用户协议或交互界面的显著位置提示用户不得输入可能生成版权侵权内容的指令或上传无授权的版权作品,可通过举例列举或视频演示等方式使用户知晓侵权指令的具体内涵和相应法律后果。在内容生成后,服务提供者应当进行再次提示,建议使用者将生成内容上传至第三方平台或进行公开利用前进行适当的版权审查。服务提供者也可通过相应的客服后台,为使用者提供常见问题解答或在线支持服务,在用户难以判断生成内容是否具备侵权风险时,由客服平台结合用户提供的交互界面予以辅助判断。

此外,若经过提示用户仍输入侵权指令或通过其他手段规避人工智能服务内置的版权保护措施,服务提供者也应当采取警告、封号等手段以避免更多其诱发更多的侵权内容。当发现同一用户的反复侵权行为,应当考虑“必要措施”的有效性原则,不能仅仅流于形式上的警示而不采取实质性的惩罚手段,从而导致“警告-侵权-警告”的打地鼠困境。服务提供者一方面应当对该用户予以标记,限制其使用范围,人手充足或技术能力允许的条件下,可考虑对相应用户加强人工或技术监管,根据用户的侵权次数设立相应账号封禁或禁止访问的天数。

(三)未来可能:符合技术-利益平衡的整体性补偿义务

整体性补偿义务的本质是从社会基于作品产生的巨额财富之中抽取部分补贴版权人,39其雏形起源于版权补偿金制度。版权补偿金制度诞生于技术发展与版权保护的冲突日益加深之际。复制传播技术的大幅提升不合理地损害版权人利益,破坏了版权法原有的利益平衡框架。40而补偿金制度作为法律层面的一种折衷方案,一方面重新为版权人分配了相应利益,另一方面使得相应技术的开发者和运营者摆脱侵权困扰,社会公众可以合法便捷地获取作品,有助于实现版权法激励作者创作、促进作品传播的最终目标,在应对解决科技进步引发大规模版权侵权问题中具备独特优势。1992年,日本针对数字式复制建立版权补偿金制度,数字复制媒介的生产商与运营商收取一定比例的补偿金用于支付版权人。同年,美国通过《家庭录音法案》,其中规定数字录音设备及媒介的厂商必须缴纳法定的版权使用费, 以补偿版权人因家庭录音行为可能遭受的损失。

当下,人工智能模型能够通过海量摄入版权作品不断进行深度学习,随后按照用户的要求高效产出生成内容。相较于人类学习和创作的费时费力,生成式人工智能在内容创作领域的应用将进一步挤压人类创作的生存空间,并对人类作品的市场产生替代效果。虽然目前模型机器学习的法律性质尚无官方定论,但学界理论与司法实践领域,认为机器学习不构成版权侵权或属于合理使用范围的论调尚占据上风。从版权人视角分析,模型生成的高质量内容离不开高质量作品的输入,自身作品被免费获取用以模型学习,自己不但拿不到许可使用费,甚至成为了扼杀自己生存空间的“帮凶”。反观那些人工智能服务的模型开发者和服务提供者不需要支付版权人一分一毫,还可以利用生成内容赚的盆满钵满。版权人不公平性的强烈感受是可以理解的。有学者指出,版权人的权利总是一次次地妥协于新技术行业的繁荣发展。41因此,引入补偿金制度,向生成式人工智能模型开发者和服务提供者施加以整体性补偿义务用以补偿版权人及人类作者或许是实现人工智能版权侵权治理的未来方向。

整体性补偿义务在具体执行落实中的重点问题分别是义务承担主体和补偿资金来源。一般来说,补偿义务的承担主体应为生成式人工智能的模型开发者和服务提供者,并不面向终端用户。模型开发者与服务提供者是人工智能内容生成服务的直接受益主体,包括但不限于用户使用费、商业广告等。据IDC预测,截至2027年全球生成式AI市场规模将接近1500亿美元;42具体至人工智能企业,Future Research发布的调研报告显示ChatGPT Plus和ChatGPT Enterpris占据Open AI总收入的76% ,约26.44亿美元。43Open AI近期也正在探索广告等新的收入来源,以实现未来的盈利目标。44值得注意的是,人工智能企业与付费用户互为风险共同分担者。Open AI近日推出版权盾计划,表明如果使用ChatGPT的用户面临版权侵权索赔,公司承诺会介入辩护并承担法律费用。但此项计划仅针对于ChatGPT的付费用户,而不包括普通用户。因此,尽管用户不直接承担补偿义务,但其付费购买生成服务,最终也负担了一定数额的补偿金。此种分担是一种隐形转嫁,包含在使用费之中。45

此外,补偿资金的来源应呈现多元化趋势,尽量提高对版权人的保障力度。其一,可以考虑向生成式人工智能模型开发者与服务提供者征收版权税。由行政部门根据营业收入、服务类型、训练规模、用户数量等因素确认征税比。其二,可以设立专门补偿保险金。对于受到人工智能严重影响且补偿远不足填补损失的版权人,由专业保险机构对其进行审核后向其提供额外补偿。46其三,可以发挥中央与地方政府的带头作用,从支持人工智能发展的资金中抽取部分款项作为补偿金。补偿资金的支付对象也应呈现一定的梯度性。在版权集团管理成熟的领域,可由集体管理组织掌握补偿资金;在集体管理尚不健全的领域,可以借鉴美国做法,以补偿资金设立信托基金,对版权人进行相应补偿并可将其后续用于公益事业,以激励人类作者的创作热情。47

整体性补偿义务并不着眼于某个具体的行为或作品,而是从宏观视角权衡版权人的利益是否受到不合理的减损。影响生成式人工智能侵权内容生成的因素众多,侵权因果关系难以明确划分。整体性补偿义务可以有效回避侵权判断问题,避免各主体之间的相互推诿导致权利人无法及时获偿。从产业发展的角度分析,整体性补偿不等同于损害赔偿,且资金来源多样,并不会对人工智能企业造成致命的影响。当然,需要再次强调的是整体性补偿义务只是对于未来版权治理方向的一种设想。根据当下的人工智能产业发展水平分析可知,虽然市场对人工智能的未来发展充满期待,但鉴于研发训练人工智能所需的巨大成本投入,人工智能的模型开发者与服务提供者尚未能够充足实现盈利。即便是手握明星服务ChatGPT的人工智能头部企业Open AI目前也仍处于亏损状态。因此在现阶段推行整体性补偿义务并不具备可执行性。

虽然有学者认为技术更迭引起的相应群体“失业”现象属于深刻的伦理命题,并不属于版权法的规制范畴,也无需由版权法作出回应。48然而,版权作为技术之子,自其诞生之初便无法与技术相割舍。无论是DCMA第512条“避风港原则”亦或是欧盟《版权指令》第17条,均是在技术与版权冲突加剧的历史背景下提出,随后作为一种标杆性准则被广泛应用于其他领域。法律具有天然的滞后性,每一次框架的调整和条文的补充修正均是对现实社会热点问题的充盈和丰富。整体性补偿义务作为一种补充性质的再平衡机制,是基于技术迅速发展背景下版权人权益集体受损的法律回应。从长远来看,人工智能产业的最终目标是实现对版权产业的反哺,相应的版权侵权问题可能最终得以自然消解。然而,人工智能的发展是一个长期过程,期间所引发的新风险,对相应群体带来的新冲击,均是客观存在且无法忽视的,急需予以解决。因此,针对平衡技术发展与权益保护这一议题,法律层面的探讨仍然是重要且必要的。

05

结论

新技术裹挟而生的版权侵权问题一直是知识产权领域理论研究和司法实践的热点话题。不同于助力内容传播的传统网络服务,生成式人工智能作为一种新型服务,直接参与内容创作,不仅以席卷之势改写了版权领域的内容创作逻辑,也对版权法中的侵权责任制度也造成了相应的挑战。生成式人工智能目前尚无承担责任的主体地位,传统网络版权责任承担的思路值得借鉴,应当将生成式人工智能服务提供者作为人工智能版权侵权治理问题的抓手,结合新的技术特性对其版权注意义务予以优化完善。首先,服务提供者虽无法准确预测或控制具体的生成内容,但其对于人工智能模型的运作流程和技术原理的掌握程度都远超版权人,可以通过算法对模型进行“文生图”“文生视频”等应用场景的专项训练,体现出服务提供者的价值倾向,故由其承担版权注意义务具备正当性。其次,人工智能版权侵权场景具有随机性和隐匿性,仅依靠事后的制止侵权措施无法及时保障版权人的合法权益。故应当在对“通知-必要措施”进行完善后,适时引入主动注意义务,要求服务提供者在内容生成的过程中采取合理的措施,预见并防范潜在的版权侵权风险,以实现服务提供者与版权人之间的利益再平衡。最后,参考公法层面的有关规定,构建服务提供者版权注意义务的具体内容,涉及模型内容生成的事前、事中、事后全阶段规制。

生成式人工智能服务扩大了版权侵权的规模性风险。各大人工智能公司频繁陷入版权诉讼风波似乎也证实旧有的利益平衡机制已不能满足版权人权益保护的诉求。对于生成式人工智能服务提供者版权注意义务的构建具体有两种路径,一是将其上升为刚性法律义务的“硬法治理”,二是引入行业标准自我规制的“软法治理”。49目前来看,服务提供者的事后注意义务仍未突破“避风港”规则的制度基点,无论从技术还是成本层面均具备通用的可行性,适宜通过较高层级的立法予以规制,为法院裁判提供稳定预期。对于知名作品的事前过滤义务也已经具备上升为刚性法律义务的基础。但事前和事中阶段的其他主动注意义务,与服务提供者自身的规模能力紧密相关且最初均起源于公法领域的合规义务,在版权领域的适用效果尚不稳定。故目前并不适宜直接上升为版权法中的具体规则,从而认定服务提供者存在过错,承担版权侵权责任。司法实践中,由法院向存在版权侵权风险的服务提供者发出司法建议书是一种有益尝试。50在国际社会也出现一些新的监管趋势,即责令违法主体不断修正不符合法律规范的规则,摒弃单纯的警告或罚款的行政责任。51这种新型责任实现路径亦符合“软硬结合”的协同治理范式。长远来看,版权侵权内容的主动防范识别更应当依靠的是产业实践中的自我探索,以及各主体之间的合作共赢。在未来,整体性补偿义务的引入也是一条可行路径。

一言以蔽之,本文以生成式人工智能服务引发的版权侵权风险为契机,探寻并构建生成式人工智能服务提供者版权注意义务的应有原则和具体内容,期望最终能为人工智能版权治理提供切实可行的参考。技术进步推动法律调整,法律更新指引技术创新。有效的法律规制能够促进技术的健康发展,防止技术滥用;而技术的进步又会为法律提供新的视角,促使法律不断适应和完善。因此,通过调整生成式人工智能服务提供者的版权注意义务,最终期望能够实现人工智能产业与版权产业的深度融合与良性互动。

向上滑动阅览

【1】参见徐伟:《生成式人工智能服务提供者侵权过错的认定》,载《法学》2024年第7期,第119页。

【2】参见陈潇婷:《AIGC赋能我国自动版权侵权检测技术发展》,载《中国出版》2024第6期,第62页。

【3】参见王志文:《AIGC大模型数据训练版权规制的终端转向》,载《北京理工大学学报(社会科学版)》2024年第5期,第74页。

【4】参见刘金瑞:《生成式大模型沿人工智能价值链的风险共治》,载《西安交通大学学报(社会科学版)》,2025年第1期,第11页。

【5】参见李彤:《通用人工智能技术提供者义务的审视与优化》,载《东方法学》2023年第5期,第78页。

【6】参见马子斌:《生成式人工智能内容标识制度的审视与优化》,载《电子知识产权》2024年第10期,第68-69页。

【7】参见张凌寒、贾斯瑶:《人工智能生成内容标识制度的逻辑更新与制度优化》,载《求是学刊》2024年第1期,第120页。

【8】See Alexander Sisto, John Seiver, The NIST Risk Management Framework, https://csrc.nist.gov/projects/risk-management/about-rmf (last visited Jan.17, 2025). 

【9】《北京互联网法院探索为“AI文生图”著作权划定边界》,https://www.chinacourt.org/article/detail/2024/02/id/7796864.shtml,2025年1月17日访问。

【10】参见张继红:《生成式人工智能生成内容标识义务研究》,载《法商研究》2024年第4期,第197页。

【11】See Wes Davis, OpenAI won’t watermark ChatGPT text because its users could get caught, https://www.theverge.com/2024/8/4/24213268/openai-chatgpt-text-watermark-cheat-detection-tool (last visited Jan.18, 2025).

【12】参见卢怡、苏宇:《人工智能生成内容标识制度的实践挑战与制度回应》,载《人工智能》2025年第1期,第11页。

【13】See Matt Southern, OpenAI Scraps ChatGPT Watermarking Plans, https://www.searchenginejournal.com/openai-scraps-chatgpt-watermarking-plans/523780/ (last visited Jan.18, 2025).

【14】四川省成都市中级人民法院(2020)川01民初8628号民事判决书。

【15】参见徐伟:《生成式人工智能服务提供者侵权过错的认定》,载《法学》2024年第7期,第115页。

【16】参见丁晓东:《从网络、个人信息到人工智能:数字时代的侵权法转型》,https://mp.weixin.qq.com/s/8rzuj7jZFLSC2_p3vrYR3Q,2025年1月20日访问。

【17】参见何炼红、戴欣:《论网络平台版权内容过滤义务的适用与实施》,载《科技与法律(中英文)》2024第2期,第70-71页。

【18】参见王秋艳、万国华:《生成式人工智能的双重法律规制理路》,载《中国特色社会主义研究》2023年第4期,第78-79页。

【19】参见初萌:《人工智能对版权侵权责任制度的挑战及应对》,载《北方法学》2021年第1期,第147页。

【20】例如欧盟《版权指令》第17条免除向公众提供服务不满3年、年营业额少于1000万欧元服务商的过滤义务。

【21】参见张欣:《人工智能治理的全球变革与中国路径》,载《华东政法大学学报》2025年第1期,第31-32页。

【22】《著作权法》第49条,“未经权利人许可,任何组织或者个人不得故意避开或者破坏技术措施,不得以避开或者破坏技术措施为目的制造、进口或者向公众提供有关装置或者部件,不得故意为他人避开或者破坏技术措施提供技术服务。但是,法律、行政法规规定可以避开的情形除外”。

【23】参见朱开鑫:《新修<著作权法>为网络版权产业奠定发展基石》,https://mp.weixin.qq.com/s/hi7uOdp9SMO8x7eXRn9RBg,2025年1月19日访问。

【24】生成内容与版权作品的相似比数值。

【25】参见崔国斌:《网络版权内容过滤措施的言论保护审查》,载《中外法学》2021年第2期,第320页。

【26】参见张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径》,载《法律科学(西北政法大学学报)》2023年第3期,第49页。

【27】参见王利明:《侵权责任法研究(下卷)》,中国人民大学出版社2018年版, 第131页。

【28】重庆市第五中级人民法院(2015)渝05民终03251号民事判决书。判决书称:“上诉人获知侵犯他人权利的网帖存在就应当立即删除,不能明确是否系本人通知不能成为拒不处理的理由。”

【29】参见徐伟:《论通知规则在生成式人工智能侵权中的适用》,载《现代法学》2024年第3期,第149页。

【30】参见朱晓娟:《论网络服务提供者对侵权通知的审查义务》,载《政治与法律》2024年第6期,第139页。

【31】参见徐小奔、薛少雄:《生成式人工智能服务提供者版权注意义务的法律构造》,载《科技与出版》2024年第7期,第57页。

【32】参见杨显滨:《生成式人工智能服务提供者间接侵权责任的承担与限制》,载《法学家》2024年第3期,第57页。

【33】广州互联网法院(2024)粤0192民初113号民事判决书。

【34】参见沈伟伟:《技术避风港的实践及法理反思》,载《中外法学》2023年第4期,第915页。

【35】参见刘云开:《人工智能生成内容的著作权侵权风险与侵权责任分配》,载《西安交通大学学报(社会科学版)》2024年第6期,第174页。

 【36】Stability AI 曾表示,Stable Diffusion正常情况下并不会直接输出训练作品的复制内容。

【37】参见朱嘉珺:《生成式人工智能虚假有害信息规制的挑战与应对——以ChatGPT的应用为引》,载《比较法研究》2023年第5期,第39-40页。

【38】Anthropic:Towards Understanding Sycophancy in Language Models,https://www. anthropic. com/news/towards understanding-sycophancy-in-language-models (last visited Jan.20, 2025).

【39】See Martin Senftleben, Generative AI and Author Remuneration, 54 INTERNATIONAL REVIEW OF INTELLECTUAL PROPERTY AND COMPETITION LAW 1535, 1552-1553 (2023).

【40】参见张今:《数字环境下的版权补偿金制度》,载《政法论坛》2010年第1期,第81页。

【41】See Ann Luk, The Relationship between Law and Technology: Comparing Legal Responses to Creators’ Rights under Copyright Law through Safe Harbour for Online Intermediaries and Generative AI Technology, 1 LAW INNOVATION AND TECHNOLOGY 148, 164-168 (2024).

【42】IDC中国:《中国生成式AI投资增长加速,五年复合增长率达86.2%》,https://www.idc.com/getdoc.jsp?containerId=prCHC51997124,2025年1月20日访问。

【43】《一年创收34亿美元!OpenAI营收拆解:84%来自近1000万名ChatGPT付费用户,API仅占15%》,https://finance.sina.com.cn/jjxw/2024-07-16/doc-incehynf4182569.shtml?utm_source=chatgpt.com,2025年1月20日访问。

【44】《Open AI考虑在AI产品引入广告,探索新收入来源》, https://news.qq.com/rain/a/20241202A08PQQ00,2025年1月20日访问。

【45】参见袁真富、夏子轩:《机器学习中作品利用的著作权补偿金制度研究》,载《科技与出版》2024年第7期,第34页。

【46】参见刘云开:《人工智能生成内容的著作权侵权风险与侵权责任分配》,载《西安交通大学学报(社会科学版)》,2024年第6期,第174-175页。

【47】See Eric Drott, Copyright, compensation, and commons in the music AI industry, 2 CREATIVE INDUSTRIES JOURNAL 190, 202 (2021).

【48】参见施小雪:《重塑复制权:生成式人工智能数据训练的合法化路径》,载《东方法学》2024年第6期,第81-82页。

【49】参见李安:《智能时代版权“避风港”规则的危机与变革》,载《华中科技大学学报(社会科学版)》2021年第3期,第114页。

【50】参见湖南高院:《全国首份!湖南法院发出涉AI知识产权司法建议书》,https://mp.weixin.qq.com/s/UNOHu_Ys3LFdOaSsvTo_XQ,2025年1月20日访问。

【51】参见薛茜:《网络平台责任“权力化”的治理路径》,载《上海法学研究》集刊2022年第16卷,第88页。 

作者:史怡美