当前位置:首页 > 文献资源 > 论文著作 > 理论推演
文献资源
王利明|生成式人工智能侵权的归责原则与过错认定
2025年07月28日 【作者】王利明 预览:

【作者】王利明

【内容提要】

生成式人工智能侵权的归责原则与过错认定







王利明 文科一级教授、中国人民大学民商事法律研究中心研究员









摘要:准确认定生成式人工智能服务提供者的侵权责任,首先需要界定生成式人工智能服务提供者在私法上的性质。不同类型的人工智能致人损害,其责任认定应当存在区别。从有利于鼓励人工智能发展需要出发,不宜科以生成式人工智能服务提供者严格责任,而应当对其适用过错责任。对服务提供者过错的认定应当采用客观的注意义务标准,考虑现有技术水平、防范损害的成本,并区分服务提供者的过错和用户的过错。虽然生成式人工智能致害并不完全等同于网络侵权,但仍有必要类推适用网络侵权责任规则中的通知删除规则。在判断过错是否成立时,应当考虑服务提供者在接到权利人通知的情况下是否及时采取必要措施,以防范损害的发生。

关键词:生成式人工智能;归责原则;过错;通知删除规则






DeepSeek的横空出世愈发彰显我国已进入人工智能时代,人工智能已经成为新一轮科技革命和产业变革的重要驱动力量。人工智能+”的蓬勃兴起,将深刻改变我们的生产方式、生活方式和社会治理模式。生成式人工智能的发展也对侵权法规则的适用带来了挑战,近期,广州互联网法院与杭州互联网法院先后判决两起涉及奥特曼形象的、有关生成式人工智能服务提供者侵害著作权的案件(以下称广州奥特曼案杭州奥特曼案)。

在这两起案件中,法院主要是根据侵权责任法的一般原理并适用《著作权法》以及《生成式人工智能服务管理暂行办法》(以下称《暂行办法》)等规章来解决的。由此可见,借助我国《民法典》对网络侵权规则作出的较为详细的规定,同时结合侵权责任的一般规则,现行法在整体上可以应对生成式人工智能带来的挑战。因此,并不需要对现有的规则进行大的调整,更没有必要大幅度修改侵权责任编。

当然,这并不意味着不需要对现行规则进行调整,尤其是在侵权责任归责原则以及网络服务提供者过错的认定方面,仍然存在较大的争议。应当看到,生成式人工智能不同于传统的网络服务,其在运行原理与责任认定方面存在一定的特殊性。例如,在生成式人工智能致人损害的情形下,认定服务提供者的责任是否要求其具有过错?如果要求其具有过错,如何认定其存在过错?本文拟对此展开研究。

一、生成式人工智能侵权的归责原则

(一)生成式人工智能服务提供者的性质界定

生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。从我国现行立法规定来看,最早规定生成式人工智能服务提供者概念的是《生成式人工智能服务管理暂行办法》,在《暂行办法》颁行前,我国相关法律法规并未专门规定生成式人工智能服务提供者这一概念。《暂行办法》虽然规定了生成式人工智能服务提供者应当承担的义务与责任,但其主要是从公法上的义务与责任方面界定的。

因此,生成式人工智能服务提供者侵权责任的认定仍须在《民法典》侵权责任编以及其他特别私法中寻找法律依据。而依据《民法典》侵权责任编的规定,准确认定生成式人工智能服务提供者的侵权责任,首先需要界定生成式人工智能服务提供者在私法上的性质。笔者认为,应当从如下几方面理解生成式人工智能服务提供者的性质:

第一,生成式人工智能服务提供者属于服务提供者而非产品生产者。有观点认为,生成式人工智能服务提供者应承担产品生成内容的生产者责任,即生成式人工智能服务提供者属于产品生产者,其应当承担产品责任。但也有观点主张,生成式人工智能本质上属于服务而非产品,生成式人工智能服务提供者应当承担服务责任而非产品责任。根据《暂行办法》第9条的规定,提供者应当依法承担网络信息内容生产者责任,该条实际上参照了产品质量法中的生产者责任的制度逻辑,即生产者应当对其生产的产品质量负责

笔者认为,生成式人工智能服务提供者应当属于服务提供者而非产品生产者,这是因为:一方面,从形式上看,生成式人工智能的提供方式更接近一种服务提供方式而非产品销售方式。另一方面,从责任认定和承担层面看,将生成式人工智能服务提供者认定为产品生产者,将使其承担严格责任,因承担过重的责任将影响人工智能产业的发展。

第二,生成式人工智能服务提供者的类型较为广泛,需要区分不同情形分别认定其性质,并且分别予以规范。例如,生成式人工智能可能涉及研发者、数据提供者、服务提供者、用户等多个主体,如何确定责任的承担,存在一定的疑问。有学者指出,与传统的技术支持者服务提供者内容生产者的主体区分方式不同,生成式人工智能产业呈现出技术支持、服务提供与内容生产相互融合的形态。

这也使得生成式人工智能服务提供者的类型较为宽泛,其可能涵盖多种主体角色,其既包括如OpenAI等提供基础模型服务的模型开发者,也包括模型开发后的运营者。故此,欧盟《人工智能法》就没有采取宽泛的人工智能服务提供者概念,而是将人工智能系统的运营商(operator)细分为提供者(provider)、部署者(deployer)、进口商(importer)、分销商(distributor)、产品制造者(product manufacturer)、授权代表(authorised representative)等不同主体。

因此,在生成式人工智能服务提供者侵权责任的认定上,可能需要区分服务提供者的不同类型,如将其区分为训练数据提供者、人工智能开发者、人工智能不同类型等服务提供者,并根据侵权行为发生的原因,分别判断各个主体的民事责任,而不能将所有的责任都归因于《暂行办法》第22条所规定的生成式人工智能服务提供者。

笔者认为,《暂行办法》所规定的生成式人工智能服务提供者概念过于抽象和宽泛,应当对其进行更加细致的区分。在网络侵权的情形下,责任主体是网络服务提供者,其与受害人形成对应关系,而生成式人工智能侵权则涉及多重主体。它可能涉及数据的收集、数据训练、结果生成等多重环节,各个环节可能是由不同主体实施的,因此各个主体应当依其过错分别承担不同责任。

第三,生成式人工智能服务提供者通常属于新型的网络服务(内容服务)提供者。有观点主张,由于生成式人工智能服务提供者不一定借助网络提供服务,因此其不属于网络服务提供者。此种观点值得商榷。在大多数情形下,生成式人工智能服务提供者都是借助互联网向用户提供网络服务,因此,生成式人工智能服务提供者与传统的网络服务提供者具有一定的相似性。

但是,生成式人工智能是通过用户与人工智能的交互产生相关网络信息,并非生成式人工智能服务提供者单方面主动提供信息,也非由用户或第三方主体直接发布信息。因此,生成式人工智能服务提供者既不是传统的内容服务提供者,也不是传统的技术服务提供者,而是一种新型的网络服务(内容服务)提供者。

另外,理论上一般将网络服务提供者区分为内容服务提供者与技术服务提供者。内容服务提供者与技术服务提供者的责任认定与承担存在一定的区别。问题在于,生成式人工智能服务提供者究竟属于内容服务提供者还是技术服务提供者?有观点认为,生成式人工智能服务提供者属于内容服务提供者。也有观点认为,生成式人工智能服务提供者更接近于技术服务提供者。还有观点认为,生成式人工智能服务提供者既不是传统的内容服务提供者也不是传统的技术服务提供者,应当界定为一种新型的网络服务提供者。

笔者认为,技术服务提供者主要是提供技术服务,并不直接提供信息内容,因此,其在信息内容方面并不承担过多的审核义务。由于生成式人工智能服务提供者并不只是为用户发布相关信息提供技术或平台,而是会基于用户的指令生成相关的信息内容,其也具有提供内容的特征。只不过生成式人工智能服务提供者并不主动提供相关的信息内容,而是基于用户的指令生成相关的内容,因此其不同于一般网络内容服务提供者。

可见,生成式人工智能服务提供者是介于内容服务提供者和技术服务提供者之间的一类网络服务提供者,在认定其侵权责任时,需要考虑其提供服务的特点。当然,如果生成式人工智能服务提供者自己发布相关的信息内容,则其应当属于内容服务提供者,应当适用内容服务提供者的规则认定其侵权责任。

(二)生成式人工智能服务提供者不宜承担严格责任

关于生成式人工智能服务提供者应当承担何种责任,存在过错责任与严格责任之争。域外有些著名侵权法专家也倡导采严格责任。例如,德国洪堡大学的格哈特·瓦格纳(Gerhard Wagner)教授认为,普通用户使用人工智能产品发生侵权行为,软件设计者或产品制造者应承担相应的产品责任,因为他们更了解人工智能产品,更能有效避免侵权事故的发生。且人工智能技术使产品和服务更加高效、智能,事故发生的概率也会大大降低,即使适用严格责任,提供者、使用者的整体负担也会大幅减轻。

在我国,也有学者认为,生成式人工智能本质上属于产品,其服务提供者应当承担产品责任。《暂行办法》第9条也参照了产品质量法中的生产者责任,认定服务提供者的责任,这实际上是对服务提供者采严格责任原则。

虽然采用严格责任可以分散风险和损失,消除人们对人工智能的恐惧心理。但应当看到,人工智能本身是非常宽泛的概念,不同类型的人工智能致人损害,其责任认定应当存在区别。

例如,不能将自动驾驶、无人机等致人损害等同于生成式人工智能致人损害。笔者认为,可以将人工智能分为物理交互型人工智能和信息交互型人工智能,这两种人工智能导致损害的方式有所不同:物理交互型人工智能通过作用于如轨道运输工具、飞机自动导航设备、机器人、机器狗、自动驾驶设备、工业机械臂等物理实体引发损害,其服务提供者有可能适用高度危险责任。而信息交互型人工智能则通过输出信息造成损害。

笔者认为,在前一种情形下,是否应采用严格责任,值得探讨。但在后一种情形下,不宜对生成式人工智能服务提供者采严格责任,主要理由在于:

第一,确立生成式人工智能致害的归责原则,应当符合鼓励人工智能发展的需要。

在我国现阶段,对生成式人工智能的发展应当秉持审慎包容的态度,尽可能鼓励其发展。如果对生成式人工智能服务提供者采严格责任,一旦产生损害,都适用严格责任,可能会不当加重其责任,从而限制人工智能产业的发展。

1)按照严格责任,一旦发生损害,就需要承担责任,这虽然有利于受害人的保护,但将不当限制人工智能技术的研发和使用,任何创新活动都有一定的风险,如果有风险,都承担过重的责任,则任何创新者,都可能受到不当限制,不敢大胆创新。

2)对服务提供者采严格责任,在责任范围不确定的情况下,严格责任将导致人工智能的开发过于昂贵,并导致服务提供者责任过重,相关开发者或使用者很可能要承担毁灭性的责任风险,大型公司可能能够承担严格责任的风险,但小微企业将难以承受相关的责任风险。

3)与过错责任制度相比,严格责任因不考虑过错,裁判者无须掌握设计和测试基于人工智能解决问题时最佳预防水平的信息,但可能导致人工智能的发展受到限制,抑制科技创新。主流观点认为,人工智能决策所产生的侵权责任体系的设计应当能够促进人工智能技术的安全和发展,并主张在未来通过保险制度缓和人工智能导致的侵权责任风险。但严格责任并不利于平衡人工智能研发、使用的行为自由与受害人权益保护之间的关系。

第二,确立生成式人工智能致害的归责原则,应当与《民法典》中侵权责任归责原则体系保持一致。

一方面,生成式人工智能本身并不存在特殊的危险,科以其服务提供者严格责任,不符合严格责任的理论基础。严格责任的理论基础包括危险开启/控制、报偿、损害预防和保护弱势受害人等。严格责任的主要政策目的在于通过分配正义合理地分配不幸损害,免除被侵权人证明侵权人过错的举证责任,使得被侵权人易于获得损害赔偿,避免侵权人逃避侵权责任。我国《民法典》所确认的严格责任与人身权益的保护有密切的关联。但生成式人工智能属于典型的信息交互型人工智能,不会对身体、健康或者生命造成严重威胁,也不直接涉人身权益的保护问题,因而不应该被科以严格责任。

另一方面,人工智能算法的不透明性决定了,当人们无法预见人工智能系统的决策结果及其潜在影响时,严格责任旨在激励模型开发者采取预防措施防范风险的功能就失去了实施基础。只有当人工智能的设计者或使用者能够提前预见人工智能的有害影响并相应地调整时,严格责任才有意义。随着人工智能的透明度降低,其决策过程也可能难以预测。严格责任的有效性建立在责任人对行为的控制或可预见性的基础上,从而可以避免潜在伤害或通过保险预防风险,这一前提在人工智能的场合并不成立。

第三,确立生成式人工智能致害的归责原则,应当与人工智能的应用场景相一致。

人工智能作为一种通用技术,应用场景非常广泛。在不同应用场景下,人工智能的风险程度、透明程度可能会天差地别。因为生成式人工智能的运行特点在于,在数据输入端,其需要收集海量的数据用于训练;在数据训练阶段,其也需要通过各种算法对数据进行训练;在数据输出端,其也需要根据用户的指令以及自己的数据储备等生成结果。

由于其生成的结果具有很大的不确定性,如果对其侵权责任采用严格责任,则可能会过分加重生成式人工智能经营者的责任。即使在欧盟强监管的背景下,欧盟《人工智能和其他新兴数字技术的责任》报告也只是采取了两分法,即高风险人工智能与低风险人工智能。

至于如何判断高风险人工智能,报告提出了两个标准:一是这些技术在非私人环境中运行,二是通常会造成重大损害。在我国,从生成式人工智能引发的纠纷来看,主要涉及的是生成式人工智能服务提供者对人格权益和知识产权的侵害。而对此类纠纷,我国《民法典》仍然采用过错责任原则。通过适用《民法典》第1165条第1款的规定,基本可以解决实践中发生的法律纠纷。因此,没有必要专门针对生成式人工智能服务提供者设置严格责任。

第四,确立生成式人工智能致害的归责原则,应当与生成式人工智能提供服务而非产品的性质相匹配。有学者主张人工智能侵权应当采取严格责任,其根据在于生成式人工智能致害具有产品责任的特征。《暂行办法》第9条也参照了产品质量法中的生产者责任认定服务提供者的责任,这实际上是对服务提供者适用产品责任的相关规则。

笔者认为,如前所述,生成式人工智能服务提供者所提供的主要是一种服务,而非提供产品,不宜适用产品责任的相关规定。在产品责任中,责任主体是最有能力控制产品风险的主体,但在人工智能运行的情况下,这种假设可能不成立。生成式人工智能的运行需要借助一定的算法,而算法的运行本身并不具有可控性,科以生成式人工智能服务提供者产品责任,可能会过分加重其责任。

除此之外,生成式人工智能的运行既依赖于服务提供者提供的服务,也需要用户对其发出指令,甚至还可能存在第三方网络攻击,因此相关侵权后果的产生是多主体、多因素共同作用的结果。尤其是产品责任主要保护的是消费者的人身、财产安全。相比之下,生成式人工智能主要是在提供信息型的服务,不会直接对用户的人身、财产安全造成威胁,因此不宜适用产品责任的相关规定。

探讨确立生成式人工智能致害的归责原则,旨在说明生成式人工智能服务提供者不宜适用严格责任。从我国司法实践来看(以广州奥特曼案”“杭州奥特曼案两个案例为例),法院适用的仍然是过错责任,可见司法实践对生成式人工智能服务提供者的侵权责任也未采纳严格责任,而采取了过错责任。

(三)以过错责任为一般归责原则

生成式人工智能致害采用过错责任符合我国《民法典》的归责原则体系,其原因在于:

一方面,过错责任原则符合我国现阶段鼓励人工智能产业发展的需要。过错责任可以有效协调行为自由保护与权益保护之间的关系,符合生成式人工智能服务提供者对风险控制的需要,给予其在现有技术条件下因无法控制风险而被免责的机会,也鼓励其敢于面对人工智能发展过程中的技术挑战。若限缩服务提供者的责任范围,更有利于人工智能应用被推广。人工智能服务提供者原则上仅承担过错责任,其注意义务能够作为侵权责任范围的控制器,既平衡使用者行为自由和受害人权益保护,又协调使用者与提供者之间的内部责任划分。

另一方面,按照过错责任原则,如果人工智能服务提供者履行了一般理性人的注意义务,就不应当承担侵权责任;否则,其对于人工智能导致的损害应当承担赔偿责任。当然,如果生成式人工智能服务提供者和用户都有过错(如用户通过设计一系列的诱导性提问,而生成式人工智能又对隐私权和个人信息的保护缺乏必要的防范措施,导致针对某人的个人信息泄露),则应当根据案件具体情况适用《民法典》第1168—1172条的规定,产生连带责任或按份责任。

还应当看到,当生成式人工智能是信息交互型时,其侵害的对象只能是以人格利益或智力成果为客体的民事权益,如肖像权、姓名权、名誉权以及著作权等,这就决定了依据《民法典》和《著作权法》等相关规定,生成式人工智能服务提供者致害的,应当采用过错责任的一般归责原则。


二、生成式人工智能侵权的过错认定

(一)过错的标准:违反注意义务

一旦采纳过错责任,首先面临的问题是,如何认定服务提供者的过错,以及采用何种标准认定其过错?现代侵权法理论普遍采纳了客观过错理论,即以行为人是否违反客观的注意义务为标准,判断行为人是否存在过错。在英美侵权法理论中,过失就通常被理解为是未尽注意义务。同样,生成式人工智能服务提供者过错的认定应当采用客观的注意义务标准。注意义务理论的核心功能是作为判断行为人是否存在过错的一个外在标准。

在我国的司法实践中,法院在认定服务提供者侵权责任时,也主要通过考察服务提供者是否违反注意义务来认定其过错。例如,在广州奥特曼案中,法院认为:服务提供者在提供生成式人工智能服务时应尽合理的注意义务。但在本案中,被告作为服务提供者未尽到合理的注意义务。又如,杭州奥特曼案涉及服务提供者是否构成帮助侵权的问题,法院认为,只有当服务提供者对用户的侵权行为具有过错时,才构成帮助侵权。

在过错的认定上,法院提出,应考虑多种因素动态地调整过错的认定标准,具体而言,应当以同质行业理性人标准进行考量,当生成式人工智能服务提供者可以证明施以同业一般服务提供者注意力难以发现该生成内容可能构成侵权,或者能够证明自身已经采取了符合损害发生时技术水平的必要措施来预防损害,但仍无法防止损害的发生,应认定其已尽到合理的注意义务,不具有过错。

最终,法院在综合考虑服务的性质、权利作品的知名度和被诉侵权事实的明显程度、可能引发的侵权后果、平台的营利模式等因素后,认为服务提供者应当知道用户的侵权行为而未采取必要措施,存在过错,构成帮助侵权。以客观注意义务衡量人工智能服务提供者的过错,有利于增强该服务提供者对其行为合法性以及是否承担民事责任的可预期性,从而保护该服务提供者的行为自由和经营自由,使其在遵循一定的客观注意义务的情况下,尽其所能地发展人工智能技术。

(二)服务提供者客观注意义务的判断标准

在生成式人工智能侵权情形下,究竟应当如何界定服务提供者的注意义务标准?其注意义务应当包括哪些内容?笔者认为,生成式人工智能服务提供者的注意义务主要包括如下几方面内容:

一是对信息来源的可靠性是否尽到合理审核义务。生成式人工智能生成结果的前提是存在相关的数据,训练数据的质量也直接决定了生成结果的可靠性程度。受技术发展水平的限制,生成式人工智能服务提供者虽然无法保障生成内容完全客观、准确,但这种技术发展限制不能成为无限免责事由。服务提供者应当采用合理可靠的技术方案和信息系统,特别是在服务提供者与开发者相分离的情况下,保障最低限度的人工智能服务功能是实现信息服务合同目的的必然要求。

生成式人工智能服务提供者对其信息来源应当尽到一定的审核义务,以保障其生成结果的可靠性。生成式人工智能服务兼具内容服务提供者和技术服务提供者的特点,因此,其对信息来源审核义务的认定也应当考虑其服务的特点。当然,需要指出的是,与其他网络服务不同,生成式人工智能的运行依托于海量的信息,而且生成式人工智能所处理的数据大多是已公开的数据,为了保障其数据供给,应当适当降低其审核义务标准,而不应科以服务提供者过重的审核信息来源的义务。

二是生成结果是否包含明显侵权的内容。依据《民法典》第1197条的规定,在网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益的情形下,其应当及时采取必要措施,以防止损害的发生或者扩大。该规则虽然适用于网络用户利用网络服务实施侵权的情形,但其也可以用于认定生成式人工智能服务提供者对相关信息内容的审核义务。

生成式人工智能经营者应当在其生成信息内容的过程中设置必要的过滤机制,以避免生成明显侵权的信息内容(如不雅照片、伪造他人性骚扰的信息、动作,或者侮辱、诽谤他人的言论等),严格地说,从技术上,此种合规要求的成本并不高,并不会过分加重生成式人工智能经营者的经营负担。

这主要体现在数据输入端,对输入的语料,服务提供者应当进行必要的筛选,如通过设置关键词等方式,筛选出明显侵权的信息。例如,在涉及大规模收集敏感个人信息的情形下,应当进行必要的筛选,或者进行必要的匿名化处理,目的都是为了防止输出的结果导致信息泄露等侵权事件的发生。服务提供者在明知或应知以及接到通知的情形下,未采取必要措施,应认定未尽到合理注意义务,具有过错。此处的必要措施应当是在现有技术条件下可以采取的合理防范措施,包括过滤提示词,管理用户的明显的、重复的侵权行为,显著标识内容,进行风险提示等。

三是是否遵守相关监管规定。为了保障生成式人工智能的依法运行,我国相关立法专门规定了一些监管措施,服务提供者应当遵守相关规定,这也是判断其是否尽到注意义务的重要依据。

例如,在广州奥特曼案中,广州互联网法院参考《暂行办法》,提出了被告的合理注意义务,包括建立投诉举报机制、提示潜在风险、提供显著标识等。这些义务也是服务提供者在提供服务过程中应当尽到的法定义务。对此,《暂行办法》第12条规定,服务提供者应当对人工智能生成的图片、视频等内容进行标识。服务提供者对相关内容进行标识,目的在于使用户知晓该类服务功能和局限性,了解相关内容的形成方式。同时,服务提供者直接列举生成内容的信息来源,也可以使相关主体了解生成内容仅仅是基于现有网络信息内容生成的,并不能确保具备足够的专业性和准确性。

再如,依据《暂行办法》第10条规定,服务提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不得利用生成内容损害他人形象、名誉以及其他合法权益。生成式人工智能服务提供者在提供服务时应当遵守相关监管规定,这也是其应当承担的义务,如果其违反相关的监管规定,即应当认定其未尽到注意义务。

四是服务提供者在接到权利人通知的情况下是否及时采取必要措施,以防范损害的发生。如果某人发现生成式人工智能所生成的图片、文字等信息含有侵害其名誉、隐私、著作权等情形时,要求服务提供者采用删除、过滤等必要措施,而服务提供者没有采取相应措施的,应当认为该服务提供者存在过错。此时应当依据《民法典》第1195条第2款的规定,认定该服务提供者具有过错,并且可能与侵权用户就扩大的损害承担连带责任。

(三)服务提供者过错的认定应当考虑现有技术水平

在认定服务提供者是否存在过错时,应当考虑现有技术水平,此处的现有技术水平是指损害发生时的技术水平,即在损害发生时,服务提供者是否采取了合理的措施避免损害的发生,如果其没有采取合理的技术措施避免损害的发生或者扩大的,则应当认定其存在过错。

之所以采用损害发生时的技术水平,主要是因为,生成式人工智能的技术水平可能会不断发展和变化,采用损害发生时的技术水平符合生成式人工智能侵权的特点,也有利于避免过于加重服务提供者的责任。当然,随着技术水平的发展,服务提供者的注意义务也可能会发生变化,需要根据技术的发展现状来调整过错认定的标准。

采用现有技术标准,也要求法官在认定过错时采取审慎、包容的态度。在现阶段,为鼓励人工智能产业的发展,在服务提供者过错的认定方面采用现有技术标准是较为可行的方式。从司法实践来看,有的法院在认定服务提供者的过错时,就采用了现有技术标准。

例如,在杭州奥特曼案中,法院认为,在过错的认定上,能够证明自身已经采取了符合损害发生时技术水平的必要措施来预防损害,但仍无法防止损害的发生,应认定其已尽到合理的注意义务,不具有过错。此种立场具有合理性。一旦要求服务提供者超出现有技术标准,可能对服务提供者提出过重的注意义务,可能会使服务提供者的侵权责任滑入严格责任的范畴,也会在一定程度上妨碍人工智能的发展。

采用现有技术水平标准认定服务提供者的注意义务,还需要明确现有技术水平自身的内涵和判断标准。

笔者认为,一方面,现有技术水平应当是行业通行标准,即行业内普遍采用的技术标准,其也应当包括行业内现阶段所能达到的技术效果和软件功能。应当看到,服务提供者之间的技术水平也可能存在差异。各行各业的生成式人工智能现在已经如雨后春笋般地出现,而不同行业的生成式人工智能的技术水平参差不齐,很难在不同行业之间进行比较,只能在同一行业内对生成式人工智能服务提供者的注意义务水平进行比较。

另一方面,在同一行业内的注意义务水平应当与国际水平一致,目前,我国的人工智能产业已经居于世界领先水平,若是以低于国际水平的标准认定过错,则不利于中国人工智能产业的优化和迭代。反之,与国际水平一致有利于促进服务提供者不断改进技术水平,从而使提供的服务符合国际通行的技术水平,甚至超越国际水平;同时,采用通行技术标准也有利于保护受害人的权益,防止服务提供者不当提出技术发展抗辩。例如,在杭州奥特曼案中,法院采取的是同质行业理性人标准,即根据行业的一般技术水平来确定注意义务,此举具有一定的合理性。

(四)服务提供者过错的认定应当考虑防范损害的成本

现代侵权法发展的一个重要趋势是在过错责任中引入了风险防范成本的理论,从效率层面形成了责任的合理分担。在侵权责任法的研究中,现代侵权责任法的权威学者圭多·卡拉布雷西(Guido Calabresi)较早提出了最小成本预防者cheapest cost avoider)的概念,认为现代侵权责任法应当将责任分配给能够用最小成本防止事故发生的主体。

在人工智能领域,有学者从法经济学角度出发,认为从合理分配侵权责任的角度出发,应当坚持风险原则,即谁最能控制风险、分散风险,谁就应当成为人工智能应用责任的第一责任主体。唯有将侵权责任配置给那些能够控制、分散人工智能应用风险的人,才能更好地预防、减少损害的发生,最大程度救济受害人,协同实现侵权责任法与人工智能法的目标。

笔者认为,生成式人工智能作为一种技术工具,其本身并不存在对人身、财产安全的特别危险。但是,由于任何技术的发展都会带来新的风险,生成式人工智能也会造成大规模个人信息泄露、侵害他人知识产权或者人格权益等风险,关键是采用何种方法防范风险以及损害的发生。就生成式人工智能而言,从鼓励其发展的角度看,不应科以服务提供者过重的负担。

这就决定了,在认定服务提供者的过错时,也应当考虑服务提供者防范损害发生的成本,因为,一方面,按照现有技术水平,若服务提供者采取合规措施的成本远远高于可能给信息主体带来的损害,则可以认定服务提供者不具有过错。

另一方面,法谚云法律不能强人所难,如果要求服务提供者在防范损害发生时负担过重的成本,则可能导致服务提供者的负担过重,这也不符合现阶段我们对生成式人工智能采取的审慎包容的基本立场。例如,在广州奥特曼案件中,法院认为,被告未经授权,擅自利用原告享有权利的作品训练其大模型并生成实质性相似的图片,侵犯原告所享有的复制权和改编权,被告应停止侵权行为并进一步采取相关关键词过滤等措施。

但问题在于,哪些关键词是相关的,解释起来过于宽泛,要求服务提供者通过过滤过多的关键词避免损害的发生,可能会不当加重其负担。笔者认为,不考虑服务提供者防范损害的成本,而要求其完全避免损害的发生,不仅会不当限制生成的内容,影响人工智能功能的发挥,也会使服务提供者负担过高的成本,违反审慎包容的原则,并会限制人工智能技术的发展。

如果按照现有技术水平,通过过滤关键词无法避免所有损害后果,或者无法通过罗列过多的关键词避免损害后果,此时,应当认定服务提供者在现有技术水平条件下尽到了注意义务,不存在过错,即便发生损害后果,服务提供者也无须承担责任。

(五)应当区分服务提供者的过错和用户的过错

生成式人工智能具有信息交互的特点,其生成相关的结果既依赖于数据来源、生成式人工智能模型与算法的运用,也依赖于用户所输入的指令以及相关的信息。如果用户输入的信息本身是虚假的,有可能导致生成式人工智能输出的信息即为虚假的。因此,生成式人工智能侵权的成立可能是服务提供者与用户综合作用的结果,这就需要对服务提供者的责任与用户的责任进行区分。

笔者认为,在生成式人工智能侵权的情形下,应当对服务提供者的责任与用户的责任进行如下区分:

一是服务提供者尽到了注意义务。如前所述,应当对服务提供者的侵权责任采过错责任原则,因此,即便用户利用生成式人工智能实施了侵权行为,但如果服务提供者尽到了注意义务,如对信息来源进行了必要的审核,则应当认定服务提供者并不存在过错。此时,应当认定侵权后果是因用户个人导致的,应当由用户承担侵权责任。

例如,在前述两起涉及奥特曼造型的案件中,如果用户有意模仿奥特曼的创作风格,使用大模型生成类似于奥特曼的作品,则因为主要是用户存在过错,应当由用户承担主要责任。再如,若用户要求生成式人工智能收集他人历史上的资料,从而窥探个人的隐私,或者窃取个人信息,以从事诈骗等活动,则用户应当承担责任。

二是服务提供者没有尽到注意义务。在训练阶段,服务提供者未经同意大量收集了涉及他人的隐私或者商业秘密的数据。服务提供者在利用这些数据进行训练时,如果没有进行匿名化处理,则可以认定其存在过错。在输出阶段,在生成式人工智能侵权的情形下,如果服务提供者自身没有尽到注意义务,则其与用户之间对侵权的发生存在共同过错,应依据其各自的过错承担相应的责任。

例如,用户利用生成式人工智能生成了侵害第三人的信息,对用户而言,如果其采取故意诱导的方式(如有意增加某一单词出现的频率、调整该单词在句子中的位置或者给出与该单词具有关联性的单词),或者故意指责某人存在性骚扰等行为,要求生成式人工智能生成图片或引导生成式人工智能生成其想要的答案,甚至误导其生成虚假信息,这也会使生成式人工智能产生臆想现象,这些行为本身表明用户是具有过错的。在此情形下,如果服务提供者没有尽到注意义务,则其与用户构成无意思联络数人侵权,应当对受害人承担相应的责任。


三、类推适用网络侵权的通知删除规则

(一)通知删除规则的可适用性

生成式人工智能的运行需要依托海量的信息,且向成千上万的用户提供服务,因此要求生成式人工智能服务提供者进行严格地事前审查,并且及时发现其所提供的服务涉嫌侵权,确实存在一定的困难。通常,只有在用户发现生成式人工智能的信息构成侵权,并且向服务提供者进行通知时,后者才能知道侵权事实的存在。

另外,生成式人工智能还在发展阶段,其存在诸如幻觉等固有缺陷,因此需要通过技术完善进行改进。其训练语料也需要用户提供信息而充实。生成式人工智能的上述特征决定了,服务提供者难以及时发现侵权事实。由此就提出了一个问题,即《民法典》第1195条规定的通知删除规则(又称避风港规则)是否可以适用的问题。

应当承认,用户在使用生成式人工智能过程中遭受权益侵害的,并不完全符合《民法典》第1195条所规定的避风港规则的法律构造。因为避风港规则的适用存在三方主体:一是网络服务提供者或者平台,二是实施侵权行为的用户,三是遭受权益侵害的用户。实施侵权行为的用户在平台上发布侵权信息后,遭受权益侵害的用户向平台提出初步证据要求后者采取必要措施的,只要平台采取了必要措施,即可免除其责任。但在生成式人工智能输出侵权信息的场景中,侵权信息直接来源于平台,而非来自于实施侵权行为的用户。

这一结构性差异带来的问题是,生成式人工智能的服务提供者是否应当享有避风港规则的特殊优待。《民法典》第1195条之所以采取避风港规则,是为了减轻网络服务提供者或平台对用户发布信息的事前审核成本,同时也保障用户的经营自由和表达自由。与此不同的是,生成式人工智能服务提供者对于自己的产品或服务所生成的信息,应当进行事前审核,或者设置一定的过滤机制避免侵害他人民事权益。

尽管生成式人工智能服务提供者与传统的网络服务提供者存在一定的差异,但笔者认为,生成式人工智能致害仍有必要类推适用网络侵权责任规则中的通知删除规则,主要理由在于:

第一,生成式人工智能服务本质上属于网络服务。与其他的网络服务提供者相比,生成式人工智能所提供的网络服务虽然具有一定的特殊性,尤其是其提供的信息乃是向用户提供的,而非直接向社会公众提供信息。但是,由于不特定的海量用户可以向生成式人工智能提问,或者发布指令要求其提供信息,生成式人工智能提供的信息实际上也是向不特定人提供的,因此也具有一定的公开性。故此,从广义上说,生成式人工智能服务提供者亦可包括在网络服务提供者范围内,可以适用网络侵权的一般规则。

第二,对生成式人工智能服务提供者类推适用通知删除规则,有利于防止损害的发生和扩大。依据《民法典》第1195条规定,在收到用户的通知后,网络服务提供者应当采取删除、屏蔽、断开链接等必要措施,以防止损害后果的发生或者扩大。该条所规定的技术手段方式具有开放性,这有利于网络服务提供者采用多种措施防止损害的扩大。而在生成式人工智能侵权的情形下,对服务提供者类推适用通知删除规则,也可以同时督促其采用关键词过滤等方式,防止损害的发生或者扩大。

第三,类推适用通知删除规则,对生成式人工智能服务提供者具有一定的保护作用。避风港规则的核心功能在于保护网络服务提供者,鼓励互联网发展,促进创新,这一立法目的对生成式人工智能技术同样适用。尤其应当看到,与其他网络服务提供者相比,生成式人工智能处理的是海量的信息,而其处理信息是否会造成损害,其输出的结果是否侵害他人权益,服务提供者通常并不知情;同时,生成式人工智能具有交互性的特点,输出的结果也取决于用户输入的指令,而用户成千上万,生成式人工智能自身也存在臆想的情形。

在此种情形下,一旦输出结果有问题,就科以服务提供者责任,可能使其负担过重的责任。因此,应当对服务提供者类推适用通知删除规则,只有在服务提供者收到用户通知后,其才负有采取相关措施防止损害的义务,这既符合生成式人工智能服务的特点,也有利于保护服务提供者的利益,避免不当加重其责任。

(二)通知删除规则的具体适用

1.“通知删除规则的类推适用

所谓类推适用,是指在对特定的案件缺乏法律规定时,裁判者比照援引与该案件类似的法律规定,将法律的明文规定适用于法律没有规定,但与明文规定类似的情形。简单地说,类推适用是指对于法律无直接规定之事项,而择其关于类似事项之规定,以为适用。类推适用是一种法律漏洞填补方法,即在法律没有规定时,将相关规则类推适用于特定事项。而在认定生成式人工智能服务提供者的责任时,究竟应当类推适用通知删除规则,还是直接适用该规则,存在不同观点。

从实践来看,广州奥特曼案涉及服务提供者直接侵权,著作权人通知服务提供者,法院认定服务提供者没有采取必要措施,构成侵权。这实际上是类推适用了通知删除规则。杭州奥特曼案涉及服务提供者间接侵权,用户利用服务提供者的基础模型,使用作品继续训练一个新模型,并将生成物发布在平台上,法院认定平台明知或应知该侵权行为而没有采取必要措施,构成侵权,可见该案实际上适用了《民法典》第1197条规定的知道规则。由此可见,在生成式人工智能致害场景下,不同法院对是否应当类推适用通知删除规则,存在不同看法。

笔者认为,鉴于《民法典》第1195条规定的通知删除规则涉及三方主体,即侵权用户、网络服务提供者和受害人,而在生成式人工智能致害场景中只涉及两方主体,即生成式人工智能服务提供者和受害人,且侵权信息直接来源于生成式人工智能服务,而非来自于实施侵权行为的用户。因此从文义解释的角度而言,生成式人工智能致害并不完全符合《民法典》第1195条的规定。

不过,从目的解释的角度而言,《民法典》第1195条旨在合理平衡网络服务提供者和用户的利益,避免网络服务提供者承担过重的审查责任,允许网络服务提供者在接到受害人通知的情况下采取必要措施从而免除赔偿责任。这一规范目的同样应当适用于生成式人工智能服务提供者,且在广义上,生成式人工智能服务提供者也是网络服务提供者,故此,生成式人工智能服务提供者致害的场景可以类推适用《民法典》第1195条的规定。

2.“通知删除规则适用于生成式人工智能侵权的特殊问题

第一,如前所述,在生成式人工智能侵权的情形下,相关的侵权信息既可能是生成式人工智能根据网络用户的指令自动生成的,也可能是根据网络用户提供的信息自动生成的,其并不存在前述典型的通知删除规则中有关三方主体的法律构造,这也使得通知删除规则的适用具有一定的特殊性。一方面,向服务提供者作出通知的主体通常是用户本人,但用户本人并不一定是受害人。另一方面,侵权内容并不是其他用户通过网络平台发布的,而是生成式人工智能自动生成的,这也使得通知删除规则的适用存在特殊之处。

第二,由于不存在实施网络侵权的用户,在生成式人工智能生成内容构成侵权的情形下,服务提供者在收到用户的通知后,并不需要将该通知转送其他用户,而是要通过更正信息、设置关键词过滤等方式,避免损害的发生。

第三,一般的网络侵权通常是第三人发布相关的信息,而特定的受害人通知网络服务提供者删除相关的信息。但生成式人工智能生成的结果可能只有特定的用户知道,在用户自己发现与自身相关的不实信息时,用户可以依法通知生成式人工智能服务提供者删除相关的信息,此种情形也不适用反通知规则。

第四,与其他的网络服务不同,生成式人工智能并不是向社会一般公众公开相关的信息,而是根据用户的指令向特定的用户生成相关的结果。因此,在类推适用通知删除规则时,生成式人工智能服务提供者在收到用户的通知后,其可能既需要删除已经生成的内容,也负有通过其他方式,防止生成类似侵权内容的义务。

例如,如果是因信息来源的不准确导致生成了侵权内容,则生成式人工智能服务提供者应当及时更正、删除相关的信息,或者采取对相关信息进行匿名化处理等方式,防止因信息内容不准确而再度生成侵权内容。又如,《民法典》第1195条规定了删除、屏蔽、断开链接等必要措施,生成式人工智能服务提供者也应当通过设置过滤关键词等方式,或者做标识等方式,防止再次生成类似的侵权内容。

综上所述,通知删除规则并非应直接适用于生成式人工智能侵权,而只是应类推适用通知删除这一避风港规则,采取通知删除机制,即生成式人工智能服务者在收到侵权通知后,应通过关键词过滤等手段阻止相关内容输出。通过这一方式,生成式人工智能服务提供者可以以较低的成本防范侵权行为发生的风险,符合防范成本最低的主体承担责任的原则最便宜的成本规避者理论(cheapest cost avoider theory)。


四、结语

风险是现代侵权法的核心概念之一。有学者指出,风险贯穿于侵权责任法的各项制度中。对于过错责任来说,风险是过错认定的重要参考因素;对于严格责任来说,风险是责任分配的基本依据。此外,风险还影响责任承担、责任免除等。

我们已经进入人工智能时代,人工智能带来的法律风险有可能导致对受害人人格权、知识产权等权益的侵害,这也是人工智能发展过程所必然伴随的风险。但生成式人工智能的风险是有限的,完全可控的,为了鼓励人工智能产业的发展,不宜通过严格责任,由服务提供者负担人工智能的全部风险。相反,对服务提供者责任的认定应当采取审慎包容的态度。而过错责任原则作为平衡权益保护与行为自由保护的基本归责原则,可以对服务提供者的责任进行必要的限制。

过错应当采取客观过错即违反注意义务的标准予以认定,《民法典》侵权责任编已经规定了较为完整的侵权责任制度,尤其是现行法上的网络侵权规则(包括通知删除规则和知道规则),可以为生成式人工智能服务提供者过错的认定提供借鉴和参考。针对网络服务提供者的通知删除规则,可以类推适用于生成式人工智能服务提供者侵权的情形。避风港规则能够为生成式人工智能服务提供者提供必要的保护,妥当协调受害人权益保护与鼓励服务提供者创新的关系,从而鼓励人工智能产业的发展。