当前位置: 首页 > 要闻聚焦

4·26 知产周 || 万勇 吴翔:生成式人工智能服务提供者差异化注意义务的规范构造

发布时间:2026-04-23 10:02:49 作者:万勇 吴翔 来源:数字法治杂志
  编者按
  2026年全国知识产权宣传周到来之际,《数字法治》期刊紧扣本次活动主题——“加强新兴领域知识产权保护,加快新质生产力发展”,在最高人民法院民事审判第三庭、知识产权法庭的支持与指导下,聚焦生成式人工智能服务提供者注意义务与AIGC可版权性、知识产权审判服务保障科技与产业创新融合、开源技术知识产权保护等前沿议题,推出一组具有前瞻性、原创性、实践性的学术文章,希冀服务新质生产力发展。(本组文章在微信公众号进行网络首发,并将在《数字法治》2026年第2期和第3期陆续刊发)

生成式人工智能服务提供者差异化注意义务的规范构造

万勇

中国人民大学法学院教授,博士生导师

吴翔
中国人民大学法学院博士研究生
  目次
  一、生成式人工智能服务提供者注意义务的失配显现
  (一)生成式人工智能对既有注意义务结构的冲击
  (二)传统注意义务在生成式人工智能服务提供者责任配置中的局限
  二、生成式人工智能服务提供者注意义务的法理基础
  (一)注意义务作为侵权责任配置的规范基础
  (二)生成式人工智能服务提供者控制能力作为风险责任配置的正当依据
  (三)作品类型差异作为注意义务内容的调节依据
  三、生成式人工智能服务提供者注意义务的规范构造
  (一)基于参与度与控制力的注意义务分层
  (二)基于生成式作品类型的注意义务调节
  (三)差异化注意义务的适用边界与规范协调
  内容提要:生成式人工智能重构了信息生产传播秩序,传统的网络版权注意义务体系因风险生成机制变化、平台角色转型陷入适用失配困境。基于网络服务提供者侵权责任理论,结合技术与风险机理,应构建以风险分层和参与程度为核心的差异化注意义务规范体系。该体系以服务提供者的参与度与控制力为轴设置阶梯式注意义务,依据作品类型的可识别性调节注意义务强度,同时将技术可行性、多元价值衡量作为适用边界,通过分层、分型的注意义务配置,在权利保护、治理效率与表达自由间实现平衡,为生成式人工智能服务提供者注意义务的司法认定与制度建构提供理论支撑。
  关键词:生成式人工智能 注意义务 网络服务提供者 平台责任 侵权责任
  生成式人工智能正以“数据输入—模型训练—人机交互—内容输出”的链式过程重塑知识生产与信息传播秩序,使信息生成不再遵循传统的“创作者—平台—受众”单向线性结构,呈现出由算法系统与用户指令共同驱动、由平台规则与模型能力共同塑形的复合样态。在此情形下,生成式人工智能服务提供者在内容生成与传播链条中的功能与角色不断发生变化,使传统的网络版权治理结构面临重新阐明的迫切需求。我国围绕生成式人工智能服务提供者的注意义务已出现具有标志性的裁判探索,即区分不同类型的注意义务并提出相应的认定标准,形成区分阶段与场景进行责任认定的裁判思路,为生成式人工智能服务提供者的侵权责任规则的建构提供了重要样本。
  现有的生成式人工智能服务提供者注意义务议题讨论,整体上呈现以下面向。其一,规范渊源层面,《生成式人工智能服务管理暂行办法》对生成式人工智能服务提供者提出了合规义务,但侵权责任的成立与边界仍应回到我国《民法典》侵权责任编、《著作权法》及有关司法解释的制度框架中加以类型化涵摄与评价。其二,规则演化层面,注意到“通知—删除”规则并非仅是版权人与平台利益博弈的偶然产物,而是一种依据信息搜集筛选能力对侵权责任作结构性分配的制度安排,从而要求在新技术语境下重新界定其适用方式,并制定责任再分配方案。其三,规范构造层面,尝试将被动的“通知—删除”规则转向主动的“语料监管与模型审查”,并据此发展出事前语料与模型风险防范、事中用户行为干预与高危提示、事后标识与投诉处置等可操作的分层路径。总体来看,现有研究的共识在于拒绝以结果导向的严格责任简单替代精细化规则治理,转而以注意义务为中心进行责任分配,并倾向在既有的规范中寻找可移植的框架构造。
  不同人工智能产品的可解释性与可控制性存在结构差异,单一化的归责原则与构成要件标准无法适配不同风险等级的责任体系构建需求。基于此,本文拟在网络服务提供者侵权责任理论框架基础上,结合生成式人工智能的技术原理与风险机理,以《民法典》过错责任的一般条款与网络侵权的“通知—必要措施”结构为基本骨架,提出以风险分层与参与程度为中心的差异化注意义务的规范构想。在不否定既有责任限制机制之制度价值的前提下,期待回答生成式人工智能服务提供者的注意义务应如何根据参与程度与风险等级分配进行差异化设计的问题,亦即何种条件下应当更积极地预防与管理,何种条件下应当以程序性义务为限并保留创新空间。
  一、生成式人工智能服务提供者注意义务的失配显现
  (一)
  生成式人工智能对既有注意义务结构的冲击
  1.生成式人工智能服务形态及其风险生成机制的变化
  传统网络版权治理以“用户上传—平台存储/链接—权利人通知—平台响应”为基本链条展开,这种结构的隐含前提是侵权内容通常能够被权利人稳定识别并具体定位为某个文件、某条链接或某个页面位置,平台据此快速采取移除或断链等措施,即可以较低成本达到治理效果。在这一链条中,侵权的生成与扩散主要由用户触发,网络服务提供者被设定为对内容不作实质选择的外部性载体,其角色特点是外部性、工具性与被动性。由此,注意义务围绕“是否知道或应当知道某一具体侵权事实”展开,其规范重心在于对既成风险的反应,而非对风险生成过程的干预。“通知—删除”规则、“红旗”规则以及“重复侵权人”制度均已内嵌于这一风险生成假设之中。
  然而,生成式人工智能的运行模式并非以存储、展示某一特定作品为常态,而是“训练数据—模型参数—输出内容”的连续过程,由此,侵权风险不再只发生在某条具体链接或某次具体上传行为中,而是可能以记忆化输出、风格化复现、诱导式生成等方式在模型输出中反复出现,因而呈现出结构性的规模化风险外溢。作品作为训练材料被统计性摄取,模型通过模式识别与相似性学习获得模仿与再生产能力,从而在推理阶段以极低边际成本生成大量内容。当输出具有可复制性并可被二次输出、再加工时,侵权不再是点状偶发事件,而更接近一种可被持续放大的风险产量,使“个案识别—个案处置”的治理逻辑面临结构性失配。
  此外,生成式人工智能的风险并不止于输出端的偶发相似,更在于其商业模式将风险嵌入“规模—速度—迭代”的扩张逻辑之中。生成式人工智能服务提供者通过开放API、插件与工作流,把模型能力外溢给下游应用,并借由更频繁的更新、更大范围的功能开放与更高的吞吐换取市场份额与数据回流。一旦训练集、对齐策略或安全过滤存在系统性缺口,侵权便不再呈点状、偶发分布,而更可能在高并发生成、二次输出与再训练回路中被放大为面状扩散。于是,传统注意义务构造所依赖的“权利人可定位、平台可响应、风险可止损”的治理节奏被显著打乱。网络服务提供者删除某一侵权内容,可能落入移动靶困境:输出并非稳定存储于可定位的位置,而是按需生成、对外不可见或仅对单一用户可见。正因为风险不再稳定地附着于可定位的对象,而更以可复制产量的方式出现,网络服务提供者在治理链条中的地位与功能亦随之发生变化,为后续注意义务的规范重构明确了前提。
  2.平台角色从技术工具向内容生成与分发主体的转变
  在传统网络语境中,法律之所以愿意在相当范围内承认网络服务商具有“中立性”,是因为其对内容的选择、编辑与生产能力有限,且对信息的处理多为自动化、非选择性的技术操作。而注意义务的相对克制,正是建立在传统网络服务商缺乏内容控制能力与风险预见能力的认识基础之上。也就是说,传统网络服务商既难以事前识别不法性,亦难以可接受成本对海量信息作语境化判断,故对其责任的判断多围绕“知情—响应”的构造展开。
  与此不同,生成式人工智能服务提供者通过模型架构与训练策略直接塑造输出空间,又通过如API开放、插件生态、批量生成等产品功能决定输出规模与传播速度,其角色定位已经从“承载传播”转向“组织生产”。技术及其制度化应用并非天然导向公平,反而可能在既有权力结构中进一步累积与放大其优势地位。生成式人工智能服务提供者往往通过提升模型能力、加快迭代更新与拓展应用场景来获取市场竞争优势,相应地,其对风险结构的塑造也就愈加显著。
  生成式人工智能服务提供者应被视为区别于传统网络服务商的“新型信息服务主体”,其责任的讨论不能机械地沿用既有的网络平台规则,而应结合其服务形态做结构性调适。正因如此,生成式人工智能服务提供者角色的变化促使注意义务评价从“是否足够谨慎”转向“如何控制风险、控制到何种程度”,使责任判断更接近制度设计问题,而非单次侵权归责问题——因为生成式人工智能服务提供者在事实上既是风险生成的共同塑造者,也是风险流动与扩散的关键控制者。从“Safe harbour”走向“AI harbour”的关键,不在于给生成式人工智能服务提供者贴上服务提供者或内容生产者的标签,而在于重新评估其在风险生成机制中究竟具有何种主动性与控制力,并据此重构免责条件与合规门槛。需要注意的是,生成式人工智能服务提供者的角色从技术工具走向组织者,并不意味着注意义务无限上升,而是强调注意义务的评价不能仅停留于是否履行了合理注意义务,还应进一步考察服务提供者对技术活动强度及其风险扩散后果的控制与分配责任,并将服务规模、功能配置与风险控制能力纳入整体考量之中。
  (二)
  传统注意义务在生成式人工智能服务提供者责任配置中的局限
  1.以合理注意为中心的注意义务构造及其适用前提
  以合理注意为核心的注意义务构造之所以能够在互联网平台责任中运转,依赖于“可识别的行为、可定位的风险、可归因的损害”这样一个隐含前提。因而,在网络侵权治理结构中,合理注意义务的制度设计通常体现为网络服务提供者在接到合格通知后采取反应措施以实现对侵权风险的事后遏制,而不被期待对海量内容作普遍、前置的实质审查。正是在这种风险可对象化、可定位的技术环境中,“通知—必要措施”规则所确立的合理注意义务标准能够在保障网络服务提供者自身高效运转的前提下实现制止知识产权侵权行为与免除相应侵权责任的双重效果,但该规则作为事后介入的被动应对机制,在一定程度上仍不可避免地构成对侵权行为的阶段性放任。
  进一步来说,这一构造形成于网络服务提供者主要作为信息传输或存储中介的技术环境,其规范前提在于侵权风险主要源于用户行为,而网络服务提供者通常不对内容作实质选择,仅在明知或应知侵权时负有采取合理措施的义务。与此相对应,“通知—删除”规则将“知道或者应当知道”收束为“红旗式”的具体认知,从而在网络服务提供者缺乏有效控制能力的情形下,避免其被置于过度风险之中。需要强调的是,“知道或者应当知道”并非纯粹主观心理事实,而是一个可被外部因素与规则结构支撑的规范评价,即便《民法典》未就第1197条中的“知道或者应当知道”给出具体的判断公式,学理上仍可通过若干可考量因素来界定网络服务提供者在特定场景下是否已进入可归责的风险知悉状态。由此,传统合理注意义务被理解为一种以个案侵权识别为中心的事后控制机制,其规范重心并不在于改变风险生成结构本身,而在于对既成侵权的反应是否及时、是否必要且是否适度。
  传统过错责任中的合理注意预设风险源于可被识别的具体行为,并可在事后由裁判者参照当时可期待的注意水平进行回溯性评判。概言之,注意义务在结构上依赖“行为可分解、风险可追踪、因果可解释”的条件。以注意水平为中心的注意义务构造,更像是一种面向单次行为的谨慎义务。这要求网络服务提供者在既定业务边界内“行动更小心”,而不是要求其对自身业务形态与技术结构进行持续性的自我约束。因此,在一般情形下,网络服务提供者并不当然负有算法披露与全面过滤的主动审核义务。即便存在事前过滤,通常也被定位为补充性、有限性与自治性的前置安排。当然,传统合理注意义务仍可通过扩大“应知”范围,或强化个案审查来应对新型风险。这一框架在从Web1.0到Web2.0的“存储—传播”链条中尚能自洽,是因为风险的放大节点主要在于用户上传与外部传播,此时网络服务提供者被设定为被动反应者。
  生成式人工智能服务提供者的风险生成机制恰恰打破了上述适用前提,因为其服务机理把风险从内容搬运推向内容生成。生成式人工智能的输出建立在规模训练、参数微调以及面向海量用户的即时生成之上,侵权风险往往并非由单次输出行为独立触发,而是由平台在模型训练、调用接口、分发机制与商业化优化的组合活动中被结构性放大。正因如此,合理注意义务难以继续以单点行为为抓手实现可归责的边界划定。传统“中立免责—明知担责”二分责任模型难以解释生成式人工智能产业链中多主体、分阶段的风险生成结构。生成式人工智能服务提供者在定位上更像是内容共创者与风险把关者,需要在数据集构建、模型训练、部署分发等环节配置分层化注意义务。换言之,风险并非只在“具体侵权内容出现之后”才可识别,相当一部分风险在训练数据来源、输出约束、产品化入口设计时就已被制度性决定。若仍沿用以“通知后反应”为中心的合理注意义务构造,既会造成风险治理的结构性滞后,也会使“知道或者应当知道”的规范评价失去可操作性。
  2.在规模化、商业化与快速迭代场景下的规范失灵
  以合理注意为核心的注意义务构造在规模化、商业化与快速迭代的互联网平台场景中容易出现规范失灵问题。生成式人工智能在规模化参数记忆与检索增强等机制下,特定条件下的可复现性与可预测性会被放大。就其技术机理而言,模型训练对海量语料的统计性摄取与输出阶段的概率性拼接共同构成风险的两端:前者决定了潜在侵权素材的进入阈值,后者则决定了既有表达被再现、近似或记忆化复现的外显方式。二者的叠加使得侵权不再主要表现为可被识别定位的单一作品副本,而更像是由系统性活动持续产出的风险流。纯粹的事后救济在现代风险情境下具有结构性局限:一方面,损害恢复到未发生状态往往只是理论假设;另一方面,救济的延迟与高成本会导致救济不足与低效率。因此,风险生成机制之变已足以动摇以往以可定位对象为中心的责任配置前提。
  从风险社会的视角看,传统侵权制度的重心偏向个体正义与事后救济,在控制集体性风险方面存在天然不足;相应地,集体性风险治理更强调通过行为标准与强制信息披露来实现预防性控制。正是在这一结构下,如果仍把合理注意理解为一种静态、单点、事后的标准,将在制度上诱发两种看似对立但同样失灵的效果。具体来说,一方面,若按静态标准从宽理解生成式人工智能服务提供者的注意义务,其能够凭借“技术中立”对抗过错认定,导致系统性风险外溢而无法被有效吸收;另一方面,若按结果导向从严理解生成式人工智能服务提供者的注意义务,裁判将倾向把“能做”推导为“应做”,进而以事后归责逻辑反向迫使其承担事实上的全面审查义务。这两种路径表面上分属规范的宽严两端,本质上却具有同一缺陷——二者均未把生成式人工智能服务提供者的风险生成活动拆解为可治理的节点,也就无法在“可行性、误伤率、外部性”之间形成可重复适用的裁判结构。
  由此可见,规范失灵并非仅指传统注意义务构造不重要,而在于这一构造的功能实现倚重于事后反应与行为谨慎的治理结构,已不足以回应生成式人工智能服务提供者通过产品设计与商业策略持续生成风险的现实。因而,生成式人工智能语境下的注意义务的重构任务,应当将其还原为侵权责任体系中的归责要素,用以回答“风险应当由谁承担、在何种条件下承担、以何种强度承担”的问题。换句话说,生成式人工智能服务提供者责任的核心冲突,正在从“是否中立”转向“如何把风险产量纳入可被评价的义务变量”,据此为后续的阶梯化义务结构奠定规范基础。
  二、生成式人工智能服务提供者注意义务的法理基础
  (一)
  注意义务作为侵权责任配置的规范基础
  1.注意义务作为侵权责任成立要素的规范意涵
  从侵权制度体系演进看,风险社会为该制度提出的核心任务已不止于事后填补,而更强调预防损害与风险分配。过错责任原则是侵权制度中的基本归责原则,其核心要义为:若一方未采取经济上合理的预防措施而导致损害发生,则需承担法律责任。在过错责任的法经济学表述中,所谓“注意义务”可理解为法律所要求的预防性行为强度,目标是在给定约束下实现社会福利最大化。其功能不在于评价行为人的主观善恶,而在于判断行为是否构成法律上可归责的风险生成。由此,注意义务的核心规范意义在于通过设定可预期的行为标准,将损害结果与行为人的风险控制建立规范上的归属关系。
  从制度功能上看,注意义务不仅是过错责任的构成要件,更承担着控制责任边界的制度功能。即便损害具有可预见性,责任也不当然成立,而是要通过“是否存在对特定受害人群体的义务”来避免过错责任的无限扩张。就此而言,注意义务要件在现代侵权制度中越来越呈现出“关闸效应”:通过限定可保护利益与可被期待的注意范围,把可预见风险转化为可归责风险。
  注意义务之所以被置于侵权责任构成的门槛位置,并不在于其具有抽象的道德劝诫性,而在于它以可操作的外在标准,将过错从主观心理事实转译为可评价的行为偏离。这种转译的功能意义在于,它允许法官在不必穷尽行为人的内心动机与真实认识的情况下,仍能依循是否可预见、可避免、可负担的逻辑路径,对行为作出规范评价,并据此将损害风险在社会成员之间进行可解释的分配。进一步而言,注意义务同时具有事前行为期待与事后责任判断的双重维度:在行为发生之前,注意义务表现为法律对风险控制行为的规范期待;在损害发生之后,注意义务则转化为判断行为人是否违反该期待的责任标准。
  应当强调的是,注意义务虽具有风险预防功能,但并不意味着实现风险的绝对消除,而是在预防成本与预期损害之间进行权衡,追求社会效益最大化意义上的有效预防,使侵权责任得以在矫正正义与制度效率之间维持最低限度的可接受性。一方面,矫正正义强调侵权制度所处理的是加害人与受害人之间的双边关系。责任成立需要将损害与特定行为人的不当风险施加相连接,而注意义务正是完成这种连接的规范纽带——它要求被告对其制造并外溢的风险作出与其行为性质相称的回应。另一方面,制度效率强调注意义务通过“成本—效益”校准机制避免过度预防。当预防成本远超侵权损失的可避免部分时,将风险强行内化于行为人并不当然正当。换言之,注意义务之合理是责任可归责的条件之一。没有这一条件,侵权责任要么滑向严格责任,要么陷入不可操作的主观探询。
  基于上述认识,注意义务的规范构造必须围绕风险控制能力与行为期待之间的对应关系展开,即行为人仅在其具有合理控制能力的范围内承担风险防范义务。正是这种能力与义务之间的对应关系,使注意义务成为侵权责任配置中的核心中介机制。当生成式人工智能以持续输出、即时分发、规模扩张的方式运转时,传统过错责任的优势在于仍可沿用风险、预防、成本的结构解释。注意义务判断本身就是在划定何种风险可被纳入过错责任的归责范围,生成式人工智能服务提供者并非因制造了内容就当然担责,而是因其在算法设计、数据训练、部署方式与技术迭代中系统性地产生并放大了可预见的侵权风险,从而进入注意义务评价的射程。因此,注意义务的规范内涵需要在保持过错责任基本结构的前提下进行结构性调整,而该调整的关键即在于重新界定风险控制能力与责任配置之间的对应关系。
  2.知识产权法中注意义务功能扩展的体系依据
  知识产权法语境中的注意义务并不止于一般侵权制度上的谨慎要求,而更承担着对信息“生产—传播”结构进行责任性塑形的制度功能。在传统侵权制度语境中,注意义务常以避免对他人法益造成不合理风险为中心,用以衡量行为人是否未尽合理谨慎义务。在网络服务提供者版权侵权场景中,风险是否合理取决于损害大小、权利识别成本、许可交易成本、合理使用的不确定性,以及平台措施可能造成的过度删除或过滤。因此,版权法中的注意义务天然带有强烈的制度协调色彩,制度的设计既要回应权利保护与信息流通的双重目标,亦要对网络服务提供者技术措施的误伤后果保持敏感。若仍将注意义务仅定位为个案层面的谨慎标准,便会出现侵权风险结构已变而注意义务结构未变的失配。这正是知识产权法将注意义务推向更制度化的原因,它不再只关注是否足够谨慎,而开始关注网络服务提供者应当如何组织其业务形态以抑制系统性侵权风险。
  知识产权法之所以能够承载这种扩展,关键在于其责任体系本就包含以治理义务换取条件性责任限制的结构安排。“避风港”规则的核心是以事先履行必要措施为条件,换取责任限制的确定后果。具言之,权利人承担初步识别与指向性通知成本,网络服务提供者承担接到合格通知后的反应义务,并通过是否采取必要措施来决定其责任边界。当网络服务提供者的地位从中立工具转向内容组织者或分发者,注意义务不应停留在事后响应,而应当进入以技术能力为界定尺度的再分配逻辑。一方面,网络服务提供者对作品传播的参与度与控制力改变了其在侵权链条中的角色定位,从而改变了注意义务的强度与形态;另一方面,不同作品类型的可识别性与合理使用的不确定性改变了预防措施的误伤概率与社会成本,从而反向限定注意义务的上限。这也解释了为什么知识产权法中的注意义务更像一种结构性责任分配规则——它不仅是评价有没有尽到谨慎义务,更是在配置谁更适合承担哪一类预防义务,并把公共利益作为义务边界的内在变量。
  反证地看,如果将注意义务一般化为普遍前置审查,其在知识产权法内部反而缺乏可持续的正当性。一方面,版权侵权的识别并非总是“红旗式”的显而易见,诸多情形需要进入合理使用、权利归属与许可范围等领域判断。过度依赖自动化通知并缺乏语境化审查,会导致覆盖过宽而抑制合法表达与创新活动,从而在制度上引发“寒蝉效应”,这意味着以保护版权为名反而侵蚀版权法本应维护的鼓励表达与创新生态。另一方面,强制性过滤往往以系统性预防为代价,把难以算法化的法律判断外包给技术系统,这会显著牺牲网络运行效率并增加社会成本,可能对初创型和中小型网络服务提供者造成沉重负担,尤其是在过滤技术的许可费用和系统维护成本上,进而对市场竞争与创新形成结构性挤压。总的来说,把网络服务提供者的责任完全推向严格或推向豁免都可能失衡,较可行的做法是通过制度设计将其风险控制能力与所应承担的注意义务类型对应起来,并在涉及表达与创新的场景下谨慎配置阻断或过滤的边界。
  (二)
  生成式人工智能服务提供者控制能力作为风险责任配置的正当依据
  1.最小成本规避者理论与风险内化的责任逻辑
  从制度效率视角看,法律责任在原则上应配置给最有能力以最低成本预防、限制或消除损害的一方。在风险治理的归责选择上,更具解释力的路径是遵循“最小成本避免者”思路,其判断核心在于某一主体是否具备对相关风险的认知以及对该风险的控制程度,且此种认知与控制足以预防由此产生的损害。简言之,由具备信息优势与治理工具、能够以更低成本识别并降低风险的一方承担更高阶的注意义务,才可能实现“成本—效益”的最优匹配。在版权侵权的间接责任结构中,责任配置是与预防成本、损害规模、信息条件相绑定的,在直接侵权人分散、权利识别困难、执行成本高的情形下,若中间主体能以较低成本改变侵权发生概率或损害扩散路径,则使其承担一定责任的规则,更可能实现更优的预防性投入效果。将责任置于“最小成本避免者”的制度意义,不在于道德谴责,而在于通过风险内化机制对未来的“最小成本避免者”形成可预期的谨慎激励,从而将风险治理转化为可执行的行为规范。这一路径的逻辑是谁能以更低成本减少更多风险,而非谁更靠近内容就当然应审查内容。
  侵权制度并非只评价一次性的谨慎程度,而是评价持续性活动所制造的可预见风险是否通过制度化方式压降到合理区间。生成式人工智能的动态学习能力决定了风险会随运行与交互而变化,因此生成式人工智能服务提供者的注意义务应转向以“行为合理预测性”为导向的持续监控与动态纠偏要求。在网络服务提供者的版权侵权行为中,适当的分析单位并非某一次的具体侵权,而是将其作为整体的治理结构。具体来说,网络服务提供者在每一次侵权中的参与样态往往高度同质,在这种情况下,责任认定的关键问题转化为其应当被要求以何种强度、何种方式去区分内容并抑制侵权。正是在此意义上,生成式人工智能服务提供者的控制能力成为责任配置强化的规范连接点——其能够通过训练数据治理、输出机制约束与分发链路设计,在总体上显著降低侵权风险的产量与扩散速度,从而以更低的社会成本实现更有效的侵权风险预防。相较之下,如果将风险治理完全交由权利人通过逐案发现、逐案通知的模式实现,这会把制度运行成本推向最不具规模经济的一端,从而导致救济失灵与过度诉讼的双重外部性。尤其是在生成式人工智能服务场景中,侵权风险往往并非来自单次输出的主观恶意,而源于模型在统计结构上对表达特征的可迁移复现能力。因此,注意义务随活动增强而呈阶梯递增,实质上是侵权制度的规范回应——当风险由规模化活动持续生产时,合理注意的对象应当从“个案谨慎”转向“活动强度”,以确保预防成本与风险产量之间存在可核验的比例关系。
  然而,责任强化并不能以生成式人工智能服务提供者有能力采取措施作为充分理由,而必须围绕可治理风险点展开,并通过“可行性、误伤率、外部性”的三重检验,方能转化为合理且可操作的注意义务。首先,即便生成式人工智能服务提供者在技术层面上更有能力采取措施,也不能据此推导出其应当承担最大化义务,因为注意义务的社会成本不仅包括合规投入,还包括由过度删除或过滤引发的表达损失与创新抑制等负外部性。其次,权利人通常更加充分地掌握权属信息、比对素材或授权链条,在此情况下要求权利人提供结构化通知、指纹库或可机器读取的权利声明,往往比要求生成式人工智能服务提供者在不确定性极高的场景中预测侵权风险更节省总成本。最后,即便在生成式人工智能服务提供者是“最小成本避免者”的场景中,注意义务仍应被限定为可行且不过度误伤的“技术—程序”组合,而不应一般化为对全部生成内容的前置过滤。由此可见,风险内化真正要实现的是把生成式人工智能服务提供者“选择风险—获得收益”的商业逻辑,与其承担相称治理成本的责任逻辑相扣合。因而,更合乎法理的路径不是全面审查,而是分层、分型、分场景的注意义务阶梯。
  2.控制能力优势与类型化归责视野下的责任逻辑
  在生成式人工智能责任结构中,生成式人工智能服务提供者控制力构成责任配置的规范连接点,根本原因在于侵权风险在其技术结构中具有可归责的生成与外溢机制。从侵权制度理论看,风险归责的正当性取决于风险是否可被归属于特定主体的行为活动。生成式人工智能服务提供者凭借其对数据、算法与模型的实质性控制,成为风险治理链条中最具能力预防侵权的主体,因而需承担相应的注意义务。是否要求生成式人工智能服务提供者采取更强的预防措施,关键在于侵权风险大小、潜在损害与预防成本之间的比较:只有当预防成本在整体上低于预期损害时,提高注意义务与引入更强的技术措施才具有合理性。进一步而言,生成式人工智能服务提供者之所以被视为责任强化的优先对象,还在于其具备结构性的信息优势与规则优势。生成式人工智能服务提供者通过集中化的信息与规则设定对内容的生成、传播与访问进行深度控制,这使其能够有效识别、筛选和调整用户生成的内容,还能够通过算法规则、用户协议和内容管理规范直接影响侵权内容的传播速度和触达范围。正因如此,侵权风险与平台所建构的技术环境并非仅存在事实关联,而更可能形成规范意义上的因果联系。当生成式人工智能服务提供者处于信息与规则网络的关键节点,其通过设计与治理决策能够重构信息流、塑造社会理解,并进一步影响人们据以行动的理由时,即应被纳入与其“节点性影响”相匹配的规范责任框架。因此,生成式人工智能服务提供者的责任并非限于消极的监控义务,而是更应体现为对可治理风险点的主动管理、预防与控制。
  然而,控制力与信息优势只能证成应当在生成式人工智能服务提供者侧配置更高的注意义务,这并不当然推导出其应承担全面的审查义务。原因在于,著作权法中的合理使用与实质性相似判断具有高度语境性与不确定性。若将注意义务直接等同于绝对阻断侵权的结果导向要求,极易诱发过度过滤并压缩合理使用规则的适用空间,从而对创新激励与表达自由造成不利影响。《民法典》侵权责任篇所要求的并非最大限度风险消除,而是在合理成本内防止可避免的风险。因此,法律不应把生成式人工智能服务提供者的注意义务简化为过滤或不过滤的二分命题,而应当根据其控制能力、信息识别技术的成熟度以及合理使用的法律界限来履行相应的责任。生成式人工智能服务提供者可以在识别度高、重复性强、误伤风险低的对象上采取更强的预防措施,但同时必须通过理由说明、申诉复核、反通知与恢复等机制,把风险预防从结果主义拉回过程治理,从而确保在社会层面实现更加公平的版权保护。
  侵权制度本身也并不要求在所有情境中适用同一套“风险—效用”的通用注意标准,而是允许注意义务标准随情境与风险结构而分化。注意义务在本质上属于抽象性规范范畴,需依托填充规则将该抽象义务转化为对具体行为的类型化认定标准,使其发挥应有的规范与指引功能。网络服务提供者并非同质主体,内容生成类中介与基础设施类中介存在本质区别,类型化的框架可揭示不同网络服务提供者面对同一规范标准时的结构性差异。网络服务提供者控制能力在侵权制度中的最终意义,在于推动责任配置由抽象能力事实转化为具体的类型化注意义务结构。责任配置并非直接依据能力大小作出,而应通过制度化规则将能力差异转化为不同层级的注意义务。从网络版权治理的制度建构逻辑出发,类型化注意义务具有三重显著优势:其一,类型化规则可增强责任认定的可预见性,为行为主体明确风险防控的具体要求;其二,类型化结构能够约束个案裁量权的过度扩张,保障责任边界的稳定性;其三,类型化工具可针对不同风险场景实现差异化规制,进而提升制度运行效率。需要明确的是,类型化注意义务并非意味着责任的绝对固化,而是需考虑具体技术条件与风险结构的动态变化。基于此,生成式人工智能服务提供者控制能力的规范转化方向在于构建以风险可治理性为核心的阶梯式注意义务体系。
  (三)
  作品类型差异作为注意义务内容的调节依据
  1.不同作品类型的可识别性与侵权风险结构
  作品类型差异是决定注意义务内容能否被合理设定与有效履行的结构性因素,注意义务的高低会随作品类型与风险显著性而变化。
  一方面,不同作品类型依托于不同的作品语言与符号系统,这使得同一治理手段在识别精度、误伤概率与社会成本上呈现结构性差异,从而决定了生成式人工智能服务提供者需要采取的注意义务的强度与措施。传统上,知识产权法对于不同作品的保护要求并非一成不变,而是考虑到了作品的性质、用途和受众范围有所差异。作品类型之所以具有重要意义,在于不同类型往往对应不同的特别规则与利益结构。生成式人工智能服务覆盖从大语言模型到图像与音频生成器等多种模态,而不同模态的作品在可被机器识别、可被规则化治理的程度上差异显著。例如,图像、音频等作品往往具有较为稳定的感知特征,易于进入指纹比对、相似度阈值、拦截过滤的治理链条;与之相比,文本类作品尤其是叙事性、学术性或功能性文本,其生成结果高度依赖语境、用途与表达方式,侵权与合理使用之间的界限本身即具有高度开放性。正因如此,生成式人工智能服务提供者的责任不能仅依赖简单的“通知—删除”规则,而应以作品类型为轴对注意义务进行分层,把注意义务锚定在可实施的风险控制之上。如此一来,在能以低误伤成本识别侵权内容的领域,要求服务提供者采取更积极的预防措施,也就更具正当性。
  另一方面,作品类型差异还会决定侵权发生的方式,从而改变注意义务应瞄准的风险点。以视觉类作品为例,侵权常以“高度近似再现”或“可识别角色/元素的再生成”呈现,属于相对典型的输出端风险。在此类情形中,侵权风险通常集中表现于生成结果的输出阶段,当生成内容对既有作品的独创性表达形成可识别的再现或高度近似时,侵权结果即可能发生。这种风险结构意味着,生成式人工智能服务提供者的注意义务不必一般化为对一切输出承担保证,但可以具体化为对高相似度、重复触发、明显指向特定作品或角色的生成请求与结果,建立更强的拦截与处置机制。
  2.不同作品类型的合理使用空间与注意义务边界
  合理使用的不确定性并非制度缺陷,而是立法者为兼顾创新、表达与社会公共利益所保留的弹性空间。生成式人工智能技术既引发训练阶段对作品使用的合法性争议,也引发输出阶段对保护范围与合理使用边界的再争论。在这种情况下,生成式人工智能服务提供者不仅要防范侵权行为,还要根据合理使用的标准,确保其在技术可行的情况下界定使用范围,从而避免对内容创作自由的过度抑制。生成式人工智能服务提供者在履行注意义务时应保持审慎与克制,避免以过度前置审查方式压缩合理使用空间、对信息流通与表达自由造成不当抑制。合理使用不确定性还要求其对“输出替代效应”保持敏感,通过结合作品类型与合理使用的不确定性,生成式人工智能服务提供者的注意义务不仅是一个技术问题,更涉及法律上的平衡和公共政策的考量。
  即便生成式人工智能服务提供者试图通过更有针对性的过滤来降低侵权风险,规范上也会随之提出更高要求:过滤规则会被期待把“合理使用”一并纳入考量,而这恰恰是生成式人工智能场景最不具可行性的部分。由于人工智能的算法决策受既定规则与条件触发结构所限,往往只能进行“条件式计算”,难以像人类一样在具体情境中作出衡平判断或例外处理。在文本生成、风格模仿与信息重组等场景中,侵权判断往往依赖个案化的价值衡量,而非技术可自动完成的事实识别。由于生成式人工智能服务无法完全区分有害内容与无害内容,且无法内部化无害内容所带来的全部社会收益,责任追究的威慑可能导致生成式人工智能服务提供者采取过度审查措施,即在移除有害内容的同时,也删除过多本属无害的内容,这种结果并不符合侵权制度所追求的最小成本规避目标。因此,生成式人工智能服务提供者的注意义务,应当围绕“风险控制能力”而非“结果正确性”展开,否则将不可避免地滑向事实上的严格责任。
  三、生成式人工智能服务提供者注意义务的规范构造
  (一)
  基于参与度与控制力的注意义务分层
  1.平台参与内容生成与传播程度的类型化区分
  “通知—删除”规则的确立,源于立法者对网络技术架构及功能边界的认知,是对网络侵权责任作出的特殊制度安排。该规则以技术工具性认知为规范基础,以推动互联网产业发展为价值导向,并在责任平衡与私权自治理念的共同塑造下,构建起以网络服务提供者技术能力与内容参与度为核心的责任认定体系。生成式人工智能语境下的注意义务分层,应以服务提供者在风险生成链条中的参与度与控制力为规范核心。常见的规范反证是,既然输出结果可能侵权,生成式人工智能服务提供者制造了风险,就应被一律视为内容提供者并承担同一强度的前置审查义务。然而,该结论的成立依赖于一个隐藏前提——生成式人工智能服务提供者在所有的服务形态中,都对输出内容具有同等的可预见性与可控制性。
  这一结论不可行的原因在于,生成式人工智能输出的作品高度依赖上下文语境,尤其在文字、视听作品的二次创作场景中,侵权与合理使用的区分往往需要结合目的、比例、替代性市场影响等因素进行综合判断。系统缺乏类似人类的注意力机制与记忆提取机制,即便储存了大量知识,也未必能在特定情境中根据当下语境信息,快速、灵活地调取并组织相关知识来完成判断。生成式人工智能服务提供者的控制力并非在所有场景都相同,因此对其施加的注意义务不宜采取“一刀切”的方式。当生成式人工智能服务提供者对信息传播的实际控制能力较弱时,责任配置更应保持克制,并主要通过竞争法等外部规范来约束其市场行为;当生成式人工智能服务提供者能够通过产品架构与规则设计对信息的可见性、传播路径与受众触达施加决定性影响,甚至在一定程度上“塑造”内容的呈现方式与传播结果时,要求其承担更高水平的注意义务具有规范正当性。
  更稳妥的制度路径是以生成式人工智能服务提供者是否具有对风险链条的可塑性与可阻断性为标准,分别识别其在训练数据治理、输出控制与分发扩散中的位置,再据此确定注意义务强度。生成式人工智能服务提供者参与度的类型化区分,首先应在“训练—生成—分发”的链条上识别其是否从工具性节点转化为内容生态的组织者,能否对风险的形成与扩散具有可塑性与可阻断性。从治理视角看,生成式人工智能服务提供者的规模、渗透性及社会影响力将直接影响政策制定者的规制方式。生成式人工智能服务提供者至少可能处于以下三类位置:其一,仅提供通用模型或API,并将内容决策留给调用者。其更接近工具性技术服务提供者,对下游应用与终端用户行为的控制力相对较弱,因此在内容审核上宜配置较弱的注意义务,并可在一定范围内主张技术中立的免责抗辩。其二,在产品层面对提示词、模板、插件、检索增强与安全策略进行组合,并导向特定用途。此时,生成式人工智能服务提供者已在生成过程中形成实质介入。其三,生成式人工智能服务提供者不仅生成内容,而且以推荐、榜单、话题、商业投放等方式推动传播与变现,对内容分发具有结构性支配力。对三类平台若适用同一注意义务强度,实际上是忽略了“参与度差异→控制力差异→最小成本预防位置差异”的责任配置链条。
  参与度区分的关键,不在于生成式人工智能服务提供者是否接近内容生产者的角色,而在于侵权风险究竟是在何处被生产、被放大、被商业化。生成式人工智能服务提供者的运营活动通常包含不同程度的人为干预要素,而干预程度的差异恰是界定其知识产权注意义务高低的关键依据。当生成式人工智能服务提供者在产品机制上引导生成,例如,以预设工作流、风格化按钮、热门提示词推荐、检索增强等方式降低侵权生成的门槛,其角色已不再等同于中立技术通道;当生成式人工智能服务提供者在分发机制上放大输出,例如,将高互动内容纳入推荐与变现体系,其控制力就表现为对风险外溢的结构性影响。此时,要求生成式人工智能服务提供者承担较高层级的注意义务,并非将其等同于内容生产者,而是将负担配置给最易于承担并能有效控制风险的一方。
  因此,类型化判断的出发点,不应在于生成结果最终是否构成侵权,而应在于生成式人工智能服务提供者在内容生成与传播链条中的参与程度是否达到可归责的强度。这也解释了为何不应将注意义务一般化为前置审查。前置审查假定平台能在单次输出层面作出高质量的侵权或合理使用的判断,但在混合模态场景中,这一假定往往并不成立。过滤技术无法在语境层面稳定理解表达,因此其治理代价往往体现为“网中海豚”,大量本应受保护的合法表达在过滤中被连带屏蔽。与其把生成式人工智能服务提供者推向前置审查者的不可能角色,不如以参与度为基准引入差异化、可执行的类型化工具。
  2.注意义务随风险生成活动强度递增的阶梯结构
  在确立“参与度—控制力”的分层轴之后,进一步的问题在于:不同参与强度应当对应何种注意义务结构。梯度型、递增式的注意义务正是对此问题的制度回应,其核心在于将注意义务从单次谨慎要求转化为与风险生成活动强度相耦合的递进性责任结构。阶梯义务的关键不在于更严而在于更准,其配置必须满足比例原则与法律确定性:注意义务不应通过含糊不清或不切实际的要求压缩网络服务提供者的经营自由,尤其应避免对中小网络服务提供者形成进入壁垒。因而,注意义务强度需要与服务提供者的技术与运营能力相适配,从而维持侵权制度的可归责边界。这种注意义务随风险活动递增的阶梯结构,使风险控制成本与风险产量之间形成合理稳妥的比例关系,从而避免将注意义务异化为事实上的严格责任。从法律技术角度看,“避风港”规则正是为了避免一般审查义务所导致的过度责任扩张,才通过设定有限且附条件的合规路径,在风险治理与创新激励之间实现制度平衡。
  在具体结构上,阶梯式注意义务可以依据风险生成活动强度递增配置为三个层级:第一阶梯聚焦于数据训练与模型治理的最低合规标准,例如,训练数据来源与权利保留机制的透明化、基本的内容安全策略与重复侵权处置流程。其制度逻辑在于将源头治理转化为最低限度的注意义务门槛,使生成式人工智能服务提供者对风险生成链条的基础性可控点承担责任。第二阶梯应当引入对可预见高风险用途的结构性约束,例如,对特定功能开放、插件生态、二次输出接口设定风控门槛。其制度逻辑在于通过对高风险使用路径的结构性干预,提高侵权性生成的进入成本与规模扩张门槛,从而在风险形成阶段实现前置控制。第三阶梯则应当要求生成式人工智能服务提供者对风险放大机制承担更强的控制义务,例如,对高传播通道设置降权、延迟发布、可追踪标识与反复侵权账户治理。其制度逻辑在于通过控制风险外溢与传播扩散的关键节点,降低侵权行为的社会外部性,并强化生成式人工智能服务提供者对风险放大效应的可归责性约束。总而言之,阶梯递增的依据在于生成式人工智能服务提供者在风险生成结构中的作用强度,而非抽象的身份标签。
  (二)
  基于生成式作品类型的注意义务调节
  1.高可识别性作品对应较高注意义务的配置
  生成式人工智能所涉及的作品类型并非完全同质,必须区分“技术上可稳定识别的侵权风险特征”与“高度依赖具体语境的侵权判断”,生成式人工智能服务提供者之注意义务应当随作品类型的可识别性与风险显著性而分层调节。部分作品存在稳定、可重复提取的表达特征,侵权风险特征可被技术手段较为精确地捕捉,因而此类风险呈现出更强的可预期性与可重复性,这为强化生成式人工智能服务提供者注意义务提供了规范正当性基础。
  对于高度标准化且具有强烈辨识特征的作品类型,例如,音乐作品、图像作品,生成式人工智能服务提供者对其生成与输出过程中的侵权风险具有较高的控制力,对这些作品实施的侵权行为已经可以通过现有的图像匹配等自动化技术手段进行精准识别。
  进一步可以发现,高可识别性作品的风险并不总是由个别用户的偶发性行为触发,而常与生成式人工智能服务提供者在训练数据选择、模型调校、功能入口与输出机制上的安排直接相关。当特定提示语与侵权输出之间呈现出可重复、稳定的对应关系时,生成式人工智能服务提供者的“必要措施”不应仅限于外部过滤或屏蔽,还应延伸到提示语规则优化和相关素材检索隔离等系统层面的治理措施,以降低同类侵权结果再次生成的概率。实践中,“广州奥特曼案”即以生成内容与权利作品之间的高度指认关系为背景,要求服务提供者采取“关键词过滤”等措施,且过滤强度应达到即使用户正常输入与该IP相关的提示词,也无法生成与权利作品实质性相似的图像。
  基于高可识别性作品侵权风险呈现出可识别性强与可治理性明确的特征,更为合理且合比例的制度选择,应是相应提高生成式人工智能服务提供者的注意义务强度,并通过阶段化治理机制实现风险控制。其一,在训练语料管理环节,生成式人工智能服务提供者应当强化训练数据来源管理、权利保留与重复侵权数据的处置,降低高风险素材进入模型的概率;其二,在生成与交付环节,可对明显指向特定作品或角色的提示语与高相似度输出设置更严格的拦截阈值,并建立“重复触发—再上传—再生成”的联动治理;其三,在事后处置环节,应当完善投诉响应、可核验处置记录与针对重复侵权人的梯次处置。在必要时,及时更新安全规则、优化提示语与输出拦截策略,以降低同类侵权结果的再现概率。由此,强化注意义务的关键是将其锚定在风险高、可识别、可治理的节点上,实现对高可识别性作品侵权风险的系统性治理。
  2.高不确定性作品对应限缩注意义务的适用
  相较于图像、音频等高可识别性作品,文字作品往往有更灵活的解释空间与更复杂的权利限制规则,其侵权风险难以抽象为可由固定规则稳定识别的模式。因此,在此类高不确定性作品场景中,生成式人工智能服务提供者注意义务的规范构造应当以对外部风险的可预见性与可控性为中心,而不宜将合理使用、表达自由等高度价值负载的判断,转化为平台的前置实体审查任务。相应的注意义务亦需受到限缩,将注意义务的内容转向过程治理,以维持过错责任框架的可运行性。
  可能出现的规范反证是,既然生成式人工智能已具备语义理解与相似度计算能力,是否应当同样强化其对文字作品的注意义务?实际上,这一推论未能考虑著作权法内部关于合理使用与表达自由的基本结构。就语境依赖型的表达而言,侵权判断的关键通常并非“是否存在某种相似”,而在于相似部分是否构成受保护表达的实质部分,以及该使用是否因目的、方式、必要性与市场替代效应而落入合理使用范围。侵权判断并非仅针对内容本身作抽象定性,而是更依赖使用语境、关系结构与具体呈现方式;若无视具体情境的自动化机制,可能将本不必然构成侵权的内容识别为侵权,进而在网络内容生态系统中引发“寒蝉效应”,从而反向压缩合法创作与信息流通空间。因此,在高不确定性作品场景中,要求生成式人工智能服务提供者承担实质性审查义务,不仅在技术上难以准确实现,更会在规范上造成责任配置失衡。
  从侵权制度与知识产权法的交叉协调角度看,生成式人工智能服务提供者注意义务的扩张必须以不破坏著作权法既有的限制与例外结构为边界,否则将导致著作权法功能的异化。若对高不确定性作品同样施加较高的注意义务,常常并不能带来更有效的权利保护,反而会诱发服务提供者基于风险规避动机采取“一刀切”治理,进而损害用户的正当创作空间。换言之,当法律以高度不确定的实体判断作为触发注意义务的条件时,生成式人工智能服务提供者理性的策略选择往往不是更精准而是更保守。这一结果是将本应由权利人主张、由司法衡量的争议前置为生成式人工智能服务提供者的私力审查,并使著作权法的利益平衡结构被生成式人工智能服务提供者的免责激励所“俘获”。
  基于上述理由,更可行的路径是,在高不确定性作品类型中将注意义务限缩为程序性与结构性义务,并以“通知—必要措施”规则为核心进行再构造:其一,生成式人工智能服务提供者应建立清晰、可达的权利主张入口与证据提交机制,并以合理期限响应通知请求;其二,在收到通知后,应采取限制再生成、优化提示与过滤策略等必要措施,且其强度应与侵权指向的明确性、重复性与可纠偏性相匹配;其三,生成式人工智能服务提供者应建立配套的理由说明、申诉复核、反通知与恢复等纠偏机制,确保自动化治理的误伤成本可被制度化吸收。简言之,限缩生成式人工智能服务提供者对高不确定性作品的注意义务,旨在制度上保留合理使用与表达自由的空间,并维持生成式技术发展的必要弹性。
  (三)
  差异化注意义务的适用边界与规范协调
  1.技术可行性约束下的注意义务适用边界
  差异化注意义务是“技术—法律”耦合下的可行性约束,其设定必须能够被行为人以合理成本履行,并通过“现有技术水平”基准与“可指向、可验证、可纠偏”的结构实现外部证成。换言之,只有当注意措施能够在合理成本内被实施,并能被司法确认时,注意义务强度的配置才具备制度正当性。在此意义上,生成式人工智能服务提供者所负担的注意义务,应理解为以专业服务提供者一般能力标准为参照的较高注意义务,其强度应以同业平均水平为基准,而非以行业最优者为标准。基于此,在设定生成式人工智能服务提供者注意义务的强度时需参照以下四项核心因素:其一,生成式人工智能服务提供者的活动所制造的风险规模与概率;其二,生成式人工智能服务提供者的活动带来的社会效益;其三,生成式人工智能服务提供者采取注意措施的成本与负担;其四,生成式人工智能服务提供者对风险生成与扩散是否具有可归责的结构性责任。同时,还应结合服务性质、技术发展水平、替代设计可行性与成本、可采取措施及其效果,以及对行业的影响等因素对注意义务进行动态调适。
  技术可行性并非抽象地限缩注意义务强度,而是要求把注意义务嵌入可操作的治理单元。首先,注意义务必须具有可指向性,即法律要求的治理措施应能对应到明确的对象与触发条件,而不是泛化为对所有输出的事前审查。例如,在对象可识别且技术可行的重复侵权模式中,必要措施不应只停留在事后删除侵权链接,而应当是在制止已发生具体侵权的基础上,一并预防同一作品、同一模式、时间上紧密相连的“相同侵权”再次发生。其次,注意义务必须具有可验证性,即是否履行注意义务应能通过流程、文档与日志实现外部验证,而不是依赖抽象的主观判断。可验证性的要求意味着生成式人工智能服务提供者需把训练治理、输出约束、投诉处置与复核纠错等环节制度化,并形成可追溯的证据链,从而避免以“结果未避免”倒推违反注意义务。最后,注意义务必须具有可纠偏性,即治理体系必须允许对错误处置进行修正与恢复,避免误伤被制度固化。技术可行性边界并不只回答能不能过滤,更要通过程序性保障机制对冲自动化治理的系统性误伤风险。例如,以理由说明、申诉复核、反通知与恢复、透明度报告为代表的程序性纠偏机制应被纳入技术可行性边界的组成部分。
  生成式人工智能服务提供者是否违反注意义务的判断,应以“损害发生时的现有技术水平”为核心参照。只要服务提供者已采取符合当时技术能力的合理措施而损害仍难以避免,即不宜直接推定其违反注意义务。否则,注意义务一旦被设定为“超出现有技术”的强度要求,过错责任就可能在司法裁判中滑入严格责任,并对技术发展产生抑制效应。在此基础上,注意义务强度应当遵循比例原则与成本效益衡量。具体而言,对于可能造成重大损害且技术上具有可防控性的风险,应相应提高防控标准;对于技术上难以避免且发生概率较低的风险,则应适当降低义务强度,以避免因治理成本过高而导致制度整体效率受损。由此,注意义务的规范功能并非实现风险的绝对消除,而在于在合理成本范围内实现风险的可控制与可接受。从“成本—能力”结构看,让服务提供者对海量输出结果承担全面的有害内容筛查,既存在技术障碍,也不符合经济理性,反而会削弱其规范的正当性。
  2.多元价值化衡量下的注意义务体系平衡
  在完成技术可行性边界的论证之后,差异化注意义务的规范构造必须转向规范体系中的价值维度。注意义务是以侵权制度的目的为依归的责任配置方案。侵权制度固然具有社会成本控制的维度,但效率并非其唯一目标,功利评价本身可以包含健康、自由、尊严等非经济性价值。因此,生成式人工智能服务提供者注意义务的设定,必须在多元价值之间进行可说明的衡量,而非将其他价值排除出裁判与规范构造的视野。据此,生成式人工智能服务提供者注意义务的规范目标应当以“安全”为底线价值,即对显著、可预见且可避免的侵权风险,要求其提供最低限度的风险控制与程序保障。在此基础上,进一步与治理效率、产业发展、表达自由等价值作体系化协调,而不能被单一的风险规避逻辑所吞没。换言之,注意义务并不旨在实现权利保护最大化的结果导向,而是要在侵权制度的可归责性框架之中形成一套能够兼顾权利救济与制度可持续的责任配置方案。
  注意义务作为一种风险预防机制,必须在保证治理效率与控制误伤风险之间建立可持续的平衡机制。面对人工智能的独特风险,治理逻辑应通过预防性行为与因应性制度的组合来构造风险应对框架。这意味着生成式人工智能服务提供者的治理措施既要避免预防不足导致权利保护落空,亦须防止过度预防压缩合理使用空间并造成系统性的“寒蝉效应”。生成式人工智能服务提供者的注意义务必须同时处理两类错误:一是漏拦,即侵权风险因处置不足而外溢;二是误伤,即合法内容因自动化治理被错误限制。因此,任何以零侵权为导向的单向度注意义务设计,都会在实质性相似、合理使用等高不确定性领域迅速放大误伤成本,并以效率换秩序的方式透支制度正当性。正因为误伤风险具有不可完全消除性,生成式人工智能服务提供者应倾向于以预防性努力与程序性保障的制度组合来实现风险预防的功能平衡。
  此外,创新激励与表达自由应当构成注意义务强度的上限约束,生成式人工智能治理不应以牺牲创新与表达为代价换取表面合规。在动态过程中,更应依赖程序性救济与制度性纠偏机制维持均衡,避免片面追求权利保护导致公共利益受损。就此而言,生成式人工智能服务提供者在收到预警函或通知后,采取符合合理标准的技术过滤与程序措施即可,而不应被要求对指定内容实现绝对性的传播禁止。相反,如果以完全阻断侵权为唯一目标,生成式人工智能服务提供者会在合规激励下以风险规避逻辑牺牲表达自由与文化创新,最终也会反噬版权制度对促进文化传播与文明进步的社会功能。因此,注意义务的合理强度应以激励充分预防为目标,并承认技术发展阶段下适度容忍合理风险的必要性,以实现权利保护、创新发展与表达自由之间的可持续平衡。
责任编辑:知识产权法庭