【摘要】开源大模型的蓬勃发展,正在重塑全球人工智能竞争格局。产业界对“开源”存在两种误读:或视其为数据无版权保护,或认为算法开源必然要求训练数据同步公开。事实上,开源是基于许可证的有条件授权,算法开源与数据开放是两个相互独立的法律维度。当前,开源人工智能训练数据利用,从获取、处理到输出的全链条,面临授权缺失、个人信息保护失范、版权归责不清等风险,且不同性质数据合规要求各异。推动开源训练数据合规治理,需在完善授权契约、强化数据分类管理、部署技术防线、建设公共合规语料库等方面协同发力,为中国开源人工智能产业的可持续发展筑牢法治根基。
【关键词】开源大模型 训练数据 数据合规 授权机制
【中图分类号】D92 【文献标识码】A
2025年初,深度求索(DeepSeek)以开源方式发布高性能大模型,迅速引发全球关注。2026年,人工智能领域刮起一场破壁跨圈的“养龙虾”热潮,开源智能体OpenClaw(昵称“龙虾”),因能协助用户处理文件管理等复杂任务而迅速走红。2026年政府工作报告提出:“支持人工智能开源社区建设,促进开源生态繁荣。”①开源,正在成为中国人工智能产业参与国际竞争的重要方式。
随着监管体系的持续完善,训练数据合规问题日益凸显,在人工智能产业发展中的重要性不断提升。数据收集阶段遗留的隐患,往往在产品上市、融资并购或监管审查时集中显现,其带来的法律代价远超事前合规的成本。如何在开源生态的发展与训练数据的合规治理之间找到清晰边界,已成为产业界和监管层共同面对的现实考虑,也是中国开源大模型产业赢得全球信任、实现高质量发展亟待回答的问题。
开源不等于放弃法律约束,也不等于训练数据必须公开
随着大量企业和开发者加速进入人工智能赛道,有的人产生一种错误认识:既然模型开源,训练数据便可随意取用;既然模型公开,训练数据理应向外开放。在法律层面,这两种推断均难以成立,由此积累的合规隐患不容低估。
开源从来不意味着免于授权约束。开源的法律基础,建立在许可证制度之上。权利人并没有放弃版权,而是借助版权,通过格式化合同,向公众有条件地让渡使用、修改和分发的权利。不同许可证设定截然不同的权利边界:有的允许商业使用,但要求保留版权声明,有的要求所有衍生作品必须以相同协议开源,还有的明确禁止商业用途。违反许可证条款,附条件的授权即告终止,继续使用便构成侵权。此外,模型开源又与技术透明存在本质差异,即便在设置相应许可证协议的情况下开放模型参数,仍可能无法满足数据来源公开合法的相关要求②,二者不能混为一谈。
将这一逻辑延伸至训练数据领域,道理完全一致。数据在互联网上“公开可访问”,并不等于可以合法地用于模型训练。网络上的文章、图片、新闻、影视内容,绝大多数受著作权法保护;含有个人可识别信息的数据,受《中华人民共和国个人信息保护法》规范约束;经过专业整理的结构化数据库,还可能涉及数据库权利或商业秘密保护。《生成式人工智能服务管理暂行办法》第七条要求,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。③《中华人民共和国数据安全法》第十三条就数据来源合法性设置专门的义务性条款。④“来源合法”不是一句原则性表述,而是须逐项对照、具体落实的法定义务。
“算法开源”并不等同于“训练数据必须公开”。模型权重的开源,是指模型的架构、训练代码乃至参数以开放许可证方式发布,允许他人下载、使用和修改;训练这一模型所使用的数据,与模型本身是两种不同性质的客体,适用不同的法律规则,遵从不同的权利安排,二者之间不存在任何意义上的逻辑绑定。以医疗大模型为例,其训练数据往往涉及大量患者病历,相关授权通常只覆盖内部用于训练模型这一特定目的,不包含向公众公开重新分发的权利。强制要求此类模型公开训练数据,反而在迫使企业违反个人信息保护义务。这不是个别案例的特殊处境,而是大量真实场景下共同面临的困境。
训练数据凝聚企业大量研发投入与商业积累,是维系核心竞争力的重要资产。只要这些数据的获取符合来源合法的基本要求,企业完全有权选择不予公开。这既是商业逻辑的自然延伸,又是对法律制度的正当维护。中国企业在开源大模型领域取得的竞争优势,恰恰建立在算法开放、数据自主的发展路径之上。以开放的模型架构吸引全球开发者生态,以受控的数据资产守护核心竞争壁垒,二者并行不悖,相互支撑,这正是中国开源大模型产业在全球竞争中逐步建立优势的内在逻辑所在。厘清上述两个维度的边界,是开源人工智能产业走向规范发展的前提。算法的开放与数据的自主,并非矛盾对立,而是相辅相成。授权合法性,是贯穿训练数据全链条合规治理的重要依据。
开源训练数据利用在获取、处理、输出环节均存在法律风险
从数据被采集进入训练管道,到模型训练完成后向用户提供服务,风险贯穿获取、处理、输出多个环节,形成一条完整的传导链条,任何一个环节的疏漏都可能引发难以预料的法律后果。
获取环节面临的首要挑战,是许可授权的边界难以清晰把握。大规模语料库的构建通常依赖自动化抓取技术,这类工具不会主动区分哪些内容受到版权保护、哪些平台明确禁止商业用途的数据抓取。强行突破网站协议限制抓取数据,可能构成著作权侵权,在《中华人民共和国反不正当竞争法》框架下,也可能被认定为损害他人合法商业利益的不正当行为。更值得警惕的是,许可授权的失效往往发生在数据流转的中间环节,而非源头。一批数据在最初发布时附带特定许可证,经过多次截取、合并、重新打包,进入另一个数据集时,原始的授权约束已无从追溯。使用者看到的是眼前数据集的许可标签,以为合规可用,却不知底层数据的授权在某个流转节点早已失效。这种许可洗钱现象,是当前数据集流通缺乏可追溯授权记录机制的必然产物,仅凭许可标签判断数据是否可用,本身就是一种系统性的合规疏漏。
处理环节的风险,主要集中在个人信息保护义务的有效落实上。《中华人民共和国个人信息保护法》第十三条、第十四条确立以知情同意原则为核心的个人信息处理合法性框架。⑤实践中,互联网用户发布内容时,通常并未预期自己的信息会被用于人工智能模型训练;企业在构建海量训练数据集时,也几乎不可能逐一向所有涉及的信息主体履行告知义务。这种结构性困境,使得训练数据的个人信息合规问题,难以通过简单套用现行规则加以解决,需在具体场景下作出精细化的法律判断。更深层的挑战在于信息删除权的有效落实。当数据主体依法行使删除权时,企业面临的并不只是一个数据库操作问题,而是一个在现有技术条件下尚无成熟解决方案的法律义务履行难题。具体而言,已融入模型权重的数据影响,既难以精准定位,又难以彻底消除。这表明,在数据输入端切实贯彻个人信息最小化原则,从源头控制训练语料中个人信息的比例与类型,远比依赖事后补救更具现实意义。
输出环节的风险,则源于模型训练过程中形成的内容记忆问题。在特定条件下,语言模型在生成内容时存在一定概率重现训练语料中的具体表述,其中包括个人可识别信息,该问题已逐渐成为国际版权诉讼中的核心争议焦点。对于服务提供者而言,即便在数据采集阶段已尽到合理注意义务,模型发布之后仍可能因输出内容引发侵权纠纷。更为复杂的是,当用户通过特定方式诱导模型输出有问题的内容时,平台提供者、模型开发者与终端用户之间的责任如何划分,现行法律框架尚未给出清晰答案。这种责任归属的不确定性,要求服务提供者以更主动的姿态进行风险防范。
训练数据合规治理,要对合规义务进行差异化认定
不同性质的数据,面临的合规风险大相径庭,相应的义务要求也不应一概而论。把所有训练数据都放在同一把尺子下衡量,要么让企业承受不必要的合规负担,要么让真正的高风险数据在粗放管理中被忽视。因此,差异化认定,是训练数据合规治理的基本原则,也是把制度要求落实为可操作实践的必要前提。
从数据来源与属性出发,可以将训练数据大致区分为四类,各自对应不同的合规门槛。明确具有开放许可或已进入公有领域的数据,如政府依法开放的公共数据集、著作权保护期已届满的历史文献,合规门槛相对较低,在遵守具体许可条款的前提下即可使用,是企业应当优先扩大利用的数据资源。可公开访问但许可状态不明确的数据,企业须主动核查权利状态,对无法追溯清楚授权链条的数据保持审慎。含有个人信息的数据,无论是否公开,都须严格依据《中华人民共和国个人信息保护法》核查处理的合法性基础,优先通过去标识化技术降低个人信息处理规模,我国已发布相关国家标准提供操作指引与效果评估方法,企业可据此建立具体的合规控制机制。涉及重要数据或商业秘密的情形,则须按照《中华人民共和国数据安全法》确立的数据分类分级保护制度,执行更高级别的安全保护要求,涉及跨境传输的,还须提前完成安全评估或签署标准合同。
企业内部合规与数据对外开放,是两个相互独立的命题。清华大学法学院教授申卫星曾主张赋予数据处理者对数据利用方式的自主决定权,认为数据处理者有权在法定范围内自主决定是否许可、以何种方式许可他人使用其数据。⑥数据合规的目标,在于确保所使用的训练数据在来源上合法、在处理上规范、在安全上可控。这项义务的完成,与数据是否向外公开,在逻辑上并无关联。一家企业完全可以对每一类训练数据都建立清晰的授权记录,同时选择不向外部主体披露这些数据的具体内容。二者并行不悖,前者是法律义务,后者是商业自主权。将合规达标与数据开放捆绑在一起,既无法律依据,又不符合数字经济发展的内在逻辑。正在积极布局开源战略的中国人工智能企业,尤其需要在战略层面对这一边界保持清醒认识。
推进开源训练数据合规治理的可行路径
推进开源训练数据合规治理,既需企业在微观层面建立健全内部管理机制,又需政策层面提供有力的制度支撑。
完善授权契约与权利瑕疵担保机制。授权合法性的建立,首先要从契约层面把好入口关。现实中不少企业采购训练数据时,习惯以许可标签作为合规判断的依据,而数据在多次流转、拆分与重新打包的过程中,原始授权能否完整传递,往往难以追溯。一旦发生侵权纠纷,这种仅凭标签判断合规的做法往往经不住法律检验。企业在与数据供应商签订合同时,应要求其提供完整的数据来源证明与授权链路文件,并植入权利瑕疵担保条款,明确因数据来源违规引发的第三方索赔责任由供应商承担。这一安排不仅实现风险合理分配,而且通过商业机制推动数据供应链整体合规,防止隐患层层传递。涉及从用户端采集数据用于模型训练的,要在隐私政策与用户协议的显著位置清晰说明相关安排,并提供真实可操作的退出路径,不能以格式化声明代替实质性告知。授权链条的完整与清晰,既是企业应对监管审查与法律纠纷的重要依据,又是开源生态建立长期信任的制度基础。
建立数据分类分级管理与内控制度。数据要素市场化配置的关键之一,在于建立与数据性质相匹配的权利保护与流通规则,不同类型的数据,理应适用不同的制度安排。这一原则落实到企业内部,意味着要建立针对训练数据资产的常态化盘点机制,将数据池中的各类数据按照来源性质与风险等级进行分类标注,形成清晰的资产台账,明确记录每一类数据的来源渠道、授权形式、适用范围与合规状态。在此基础上,实施差异化的访问控制,将高风险数据与低风险数据进行隔离管理,严格限制接触高风险数据的人员范围和操作权限。2025年发布的国家标准《网络安全技术生成式人工智能服务安全基本要求》(GB/T 45654-2025),从训练数据来源合法性与内容安全性两个维度,对生成式人工智能服务提出可评估、可抽检的具体要求,并配套给出测评方法与结果判定标准,为企业合规实践提供清晰的操作依据。企业可以此为基准,在内部建立数据台账,落实分类分级管理,形成持续可审计的合规机制,将数据治理从被动应对转化为主动管理,为模型的持续迭代提供坚实保障。
强化自动化筛查与输出安全拦截机制。在数据进入训练管道之前,可部署自动化筛查工具,对训练语料中可能含有的个人可识别信息进行系统性清除,对带有强著佐权条款的数据进行识别与隔离,从源头阻断许可证污染的扩散。技术工具的有效应用,并非取代法律合规判断,而是在规模化的数据处理场景中为合规义务的落实提供效率支撑。在模型向用户提供服务之后,输出端的风险管控同样不可忽视,要建立内容过滤机制,对可能涉及重现训练语料的输出内容实施预警和拦截。我国现行的国家标准和监管规范,在自动化安全要求方面已形成较为系统的操作指引,企业应当将这些要求切实转化为工程实践,推动合规管理从纸面落到实处。技术防线与制度规范协同发力,方能构筑起训练数据合规的有效屏障。
推动高质量公共合规语料供给建设。企业层面的合规实践,离不开健康数据生态的支撑。当前,高质量合规训练数据的总体供给不足,已成为制约我国人工智能产业发展的现实瓶颈,客观上驱使个别企业寻找灰色替代。从根本上破解这一问题,不能仅靠强化事后监管,更需从供给侧发力,让合规数据成为企业可及、可用的选择。为此,要强化国家层面的公共语料库建设,统筹推进政务数据、公共文化资源、科学数据的合规开放,形成规范授权、质量可控、持续更新的基础语料供给体系。同时,鼓励有条件的科研机构和行业平台系统性地收集、过滤并以开放许可证发布高质量中文语料,以供给侧的有效扩容,逐步消解违规抓取的市场诱因。中国在开源大模型领域的领先优势,需与高质量合规语料库建设紧密结合,方能转化为可持续的产业竞争力。
开源不是合规的豁免通行证,开放也不等同于合规本身。中国开源大模型产业正处于快速发展的关键阶段,技术能力的持续突破令人振奋,合规意识与治理能力的跟进同样不可或缺。开源训练数据的合规问题,已从一个容易被忽视的细节,演变为关乎企业能否走远、产业能否走稳的基础性议题。监管规则的持续完善、国内外版权纠纷与数据安全事件的接连出现,都在提示这一领域的现实分量。
积极推动开源训练数据合规治理,是中国人工智能产业高质量发展的内在要求,也是开源生态持久繁荣的重要前提。主动建立以授权合法性为核心、以数据全生命周期管理为抓手的合规体系,既能有效防范法律风险,又将成为企业赢得市场信任、构建长期竞争优势的重要支撑。当前,中国开源大模型在全球格局中的影响力持续上升,巩固并扩大这一优势,既需技术的持续突破,也需法治的坚实保障。我国倡导的开放创新并非简单沿用既有开源规则,应合理评估开源许可证的法律风险,构架自主可控的开源社区。⑦数据合规并非对技术创新的束缚,恰恰是创新得以持续的基础条件。唯有把合规的根基打牢,中国人工智能产业才能在全球竞争中行稳致远,在全球人工智能治理格局中发挥更积极的引领作用。
【注:本文系中国法学会2025年度部级法学研究重点委托课题“人工智能风险挑战及法律治理”(项目编号:CLS(2025)ZDWT51)、最高人民法院2025年度司法研究重点资助课题“开源技术知识产权法律问题研究”(项目编号:GFZDKT2025B18-3)阶段性研究成果】
【注释】
①《政府工作报告——二〇二六年三月五日在第十四届全国人民代表大会第四次会议上》,《人民日报》,2026年3月14日。
②张平:《透明度原则在人工智能治理中的适用》,《数字法治》,2025年第1期,第24页。
③《生成式人工智能服务管理暂行办法》,中国网信网,2023年7月13日。
④《中华人民共和国数据安全法》,中国人大网,2021年6月10日。
⑤《中华人民共和国个人信息保护法》,中国人大网,2021年8月20日。
⑥申卫星:《论数据用益权》,《中国社会科学》,2020年第11期,第129页。
⑦辜凌云:《以许可证为核心的开源社区治理逻辑》,《知识产权》,2024年第6期,第49页。
责编/靳佳 美编/王梦雅
声明:本文为人民论坛杂志社原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。