为开源大模型在自由与秩序之间构建“避风港”

由于门槛低、透明度高,开源之所以珍贵,是因为它带来了不断的创造力和改进。但是另一方面,大模型技术本身所蕴含的风险——从幻觉到被非法使用——也是真实存在的。开源大模型治理需要实现“双重目标”,一是保证开源生态的生命力。建立一个可预见的责任避风港,为善意的开源推动者实现“创新自由”;第二,协同防范大模型的重大风险。开源生态透明、开放、平等合作的特点不再适应传统的集中监管模式。开源大模式管理应回归开源社区,构建“社区治理秩序”。
开源:数字化创新源活水
在过去的几十年里,开源成为数字世界的基石。Apache从互联网早期开始。 Web服务器,安卓系统,占移动时代70%以上的智能手机[1],Linux操作系统在云计算领域无处不在[2],开源软件构建了全球信息基础设施的脊梁。 。Google开源TensorFlow在人工智能领域使得深度学习工具触手可及,而中国团队推出的大型开源模型DeepSeek-R1则在有限的算率下接近闭源模型的性能水平,更是将AI创新浪潮推向了一个新的阶段[3]。
开源能够促进创新,关键在于其开放合作文化。世界各地的开发者日夜奉献代码,发现漏洞,提高功能,共同塑造未来的技术。尤其值得注意的是,中国正在从追随者向开源浪潮的重要推动者转变。全球开源生态洞察报告 (2024年) 》显示,近840万中国开发者占全球三分之一。在全球活跃度前100名的开源软件项目中,中国开发者主导的开源软件项目占17%,排名第二,未来仍有巨大的增长空间[4]。
二是在人工智能领域,开源大模型迅速崛起
自2022年以来,开源模型一直在追赶。在性能和应用领域,开源与闭源模型的差距迅速缩小,甚至在许多方面实现了超越[5]。他们为什么从后面来?
第一,开源的“市场合作模式”似乎正在AI领域重演,开启了“万众创新”的新局面。 开源模型公开了底层能力,公众可以免费下载自己的权重,进行“二次创作”,在不同的行业和场景下微调形成专用版,大大增强了灵活性和适应性。开发者共同分享工程经验,共同参与技术路线试错,加速AI发展进化。这种趋势让人想起了经典作品《大教堂与市场》中提出的开源范式——任何人都可以参与创新,形成“无边界技术市场” [6]。预计AI领域将继续铸就开源传奇。
第二,开源模型提高了AI系统的透明度和安全性。 他说:“正如最著名的加密技术通常是最安全的, 最为著名的AI 模型也可能是最安全的。"[7 ]由于模型结构和权重开放,外部研究者可以深入“解剖”模型,及时发现偏见或漏洞,共同改进。相反,封闭模型就像一个“黑盒子”,外部很难监督。
最终,最重要的是,开源打破了AI领域现有的封闭格局。 在此之前,最先进的AI模型通常由少数巨头掌握,行业下游通过API付费,缺乏议价或约束能力。开源降低了单个供应商的锁定效应,提高了技术自主性。在模型领域,开源社区以较低的算率再现了大部分商业闭源模型的能力,迫使大型科技公司重新评估战略,保证了行业的良性竞争。
第三,目前主要开源大模型的开放程度
尽管人们常用“开源”与“闭源”进行二元对比,但在现实中,模型的开放程度呈现出一种递进的光谱。 [8] 。中间有许多层次,从只提供API接口的全封闭,到模型结构、权重公开,甚至训练数据开放的全开源。

图1 开源大模型的主要开放元素和许可证比较
注1:图为斯坦福大学基础模型研究的照片。 心论文 [9] 结合公开的许可信息制作
注2:开源元素-模型参数结构、模型权重、源代码、实现方法、训练数据
注3:当前主流的开源模式中, DeepSeek-R1模型开放更全面:开放权重,代码,并通过技术文件公开重要的训练方法。相比之下,LLaMA 2选择定制许可证,允许商业使用但附带条件(每月活跃用户必须向Meta申请超过7亿的许可证)
综上所述,大模型的开放程度已经形成了丰富的谱系。从治理的角度来看,还需要对模型开放程度的各个层次进行分类和政策。为了便于讨论,下面提到的大型开源模型是基于当前行业主流标准,即模型参数公开透明。 在开源许可中,用户可自由运行、研究、修改模型,但禁止使用违法用途等一般声明。
开源大模型治理-从开源文化中汲取智慧
开源之所以珍贵,是因为它的低门槛、高透明度带来了不断的创造力和改进。但另一方面,大模型技术本身的风险——从幻觉到非法滥用——也是真实存在的。具体来说,开源大模型治理需要实现“双重目标”:
另一方面,主要保证开源生态的生命力,实现“创新自由”,为开源者建立可预见的责任避风港, 为了吸引更多的开发者参与开源,促进开源技术的蓬勃发展,给善意的开源探索提供了充足的空间;
另外,针对开源风险的独特性,构建开源AI治理的“社区秩序”,不会造成重大危害。 其中:开源自身的发展历史提供了许多宝贵的经验,从社区自治到协同治理,将为开源模型的安全治理提供重要启发。
本文围绕上述两个目标,提出以下建议:
(一) 为开源者建立一个可预见的责任避风港:
具体而言,避风港由两个明确的责任界限组成:
第一,纵向上:区分行业上下游,明确模型开发者和应用者两种角色,明确职责界限。
责任分配的基本出发点是考虑主体的“风险控制能力”。 模型开发者控制模型设计的研发和培训,部署者深入具体应用场景的细节,在控制能力上大模型的安全风险存在实质性差异。因此,目前各国AI治理的共识之一就是区分行业的主要角色,适应不同的治理责任。例如:
欧盟《人工智能法》 明确了两种不同的主体:模型开发者 (Provider) ,其主要责任是确保其开发的AI系统符合安全、透明等条件。利用风险评估和适度的技术措施,提高AI系统的可靠性;模型部署用户 (Deployer) 确保AI系统在应用过程中符合法律法规的要求。持续监控高风险AI系统,为用户提供充分的权利保护机制等。
2024年美国加州SB-1047法案 这里的争论也反映了对分类治理的认识。这项法案最初并没有明确区分“开发者”和“部署者”,而是将几乎所有的责任集中在“模型开发者”上。 (provider) 身上。这一提案引起了包括李飞飞在内的业内人士的强烈反对。 [10] 。有专家指出:SB-1047 将部署者应承担的使用责任转嫁给开发者,相当于让“电机制造商对电锯的应用事故负责” [11] 。这项法案最终被拒绝。
我国生成人工智能服务管理暂行办法 进一步推进分类治理的思路。规定对模型研发阶段进行了整体豁免。如数据治理的基本规范,除非为公众提供服务,否则作为服务供应商在R&D阶段承担相关规定。它实际上形成了一种“鼓励研发和探索的沙盒”:在R&D阶段,允许各类主体自由探索,包括开源社区;一旦进入应用阶段,特别是公众可以接触到的服务,服务本身就会被纳入监管。
在开源模型中广泛使用的许可协议中,下游应用的“免责声明”与上述责任分界逻辑是自洽统一的。 作为开源社区的“社会合同”,开源许可证的主要功能是通过授权条款,明确开发者与下游用户的权利和责任关系。例如BSD许可证明确,开发者对任何直接或间接损失都不负责。MIT许可证强调“按原状”提供软件,不提供任何明示或默示的保证。开源许可证符合作权法和合同法的基本原则,并且通过责任框架,避免了开源推动者的后顾之忧。促进开源社区合作创新。它也是各国在法律、司法等方面认定开源许可证具有明确法律效力的根本原因。
第二,横向上:基于开源和闭源的显著差异,开源不应承担与闭源相同的责任。
训练一个模型就像制造一台机器。如果模型有基本的明显缺陷,开发者需要预见并尽可能预防。因此,无论是开源还是关源,开发者都应该承担基本的安全管理。然而,与闭源相比,这种“基本责任”应该是开源模型开发者的边界。
另一方面,开源开发者通常缺乏足够的控制力。 开源开发者在开发模型之后,“无法实际监控和避免下游乱用” [12] 。下游人员可以对原开发人员设置的安全护栏进行微调和避免,开源人员无法预测所有极端用法。相比之下,封闭模型开发公司通常是模型业务的提供商。从提供稳定可靠的AI业务的目的出发,闭源模型公司通常处于模型研发阶段拥有更大规模的安全投资,例如进行内部红队检测和安全提升。 [13] ;布鲁斯金学会的相关报告指出:“开源者通常不会从他们的奉献中获利,他们可以完成复杂的责任,没有预算和合规部门。” [14]
另外,治理需要考虑开源开发者的主动性。 如果要求开源开发人员承担与闭源商业提供商相同的义务,开源社区或研究人员会选择不公开发布模型,以防止责任,从而抑制开源创新。 [15] 智库曾指责:“封闭源和开源AI没有区分”的做法,实际上是将透明开放的项目与封闭的商业系统联系在控制网络上。因此,开源开发者不知道他们的善意奉献会引起赞扬或惩罚,从而对开源创新产生冷蝉效应。” [16]
正因为如此,即使在最严格的欧盟监管中,《AI Act》还规定,免费和开源发布的AI系统一般不受法案义务的限制;然而,在一般模型领域,开源提供商也免除了编制文档、提供数据等义务。而美国则采取了更宽松的做法。美国国家电信和信息管理局 (NTIA) 指出目前还没有足够的证据证明开源模型比封闭模型更危险。目前没有必要立即颁布开源模型的强制性规定,强调持续监控作为风险垫底,只有在必要时才考虑付诸行动。 。
(二)从开源文化中学习治理智慧-信任社区的力量。
开源生态突出了透明开放、平等合作的特点。 如果僵化地应用于传统的集中化、科层化监管模式,不仅达不到预期的控制效果,还会对开源的生态活力产生很大的不利影响。大型开源模式的安全管理应回归开源社区,借鉴开源文化中的治理智慧。
开源治理的核心环节是社区自律和监督。 Hugginging以开源AI模型集中。 例如,Face平台已经形成了一套完善的社区治理经验。平台方:要求模型发布者提供详细的模型卡片。 (Model Card) ,展示模型训练数据、性能、伦理影响等,并特别列出模型的适用性和不适用性。与此同时,平台将对模型进行额外的审查,明确禁止包含恶意侧门代码和非法使用模型。管理员一经发现,将迅速下架处理。若某一模型多次被举报存在有害内容,社区和舆论的谴责也会产生一定的威慑力。对某些高风险模型而言,Hugging Face 要求添加“非面向所有受众”的标签,然后在用户访问时弹出警告并默认隐藏内容。 [17] 社区客户:可以对有害内容或异常模型进行标记检举,也可以对提供改进的数据集进行微调纠偏。类似的,Open Assistant 使用GitHub项目 issue和Discord频道收集用户对模型的反馈,鼓励大家参与“红队”测试,发现模型的弱点 [18] 。
除了开源社区, 开源AI模型的开发和部署涉及多个利益相关者,包括云计算提供商、模型托管平台、下游使用和应用开发者、分销渠道、第三方评估审计师、终端用户甚至政府监管机构。每一方都有独特的能力和责任。只有充分合作,才能实现有效的AI风险控制。 [19] 。
"足够的眼睛可以让所有的问题浮现出来." 一九九七年,埃里克·雷蒙 (Eric S. Raymond) 提出的“Linus 到目前为止,法律仍然闪耀着。不管是在软件时代还是AI时代,错误和缺陷都很容易在开放的社区中被发现和调整。这种精神也渗透到每一个社区实践中——Linux核心的安全维护依赖于全球数千名开发商的共同监督和补丁提交;主要发行版厂商负责及时向用户推送安全更新;大型IT公司补贴漏洞奖励计划;政府机构发布网络安全基线要求...同样,在大型开源模型领域,我们也期待形成基于社区制度的开放治理生态学——生态学中的每一类参与者对其最有能力控制的风险阶段实施各种措施,包括预警、感知、纠正和降低风险,实现开放合作、敏捷高效的安全合作。
本文主要由腾讯研究院-大模型团队:王融、钟雨霏、袁媛、王强等完成。
注解来源:
[1] CounterPoint Research. Global Smartphone OS Market Share Q4 2024. 2024. Web.
https://www.counterpointresearch.com/
[2] The Linux Foundation. "The Linux Foundation: It's Not Just the Linux Operating System." Linux Foundation, 21 Jan. 2020,
www.linuxfoundation.org/blog/blog/the-linux-foundation-its-not-just-the-linux-operating-system.
[3]Yang, Zeyi. "How Chinese AI Startup DeepSeek Made a Model that Rivals OpenAI." Wired, 25 Jan. 2025,
https://www.wired.com/story/deepseek-china-model-ai/?utm_source=chatgpt.com.
[4] 中国通信标准化协会. 2024年全球开源生态洞察报告 年)[EB/OL]. (2024-07-05) [2025-03-25].
http:179.172//221.81/images/20240705/27981720160008486.pdf.
[5] David, Emilia. "Meta Says Llama 3 Beats Most Other Models, Including Gemini." The Verge, 18 Apr. 2024,
https://www.theverge.com/2024/4/18/24134103/llama-3-benchmark-testing-ai-gemma-gemini-mistral.
[6] Raymond, Eric S. The Cathedral and the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary. O'Reilly Media, 1999.
[7] Third Way. "Open-Source AI Is a National Security Imperative." Third Way, February 2025, www.thirdway.org/report/open-source-ai-is-a-national-security-imperative. Accessed 25 Mar. 2025.
[8] National Telecommunications and Information Administration. "Dual-Use Foundation Models with Widely Available Model Weights." National Telecommunications and Information Administration, July 2024, .
[9] Considerations for Governing Open Foundation Models,
https://hai.stanford.edu/sites/default/files/2023-12/Governing-Open-Foundation-Models.pdf
[10]Raji, Timnit. "Godmother of AI Says California's AI Bill Will Harm U.S. Ecosystem." Fortune, 6 Aug. 2024,
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/?abc123.
[11] "California SB 1047: Executive's Guide." FairNow, https://fairnow.ai/california-sb-1047-executives-guide/.
[12]Gent, Edd. "Protesters Decry Meta’s 'Irreversible Proliferation' of AI." IEEE Spectrum, 6 Oct. 2023,
https://spectrum.ieee.org/meta-ai#:~:text=The self,how the AI is used. Accessed 26 Mar. 2025.
[13]La Malfa, Emanuele, et al. "Language-Models-as-a-Service: Overview of a New Paradigm and its Challenges." arXiv,
https://ar5iv.labs.arxiv.org/html/2309.16573v2#:~:text=et al.
[14]Karabus, Jude. "GitHub CEO says EU AI Act shouldn't apply to open source devs." The Register, 7 Feb. 2023,
https://www.theregister.com/2023/02/07/github_ceo_ai_act/.
[15]"AI Act: How the EU Can Address the Challenges Posed by General-Purpose AI Systems." OpenFuture, Jan. 2023,
https://openfuture.eu/wp-content/uploads/2023/01/AI-Act_Mozilla-GPAI-Brief_Kx1ktuk.pdf.
[16]Denton, Jake. "The U.S. Shouldn't Go the Way of Europe on AI." The Heritage Foundation, 8 May 2024,
https://www.heritage.org/big-tech/commentary/the-us-shouldnt-go-the-way-europe-ai.
[17]Solaiman, Irene, 等. "Ethics and Society Newsletter #3: Ethical Openness at Hugging Face." Hugging Face Blog, 30 Mar. 2023,
https://huggingface.co/blog/ethics-soc-3#safeguards.
[18]Castaño, Joel, 等. "Analyzing the Evolution and Maintenance of ML Models on Hugging Face." arXiv, 版本2, 2024年2月5日, https://arxiv.org/pdf/2311.13380.
[19]U.S. AI Safety Institute. "Managing Misuse Risk for Dual-Use Foundation Models." National Institute of Standards and Technology, 2025年1月,
https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.800-1.ipd2.pdf.
本文来自微信微信官方账号 腾讯研究院"(ID:cyberlawrc),作者:大型研究团队,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




