張平
北京大學法學院教授,北京大學人工智能研究院AI安全與治理中心主任
以該論文為基礎的同名文章詳見《電子知識產權》2026年第1期
摘要:在開放創新時代,人工智能模型開源逐漸成為技術擴散與產業協同的重要路徑。圍繞著作權、專利和商標等知識產權規則體系,開源技術在與之產生深層互動的同時,也對既有知識產權規則體系帶來了系統性挑戰。在此基礎上,聚焦人工智能模型開源以重點考察許可證規則的個性化、差異化發展、對商業價值的強化關注以及模型代碼與模型權重分置不同許可等方面的制度特征,并以DeepSeek為例考察以許可證為核心的開源社區構建實踐。此外,進一步從知識產權與合同法律風險、安全可控與技術依賴風險以及國際制度競爭與監管不確定風險三個維度思考模型開源的風險結構,并據此提出相應的技術治理路徑與科技安全治理對策,包括完善模型開源與知識產權制度的銜接機制,構建自主可控的人工智能開源社區與許可證,并在國際制度競爭中積極塑造中國開源規則的話語權,以期為數智時代開源治理提供規范與政策層面的綜合回應。
關鍵詞:人工智能;模型開源;知識產權;法律
引言
開源作為全球數字創新的重要協作機制,已成為大國科技競爭與產業自主創新的重要陣地。對我國而言,開源既是融入全球技術生態的直接路徑,也是應對外部技術限制、培育新質生產力的關鍵抓手。
我國開源政策已逐步納入國家數字化戰略的總體布局,呈現出從“積極參與”向“體系引領”升級的趨勢。“十四五”期間,我國開源生態進入體系化建設階段。《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》強調“支持數字技術開源社區等創新聯合體發展,完善開源知識產權與法律體系,鼓勵企業開放軟件源代碼、硬件設計和應用服務”。在此基礎上,多項專項規劃進一步細化。《“十四五”軟件和信息技術服務業發展規劃》強調繁榮國內開源生態,加強組織治理與基礎設施建設。《“十四五”數字經濟發展規劃》提出支持基于自主核心技術的開源社區與協作平臺。聚焦人工智能領域,《“十四五”國家信息化規劃》明確建設人工智能開源社區與公共數據集,推動框架與軟硬件協同。為保障相關成果,《“十四五”國家知識產權保護和運用規劃》將構建開源知識產權與法律體系納入關鍵任務,為開源生態的規則供給與治理能力建設提供了明確的法治支撐方向。進入“十五五”展望期,我國開源生態進入主導引領階段。相關研究與行業機構提出,需加強開源體系建設,打造原始創新策源地。與此同時,2025年工業和信息化部提出了下一步工作考慮,以加快推進開源體系建設,完善我國開源生態。
然而,我國開源生態在深化發展的同時,亦面臨著日益嚴峻復雜的外部環境挑戰。近年來,美國持續加強對華技術限制,其管制范圍已從硬件延伸至開源社區訪問及特定模型使用,試圖構建對華技術壁壘。美國以《出口管理條例》(以下簡稱EAR)為核心,構建起覆蓋硬件、技術和軟件的綜合性管制體系,在此框架下,注冊于美國的開源基金會(如Apache、Linux)及代碼托管平臺(如GitHub)理論上均受EAR約束。2025年1月,美國工業與安全局發布《人工智能擴散規則》,首次系統性地將“某類人工智能模型權重的跨境轉移”納入出口管制,并與針對先進計算芯片、云服務訪問的“人工智能擴散”政策配套實施。盡管該規則于同年5月被撤銷,但特朗普政府意圖構建人工智能高性能芯片管制體系的動向依然明確。美國商務部工業與安全局(BIS)亦表示,未來將推出新的《人工智能擴散框架》替代規則。2025年7月23日,美國發布《贏得人工智能競賽:美國人工智能行動計劃》,一方面主張向盟友輸出“美國人工智能全棧”以構建技術聯盟,另一方面要求強化對華出口管制并推動盟友協同。與此同時,美國亦積極介入全球南方國家的開源市場競爭。由此可見,美國對華開源技術的限制體系正呈現出范圍持續擴大、程度不斷深化、手段日趨多元的演進趨勢。
這一趨勢直接影響我國開源生態與人工智能發展。其一,國內開發者難以及時獲取前沿代碼與工具,不易參與國際協作與貢獻關鍵代碼;其二,我國研發體系被迫轉向自主或非美替代技術路線,短期內面臨性能落差、生態割裂與成本攀升等多重挑戰;其三,全球技術生態走向地緣化與碎片化,人工智能等關鍵領域對華技術壁壘逐步形成,一定程度上可能阻礙我國技術進步。
在內部發展需求與外部環境挑戰的雙重驅動下,我國的開源戰略正經歷從技術應用層面向規則主導層面的轉型。在此過程中,核心目標是建設更具自主性、開放性、韌性的本土開源生態,發展更為領先、安全、可信的人工智能體系。而實現此目標的關鍵在于加快完善開源知識產權應用機制,為創新主體提供清晰穩定的制度環境,激發開源活力,促進開放共享,助力科技創新,推動我國在全球開源治理體系中扮演更為積極、建設性的角色,提升制度性話語權。
一、開放創新時代的開源技術與知識產權規則體系
開放創新日益深化,開源運動已從最初排除知識產權制度轉向靈活應用知識產權規則。開源范圍也隨之擴大,包括開放源代碼、開放專利授權、開放數據共享以及開放知識產權。這一趨勢體現了我國開放創新的實踐形式日益豐富,該領域的知識產權應用也已進入高級階段。
(一)開源許可證與著作權開放政策
開源運動最初源于對傳統著作權體系的反思,隨著其不斷發展完善,逐漸與著作權制度兼容,并借助著作權制度的“排他性”機制實現其開放共享的目的。在這一過程中,開源許可證是落實著作權開放政策的最直接有效工具。本質上,開源許可證是一份具有合同效力的法律文件,其明確規定開發者和使用者之間的權利義務,一方面授予使用者以使用、研究、復制、分發等權利,另一方面也設定了使用者需遵守的一系列義務,如保留原作者的著作權聲明等。通過這種方式,開發者得以突破傳統著作權“保留所有權利”的默認規則,實現“部分權利保留”,在開放創新與核心利益保護之間取得更好平衡。
為適應不同的商業需要和協作模式,開源許可證發展出多種類型。以衍生作品的開放要求為例,可主要分為兩類。一類是寬松式許可證,如MIT、Apache 2.0等,修改后的代碼可以閉源,運用至商業軟件。此類許可證可以最大化利用代碼,繁榮生態,促進創新。另一類是著佐權(Copyleft)許可證,以GPL為代表,要求衍生作品必須以相同的開源許可證保持開源,以此維持開源生態的延續性。
聚焦到人工智能領域,開源生態顯現出由“技術開放”向“負責任開放”演進的全新趨勢。傳統意義上的技術開放主要關注代碼的可用性,并以促進協作與創新為核心目標。然而,人工智能模型的開源不僅包括傳統的模型代碼,還擴展至模型權重、訓練數據等復合型組成部分。在此背景下,開源實踐不僅需要繼續推動技術創新,還應積極應對人工智能可能引發的社會與倫理風險,包括但不限于數據濫用、隱私侵犯、虛假信息生成以及惡意攻擊等。以Hugging Face為代表的平臺在推進模型開源時,除沿用MIT、Apache 2.0等傳統許可證外,亦逐步引入諸如BigScience OpenRAIL-M、CreativeML OpenRAIL-M等強調“負責任使用”的新型模型許可證,明確禁止歧視性用途,并對特定執法與司法應用施加限制。此類“負責任開放”的生態導向,有助于在推動人工智能的開放創新與維護社會價值之間實現良好平衡。
(二)開源技術中的專利政策
開源運動憑借開源許可證實現了著作權法體系下的制度創新,但其在專利制度中卻面臨潛在威脅。一方面,專利法所保護的是基于產品、方法或其改進的技術方案,其保護性質更具功能性與排他性。這意味著,即使開發者在未參考任何專利文檔的情況下獨立編寫代碼,但只要其實現的技術方案落入某一專利的權利要求范圍,仍可能構成侵權。另一方面,雖然開源與專利制度都強調公開,但專利法要求的充分公開通常不包含程序代碼,這種公開內容上的不對等,進一步增加了開源社區在不知情狀態下侵犯專利權的可能性。
為化解上述專利風險,開源生態已逐步發展出一套多層次的法律與治理應對機制。其一,在開源生態中,發展“逆向回轉”的專利策略。具體而言,開發者先申請專利,后授權他人免費使用,但保留在特定條件下收回權利或進行防御的能力。這樣既可以促進開放共享,又可以維護企業利益。2014年,特斯拉公開300多項電動汽車專利,允許全球善意使用,意在推動電動汽車技術普及,促進電車產業整體發展,同時確立特斯拉的技術領導地位。豐田于2015年和2019年先后開放燃料電池與電動化技術專利共計約2.4萬件,旨在推廣其技術路線,構建以豐田為核心的標準生態。2021年,華為將歐拉開源操作系統(openEuler)正式捐贈給開放原子開源基金會,內容包括代碼和軟件包、創新項目、商標、域名、社區基礎設施等。2024年,華為開源操作系統OpenHarmony面向全場景、全連接、全智能時代開放,由開放原子開源基金會管理。以上這些企業通過開放核心專利,推動形成事實標準,掌控底層數據與模型,以構建開源生態并最終在生態中占據主導地位,形成競爭壁壘。其二,構建防御性專利聯盟。開放發明網絡(OIN)是目前全球最大的防御性專利池,成員間交叉許可Linux系統相關專利,承諾不對開源社區行使專利權,有效降低了專利訴訟風險。隨著人工智能開源項目的普及,OIN也已將人工智能與機器學習相關專利納入其防護范圍。其三,在開源許可證中設計專利互惠條款,要求貢獻者授予用戶必要的專利許可,并對提起專利訴訟者實施許可終止的反制,這種“反訴終止”條款有效抑制了專利攻擊行為。
(三)商標控制在開源治理中的功能
開源模式依托開放共享促進技術創新,然而項目品牌的交叉與混合使用亦衍生出復雜的治理問題。在開源生態中,其商標控制通常依靠制定商標使用政策實現。該政策通常由項目所屬的開源基金會、社區成立的獨立法律實體或主導項目的商業公司主導制定,其明確規定社區貢獻者、下游分發者、商業合作伙伴各自有權使用商標的許可場景、行為規范與侵權救濟途徑,如谷歌推動成立了“開放使用共同體”(OUC),統一管理旗下三個重要開源項目的商標權,包括Istio、Angular和Gerrit Code Review,即體現了通過制度化安排實現商標治理的典型思路。
需要強調的是,商標權獨立于著作權,開源貢獻者基于開源許可證貢獻代碼,但并不代表著其自動取得商標使用權,因此不得擅自使用項目商標為其個人產品背書。以Meta Llama 4為例,該模型文本事先聲明,除滿足協議特定要求外不對外授予商標許可,并要求使用者遵守Meta的品牌規范。再如Android商標,Android相關商標由Google掌握,未經Google許可,即使使用開源部分的Android代碼,也不能使用Android相關商標,否則構成商標侵權。若使用Android相關商標,必須依據Android官方網站所發布的品牌指南規則所限制的方式進行使用。這些案例都充分說明,在開放代碼、繁榮生態的同時,也需要嚴格控制商標,防止品牌價值稀釋,維護市場競爭優勢。
在對商標授權設定嚴格邊界的同時,還必須同步審慎規制商標的復合使用行為,即規范將項目商標與其他品牌商標、設計元素或標識進行組合、拼接或關聯展示等各類使用情形。此類做法表面上可能有助于提升視覺效果或辨識度,實則容易削弱商標區分商品或服務來源的核心功能,并在無形中模糊既有品牌形象,造成品牌價值的稀釋甚至信譽受損。因此,有必要對這類使用予以嚴格限制并原則上加以避免,明確禁止使用者將項目商標納入其自身品牌標識體系或構成要素之中。以《Mozilla商標指南》為例,其明確規定不得將Mozilla商標用于其他產品名稱,不得將其商標與任何其他符號、文字、圖形組合使用或嵌入標語,不得作出任何足以暗示Mozilla背書或存在特定關聯關系的表述,并要求在合法使用時附加商標權屬聲明,以凸顯權利歸屬與授權邊界。由此可見,商標規范并非形式性的技術要求,而是維護品牌清晰形象與開源生態有序運行的關鍵制度安排,開源社區的各類參與者均應予以高度重視并嚴格遵守。
二、人工智能開源模型的許可證特點
與傳統源代碼開源不同,人工模型開源內容不僅僅包括源代碼,亦包括模型權重、訓練數據及方法等要素。與之相應的是,人工智能模型許可證亦呈現出不同于傳統開源許可證的差異性特征。一方面,人工智能模型開源許可證呈現出個性化、差異化的發展趨勢,同時亦與市場緊密關聯,更加聚焦商業價值的維護;另一方面,人工智能模型開源對于模型代碼與模型權重的許可呈現出分層特點,并圍繞許可證逐漸形成了相應的開源社區規范。
(一)開源許可證的個性化、差異化發展
人工智能模型開源許可證的演進呈現出由“通用化”向“個性化”發展的趨勢。在大模型發展早期及部分學術項目中,開發者常采用成熟的開源許可證。如Apache-2.0、MIT 等傳統開源許可證仍然被廣泛采用,特別是在模型代碼層面。MIT 許可證以其高度寬松、幾乎不設使用場景限制和再許可條件的特點,成為眾多模型項目代碼倉庫的首選。例如,DeepSeek-R1 在GitHub與Hugging Face上均表明“模型權重采用 MIT 許可證”,明確允許商用、修改與再分發,且支持基于輸出結果進行再訓練。類似地,部分Qwen 3系列模型與Mistral系列模型仍沿用Apache-2.0或其他OSI認可的通用許可證,用以覆蓋模型代碼或部分權重。
如今,隨著模型訓練成本的指數級上升,模型發布者不再愿意無條件讓渡大量權利。越來越多的人工智能開源模型開始采用定制化、差異化開源許可證。許多頭部企業甚至做到“一個模型一項許可證”,針對不同版本、不同尺寸甚至不同用途的模型分別制定獨立協議,對其使用范圍、商用條件、溯源義務、安全要求等進行精細化差異設計。如Meta 針對Llama 3、Llama 3.1、Llama 3.2、Llama 3.3 分別發布對應的“Meta Llama 3/3.1/3.2/3.3 Community License Agreement”,在版本間對商業門檻、命名義務與合規要求作出細微調整;蘋果為OpenELM系列模型采用“Apple Sample Code License”,在傳統示例代碼許可證基礎上嵌入對模型權重與生成結果使用的特別說明;Mistral AI針對“非生產用途”和“研究用途”,分別發布“Mistral AI Non-Production License(MNPL-0.1)”與“Mistral AI Research License(MRL-0.1)”兩種定制協議,明確禁止在未獲授權的情況下將模型用于生產環境。這些案例均體現了開源許可證從通用范式轉向個性化定制的趨勢。
開源許可證的個性化、差異化發展表明企業已不再被動套用現有通用許可證,而是主動依據其特定商業模式、技術開放的戰略考量以及風險評估,系統性設計許可條款。這不僅有助于企業維持開放生態紅利,也能夠使其牢牢把握對關鍵技術與商業路徑的核心控制權。
(二)關注商業價值的開源許可證
為保護技術成果,維護商業利益,越來越多的開源許可證引入了以“月活躍用戶(以下簡稱MAU)”為核心的商業限制條款,區分不同體量用戶的使用權利。借助此類許可證,企業可以實現維持開源生態紅利和自身市場競爭力的良好平衡。面對中小開發者、初創企業和研究機構等不直接構成競爭壓力的主體,企業可選擇免費開源,賦予其修改、分發等權利。這不僅能夠促進自身代碼的持續優化,還能增強模型代碼的使用率,以便更快構建企業的市場生態體系。而對于實力更為強勁的競爭對手,則可通過MAU條款設置合理的使用門檻,一方面控制核心數字資產的無償共享,另一方面也能創造潛在的商業收入或者合作機會。
典型例子如Llama 4,其社區許可協議規定,產品或服務月活躍用戶數超過7億的主體須向Meta另行申請許可,否則無權依據該協議行使任何權利。據統計,全球月活躍用戶數超7億的主體屈指可數,因此該條款的指向性極強,旨在限制向規模龐大、實力雄厚的主體無償共享代碼,以此維持自身競爭力,形成戰略性開放格局。同樣地,Qwen定制許可證規定“產品或服務月活躍用戶超過1億”的主體需另行與阿里云協商商用授權。部分如Xverse等許可證更為嚴苛,其直接規定,凡涉及商業用途必須事先獲得許可方書面授權。
(三)模型代碼與模型權重采用不同許可證
人工智能系統的模型代碼和模型權重具有完全不同的法律屬性與商業價值。模型代碼指編寫人工智能模型的源代碼,如訓練推理的邏輯,其本質是可讀可修改的軟件,易于復現。模型權重指人工智能訓練后的參數值,承載了數據和訓練過程,其是人工智能系統的核心,是企業最具價值的數字化資產,價值巨大且不可復現。因此,二者通常采用不同的開源許可證。模型代碼通常采用較為寬松的許可證,推動開源生態保持開放創新;而模型權重則需要施以更嚴格的限制以維護開發者的核心利益和市場優勢。
以DeepSeek推出的相關模型為例,其在授權模式上的差異化設計具有一定代表性。DeepSeek-R1與DeepSeek-R1-Zero的模型代碼和模型權重均適用MIT許可證,對外開放程度較高。在此之后推出的DeepSeek V系列、DeepSeek LLM系列等模型,則改為采用分類許可模式,將模型代碼與模型權重分別加以規定。其中,模型代碼繼續適用相對寬松的MIT許可證,允許用戶在較大范圍內進行修改、分發和使用,從而有利于技術傳播與生態發展;模型權重則適用由DeepSeek自主制定的許可證,通過對未經授權的再分發和商業化利用設置較為嚴格的限制,以維護開發者的核心權益。類似的安排也體現在Meta發布LLaMA模型時的做法上,其模型權重在發布初期僅限于學術研究用途,之后又通過社區許可協議,在附加條件下以非完全開放的方式對外提供。由此可見,在當前人工智能領域,公開模型代碼并對模型權重設置一定的使用與分發限制,正在逐步演變為在開放共享與商業利益保護之間尋求平衡的主要授權模式。
(四)以許可證為核心的開源社區建設——以DeepSeek為例
開源許可證不僅是具有合同效力的法律文書,更是構建開源社區的重要支撐。其重要性體現在以下三個方面。
第一,以開源許可證為核心的社群規范為開源社區內各類主體提供了明確的行為指引。對貢獻者而言,開源許可證幫助其了解參與項目的行為規范,明確貢獻代碼的授權方式等;對使用者而言,開源許可證可以使其掌握使用代碼的條件和范圍,熟悉衍生作品的開源要求等;對維護者而言,開源許可證助力項目發展方向和治理規則的搭建,以及推動構建爭議解決機制;對企業而言,通過開源許可證能夠更好地制定內外部開源政策,在開放創新與維護利益之間取得平衡。以DeepSeek為例,DeepSeek-R1、DeepSeek-R1-Zero等模型代碼和模型權重均采用MIT許可證,賦予用戶更加自由的使用、修改、分發權利。而DeepSeek V系列、DeepSeek LLM系列等的模型權重則采用DeepSeek定制許可證,類似于負責任的人工智能許可證(Responsible AI License, RAIL),旨在限制用戶利用模型進行特定行為,如傳播虛假信息、生成暴力內容、監視欺騙、侵犯隱私等等。開發者在使用受DeepSeek許可證約束的模型時,必須明確同意不會將模型用于生成虛假信息或進行網絡攻擊等惡意行為,從而在源頭上對模型的惡意使用進行控制和約束。
第二,同一類型許可證的不同分支交錯重疊,在社群中形成嚴密的“許可證叢林”。DeepSeek在Hugging Face上多個模型,不同模型的許可證存在或細微或顯著的差異。但這種“叢林”并非混亂,而是社區針對不同項目、不同發展階段、不同目標用戶進行精細化權利控制的體現。核心項目可能采用更嚴格的許可證以保護其核心價值,而工具庫或周邊生態可能采用更寬松的許可證以促進快速采納。開源社區可以策略性地選擇不同許可證,以平衡開放性與商業利益之間的關系。
第三,開源許可證的合理運用,有利于企業拓展市場對外擴張市場,提升影響力并鞏固競爭優勢。一方面,DeepSeek-R1、DeepSeek-R1-Zero等模型代碼和模型權重均采用MIT許可證。這一寬松許可證,給予用戶更加自由的使用、修改、分發權利,能夠吸引全球開發者參與代碼審查,促進代碼問題發現,加快代碼更新迭代,提升代碼質量。同時,DeepSeek不強制要求衍生作品開源,允許第三方將代碼集成至閉源商業軟件中。此舉大大降低了其他企業的采用門檻,有助于快速擴大用戶基礎和生態影響力,推動從“技術共享”到“生態搭建”的階段轉化,有利于推動模型在更多場域的高質量部署。當前,DeepSeek-V3、R1已被中國工商銀行、中國郵政儲蓄銀行、北京銀行等多家銀行機構本地化部署,用于智能問答、指標問答、客服助手等面向客戶或內部員工的智能服務。另一方面,DeepSeek注重開源社區的透明度與信任度。DeepSeek組織開源周等活動,每日開源新內容,同時鼓勵貢獻文檔、教程,建立技術支持論壇,這些舉措均有助于加快建立與開發者的信任關系,激發社區的參與熱情,提高社區影響力,持續維持并不斷提高競爭優勢。
三、開源技術與人工智能模型開源的風險結構
信息技術革命的浪潮正在深刻重塑全球經濟與社會結構,開源運動的蓬勃發展是其核心驅動力之一。目前,開源已從一種邊緣化的開發實踐,演進為支撐數字社會運轉的核心基礎設施。當開源浪潮和人工智能這一顛覆性技術交匯時,風險的復雜性與深刻性進一步被放大。大型語言模型、生成式人工智能等基礎模型開源,在極大促進技術民主化與創新迭代的同時,也將其固有的、被放大了的法律安全治理風險傳遞給了全球開發者與用戶。傳統軟件開源所面臨的挑戰在人工智能模型開源語境下有了新內涵和更強的治理緊迫性。
(一)知識產權與合同法律風險
人工智能模型開展的開源實踐本質上屬于通過特定許可協議實施的知識產權授權行為,傳統開源許可證是從代碼文本的著作權法邏輯開始的,然而人工智能模型的法律屬性涉及作品、技術秘密與數據集合等方面,這使得既有規則面臨嚴重的適配性難題。
開發者常常會投入大量資源,對從開源社區獲取的源代碼或者基礎模型加以改進、微調,進而形成具備獨特競爭優勢的衍生模型,這些經過改進之后的技術信息,能否被認定為商業秘密,是實踐過程中面臨的首要難題。按照我國《反不正當競爭法》相關規定,商業秘密需要滿足“秘密性”“保密性”和“價值性”這三個要件,然而人工智能模型開源的“傳染性”或者“衍生性”特征,對“秘密性”的認定構成了根本性挑戰,許多主流的開源許可證像GPL存在所謂的“著佐權條款”,要求基于GPL許可的軟件所開發的任何衍生作品,都必須以相同的GPL許可證進行開源,一旦開發者使用了GPL組件來改進其人工智能模型,其改進成果理論上就不再具有“秘密性”,因為許可證本身強制要求其公開,會產生“著佐權條款”的強約束風險。
早期開源運動對軟件專利持強烈排斥態度,視其為與開源共享精神相悖的事物,隨著開源商業模式成熟以及人工智能領域硬件與軟件深度融合,開源社區對專利態度從絕對排斥變為謹慎共存。現代很多開源許可證明確包含專利授權條款,規定貢獻者貢獻代碼時授予所有下游用戶非排他全球性免費專利許可,涵蓋其貢獻中包含的任何專利權利,這一設計目的是防止貢獻者用專利對開源社區進行“伏擊”,但此種默示許可機制亦潛藏深層風險。其一,對于人工智能模型來說,其創新點可能會同時受到版權和專利的雙重保護。一方面,只要模型代碼具備最低限度的獨創性,即可作為軟件作品納入著作權法的保護范圍;另一方面,與該模型密切相關的神經網絡架構、訓練方法、優化算法乃至特定系統組合方案,也有可能符合專利法關于新穎性、創造性和實用性的授權標準。在這種雙重保護格局下,單純依靠傳統開源許可證中的一般性條款,難以窮盡各類權利類型及其邊界,容易導致下游使用者對其實際獲得的專利授權范圍產生誤判。其二,硬件開源讓專利困境變得更加嚴重。人工智能的運行沒辦法離開高性能的計算芯片,而芯片設計屬于知識產權壁壘較高的領域之一。雖然人工智能模型開源內容可能包含相應的開源指令集架構,但是高端人工智能芯片的制造與設計依舊被少數巨頭通過專利組合牢牢掌控,開源人工智能模型和專有硬件的結合讓專利風險更難以剝離,模型開發者可能在不知情的狀況下使用依賴特定受專利保護的硬件功能進而陷入侵權糾紛。
(二)安全可控與技術依賴風險
人工智能模型的開源在促進技術普惠的同時,也如同打開了“潘多拉魔盒”,釋放出嚴峻的安全風險。這些風險不僅來自開源組件固有的安全漏洞,更在于人工智能模型本身“雙刃劍”屬性,還有由此可能形成的深層技術依賴路徑。人工智能應用并非憑空構建,它和傳統軟件一樣大量依賴開源第三方庫和框架。新思科技OSSRA報告揭示“84%的代碼庫至少包含一個已知開源漏洞”這種情況在人工智能領域同樣適用且更為嚴峻,人工智能系統里的安全漏洞存在“遺傳”和“放大”的效應。一個基礎的開源庫如果存在漏洞,所有依賴這個庫的上層人工智能框架以及最終模型應用,都會自動“遺傳”這一安全方面的缺陷,因為人工智能開發當中復雜的依賴鏈條,開發者甚至難以全面審計其應用里所有組件的安全狀況。新思科技報告指出,85%的代碼庫包含超過四年前的開源組件版本,這意味著大量已知的且本可修復的漏洞,正通過陳舊的軟件依賴在整個人工智能生態中持續擴散。
與傳統軟件不同,大型人工智能模型本身擁有強大能力,開源就意味著把這種能力,不管是善還是惡,無差別地交到全世界手上。一個開源且能力強大的語言模型,既能用于學術研究以及代碼生成,也能用于制造大規模虛假信息、發動高級網絡釣魚攻擊、自動化生成惡意代碼。部分負責任的人工智能機構在開源其模型時,會采取一系列安全緩解措施,發現并修復模型危險能力、對模型進行安全微調讓其拒絕生成有害內容、在許可證里加入使用限制條款。然而一旦模型的權重被公開發布,技術上稍有實力的行為者就能輕易“越獄”或移除這些安全限制,他們能通過進一步微調,重新激活或增強模型的有害能力,創造出一個對立面的孿生版本,這種風險是開源模式內生的,難以借助技術補丁或法律條款徹底根除。
在開源旗幟之下或許會隱藏新的技術壟斷與依賴,當科技巨頭主導開發的人工智能框架或基礎模型成為行業標準時,整個生態系統可能會被其技術路徑所鎖定。一方面,在生態兼容性上,大量預訓練的方案、第三方商業化利用的工具往往圍繞主流框架進行構建,開發者若選擇非主流框架可能會面臨生態資源匱乏、學習成本高昂等現實困境;另一方面,在技術演進方向上,占據主導地位的企業通過對核心代碼和關鍵接口的實際控制,事實上掌握了人工智能模型未來發展的節奏與方向。實際上,這些巨頭企業在開源的形式之下塑造出了新的技術控制結構與競爭優勢,嚴重遏制了其他企業主體的發展空間與創新動力,不利于市場的公平競爭和技術的創新發展。
(三)國際制度競爭與監管不確定風險
各國圍繞人工智能治理的立法競賽,以及對開源人工智能模型的不同監管態度,為開發者和跨國企業帶來了巨大的不確定性風險。目前,全球主要經濟體都在加快構建自身人工智能監管框架,但其在路徑和重點存在差異呈現出碎片化狀態。歐盟《人工智能法案》會對“通用目的人工智能模型”施加額外的透明度、風險管理和評估義務,美國更多依靠現有法律框架的延伸以及行政部門的命令來實施監管,中國的監管路徑則著重于具體應用場景和算法備案,典型如國家互聯網信息辦公室等部門發布的《生成式人工智能服務管理暫行辦法》規定,要求提供生成式人工智能服務的組織和個人開展安全評估和算法備案。全球監管版圖出現的此種分化趨勢,表明一個開源人工智能模型的發布和使用或許要在不同法域遵循截然不同的規則,開發者必須投入大量資源開展法律研究,以避免在歐盟、美國、中國等關鍵市場遭遇運營障礙。
伴隨人工智能國際競爭的加劇,人工智能開源許可證所引發的開源政治風險亦會隨之到來。在開源運動的發展過程中,開源許可證曾被用作商業競爭的工具,開發者通過刻意構建結構復雜且規則繁復的“許可證叢林”以實質性提高競爭對手的合規成本,從而在市場競爭中獲得制度性優勢。值得注意的是,在地緣政治格局日益緊張與技術競爭不斷加劇的情況下,被視為商業競爭工具的開源許可證極有可能被嵌入符合國家價值觀卻和其他國家法律或產業政策沖突的條款,進而成為服務國家利益或企業聯盟整體戰略的“選邊站隊”的工具以迫使全球開發者在不同技術生態和制度體系間做選擇。此外,開源社區潛在的壟斷行為也需要引起警惕。當開源基金會或社區在全球范圍內具備廣泛影響力時,其所作出的規則調整、項目合規決策往往不再局限于社區內部,而是具有事實上的全球外溢效力,進而對跨國技術合作、產業競爭秩序乃至各國規則治理結構產生實質性影響。在此情形下,如果相關決策過程受到特定國家利益或特定利益集團偏好的顯著影響,便可能進而演變成變相的技術壁壘、歧視性待遇,甚至構成對特定主體的事實性拒絕交易,從而在功能上偏離開源所宣稱的開放、共享與非歧視等核心理念。
四、人工智能模型開源的技術治理路徑與科技安全制度對策
如今人工智能浪潮正以席卷之勢覆蓋全球,開源模式已然成為推動技術創新、構建產業生態以及促進知識共享的核心驅動力,然而人工智能模型具有復雜性、數據依賴性以及潛在社會與安全影響,這讓傳統軟件開源治理框架面臨前所未有的挑戰。人工智能模型的開源不只是涉及代碼層面,還關乎算法、權重以及數據等核心要素,其治理路徑必須在激發創新活力與管控安全風險之間,尋求系統而精細的平衡。
(一)完善人工智能模型開源與知識產權制度銜接
人工智能模型的開源實踐并非發生在既有法律體系之外,而是嵌入在著作權、商標權、專利權、商業秘密以及數據相關規則所構成的既有制度結構之中,其運行空間與發展方向在很大程度上受到這些制度安排的影響。開源運動最初起源于對著作權“保留所有權利”模式的一種反叛行為,并且通過許可證的方式創設出了“保留部分權利”的共享范式,在現有的知識產權框架范圍之內,對模型開源所具有的特殊性進行精準界定與調適,以此確保激勵創新和促進開放之間達到平衡。與傳統源代碼開源相比,人工智能模型開源內容不僅僅包括模型代碼,還包括模型權重、訓練數據以及模型輸出等多種要素。如果缺乏對這些要素在法律屬性上的合理劃分以及不同規則之間的有效銜接,開源實踐容易在權利歸屬、邊界認定和責任承擔等方面不斷累積不確定性,既削弱開源在促進創新協同方面的積極作用,也增加技術主體在長期經營和跨界合作中的制度風險。為此,有必要在尊重開源精神與市場發展規律的基礎上,進一步加強人工智能模型開源與知識產權制度的銜接,以推動形成兼顧開放與秩序的規則環境。
在內部制度層面上,完善人工智能模型開源與知識產權制度的銜接,首先需要在理論和規范解釋上形成相對統一的基本立場,即將開源許可證理解為權利人在既有知識產權框架內的一種運用方式,而非權利保護的對立面。一方面,有必要對模型相關要素在不同情形下的法律屬性作出較為清晰的類型化判斷,對模型代碼、模型權重以及訓練數據等內容分別說明其與著作權、商標權、專利權、商業秘密或其他制度之間的對應關系,并據此梳理開源條款與復制、修改、傳播、再許可等權能之間的對應邏輯。另一方面,通過政策指引、指導性案例或統一的解釋規則,逐步明確哪些行為可以視為在許可范圍之內,哪些行為屬于超越授權的利用,以及在何種條件下可以適用權利限制條款,從而使權利人、使用者以及司法機關在判斷事實與適用規范時擁有較為一致的共識,為模型開源提供穩定的解釋環境和可預期的法律后果。
此外,推動人工智能模型開源與知識產權制度之間形成良性銜接,不僅是出于化解法律風險的需要,還關系到未來創新格局和開放合作空間的塑造。從國內層面看,通過在立法政策、司法裁判和行政監管之間逐步形成自洽的規則體系,為模型開源提供明確的使用邊界和條件,將有助于增強科研機構、企業和開發者對開源模式的制度信心,減少因不確定而產生的顧慮,使更多前沿成果在可控范圍內向社會開放,形成創新資源共享與產業升級之間的良性互動。從國際層面看,在全球范圍內圍繞人工智能技術展開的規則競合已呈現加速態勢,各國對開源模型的政策態度、知識產權保護方式以及安全監管路徑,將共同影響未來開放格局的走向。在此背景下,通過在國內先行形成較為成熟的銜接路徑與實踐經驗,不僅可以為本國主體參與跨境開源合作提供堅實的制度支撐,也有利于在國際對話中提出具有說服力的規范主張,在保持技術開放的同時,維護自身合法權益與科技安全,進而實現從被動適應他律規則向積極參與甚至引導規則形成的轉變。
(二)建立自主可控的人工智能開源社區和許可證
在人工智能技術高度依賴開源生態的發展格局下,構建具有自主可控能力的開源社區與許可證體系,已經不僅是一項技術問題,更關涉國家科技安全、產業基礎穩固以及數字治理能力的整體提升。當前人工智能領域大量關鍵算法、基礎模型和技術路線,仍然高度依賴其他國家主導的開源社區及其規則體系,一旦外部環境、平臺政策或相關國家法律政策發生變化,開源社區運行秩序乃至訪問權限、使用范圍都可能受到實質性影響。為此,圍繞人工智能建立具有自主可控空間、滿足本國法律與治理需求、又能持續吸引和凝聚開發者的開源社區和許可證,不僅是提升技術創新能力和產業競爭力的內在要求,也是防范關鍵技術受制于人的重要保障,對于增強人工智能領域的安全韌性、培育本土開源文化、形成穩定的技術合作網絡,具有不可替代的戰略意義。
與開源社區的可持續運行密切相關的,是以許可證為核心的開源規則體系能否實現自主可控與本土適配。長期以來,廣泛使用的開源許可證多產生于域外法律環境,其制度邏輯、責任劃分以及默認前提往往以國內法為背景,在適用于人工智能模型這一全新技術客體時,在著作權、專利權、數據合規要求等多個維度與本國法律政策之間可能存在縫隙乃至沖突。如果缺乏面向人工智能場景、以本國法治為基礎的開源許可證體系,不僅不利于開發者準確理解自身權利義務,還容易在大規模商業化應用時積累合規風險。因而,有必要在堅持著作權、專利權、數據治理等既有基本制度的前提下,面向模型這一新型客體,形成若干層次分明、適用場景清晰的許可證范型,在宏觀層面上對模型的可獲取性、可修改性、可再分發性以及商業化條件作出原則性安排,并通過政策引導、行業自律和典型實踐逐步沉淀為具有普遍指引意義的“規則共識”,從而在促進模型資源開放共享的同時,為相關主體提供明確可依的規范基礎。
從制度形態與運行機制的角度看,建立自主可控的人工智能開源社區和許可證并不意味著脫離國際開源傳統而另起爐灶,而是需要在吸收既有開源經驗的基礎上,以本國法律體系、產業結構和安全需求為約束條件,形成具有內在一致性的社區治理架構和許可證規則體系。社區層面,應當通過清晰的成員角色劃分、透明的決策程序和可預期的合規要求,協調科研機構、企業主體、開發者群體以及公共部門之間的多元參與,既保障技術協作的開放性和活力,又確保關鍵資源與核心項目不因治理失序而陷入碎片化或被少數主體事實控制。許可證層面,則需要圍繞模型代碼、模型權重、訓練數據及配套工具等不同要素,構建與本國知識產權、數據安全與網絡安全規則相銜接的授權框架,明確允許行為、限制行為與義務要求之間的邊界,使參與者在遵守社區規則的同時,能夠對自身權利、責任和風險形成清晰預期。通過社區治理規則與許可證條款的相互配合,可以將“自主可控”的要求具體化為對關鍵基礎設施的掌握、對規則制定權的實質參與以及對重大風險環節的有效約束,而不是簡單的技術封閉或形式上的所有權控制。
(三)在國際制度競爭中塑造中國開源規則話語權
在全球化時代背景下技術標準競爭本質實則是規則與話語權競爭,人工智能開源作為全球性協作事業,其治理規則形成過程已成大國科技博弈新場域。中國作為人工智能領域重要參與者,不能僅滿足扮演規則的被動接受者,而要積極主動參與乃至引領國際開源規則的制定工作,把國內治理實踐經驗轉化成具有普適性的國際標準和制度規范,進而在全球人工智能治理體系里嵌入中國智慧與中國方案。此外,應積極發展軟法引領作用,通過開展更多高質量的司法實踐活動,逐步明確人工智能模型開源許可證中涉及數據、模型權重、倫理約束等新型條款的法律效力以及解釋規則。每一個清晰且合理的司法裁判,都是向國際社會展示中國保護知識產權、尊重契約精神、擁抱開源創新法治理念的實踐樣本。在此基礎上,我國還應積極參與并深度融入現有的國際人工智能標準化與治理體系,鼓勵和支持我國的專家學者以及企業代表更廣泛且更深入地參與到國際標準化組織的工作當中去,努力實現從“跟跑者”向“并跑者”甚至“領跑者”的轉變。
中國在多邊平臺上的角色,應從技術貢獻擴展向規則塑造演變。對于開源模型的透明度、可解釋性、公平性、安全性評估標準以及數據治理規范等核心議題,我國應當系統性地闡述自己的立場和主張,借鑒國內在《網絡安全法》《數據安全法》《個人信息保護法》以及《生成式人工智能服務管理暫行辦法》等立法實踐中所積累的經驗,把其中的合理內核提煉成為具有國際適用性的原則和標準草案,并提交給國際組織進行相關討論。在此基礎上,圍繞開源人工智能的安全與利用,我國可倡導并形成相應的模型治理框架與社區合規建議,為不同應用場景下的模型開源設置清晰化、明確化的使用準則,通過在國際場域持續不斷地發聲和做出專業貢獻,逐步提升我國在人工智能開源規則制定中的影響力和制度性話語權。同時,還應堅持以“一帶一路”倡議和人類命運共同體理念為指引,構建和推廣具有中國特色、為廣大發展中國家所接受的開源治理新范式,倡導一種更加包容、普惠和注重發展的開源治理理念,以此確保人工智能模型開源在保障開源主體合法權利的同時,促進人工智能技術的普惠性發展。
通過構建平行于西方體系且與之互補的開源合作網絡和規則體系,我國既能夠為全球人工智能均衡發展貢獻自己的力量,還能夠在廣大發展中國家群體中樹立負責任建設性的領導者形象,進而在地緣政治和科技競爭日益激烈的當下為我國開辟廣闊且充滿善意的國際合作空間,最終在全球開源規則的多元博弈格局中占據有利地位。
結語
人工智能模型開源是信息技術革命與開放創新范式深度交匯的產物,其發展既推動了技術民主化和全球協作進程,也暴露出知識產權、技術安全和國際治理等多方面復雜性。本研究系統揭示了開源技術和人工智能模型開源在知識產權規則、法律風險以及治理路徑上的深層矛盾,暴露出傳統知識產權制度在應對技術快速迭代時的適配性危機,并揭示了開源社區治理與專利沖突等實踐挑戰。未來,相關研究要著力構建適應人工智能時代特征的知識產權治理框架,完善開源社區合規機制,推動技術治理和國際規則話語權協同發展,持續為人工智能的可持續發展提供更具前瞻性的制度支撐與治理智慧。
注:因字數關系,注釋省略。如引用、轉發請注明《電子知識產權》2026年第1期(未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任)
![]()
本公眾號定期推送知識產權及競爭政策相關的法律政策與政府文件、最新全球行業信息、原創文章與專家觀點、業內高端活動消息、《電子知識產權》(月刊)&《競爭政策研究》(雙月刊)文章節選及重磅全文、專利態勢發布、中心最新成果發布及相關新聞報道等諸多內容,歡迎各界人士關注!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.