![]()
4月24日,國產AI領軍企業DeepSeek(深度求索)在官方公眾號重磅宣布,全新系列大模型DeepSeek-V4預覽版正式上線并同步開源。作為國產大模型的標桿之作,V4不僅將百萬字超長上下文變成標配,更在Agent智能體能力、世界知識儲備與推理性能三大維度,拿下國內及開源領域的領先地位。更值得關注的是,它跳出單一算力依賴,同步適配英偉達GPU與華為昇騰NPU,還帶著年初重磅開源的Engram“查算分離”技術,為國產AI開辟出一條低成本、高性能的新路徑。從V3.2橫掃國際奧賽金牌,到Engram重構模型記憶邏輯,再到V4實現百萬上下文普惠,DeepSeek的每一步,都在改寫全球大模型的競爭格局。
一、雙版本齊發:性能旗艦與性價比之選全覆蓋
此次DeepSeek-V4采用“雙版本”策略,精準覆蓋不同用戶需求,且全部開源、全部標配百萬上下文,讓頂尖AI能力不再有門檻。
![]()
DeepSeek-V4-Pro:比肩頂級閉源模型的性能旗艦
V4-Pro定位高性能旗艦,總參數達1.6T、激活參數49B,是面向復雜專業場景的“全能選手”。
Agent能力拉滿:在AgenticCoding(智能體編程)評測中,V4-Pro拿下開源模型最佳成績,官方反饋其編程體驗優于Anthropic的Sonnet4.5,交付質量接近Opus4.6非思考模式,僅略遜于其思考模式。目前它已成為DeepSeek內部員工的主力編程模型,適配ClaudeCode、OpenClaw等主流Agent工具,生成PPT、編寫代碼、梳理文檔樣樣精通。
![]()
知識儲備領先:在世界知識測評中,V4-Pro大幅領先所有開源模型,僅稍弱于谷歌頂尖閉源模型Gemini-Pro-3.1,堪稱“行走的百科全書”。
推理性能頂尖:數學、STEM學科、競賽代碼等硬核測評中,V4-Pro超越所有公開評測的開源模型,比肩全球頂級閉源模型,推理水平約落后前沿模型3-6個月。
![]()
DeepSeek-V4-Flash:普惠百萬上下文的性價比之王
V4-Flash主打“輕量高效、經濟實惠”,總參數284B、激活參數僅13B,是日常場景的“最優解”。它的世界知識儲備略弱于Pro版,但推理能力接近,且因參數更小、激活更低,API調用更快、成本更低。簡單問答、日常Agent任務、輕量文檔處理等場景,Flash版完全夠用,讓普通用戶也能零門檻用上百萬上下文能力。
![]()
兩個版本均已同步上線API服務,支持OpenAIChatCompletions與Anthropic接口,只需修改model_name為“deepseek-v4-pro”或“deepseek-v4-flash”即可調用,官網與App也已同步開放體驗。
二、百萬上下文成標配:技術創新打破長文本處理瓶頸
“百萬上下文”是此次V4的核心亮點——100萬Token(約75萬字)的處理能力,意味著模型能一次性讀完整本《三體》、大型代碼庫或百萬字法律合同,全程不丟信息、不丟邏輯。
![]()
實現這一突破,靠的是DeepSeek自研的全新注意力機制+DSA稀疏注意力組合拳。傳統長上下文模型,每增加一點長度,算力和顯存需求就會暴漲,成本極高。而V4創新在Token維度壓縮信息,搭配DSA稀疏注意力,只聚焦關鍵信息計算,大幅降低長文本處理的算力與顯存消耗。官方明確表態:從V4開始,百萬上下文將成為DeepSeek所有官方服務的標配,不再是高端專屬能力。
對比前代V3.2,V4在相同上下文長度下,計算量和顯存占用直接下降一個臺階,這也是它能同時在英偉達和昇騰平臺流暢運行的關鍵——不再被高端算力“卡脖子”。
三、跳出單一算力依賴:國產AI的“多平臺適配”野心
此次V4技術報告中,有一個細節被業內高度關注:它不是只優化英偉達CUDA體系,而是同步在英偉達GPU和華為昇騰NPU上,完成細粒度專家并行(EP)方案驗證。
簡單說,DeepSeek-V4的推理路徑,已經具備跨算力平臺適配能力,不再綁定單一芯片。不過目前開源的底層代碼,仍深度依賴英偉達CUDA工具鏈,但官方已明確布局:一邊在現有CUDA生態做極致優化,一邊為華為昇騰預留空間,目標是把模型運行時從單一硬件依賴中解耦。
官方還透露,受限于當前高端算力供給,V4-Pro的服務吞吐暫時有限,但下半年華為昇騰950超節點批量上市后,Pro版價格會大幅下調。這意味著,DeepSeek正與國產算力生態深度綁定,未來普通用戶也能低成本用上頂級性能的大模型。
四、從V3.2到Engram:DeepSeek的技術積累,藏著V4的底氣
V4的爆發不是一蹴而就,而是DeepSeek長期技術深耕的必然結果——從V3.2橫掃國際奧賽,到Engram重構模型記憶邏輯,每一步都在為V4鋪路。
V3.2:推理能力封神,拿下國際四大奧賽金牌
2025年底發布的DeepSeek-V3.2,曾以“推理天花板”之名驚艷行業。它的長思考增強版V3.2-Speciale,結合DeepSeek-Math-V2的定理證明能力,推理性能媲美Gemini-3.0-Pro。
更震撼的是,V3.2-Speciale一舉斬獲IMO(國際數學奧林匹克)、CMO(中國數學奧林匹克)、ICPC(國際大學生程序設計競賽全球總決賽)、IOI(國際信息學奧林匹克)四大賽事金牌。其中ICPC成績達人類選手第二名水平,IOI達第十名,硬核推理能力全球公認。不過Speciale僅面向研究,成本高、不支持工具調用,而V4則把這種強推理能力,變成了可商用、可普惠的標配。
Engram:“查算分離”,重構大模型記憶邏輯
2026年1月,DeepSeek開源重磅論文與模塊Engram,提出顛覆性的“查算分離”機制,創始人梁文鋒親自署名,這一技術正是V4的核心底層支撐。
![]()
傳統大模型(不管是密集型還是MoE混合專家架構),參數同時承擔兩個角色:一是“記憶”,存儲海量事實知識(如“中國首都是北京”);二是“計算”,負責邏輯推理、多步思考。這種“混為一談”的設計,效率極低——記一個簡單事實,也要動用昂貴的矩陣運算,算力浪費嚴重。
而Engram的核心邏輯,就是**“該查表的查表,該算的算”**:
記憶(Engram模塊):把靜態事實知識,存到低成本的DRAM內存里,需要時直接檢索,不用重新計算,像查字典一樣高效。
計算(MoE模塊):昂貴的GPU算力,只專注復雜邏輯推理、代碼生成等需要深度思考的任務,不浪費算力在“死記硬背”上。
實測數據顯示,即使把千億參數的Engram記憶表掛載到CPU內存,相比純GPU推理,吞吐量下降不到3%,成本大幅降低,性能幾乎無損。這一技術直接解決了大模型“內存墻”與“算力墻”難題,也是V4能實現百萬上下文、跨平臺適配、低成本運行的關鍵底氣。
五、開源普惠:國產AI的格局與野心
從V2到V4,DeepSeek始終堅持“技術開源、能力普惠”的初心,此次V4開源更是誠意拉滿:開源鏈接同步上線HuggingFace和魔搭社區,技術報告全文公開,開發者可自由下載、部署、二次開發。
![]()
在全球AI競爭中,閉源模型(如GPT、Gemini)長期壟斷高端能力,成本高、門檻高,而DeepSeek的持續開源,打破了這種壟斷——讓全球開發者都能用上比肩頂級閉源模型的開源大模型,讓國產AI技術惠及全球。
更重要的是,V4的跨平臺適配、Engram的查算分離,為國產AI產業提供了新方向:不再盲目追求參數規模,而是靠架構創新、算力解耦、成本優化,實現高性能與普惠性的平衡。這不僅是DeepSeek的勝利,更是國產AI從“跟跑”到“領跑”的關鍵一步。
![]()
DeepSeek-V4的發布,不止是一款新模型的上線,更是國產AI技術的里程碑——百萬上下文普惠化、推理能力比肩全球頂尖、算力生態自主可控、底層架構創新突破。從V3.2的推理封神,到Engram的記憶革命,再到V4的全面開花,DeepSeek用實力證明:國產AI,完全有能力在全球舞臺上,與國際巨頭正面競爭,甚至引領方向。
未來,隨著昇騰算力的批量落地、Engram技術的深度應用、V4能力的持續迭代,國產AI或將迎來真正的“普惠時代”——頂尖AI能力不再是少數人的專屬,而是賦能千行百業、惠及每個人的基礎工具。而DeepSeek,無疑將是這場變革中,最核心的推動者與引領者。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.