今天,DeepSeek V4在萬眾期待中終于揭開了面紗,共兩個版本——V4-Pro和 V4-Flash,全系標配 1M(百萬字)超長上下文,同步開源模型權重和技術報告。
即日起登錄官網chat.deepseek.com或官方App,即可與最新的DeepSeek-V4對話,探索 1M超長上下文記憶的全新體驗。API服務已同步更新。
DeepSeek表示,相比前代模型,DeepSeek-V4-Pro的 Agent能力顯著增強。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,并在其他Agent相關評測中同樣表現優異。
目前DeepSeek-V4已成為公司內部員工使用的 Agentic Coding模型,據評測反饋使用體驗優于Sonnet 4.5,交付質量接近Opus 4.6非思考模式,但仍與Opus 4.6思考模式存在一定差距。
DeepSeek-V4-Pro擁有更豐富的世界知識,在世界知識測評中,大幅領先其他開源模型,僅稍遜于頂尖閉源模型Gemini-Pro-3.1。
此外,DeepSeek-V4-Pro還擁有世界頂級推理性能:在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro超越當前所有已公開評測的開源模型,取得了比肩世界頂級閉源模型的優異成績。
DeepSeek-V4-Flash則是更快捷高效的經濟之選——相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash在世界知識儲備方面稍遜一籌,但展現出了接近的推理能力。而由于模型參數和激活更小,相較之下 V4-Flash能夠提供更加快捷、經濟的 API服務。
在 Agent 測評中,DeepSeek-V4-Flash在簡單任務上與DeepSeek-V4-Pro旗鼓相當,但在高難度任務上仍有差距。
值得一提的是,DeepSeek-V4開創了一種全新的注意力機制,在token維度進行壓縮,結合 DSA 稀疏注意力(DeepSeek Sparse Attention),實現了全球領先的長上下文能力,并且相比于傳統方法大幅降低了對計算和顯存的需求。從現在開始,1M(一百萬)上下文將是DeepSeek所有官方服務的標配。
DeepSeek-V4的發布不僅展現了團隊在技術和架構上的積淀,也標志著開源大模型在國產算力生態下的實際落地能力。
V4技術報告第3.1節提到:“我們在英偉達GPU和華為昇騰NPU兩個平臺上均驗證了細粒度EP(專家并行)方案。”這是DeepSeek官方第一次在正式文檔中把華為昇騰和英偉達并列寫進硬件驗證清單。
經過對華為昇騰、寒武紀等國產芯片的適配優化,DeepSeek-V4系列實現了百萬token上下文的穩定支持和高效推理,使長鏈路任務與多步Agent執行成為可能,同時成本大降。
#DeepSeek #DeepSeekV4 #人工智能 #AI
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.