![]()
普及百萬上下文,價(jià)格依舊親民。
作者|連冉
編輯|靖宇
萬眾期待中,DeepSeek V4,終于發(fā)布了!
就在剛剛,被期待已久的 DeepSeek V4 預(yù)覽版正式登場。兩個(gè)版本——V4-Pro 和 V4-Flash,全系標(biāo)配 1M(百萬字)超長上下文,同步開源模型權(quán)重和技術(shù)報(bào)告。
五一前的這兩天,大模型又進(jìn)入新一輪發(fā)布潮。
4 月 23 日中午,「天才少年」姚順雨交出加入騰訊后的第一份模型答卷,騰訊混元 Hy3 預(yù)覽版亮相,2950 億參數(shù)的 MoE 架構(gòu),激活參數(shù) 21B,推理效率提升 40%,輸入價(jià)格壓到 1.2 元/百萬 tokens。
今天凌晨,OpenAI 面向付費(fèi)用戶上線 GPT-5.5 并官宣 API 計(jì)劃,主打 Agent 工作流和多步驟任務(wù)完成,上下文窗口拉到 100 萬 tokens,API 定價(jià)也水漲船高——輸入 5 美元、輸出 30 美元/百萬 tokens。
表面上,三家路徑各不相同:OpenAI 走高端閉源路線,繼續(xù)抬高價(jià)格天花板;騰訊把模型塞進(jìn)自家生態(tài),用性價(jià)比撬動規(guī)模化商用;DeepSeek 則延續(xù)開源傳統(tǒng),同時(shí)把上下文長度推到一個(gè)新的普惠臨界點(diǎn)。
同時(shí),Agent 能力、超長上下文、代碼與工具調(diào)用,這三個(gè)關(guān)鍵詞,在三家發(fā)布的新模型里反復(fù)出現(xiàn)。他們都在同一個(gè)方向上加注:讓模型能處理更長的信息,能在更復(fù)雜的任務(wù)鏈條里自主運(yùn)作,能真正嵌入到工作流程中去「干活」。
01
DeepSeek V4 的「實(shí)用主義」
DeepSeek 這次發(fā)布,把百萬字上下文從「高端選配」變成了「基礎(chǔ)標(biāo)配」。
在此之前,1M 級別的上下文長度,更多出現(xiàn)在旗艦閉源模型的高端版本里,高昂的調(diào)用成本足,以讓大多數(shù)開發(fā)者和中小企業(yè)望而卻步。
而 DeepSeek 的做法十分明確:V4-Pro 和 V4-Flash 兩個(gè)版本全系標(biāo)配 1M 上下文長度,前者錨定極致性能,后者提供普惠經(jīng)濟(jì)之選,完整覆蓋不同需求層級的用戶。這種「無差別下放核心能力」的策略,本質(zhì)上是在徹底降低長文本處理能力的行業(yè)獲取門檻。
![]()
圖片來源:DeepSeek 官網(wǎng)
Flash 版本主打極致低延遲與高性價(jià)比,是 DeepSeek 面向輕量化高頻場景給出的核心方案。憑借 13B 的激活參數(shù)、全新的 token 壓縮注意力機(jī)制與 DSA 稀疏注意力架構(gòu)優(yōu)化,它在保障接近 Pro 版核心推理能力的同時(shí),實(shí)現(xiàn)了極快的響應(yīng)速度,對于實(shí)時(shí)對話交互、函數(shù)調(diào)用流水線,乃至所有對響應(yīng)速度敏感的輕量化場景而言,這一特性能帶來體驗(yàn)上的本質(zhì)提升。
更關(guān)鍵的是具有競爭力的成本結(jié)構(gòu)。
根據(jù) DeepSeek 官方 API 定價(jià)文檔,F(xiàn)lash 版本采用階梯式計(jì)費(fèi)規(guī)則:緩存命中的輸入 token 低至 0.2 元 / 百萬 tokens,緩存未命中的輸入 token 為 1 元 / 百萬 tokens,輸出 token 定價(jià)為 2 元 / 百萬 tokens。
![]()
DeepSeek V4 各個(gè)版本成為|圖片來源:DeepSeek API 文檔
如此親民的定價(jià),疊加全系標(biāo)配的 1M 上下文能力,使得「單次調(diào)用成本」不再是工程設(shè)計(jì)中的核心約束——開發(fā)者可以優(yōu)先考慮產(chǎn)品體驗(yàn)與架構(gòu)設(shè)計(jì),而無需反復(fù)在調(diào)用次數(shù)與費(fèi)用之間做權(quán)衡。
Flash 解決的是「用得起、用得快」的普惠需求,V4-Pro 則在回答另一個(gè)核心問題:開源大模型的能力邊界,究竟還能被推到哪里。
最直觀的能力躍升,依然圍繞長上下文展開。DeepSeek 將模型上下文長度從上一代 V3.2 的 128K,直接拉升至 1M(一百萬 token),配合底層架構(gòu)的創(chuàng)新,在大幅降低長上下文計(jì)算與顯存需求的同時(shí),保障了全上下文窗口的性能無損。
在這一規(guī)模下,開發(fā)者可以直接導(dǎo)入完整代碼庫、超長行業(yè)文檔、多輪項(xiàng)目檔案甚至百萬字級別的完整書籍進(jìn)行端到端處理,無需額外搭建復(fù)雜的檢索增強(qiáng)生成(RAG)系統(tǒng),大幅簡化了長文本處理的技術(shù)鏈路。
在底層架構(gòu)上,Pro 版本采用了總參數(shù) 1.6T、激活參數(shù) 49B 的 MoE 架構(gòu),預(yù)訓(xùn)練數(shù)據(jù)量達(dá) 33T,是對 DeepSeek 混合專家路線的全面深化。官方評測數(shù)據(jù)顯示,其在數(shù)學(xué)、STEM、競賽級代碼等核心推理測評中,超越了當(dāng)前所有已公開評測的開源模型,達(dá)到了比肩世界頂級閉源模型的水平。
在 Agent 能力上,其交付質(zhì)量已接近 Claude Opus 4.6 非思考模式,內(nèi)部使用反饋優(yōu)于 Anthropic Sonnet 4.5,成為了 DeepSeek 內(nèi)部員工的主力 Agentic Coding 工具。
功能層面,V4 全系列兩個(gè)版本均同時(shí)支持非思考模式與思考模式,開發(fā)者可通過 reasoning_effort 參數(shù)自定義思考強(qiáng)度,同時(shí)全量支持 Json Output、Tool Calls、對話前綴續(xù)寫能力。
定價(jià)方面,Pro 版本同樣延續(xù)了高性價(jià)比路線,官方定價(jià)為:緩存命中的輸入 token1 元 / 百萬 tokens,緩存未命中的輸入 token12 元 / 百萬 tokens,輸出 token 定價(jià) 24 元 / 百萬 tokens,顯著低于海外同級別旗艦閉源模型。
API 接入也做到了極致低門檻,開發(fā)者無需修改原有 base_url,僅需將 model 參數(shù)替換為對應(yīng)版本名稱,即可完成接入,同時(shí)兼容 OpenAI ChatCompletions 與 Anthropic 兩種接口格式。
這種「能力上探 + 成本下探」的組合拳,讓頂級的大模型能力不再是少數(shù)廠商的專屬資源。當(dāng)行業(yè)內(nèi)卷逐漸陷入?yún)?shù)軍備競賽的怪圈,DeepSeek 用全系標(biāo)配百萬上下文、全鏈路開源開放的選擇,給大模型的普惠化,給出了一個(gè)全新的范本。
同時(shí),DeepSeek V4 針對 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 產(chǎn)品做了專項(xiàng)適配和優(yōu)化,在代碼任務(wù)、文檔生成等實(shí)際場景中表現(xiàn)均有提升。模型的價(jià)值最終要在真實(shí)的開發(fā)和工作流程里被檢驗(yàn)。
02
繼續(xù)開源,API 全量開放
DeepSeek 延續(xù)了開源路線,并直接全量開放 API 調(diào)用。
目前,DeepSeek-V4 的模型權(quán)重已同步在 Hugging Face、ModelScope 平臺開放下載,配套的技術(shù)報(bào)告也一并公開,支持開發(fā)者進(jìn)行本地部署與二次開發(fā)。
與部分廠商「開源閹割版、閉源完整版」的行業(yè)慣例不同,本次開源的兩個(gè)版本,完整保留了與官方云端 API 一致的全量能力——包括非思考 / 思考雙模式、1M 超長上下文無損處理、Agent 專項(xiàng)優(yōu)化與全量工具調(diào)用能力,無任何功能閹割。
這意味著,無論是中小創(chuàng)業(yè)公司、個(gè)人開發(fā)者,還是科研機(jī)構(gòu),都能零門檻獲取到百萬上下文、頂級推理與 Agent 能力的大模型底座,無需再為高端模型能力支付高額的閉源接口費(fèi)用。
為了進(jìn)一步降低落地門檻,DeepSeek 同步開源了模型微調(diào)、量化、推理加速的全流程工具鏈,完成了 vLLM、TGI 等主流推理框架,以及 LangChain、LlamaIndex 等主流 Agent 框架的 Day 0 原生適配,同時(shí)開放了國產(chǎn)算力平臺的全棧部署方案,讓開發(fā)者在不同硬件環(huán)境下都能快速落地應(yīng)用。
與此同時(shí),DeepSeek 也給出了清晰的模型迭代過渡方案:舊有的 API 接口模型名 deepseek-chat 與 deepseek-reasoner,將于三個(gè)月后(2026 年 7 月 24 日)停止使用,當(dāng)前階段,這兩個(gè)模型名分別指向 deepseek-v4-flash 的非思考模式與思考模式,給開發(fā)者留出了充足的平滑遷移時(shí)間。
03
堅(jiān)定做 AI「基建模型」
把這兩天的發(fā)布連起來看,一個(gè)趨勢很明確:各家都在加速 Agent 能力。
過去兩年,公眾和資本市場對大模型的關(guān)注,很大程度上集中在「聰明程度」,但現(xiàn)在已經(jīng)轉(zhuǎn)向了「誰更能穩(wěn)定地把事情做完」。GPT-5.5 的發(fā)布重點(diǎn)不在于多模態(tài)理解又提升了多少,而是它在 Agent 編程、計(jì)算機(jī)使用、知識工作等場景中的持續(xù)執(zhí)行能力。騰訊混元 Hy3 的核心賣點(diǎn)也在于它在現(xiàn)實(shí)世界中的「行動能力」。DeepSeek V4 則直接把 Agent 能力和長上下文處理作為主打,目標(biāo)明確地指向?qū)嶋H工作負(fù)載。
這種轉(zhuǎn)變的背后,是整個(gè)行業(yè)正在走向「模型效用」的競爭。現(xiàn)在,用戶和企業(yè)客戶越來越不關(guān)心你的模型在某項(xiàng)評測里排第幾,他們關(guān)心的是模型及產(chǎn)品到底能幫自己干好多少活兒:這個(gè)模型能不能幫我寫代碼、能不能處理復(fù)雜文檔、能不能在多步驟任務(wù)里不出錯、能不能以合理的成本跑起來。
![]()
圖片來源:DeepSeek 官網(wǎng)
在今天發(fā)布的文末,DeepSeek 引用了《荀子》里的一句話:「不誘于譽(yù),不恐于誹,率道而行,端然正己」,繼續(xù)錨定了自己的技術(shù)路線。放在當(dāng)下的大模型競爭語境下,這句話的意味很明確——不被外界的評價(jià)和噪音干擾,專注于把事情做對。
DeepSeek 過去一年多的行動,確實(shí)在踐行這個(gè)邏輯:用開源開放建立全球開發(fā)者生態(tài)影響力,用極致的性價(jià)比打破高端 AI 能力的使用壁壘,用扎實(shí)的底層架構(gòu)創(chuàng)新解決開發(fā)者與企業(yè)用戶最真實(shí)的痛點(diǎn)。
從 R1 推理模型的橫空出世,到 V4 把長上下文能力第一次推向普惠區(qū)間,DeepSeek 一直在用一種相對「慢」的方式,做一件更難的事——把頂級模型能力,從少數(shù)人的工具,變成更多人可以直接調(diào)用的基礎(chǔ)設(shè)施。
*頭圖來源:GPT生成
本文為極客公園原創(chuàng)文章,轉(zhuǎn)載請聯(lián)系極客君微信 geekparkGO
極客一問
你怎么看這次 DeepSeek V4 的更新?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.