![]()
作者 | Tina
2026 年 4 月 23 日,OpenAI 做了兩件事:發(fā)布了 GPT-5.5,并把價(jià)格翻了一倍。
按常理,這應(yīng)該是屬于 OpenAI 的一天。全新預(yù)訓(xùn)練架構(gòu)“Spud”的首個(gè)公開版本,SOTA 級的基準(zhǔn)測試成績,SemiAnalysis 在第一時(shí)間給出了“GPT-5.5 已經(jīng)抵達(dá)前沿”的評價(jià)。但翻看定價(jià)頁面,開發(fā)者很難不算賬:每百萬輸出 token 收費(fèi) 30 美元,比前代 GPT-5.4 貴了一倍,甚至比一貫以昂貴著稱的 Claude Opus 4.7 還要貴出一截。
而僅僅過了不到一天,4 月 24 日,DeepSeek 把 V4 的模型權(quán)重扔到了 HuggingFace 上。MIT 開源協(xié)議,100 萬 token 上下文窗口,以及一個(gè)極其低廉的價(jià)格:輸出 token 每百萬 3.48 美元。
大概只有 GPT-5.5 的十分之一。
科技博主兼 AI 系統(tǒng)架構(gòu)師 Sean Donahoe 在今天凌晨發(fā)了一條帖子。他寫道:
“DeepSeek V4 Pro 在編碼基準(zhǔn)測試中擊敗了 Claude Opus 4.6 和 GPT-5.4...... 今天早上,我把 Claude Code、Codex、Cursor、Aider,以及我用的所有其他編程智能體全部指向了 DeepSeek 端點(diǎn)。不用 OpenRouter,不用代理,原生 API。我的月賬單將下降 90% 以上,而且效果比昨天還好。”這條帖子實(shí)際上有兩個(gè)看點(diǎn)。第一,發(fā)帖人是重度 AI 編程用戶,卻幾乎一夜之間完成遷移,月賬單會(huì)從幾千美元降到幾百美元。第二,他不只是說便宜,還強(qiáng)調(diào)效果沒有變差,反而更好:“輸出質(zhì)量提高了,而不是下降,這一點(diǎn)已經(jīng)通過內(nèi)部測試以及多個(gè)公開基準(zhǔn)驗(yàn)證”。
![]()
DeepSeek 出手之后,價(jià)格成了第一變量
過去三個(gè)月,模型競爭激烈。幾乎每周都有一家頭部模型廠商發(fā)布新的 coding checkpoint,GLM-5.1、Qwen3.6-Plus、Kimi K2.6、Composer 2、Gemini 3.1 Pro,都在強(qiáng)調(diào)同一件事:agentic coding、長任務(wù)、多步驟規(guī)劃。
![]()
進(jìn)入 4 月,圈子里一直在討論兩個(gè)代號:Anthropic 的“Capybara”和 OpenAI 的“Spud”。4 月 23 日,GPT-5.5 正式發(fā)布,成為基于“Spud”的公開版本。對 OpenAI 來說,這是 GPT-4.5 之后一次很關(guān)鍵的預(yù)訓(xùn)練模型更新,外界期待很高,價(jià)格也不低。有分析指出,雖然 NVIDIA 和 OpenAI 都提到 GPT-5.5 在 10 萬臺 GB200 NVL72 集群上“訓(xùn)練”,但這里的“訓(xùn)練”更準(zhǔn)確地說是強(qiáng)化學(xué)習(xí)的后訓(xùn)練階段。真正的預(yù)訓(xùn)練,仍然是在 Hopper 平臺上完成的。
但只過了不到 24 小時(shí),DeepSeek V4 開源。模型競爭一下子不只是在比誰更強(qiáng),也開始比誰更便宜。
OpenAI 的旗艦?zāi)P瓦^去通常比 Anthropic 更便宜,但這一次不一樣了:GPT-5.5 的 API 定價(jià)為每百萬輸入 token 5 美元、每百萬輸出 token 30 美元,比前代 GPT-5.4 貴了一倍,甚至比 Claude Opus 4.7 的輸出定價(jià)還貴出一截。
更值得注意的是,OpenAI 為 GPT-5.5 設(shè)計(jì)了一套復(fù)雜的定價(jià)分層。除了標(biāo)準(zhǔn) API 之外,OpenAI 還提供了一個(gè)優(yōu)先級(priority)套餐,價(jià)格是標(biāo)準(zhǔn)檔的 2.5 倍。如何為“更快的 token”收更多錢,正在變得越來越關(guān)鍵。這里需要說明的是,priority 和 fast mode 是兩回事。fast mode 只是給出一些相對模糊的承諾,比如“價(jià)格貴 6 倍,速度大約快 2.5 倍”;而 priority 提供的是更保守但更明確的 SLA(例如:99% 的時(shí)間里吞吐量超過 50 tokens/s)。
這還沒算 GPT-5.5 Pro——專為科學(xué)研究和長程推理設(shè)計(jì)的版本,輸入 / 輸出定價(jià)分別為每百萬 token 30 美元和 180 美元,瞄準(zhǔn)的不是日常編碼場景,而是前沿科研用例。
標(biāo)準(zhǔn)版和 Pro 版都提供多檔推理強(qiáng)度:xhigh、high、medium、low 以及 non-reasoning,本質(zhì)是在成本與能力之間做取舍。從 strawberry/o1 那一代開始,這一點(diǎn)已經(jīng)很明確了:推理強(qiáng)度越高,結(jié)果通常越好,但消耗的 token 更多,響應(yīng)時(shí)間也更長。
在 GPT-5.5 發(fā)布前一周,Anthropic 剛剛推出 Claude Opus 4.7。相比 4.6,Opus 4.7 更像一次小幅升級,沒有帶來明顯質(zhì)變。
Token 計(jì)數(shù)方式的更新,是這次定價(jià)變化里最關(guān)鍵的一點(diǎn)。4.7 使用了新的 tokenizer,通過更細(xì)粒度的切分來換取性能提升,但代價(jià)是整體 token 用量會(huì)上升。官方也直接承認(rèn),這會(huì)帶來最高約 35% 的 token 增長——換句話說,價(jià)格也等于變相上漲了 35%。
然后 DeepSeek V4 來了。
V4 系列包含兩個(gè)模型:DeepSeek-V4-Pro 和 DeepSeek-V4-Flash。前者參數(shù)規(guī)模為 1.6T 總參數(shù) / 49B 激活參數(shù),后者為 284B / 13B。相比 V3(671B / 37B)是一次升級,而 Flash 是一個(gè)更輕量的下探版本。這使得 DeepSeek-V4-Pro 成為目前規(guī)模最大的開源權(quán)重模型。
把價(jià)格拉出來對比,差距大到讓人無法忽視。簡單算一筆賬:同樣處理一百萬輸入 token 和一百萬輸出 token,GPT-5.5 的合計(jì)成本是 35 美元,Claude Opus 4.7 是 30 美元。而 DeepSeek-V4-Pro 是 5.22 美元。如果輸入命中緩存,輸入價(jià)格進(jìn)一步降至每百萬 token 0.145 美元,同樣這筆賬就變成了 3.625 美元。
也就是說,在標(biāo)準(zhǔn)定價(jià)下,DeepSeek-V4-Pro 的成本大約是 GPT-5.5 的七分之一、Claude Opus 4.7 的六分之一。如果緩存命中,差距進(jìn)一步拉大——大約是 GPT-5.5 的十分之一、Claude Opus 4.7 的八分之一。
真正把價(jià)格壓到“近零地帶”的,是 DeepSeek-V4-Flash。V4 Flash 的 API 輸入價(jià)格每百萬 token 僅 0.14 美元,輸出價(jià)格 0.28 美元,合計(jì) 0.42 美元。緩存命中后進(jìn)一步降至 0.308 美元。同等輸入輸出量下,F(xiàn)lash 的成本不到 GPT-5.5 和 Claude Opus 4.7 的 2%——便宜了 98% 以上,幾乎只有對方的百分之一。
![]()
如果把當(dāng)前主流模型的定價(jià)放在一張表里看,這種分化更加直觀:
![]()
更重要的是,DeepSeek V4 走的是 MIT 開源協(xié)議。這意味著開發(fā)者完全可以把模型部署在自己的服務(wù)器上,不走 API 調(diào)用,直接繞開 token 計(jì)費(fèi)邏輯。對于有合規(guī)要求、數(shù)據(jù)不能出域的場景,這個(gè)選項(xiàng)的權(quán)重甚至超過價(jià)格本身。
V4 相比 V3 的核心進(jìn)展,是上下文窗口從 128k 提升到了 1M。因此,這一代的技術(shù)優(yōu)化幾乎都圍繞長上下文展開,包括:
Compressed Sparse Attention(CSA):壓縮稀疏注意力
Heavily Compressed Attention(HCA):高壓縮注意力
Manifold-Constrained Hyper-Connections(mHC):流形約束超連接
對應(yīng)的效果是:“在百萬 token 上下文場景下,DeepSeek-V4-Pro 的單 token 推理 FLOPs 僅為 V3.2 的 27%,KV cache 僅為 10%。”也就是說,KV cache 減少了 90%。這個(gè)幅度甚至超過了上個(gè)月 Google TurboQuant 的論文,對 NAND Flash 產(chǎn)業(yè)鏈來說,是個(gè)需要警惕的信號。
在工程層面,DeepSeek 還在 DeepGEMM 中開源了一個(gè) Mega-Kernel,宣稱支持 NVIDIA GPU 和華為 Ascend NPU。可以看出,他們的目標(biāo)之一,是未來在 Ascend 上承載一部分推理流量。官方 API 頁面還提到,受限于高端算力,目前 V4-Pro 的服務(wù)吞吐仍有限,預(yù)計(jì)下半年昇騰 950 超節(jié)點(diǎn)批量上市后,Pro 價(jià)格會(huì)大幅下調(diào)。
![]()
業(yè)界實(shí)測效果
三款模型,三種定價(jià)邏輯:OpenAI 在漲,Anthropic 在偷偷漲,DeepSeek 則直接掀桌。如果只看數(shù)字,選擇幾乎沒有懸念。
不過,DeepSeek 自己也承認(rèn),和頂尖選手之間還有距離。他們在技術(shù)報(bào)告里寫道:“通過增加推理 token 的使用量,DeepSeek-V4-Pro-Max 在標(biāo)準(zhǔn)推理基準(zhǔn)上優(yōu)于 GPT-5.2 和 Gemini-3.0-Pro,但仍略遜于 GPT-5.4 和 Gemini-3.1-Pro,距最前沿模型大約還有 3 到 6 個(gè)月的差距。”
那么,實(shí)際效果如何呢?
在 Sean 宣布全面遷移的同一天,AI 研究員 Rohan Paul 和他的團(tuán)隊(duì)做了一個(gè)測試:給 DeepSeek V4 Pro 和 GPT-5.5 同一份提示詞,開發(fā)一個(gè)完整的卡丁車競速游戲,全部塞進(jìn)一個(gè) HTML 文件。
提示詞嚴(yán)苛到像一份游戲策劃需求書:Canvas 渲染,方向鍵和 WASD 雙套操控,加速、剎車、漂移、倒車一個(gè)不能少。物理引擎從零手寫,摩擦力、最高速度、轉(zhuǎn)向靈敏度全部要調(diào)。賽道有路面、草地、彎道和窄路,沖上草地減速,撞墻彈回。至少 3 輛 AI 對手,自動(dòng)沿賽道行駛,速度各異。道具系統(tǒng)要有金幣、加速板和隨機(jī)道具箱。畫面全用 Canvas 形狀手繪,漂移拖痕、加速尾焰、屏幕震動(dòng),一個(gè)視覺效果都不落。音效用 Web Audio API 合成,倒計(jì)時(shí)、碰撞、沖線都要出聲。UI 要完整:標(biāo)題畫面、3-2-1 倒計(jì)時(shí)、實(shí)時(shí) HUD、結(jié)束排名。
最終的數(shù)據(jù)對比是這樣的:
![]()
DeepSeek V4 Pro 輸出了近兩倍的 token,但便宜了 4.3 倍。至于兩個(gè)游戲跑起來分別是什么樣子,我們直接上視頻,你自己體驗(yàn)。
如果說卡丁車測試考察的是“能不能做一個(gè)完整產(chǎn)品”,那同一天另一個(gè)測試考察的則是更微妙的東西——審美。做出來的頁面“好不好看”,任何人都能一眼判斷。
中文技術(shù)社區(qū)的一位開發(fā)者用同樣的提示詞、同樣的工具,讓 DeepSeek V4 Pro 和 GPT-5.5 各自生成一個(gè) Apple 風(fēng)格的天氣界面。提示詞給了一個(gè)很高的起點(diǎn):
“你是 Apple Inc 的頂級 UI 設(shè)計(jì)師,以 iOS 18 的設(shè)計(jì)風(fēng)格(毛玻璃效果、高斯模糊、動(dòng)態(tài)漸變、細(xì)膩陰影)創(chuàng)建一個(gè)單個(gè) HTML 文件。實(shí)現(xiàn)橫板天氣頁面,包含 4 個(gè)并排的動(dòng)畫天氣卡片:晴天(太陽光線、動(dòng)態(tài)光暈)、大風(fēng)(飄動(dòng)云朵、搖曳樹木、風(fēng)線)、暴雨(下落雨滴、形成水洼、閃電)、暴雪(下落雪花、堆積效果)。卡片需深色背景,支持按鈕切換天氣狀態(tài),實(shí)現(xiàn)流暢交互和微動(dòng)效。代碼必須可直接運(yùn)行,美觀度優(yōu)先。”
工具也完全統(tǒng)一,兩個(gè)模型生成時(shí),用的都是 Claude Code。你猜哪個(gè)是 DeepSeek 的?
生成結(jié)果 1 如下:
![]()
生成結(jié)果 2 如下:
![]()
不過,在日常問題上,DeepSeek 確實(shí)更強(qiáng):
![]()
![]()
科技博主 Simon Willison 有一個(gè)習(xí)慣:每次 DeepSeek 發(fā)布新版本,他都會(huì)用同一句提示詞 “Generate an SVG of a pelican riding a bicycle”,生成一張鵜鶘騎自行車的 SVG。這次 V4 發(fā)布,他照例做了一遍,也照例把歷代結(jié)果放在一起。
從 2025 年 3 月的 V3,到 8 月的 V3.1,再到 12 月的 V3.2,以及現(xiàn)在的 V4,每一版都比上一版更像樣。早期的鵜鶘歪歪扭扭,腳踏板對不準(zhǔn),自行車架子也松散。到了 V3.2,車架結(jié)實(shí)了,鵜鶘也開始像個(gè)正經(jīng)騎手。這次 V4-Flash 又往前走了一步:鏈條畫出來了,前輪加了反光片,翅膀搭在車把上,腳也踩到了踏板上。總之,是一次比一次好。
![]()
DeepSeek-V3-0324
![]()
DeepSeek-V3.1
![]()
DeepSeek-V3.2
![]()
DeepSeek-V4 Flash
![]()
DeepSeek-V4 Pro
DeepSeek 在 V4 發(fā)布當(dāng)天,用一句話表明了他們對這些討論的姿態(tài)——“不誘于譽(yù),不恐于誹,率道而行,端然正己。”
這也恰好解釋了這只鵜鶘一年來的軌跡。
https://x.com/rohanpaul_ai/status/2047762509474726285
https://simonwillison.net/2026/apr/24/deepseek-v4/
https://linux.do/t/topic/2045480
https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5
會(huì)議推薦
世界模型的下一個(gè)突破在哪?Agent 從 Demo 到工程化還差什么?安全與可信這道坎怎么過?研發(fā)體系不重構(gòu),還能撐多久?
AICon 上海站 2026,4 大核心專題等你來:世界模型與多模態(tài)智能突破、Agent 架構(gòu)與工程化實(shí)踐、Agent 安全與可信治理、企業(yè)級研發(fā)體系重構(gòu)。14 個(gè)專題全面開放征稿。
誠摯邀請你登臺分享實(shí)戰(zhàn)經(jīng)驗(yàn)。AICon 2026,期待與你同行。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.