文 | 云涌AI ,作者 | 黃云皓
2026年4月23日,OpenAI在API價格頁上線GPT-5.5:輸入價(input)$5.00,輸出價(output)$30.00,緩存命中價(cached input)$0.50。比上一代GPT-5.4的$2.50/$15/$0.25整整翻一倍,三檔同時抬高。再往前推八個月,2025年8月,GPT-5的輸入價還是$1.25;到這一天漲到$5.00,已經是當時的4倍。
4月26日,DeepSeek在V4系列價格頁底部加了一行腳注:所有模型的緩存命中價,永久降至原價的1/10。V4-Pro這一檔,緩存命中價從$0.145掉到$0.0145。
把兩份價格表放到一起,緩存命中這一項:GPT-5.5是$0.50,V4-Pro是$0.0145,差34.5倍;如果再算上V4-Pro的“75% off”臨時促銷,兩者相差138倍。
同一周里、兩份價格表朝相反方向各走出兩個數量級,一句“價格戰”已經很難描述這種差距了。
這一周,模型廠商已經不在同一坐標系。
01.價格調整:腳注里寫“永久”
DeepSeek這次調價同時有兩個動作。
第一個是臨時促銷:V4-Pro掛著“75% off”,輸入$1.74、輸出$3.48、緩存命中$0.0145三檔同步打折,折后落到$0.435、$0.87、$0.003625,5月31日后將恢復原價。
第二個寫在腳注里:所有模型的緩存命中價永久降至原價的1/10。
真實的生產場景里,輸入的提示詞(prompt)往往包括每次重復的系統指令、角色設定、文檔、工具定義,也包括這次新來的用戶問題。在長期任務或重復工作中,前者通常占八九成,服務端只算一次、下次直接復用。這就是“緩存命中”,按低一檔的“緩存命中價”計費。
DeepSeek把這一檔永久砍到原價的1/10——賬單里最大的一塊,從此變成零頭。七五折5月31日就到期,而緩存命中這一刀,不撤銷。
DeepSeek敢這么砍,是因為V4在架構上把單token成本進一步壓下來了。1M長上下文同口徑下,V4-Pro處理同樣任務消耗的算力(FLOPs)只有V3.2的27%,KV Cache(推理時保存上下文的顯存)占用只有10%;V4-Flash再低一檔,算力10%、KV Cache 7%。
所以$0.0145不是促銷價,是架構壓出來的。
DeepSeek最后給出的價格是:
- V4-Flash:$0.14/$0.28/$0.0028(輸入/輸出/緩存命中)。同檔OpenAI GPT-5.4 mini是$0.75/$4.50/$0.075,Anthropic Haiku 4.5是$1/$5/$0.10。
- V4-Pro:$1.74/$3.48/$0.0145。同檔OpenAI GPT-5.5是$5/$30/$0.50,Anthropic Opus 4.7是$5/$25/$0.50。
![]()
DeepSeek V4系列價格和腳注,來源:DeepSeek官方文檔
要解釋的不再是DeepSeek。這一周之后,其他模型廠要么跟著把小數點向左挪,要么留在原位,解釋這30倍差價從哪里來。
02.遷移成本:改兩個字符串
價格表已經把差距擺出來了。下一步的問題不是“便不便宜”,而是“能不能換過去”。如果接入方式不兼容,開發者要改客戶端、重寫工具調用、重跑一批老任務,再低的單價也會先卡在工程成本里。
DeepSeek這次把這道門壓低了。它同時掛出兩個API入口地址(base URL):https://api.deepseek.com 兼容OpenAI Chat Completions,https://api.deepseek.com/anthropic 兼容Anthropic Messages。V4-Pro和V4-Flash兩個模型,在兩個入口下都能跑。
對原本接OpenAI Chat Completions或Anthropic Messages的人來說,遷移到DeepSeek現在變成了三步:改base_url,換API key,把模型名替成deepseek-v4-flash或deepseek-v4-pro。這還不能直接替換生產,但應用的API調用已經可以指向DeepSeek:先小范圍放量,再對同一批任務比較回答質量和成本。
調通API,只是第一步。工具調用(tool calling)的參數、返回格式和失敗路徑要重測,長上下文里會不會漏信息、答偏、變慢,也要重新測試;企業采購還要過合規、內部SLA、私有部署和安全評估。最先能動起來的,還是那些把模型封裝在API后面、隨時可以切供應商的開發者和初創團隊。
03.市場反饋:4個月對7年
V4上線當天,2026年4月24日凌晨,AI編碼助手Cline的創始人Saoud Rizwan在X上發了一條:
deepseek v4 is now the cheapest sota model available at 1/20th the cost of opus 4.7. for perspective, if uber used deepseek instead of claude their 2026 ai budget would have lasted 7 years instead of only 4 months.(DeepSeek v4現已成為市場上價格最低的SOTA模型,其成本僅為Opus 4.7的二十分之一。從另一個角度來看,如果Uber使用DeepSeek而非Claude,那么他們2026年的AI預算本可以維持7年,而非僅僅4個月。)
![]()
Saoud Rizwan(Cline創始人)2026年4月24日凌晨在X上的原帖,來源:x.comsdrzn
“4個月”這個數不是修辭。Uber CTO Praveen Neppalli Naga在2026年4月接受The Information采訪時確認:Uber 2026年整年的AI預算,4月就已經燒完,主要燒在Claude Code在內部工程團隊鋪開上。
這條推文的殺傷力不在“7年”是否精確。真正重要的是,它把“企業AI預算被模型調用迅速吃完”這件事,和V4的公開定價擺在同一張賬單上;在開發者社區里,這種對照就是遷移決策的導火索。
同一天,獨立評測者Simon Willison發了V4上手測評,把V4-Flash、V4-Pro與GPT-5.5、Opus 4.7、Gemini 3.1 Pro等十多款前沿模型的定價擺進同一張對照表,結論是:V4-Flash是市面上最便宜的小模型,V4-Pro是最便宜的前沿大模型。
一周之內,第三方模型路由平臺OpenRouter的V4-Pro模型頁畫出了一條上線即起飛的曲線:4月24日上線當天約5B prompt tokens,到4月29日已漲至46.1B prompt、705M reasoning、449M completion(分別對應用戶輸入提示詞、模型推理過程、最終輸出三類token),一周不到翻了近10倍——開發者側的真實路由流量。
![]()
OpenRouter的V4-Pro模型流量數據,來源:OpenRouter
四件事在同一周里湊齊:實名站臺(Saoud Rizwan、Simon Willison)、具體的成本對比(4個月對7年)、公開評測、第三方路由流量。
這不是“會遷移”的遠期推論,是遷移開始的早期勢頭。
04.反平臺
價格表只能說明這一刀砍得多狠,不能說明DeepSeek站在哪兒。要看清V4的位置,得把三件事拆開看:架構成本、商業模式、戰略意圖。
架構成本:壓低單token的物理上限
DeepSeek這一刀能下到$0.0145,并不源自定價部門的勇氣,而是基于V4的架構換代。模型每讀一段長文,都要把讀過的內容暫存在顯存里——這塊“草稿紙”叫KV Cache,上下文越長、草稿紙越大、推理越燒錢。V4在注意力層用了一組新的混合壓縮法:CSA(Compressed Sparse Attention)把KV物理壓到1/4,再疊加“只看重點”的邏輯稀疏;HCA(Heavily Compressed Attention)壓得更狠,物理壓到1/128,再用全局注意力補漏。兩類壓縮法在網絡中交替工作。
從V2的MLA、V3.2的DSA一路下來,DeepSeek每一代都在壓同一件事——長上下文里的KV Cache和算力消耗。
到V4這一代,1M長上下文同口徑下,V4-Pro比V3.2少消耗73%的算力(FLOPs只剩27%),KV Cache只占10%;V4-Flash再低一檔,FLOPs 10%、KV Cache 7%。HuggingFace在V4解讀里給了一個直觀比對:V4的KV Cache只有同等條件下“業界標準省內存寫法”(8-head GQA + BF16 KV)的2%——同樣一段長對話,別家要占的顯存,V4只用1/50。
![]()
V4 vs V3.2 架構同口徑對照(1M 上下文),來源:DeepSeek V4 技術報告
物理空間往下壓的同時,國產算力的適配在并行推進。V4在華為昇騰950上已跑通實測,智源FlagOS也把V4-Flash適配到了華為昇騰、海光、沐曦、昆侖芯等多款國產芯片。
在V4-Pro官方API頁面以小字備注:V4-Pro受限于高端算力,預計下半年昇騰950超節點(把數十張芯片用高速互聯拼成一臺大機器、專門跑大模型推理)批量上市后,Pro的價格還將大幅下調。這一句把下半年的降價空間,直接掛在國產超節點的產能上。
商業模式:不靠API的毛利養現金流
主流玩家最近的動作是漲價。OpenAI在4月23日把GPT-5.5的價格在GPT-5.4基礎上翻倍,同時在GPT-5.5之上新增一檔GPT-5.5 Pro,定價$30/$180——一邊是同檔漲價,一邊是把價格梯子的頂端再往上抬,只對愿為額外能力付高價的企業客戶開放。Anthropic走的是同一條路徑:換裝的新tokenizer讓同輸入最多多產生35%的token,實際賬單提高;同時在Opus 4.6上新開Fast mode頂端檔$30/$150(6倍于標準價)。
中國頭部廠商沿著同一方向走:阿里旗艦Qwen3.6-Max-Preview于4月20日首次以閉源形式發布;阿里云、百度云3月18日同日上調AI算力價5–34%、存儲漲30%,阿里云4月15日又上調百煉平臺部分MU模型單元服務價;智譜年內三次調價;月之暗面4月20日發布Kimi K2.6,API輸入價從每百萬token 4元提至6.5元,漲價58%。
一連串動作方向一致:單價上漲、通過細分市場把能力賣更高價、重心轉向高毛利企業客戶,提高API毛利撐住利潤。
DeepSeek走的是反方向。母公司幻方2025年收益率56.55%,主營現金流不依靠賣API賺錢。融資這一頭同樣不缺:4月17日路透社首次報道DeepSeek新一輪估值至少100億美元,4月22日彭博、The Information報道騰訊、阿里加入談判,把估值推至200億美元以上——6天里估值翻倍;彭博同時透露,騰訊在談判桌上提出收購DeepSeek 20%股權,被DeepSeek回絕。云大廠主動加碼搶入,DeepSeek卻在挑錢的“形狀”。
現金流不靠API、估值不靠API、控制權也不輕易讓出,永久把緩存命中價格砍到1/10并不是打價格戰,是“不用拼這場仗”。
戰略意圖:技術生態拓展
梁文鋒在2024年7月接受專訪時講過幾句話:
我們不會閉源。我們認為先有一個強大的技術生態更重要。
開源更像一個文化行為,而非商業行為。
我們經常說中國AI和美國有一兩年差距,但真實的gap是原創和模仿之差。
這一波浪潮里,我們的出發點就不是趁機賺一筆,而是走到技術的前沿去推動整個生態發展。
這不是一時表態。DeepSeek創業時的第一篇技術報告標題就是《DeepSeek LLM: Scaling Open-Source Language Models with Longtermism》——長期主義和開源,是寫在第一篇文章封面上的。
![]()
長期主義和開源寫在論文標題里,來源:DeepSeek LLM: Scaling Open-Source Language Models with Longtermism
這個意圖落到V4上,是同時在做三件事。
- 全檔MIT開源。 V4-Pro(1.6T總參數/49B激活)、V4-Flash(284B/13B激活)兩檔全部以MIT放出,不保留。在阿里、字節、百度旗艦相繼轉閉源的當口,這本身是一種方向選擇。
- 落地形態開放。 DeepSeek自己運營雙base URL的API入口,同時把V4送上阿里云百煉、火山方舟、華為云、騰訊云、英偉達云的主流第三方云;以MIT開源支持全檔私有化部署(含1.6T旗艦);并作為基座供二次開發。API、第三方云、私有化、二次開發——四種落地入口平級展開,沒有哪一種被定位為“主戰場”,統統開放。
- 主動適配多元芯片架構。 V4早期訪問階段先給到華為昇騰、寒武紀;4月24日上線當天,華為云首發適配V4-Flash并同步上線10+昇騰融合算子(針對昇騰芯片定制的核心計算模塊),智源FlagOS再把V4-Flash適配到海光、沐曦、摩爾線程、昆侖芯等8+款國產芯片。不偏廢NVIDIA——同日NVIDIA官方Developer Blog發文宣布Blackwell上day-0可用。
模型、入口、硬件,全部從DeepSeek手里放出去。MIT開源讓模型觸手可及;開放的落地形態讓DeepSeek無孔不入;多元芯片適配讓V4通行無阻。三層疊起來,V4進入一個自己也關不掉的技術生態。“一個強大的技術生態”,在V4上就是這個形狀。
OpenAI、Anthropic、阿里、字節、百度等主流玩家方向一致:閉源旗艦、自營API,把客戶圈進圍欄,讓生態圍著自家平臺轉。這是平臺路徑,用模型當門票、用API當通道、用遷移成本當護城河,把“平臺”建起來。
DeepSeek反過來,把這三樣全往外放,它不是在搭一個屬于自己的平臺,而是在拆掉所有讓自己變成平臺的東西。
這種定位,可稱之為——反平臺。
反平臺是名詞,不是動詞。從這一周起模型廠商走向分化,開篇那句“不在同一坐標系”,到這里才有了具體所指。“價格”只是表面那一瞥,把兩邊真正分開的,是平臺與反平臺的分化。
尾聲
這不是一場“價格戰”,是一次分化。同一周里,價格、協議、模型廠的位置都朝兩邊走:一邊是平臺,一邊是反平臺。
地圖在重畫,不只是價格在動。
作者 | 黃云皓
出品 | 云涌AI
云涌創新 | 在復雜中,看見涌現
寫完了,但涌現還在繼續。歡迎補一個你的視角▼
參考資料:
- DeepSeek 官網|DeepSeek
- DeepSeek-V4 Technical Report|DeepSeek
- DeepSeek-V4: Better, Faster, Cheaper at Long Context|HuggingFace
- OpenAI 官網|OpenAI
- Anthropic 官網|Anthropic
- “deepseek v4 is now the cheapest sota model …”|Saoud Rizwan,X
- Uber CTO Shows How Claude Code Can Blow Up AI Budgets|The Information
- DeepSeek V4—almost on the frontier, a fraction of the price|Simon Willison
- OpenRouter 官網|OpenRouter
- 阿里 Qwen 官網|阿里 Qwen
- 阿里云官網|阿里云
- 百度智能云官網|百度智能云
- 月之暗面官網|月之暗面
- 智譜 AI 官網|智譜AI
- China’s DeepSeek is raising funds at $10 billion valuation, The Information reports|路透社
- Tencent, Alibaba in Talks to Join DeepSeek’s First Funding Round|彭博/The Information
- 智源 FlagOS 官網|智源研究院
- 華為云官網|華為云
- Build with DeepSeek V4 Using NVIDIA Blackwell and GPU-Accelerated Endpoints|NVIDIA Technical Blog
- DeepSeek LLM: Scaling Open-Source Language Models with Longtermism|arXiv
- 揭秘DeepSeek:一個更極致的中國技術理想主義故事|暗涌 Waves
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.