![]()
幾天前,硅谷傳出消息:谷歌宣布,未來五年要提供給 Anthropic 的算力,規模高達 5GW。緊接著,5 月 6 日,這筆交易的價格被揭開——Anthropic 承諾未來五年向谷歌云支付約 2000 億美元,用于采購 5GW 的 TPU 算力和云服務。
同一天,Anthropic 還宣布租下 SpaceX 的 Colossus 1 超級計算機,接入超過 22 萬顆英偉達 GPU 用于推理。
5GW 在數據中心行業是什么概念?它大概相當于 5 座大型核電站滿負荷運轉的耗電量。這意味著谷歌幾乎是為了 Anthropic 新建好幾座超大規模數據中心,里面塞滿幾十萬塊谷歌自己設計的 TPU 芯片。而 Anthropic 為此付出的承諾采購額高達 2000 億美元,占到了谷歌云積壓訂單的 40% 以上。
更有意思的是這筆交易的結構:谷歌先向 Anthropic 投入 100 億美元現金(按 3500 億估值),若達成里程碑再追加至 400 億;同時 Anthropic 承諾 2000 億美元的云服務和 TPU 采購支出。投資是投資,采購是采購,但兩者捆綁在一起,構成了極強的鎖定效應——芯片被指定為谷歌自研的 TPU。
面對這樣一份帶有排他意味的超級大單,Anthropic 也順勢調整了自己的算力版圖:在訓練側大幅向谷歌 TPU 和亞馬遜 Trainium 傾斜,同時仍保留英偉達 GPU 在推理等場景中的角色。5 月 6 日租下 SpaceX 的 22 萬顆 GPU,就是 Anthropic 在 GPU 推理側的最新動作。
對于行業來說,或許,它標志著 AI 產業從“參數軍備競賽”正式轉向“算力效率競賽”的拐點,也標志著技術路線正在加速分化。這次切換,正在無聲而有力地改變 AI 芯片的權力格局,重新定義了大模型和底層硬件之間的關系。
01 被英偉達“卡脖子”的痛
要理解 Anthropic 這次的算力布局為什么重要,得先看懂過去兩年 AI 算力市場有多殘酷。
自從 ChatGPT 橫空出世,大模型就變成了一個“燒錢無底洞”。行業里心照不宣的潛規則是:不管你融了多少錢,最后都得變成一張張采購英偉達 H100 或 B200 的訂單。英偉達靠著 CUDA 生態的絕對壟斷,不光拿走了行業里絕大部分利潤,還捏著模型廠商的命脈——黃仁勛給你發多少貨,你就能訓練多大的模型。
在這種格局下,大模型廠商的大部分利潤最終流向了英偉達。
但局中人也不是沒有反抗的心思,尤其是那些手里有錢的云巨頭:
? 谷歌心里很憋屈:TPU 研發了十多年,一直在內部訓練 Gemini,性能其實不差,但缺少外部頂級大模型的“背書”,總被市場當成非主流。
? 亞馬遜也很焦慮:作為全球最大的云廠商,AWS 每年要給英偉達交天價保護費。它砸了大錢研發自研芯片 Trainium,急需一個標桿客戶來證明“不用英偉達也能跑頂級模型”。
? Anthropic 有點特殊:由 Dario Amodei 等前 OpenAI 核心成員獨立創立,主打安全可控。它同時拿著谷歌、亞馬遜和微軟的錢——谷歌 400 億美元投資、亞馬遜累計 330 億美元投資,加上 2025 年 11 月簽下的 300 億美元微軟 Azure 算力合同,處在一個微妙的三角平衡中。面對高昂的算力成本,它比誰都渴望撕開一個口子,找找算力的“平替”。
英偉達太貴、太慢、太強勢;谷歌有芯片但缺生態,亞馬遜有錢想要獨立,Anthropic 想活下去還要盈利。四方的訴求,在這一刻正好咬合在了一起。一場針對英偉達定價權的多邊博弈已經展開。
02 “用腳投票”:Anthropic 的算力豪賭
Anthropic 的選擇,撕開了高昂算力成本的一角。它的本質,是用硬件的確定性,來換取模型迭代的絕對速度和成本護城河。
谷歌分階段向 Anthropic 兌現算力承諾,規模預計達到 5GW 級別的 TPU 集群(從 2027 年起逐步上線)。與此同時,谷歌對 Anthropic 的總投資額至多達 400 億美元,Anthropic 對谷歌云的采購承諾則高達 2000 億美元。如此體量的算力集群,足以讓 Claude 的訓練效率大幅躍升,或者讓 Anthropic 同時并行推進多個行業大模型的定制。
這些承諾背后,是 TPU 在特定任務上對 GPU 的真實優勢:
? 性價比領先:根據 Google 官方數據,在大型 Transformer 模型訓練場景下,TPU v6e 的性價比(性能/美元)約為同代英偉達 GPU 的 3 到 4 倍。
? 能效提升:Google 數據中心 PUE 約為 1.1,遠低于行業平均 1.58,綜合運營成本優勢明顯。SemiAnalysis 的研究報告也指出,Anthropic 的推理基礎設施毛利率已從 38% 提升至 70% 以上,定制芯片路線的降本效應可見一斑。
從技術底層來看,Anthropic 早就開始謀求“去單一硬件依賴”。2026 年 3 月,Anthropic 宣布已部署百萬顆 Google TPU,下一財年 TPU 算力將達 1GW;在訓練側,TPU 和亞馬遜 Trainium 已成為核心算力來源;而在推理側,英偉達 GPU 仍然扮演重要角色——5 月 6 日租下 SpaceX Colossus 1 的超 22 萬顆 GPU 就是最新例證。再加上用 JAX 框架對 TPU 集群做底層調優,Anthropic 已經形成了一個 TPU 訓練主力 + Trainium 備份訓練 + GPU 推理補位的多元算力架構。
可以理解為,這是訓練到推理的全棧算力重構。Anthropic 已經用行動證明:大模型廠商不再只是硬件廠商的“提款機”,而是可以成為算力架構的“設計師”。
03 四大陣營貼身肉搏,與一個"務實"的混合算力方案
Anthropic 的轉向,像一條鯰魚,直接引爆了全球 AI 芯片四大陣營的正面對決。現在的算力江湖,已經不是英偉達一家獨大了。
1. 谷歌–Anthropic:垂直閉環的領跑者
“TPU–JAX–Claude”這條全棧協同的路線,正在結出果實。根據摩根士丹利預測,2027 年 TPU 對外銷售有望拿下全球 AI 加速芯片市場 20% 的份額。更可觀的是成本競爭力:Claude 系列在同等性能段內的 API 定價,相比部分頭部競品更具優勢,谷歌通過硬件降本直接幫 Anthropic 打出了性價比牌。
2. OpenAI:算力堆得猛,兼容性拖后腿
相比之下,OpenAI 正在構建龐大的算力矩陣,已鎖定 30.5GW 的長期算力合約。2025 年 10 月,OpenAI 與 AMD 簽署多年期協議,部署總計 6GW 的 AMD Instinct GPU 算力(首期 1GW MI450,2026 年下半年部署),與英偉達 GPU 并行組成大規模算力集群。
但這種“大雜燴”架構付出了不小的代價:多芯片、多廠商導致算力利用率偏低,規模化的紅利被沉重的兼容性成本吃掉了。
3. 英偉達:死守基本盤,高端腹地正在被侵蝕
老大哥英偉達依然握著 AI 加速器市場 80% 以上的份額,CUDA 生態還是它堅不可摧的護城河。但 TPU 在大模型核心訓練場景里持續滲透,已經讓黃仁勛感到了壓力。2025 年 7 月,英偉達宣布 CUDA 全面支持 RISC-V 架構——這在以前幾乎不可想象,生態壁壘正被“定制化需求”從內部撬開。
4. 中國陣營:開源適配,換道超車
囿于外部環境,國產 AI 芯片整體市占率逆勢提升。根據 IDC 數據,2025 年中國 AI 加速卡市場總出貨量約 400 萬張,本土廠商合計出貨約 165 萬張,市場份額首次突破四成,達到約 41%(中國境內市場)。例如 DeepSeek-V4(2026 年 4 月發布)已于官方技術報告中寫入華為昇騰 NPU 支持,華為昇騰、摩爾線程等多家國產廠商均完成 Day 0 適配。中國廠商不拼單點極限算力,而是走“芯片 + 模型 + 場景”的快速落地路線。
格局已經變了:AI 競爭不再是比誰買的卡多,而是“算力效率 × 場景適配”的綜合暗戰。
而 Anthropic 精心設計的這套混合算力方案,恰恰指明了下一代 AI 基礎設施的主流方向——分工明確、冗余可控、拒絕被單一廠商綁架。這套方案非常精明:
? 5GW 的 TPU 作為訓練絕對主力,扛起核心大模型的高強度訓練; ? GPU 作為"萬金油",補位推理和多模態數據處理等任務(SpaceX Colossus 1 的 22 萬顆 GPU 就是最新落子); ? 亞馬遜 Trainium 作為戰略備份訓練算力池,壓低整體邊際成本。
這套組合拳帶來了幾個立竿見影的商業好處:供應鏈風險大幅降低(不怕被單一供應商卡脖子);Anthropic 于 2025 年 6 月公開的多智能體系統數據顯示,以 Claude Sonnet 為主導智能體、多個 Claude Haiku 為子智能體的架構,相比單智能體 Claude Opus,任務性能提升約 90%;更重要的是,硬件級加密結合 Anthropic 引以為傲的倫理框架,讓金融、醫療等高敏感行業的客戶敢于真正下單。
04 戴上“金手銬”的 Anthropic
當然,商業世界里沒有免費的午餐。Anthropic 這次向 TPU 深度傾斜,在換來極致訓練效率和短期成本優勢的同時,也給自己悄悄地戴上了一副“金手銬”——表面金光閃閃,實則勒得越來越緊。
首先,最直接的風險是底層架構的話語權正在旁落。深度綁定谷歌 TPU,意味著 Anthropic 未來的模型優化、算子開發、甚至推理框架的選型,都會被 TPU 的硬件迭代節奏牽著走。谷歌的 TPU 團隊每推出一代新芯片,Anthropic 就得跟著重新適配甚至重寫部分底層代碼。短期看,這是“聯合優化”;長期看,這就變成了“單向依賴”。一旦谷歌調整 TPU 的產品路線圖——比如某個指令集不再支持,或者某個硬件特性被放棄——Anthropic 的適配成本和遷移風險將顯著上升。
其次,多云協同很容易變成“多云約束”。Anthropic 目前同時踩著谷歌云、AWS 和微軟 Azure 三條船,聽上去很靈活:TPU 主力訓練,Trainium 備份訓練,GPU 推理。但在實際操作中,這種跨云架構的維護成本遠超想象。
數據要在三個云之間同步、任務調度要兼顧三套芯片的差異、災難恢復方案要寫三份——更別提三家云廠商各懷心思,未來會不會在價格、帶寬、優先級上互相掣肘?據知情人士轉述,Anthropic 內部對多云架構的運維復雜度早有感受。一旦某天谷歌和亞馬遜的關系微妙變化,Anthropic 就會淪為夾在中間的那個。
更隱蔽但更致命的,是技術獨立性的慢性流失。Claude 的每一次模型迭代,理論上應該是為了更好的智能和安全性。但未來,如果某個架構改動在 TPU 上跑得飛快、在 GPU 或 Trainium 上卻表現平平,產品經理會怎么選?大概率會“為了上線”而優先適配 TPU。
久而久之,Claude 的優化方向將越來越受 TPU 硬件特性的牽引,而不是一個跨平臺、可移植的通用大模型。這就好比一個作家,本來可以用任何紙筆寫作,后來被贊助商要求只能用某一種特制鋼筆——寫出來的東西也許更流暢,但那支鋼筆的任何缺陷,都會直接寫進他的作品里。
拉長視野看,Anthropic 的處境其實很微妙。對比一下:
OpenAI 走的是多供應商、多芯片的“大雜燴”路線。雖然效率低下、兼容成本高,但好處是——沒有哪家芯片廠商能真正卡住它的脖子。微軟、英偉達、AMD 之間互相牽制,OpenAI 反而拿到了議價空間。
國產廠商如 DeepSeek 走的是開源適配路線。昇騰、寒武紀、海光……誰家芯片能在主流模型上跑出好效果,就用誰。生態是碎片化的,但也是自由的。
而谷歌–Anthropic 的閉環,在訓練效率上無疑是最鋒利的刀,但握住刀柄的那個人,是谷歌。Anthropic 的核心訓練算力、迭代速度、甚至一部分技術路線,都被鎖在了谷歌的生態圍墻之內。不過也要承認,Anthropic 同時握有 AWS Trainium、微軟 Azure 和 SpaceX GPU 等多條后路,這副金手銬目前還沒有完全焊死。
更讓人擔心的是,這副金手銬還有一個時間軸上的陷阱。五年期的 2000 億美元采購承諾,聽起來是天堂,但合同到期后呢?到那時,Anthropic 的整個技術棧、代碼庫、運維體系、人才習慣,都會深度綁定 TPU。想要再換回 GPU 或遷移到其他芯片,成本高到幾乎不可能。屆時谷歌續簽合同的條件,Anthropic 還能說“不”嗎?一位不具名的風投合伙人說得比較直白:“Anthropic 不是在租谷歌的算力,而是在用未來數年的自主權,換今天的一張船票。”
當然,不是說 Anthropic 做錯了。在 AI 這個燒錢如燒紙的行業,首先要活下來,其次是跑得快。只是在商業世界里,沒有完美架構,只有階段性最優解。Anthropic 目前拿到的是訓練速度和成本的最優解,代價是——它把一部分未來的選擇權,提前交了出去。
05 芯片沒有靈魂,但定義芯片的模型有
回看計算機這半個多世紀的歷史,Anthropic 的轉向,其實是科技界一個經典的“宿命輪回”。
三十年前,GPU 作為專攻圖形渲染的特定芯片,靠異構計算打破了通用 CPU 的壟斷;三十年后,當 GPU 自己也變成了橫在 AI 產業面前的“通用霸權”時,TPU、Trainium 這些更專門化的 ASIC 芯片,正用同樣的邏輯發起反攻。
這意味著,AI 底層基礎設施的邏輯,正在從“暴力堆砌”轉向“精耕細作”。大模型不再是可以在任意一張顯卡上隨便跑通的“上層軟件”,它正在變成必須與特定硅片深度耦合的“重工業實體”。
所以,Anthropic 投向定制芯片,絕不意味著 GPU 會消亡,而是標志著“通用算力大一統”時代的終結。未來的版圖注定走向分裂:英偉達 GPU 依然會長久統治通用計算和推理,但在超大規模模型訓練的最核心地帶,定制芯片將接管陣地。
英偉達的護城河依然深不見底,但水面之下,暗流已經不可逆轉。當“買卡就能做模型”的草莽時代結束,未來的競爭焦點,將從“對算力資源的粗暴囤積”,徹底升級為“對異構算力的精細調度權”和“對底層硅片架構的定義權”。
在這場沒有硝煙的底座重構中,誰掌握了定義硬件的權力,誰就拿到了下一輪競爭的關鍵籌碼。
(本文首發鈦媒體APP,作者 | 硅谷Tech news,編輯 | 趙虹宇)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.