AI時(shí)代,被GPU搶盡風(fēng)頭的CPU,或許正在悄悄迎來一場屬于自己的爆發(fā)。
據(jù)追風(fēng)交易臺,5月5日,瑞銀全球研究團(tuán)隊(duì)發(fā)布了一份針對美國半導(dǎo)體行業(yè)的深度研報(bào)。面對投資者關(guān)于“代理式AI將如何影響服務(wù)器CPU市場”的密集提問,分析師Timothy Arcuri等人通過一系列行業(yè)專家訪談并結(jié)合自下而上和自上而下兩套模型,得出了一個(gè)明確的結(jié)論:
市場嚴(yán)重低估了AI時(shí)代CPU的價(jià)值。服務(wù)器CPU的潛在市場規(guī)模(TAM),將從2025年的約300億美元,增長至2030年的約1700億美元,五年漲幅接近5倍。
在過去兩年的AI狂熱中,GPU搶走了所有的聚光燈。但隨著AI從“單純的對話生成”進(jìn)化為“自主執(zhí)行任務(wù)的代理(Agent)”,算力的瓶頸正在悄然轉(zhuǎn)移。
代理式AI重塑算力格局:從“GPU主導(dǎo)”到“CPU回歸”
要理解CPU市場的爆發(fā),首先要理解代理式AI與傳統(tǒng)AI的工作負(fù)載差異。
在傳統(tǒng)的AI訓(xùn)練和基礎(chǔ)推理階段,GPU是絕對的主力。如果把AI算力比作一個(gè)工廠,GPU就是流水線上不知疲倦的工人,而CPU則是負(fù)責(zé)分配任務(wù)的經(jīng)理。在傳統(tǒng)模式下,一個(gè)經(jīng)理(CPU)可以輕松管理多個(gè)工人(GPU)。
但代理式AI改變了游戲規(guī)則。代理式AI不僅需要生成文本,還需要進(jìn)行任務(wù)編排、工具調(diào)用(例如在沙盒虛擬機(jī)中執(zhí)行代碼)、文件檢索等。這意味著“經(jīng)理”的工作量呈指數(shù)級上升。
分析師在專家訪談中獲取了極具沖擊力的數(shù)據(jù):
工作量重心的轉(zhuǎn)移:專家指出,“在傳統(tǒng)的AI工作負(fù)載中,70-80%的算力消耗在推理本身(GPU)上;但在代理式推理中,這個(gè)比例反轉(zhuǎn)了,70-80%的工作量轉(zhuǎn)移到了CPU上。”
核心配比的暴增:傳統(tǒng)的AI訓(xùn)練中,每個(gè)GPU通常只需配備8-12個(gè)CPU核心;在基礎(chǔ)推理中,需要16-24個(gè)核心;而在代理式AI中,每個(gè)GPU需要配備80-120個(gè)CPU核心。這相當(dāng)于,同樣一顆GPU,在智能體場景下需要的CPU核心數(shù)是傳統(tǒng)訓(xùn)練場景的5-10倍
并發(fā)任務(wù)的壓力:“一個(gè)代理(及其衍生出的每一個(gè)子代理)可能需要1-4個(gè)CPU核心,而一個(gè)復(fù)雜的任務(wù)可能需要生成10-100個(gè)子代理。”
這種底層邏輯的轉(zhuǎn)變,直接打破了過去“重GPU、輕CPU”的算力架構(gòu),為CPU市場打開了巨大的增量空間。
![]()
1700億美元的海量市場
基于上述邏輯,該行分析師對服務(wù)器CPU的總潛在市場(TAM)進(jìn)行了重新測算。結(jié)果顯示,到2030年,該市場規(guī)模將達(dá)到約1700億美元。
這個(gè)龐大的數(shù)字是如何得出的?分析師采用了“自下而上”和“自上而下”兩種方法進(jìn)行交叉驗(yàn)證:
1. 自下而上(Bottom-up)測算:分析師基于美國超大云服務(wù)商(Hyperscalers)的加速器模型預(yù)測,到2027年,市場將出貨約2300萬個(gè)加速器(XPU)和約1000萬個(gè)頭節(jié)點(diǎn)CPU。隨著代理式AI的發(fā)展,到2030年,加速器出貨量將達(dá)到約4000萬個(gè)。 更重要的是,CPU與GPU的配比率將從目前的1:4,逐漸向1:2甚至1:1靠攏。此外,由于AI應(yīng)用需要更高核心數(shù)和更高頻率的芯片,AI CPU的平均售價(jià)(ASP)將顯著提升。例如,英偉達(dá)的144核Grace CPU定價(jià)可能在3000至4000美元之間。量價(jià)齊升之下,僅AI CPU市場的規(guī)模就將達(dá)到1250億美元。
2. 自上而下(Top-down)測算:分析師參考了英偉達(dá)對2030年AI總潛在市場(3萬億至4萬億美元)的預(yù)測。推算出2030年將有約4000萬個(gè)XPU出貨。假設(shè)每個(gè)XPU的平均ASP提升至3000美元,結(jié)合1:1或2:1的CPU配比率,同樣推導(dǎo)出AI CPU市場規(guī)模在1200億至2000億美元之間。
分析師將未來的CPU市場劃分為三個(gè)核心板塊:
傳統(tǒng)服務(wù)器市場:保持穩(wěn)定增長,預(yù)計(jì)到2030年出貨量約為4400萬臺。
AI頭節(jié)點(diǎn)(Head Nodes):與GPU機(jī)架捆綁,主要負(fù)責(zé)任務(wù)編排和優(yōu)化GPU利用率。
AI獨(dú)立機(jī)架(Standalone):純CPU服務(wù)器,專門用于處理代理式AI的工具調(diào)用和子代理并發(fā)任務(wù)。
![]()
市場的餅做大了,關(guān)鍵是怎么分。
分析師明確給出排名:ARM是服務(wù)器CPU側(cè)最大受益者,其次是AMD,再次是英特爾——但三者均將受益。
ARM:份額從15%沖向40-45%
2025年,ARM架構(gòu)在服務(wù)器CPU市場的單位份額約為15%。報(bào)告預(yù)計(jì),到2030年,這一數(shù)字將升至40-45%;若以收入口徑計(jì)算,由于AI CPU的平均售價(jià)(ASP)更高,ARM的收入份額將進(jìn)一步達(dá)到50-55%
ARM的優(yōu)勢在哪里?
該行援引專家觀點(diǎn):ARM架構(gòu)功耗效率高出約30%,內(nèi)存效率高出約20-30%,且憑借更小的核心設(shè)計(jì),在延遲和成本上具備明顯優(yōu)勢。更關(guān)鍵的是,英偉達(dá)Grace、AWS Graviton 5(192核)、谷歌等頭部超大規(guī)模云廠商的自研CPU,幾乎清一色采用ARM架構(gòu)。
該行預(yù)計(jì),到2030年,ARM將占據(jù)頭節(jié)點(diǎn)CPU市場75%以上的份額
但ARM也有短板。報(bào)告指出,ARM傳統(tǒng)上是單線程架構(gòu),同步多線程(SMT)能力是近年才逐步開發(fā)的功能;在高核心數(shù)場景下,核心間干擾和軟件兼容性問題依然是挑戰(zhàn);此外,生態(tài)系統(tǒng)成熟度仍有待提升,部分軟件棧的完善可能要到2028年前后。
基于上述判斷,分析師將ARM的12個(gè)月目標(biāo)價(jià)從175美元上調(diào)至245美元。截至報(bào)告發(fā)布前一日(5月4日),ARM股價(jià)報(bào)203.26美元,維持“買入”評級。
![]()
AMD:高核心數(shù)+多線程,AI最佳拍檔
AMD的優(yōu)勢在于高核心數(shù)和多線程能力,這與智能體AI對CPU"又要快、又要多"的需求高度契合。
報(bào)告援引AMD在2025年11月分析師日的表態(tài):AMD預(yù)計(jì)服務(wù)器CPU市場將從2025年的260億美元增長至2030年的約600億美元,其中AI驅(qū)動(dòng)的CPU將占2030年市場的約50%;AMD預(yù)計(jì)自身在總市場的份額將超過50%。
分析師目前對AMD 2030年的EPS預(yù)測為25.27美元,若市場按預(yù)期演進(jìn),修正后的2030年EPS可達(dá)28.14美元,上行空間約+11%。
![]()
英特爾:基礎(chǔ)盤穩(wěn)固,但追趕壓力大
英特爾的處境相對復(fù)雜。
在傳統(tǒng)服務(wù)器市場,x86架構(gòu)仍將保持約85%的份額,英特爾在工具調(diào)用、存儲優(yōu)化等特定工作負(fù)載上仍具優(yōu)勢。但在AI頭節(jié)點(diǎn)市場,英特爾的存在感正在被ARM快速壓縮。
瑞銀指出,英特爾正寄望于"Coral Rapids"產(chǎn)品線來縮小與AMD和ARM的差距,但目前來看,AMD和ARM在AI CPU市場的定位更為有利。
不過,英特爾也有一張獨(dú)特的牌:PC端的溢出效應(yīng)。隨著智能體AI將更多任務(wù)推向本地設(shè)備執(zhí)行(Anthropic的Claude Code已在采用這一策略),PC升級周期有望被催化,英特爾將從中受益。
該行對英特爾2030年EPS的修正上行空間約為+7%,是三家中最低的。
![]()
并非所有CPU都一樣:延遲vs吞吐量的取舍
報(bào)告還深入拆解了一個(gè)容易被忽視的細(xì)節(jié):智能體AI對CPU的需求,并不是簡單地“核越多越好”。
超大規(guī)模云廠商在硬件選擇上面臨一個(gè)根本性的取舍:
高核心數(shù)CPU:總吞吐量高,能效比好,但時(shí)鐘頻率低,延遲表現(xiàn)較差,且軟件擴(kuò)展能力有限(大多數(shù)軟件無法高效利用數(shù)百個(gè)核心)
低核心數(shù)、高頻率CPU:延遲低、響應(yīng)快,適合“頭節(jié)點(diǎn)”角色(負(fù)責(zé)編排調(diào)度、優(yōu)化GPU利用率)
實(shí)際部署中,超大規(guī)模云廠商傾向于采用“頭節(jié)點(diǎn)+大規(guī)模計(jì)算節(jié)點(diǎn)”的分層架構(gòu):前者負(fù)責(zé)低延遲的編排控制,后者負(fù)責(zé)高吞吐量的并行執(zhí)行。
這意味著,能提供寬泛SKU組合(覆蓋不同核心數(shù)、頻率和功耗檔位)的廠商,比只押注單一“最強(qiáng)”配置的廠商更有競爭力
瑞銀還指出,超大規(guī)模云廠商的采購決策核心指標(biāo)不是峰值性能,而是每瓦特可處理的事務(wù)數(shù)(transactions per watt),內(nèi)存配置是首要設(shè)計(jì)變量。
![]()
云端還是邊緣?一個(gè)懸而未決的變量
分析師另外提出了一個(gè)值得關(guān)注的不確定因素:云端與邊緣的計(jì)算分工
早期智能體部署幾乎完全依賴云端,但越來越多的系統(tǒng)設(shè)計(jì)開始將計(jì)算推向本地設(shè)備——5到10個(gè)并行任務(wù)可以直接在本地文件和數(shù)據(jù)上運(yùn)行,既減少了延遲,又節(jié)省了云端算力成本。
瑞銀援引專家估算:本地執(zhí)行的擴(kuò)展,可能將云端智能體工作負(fù)載所需的CPU容量減少約25%
這意味著,智能體AI對數(shù)據(jù)中心CPU的拉動(dòng)倍數(shù),最終可能從5-8倍壓縮至約4倍。但與此同時(shí),PC端的CPU需求將被同步拉升,AMD和英特爾均將受益。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.