英偉達的 真正 “ 大” 對手來了。
5月14日,Cerebras以488億美元的估值,超額認購超過20倍登陸納斯達克。
據(jù)說這是今年來全球最大估值規(guī)模的IPO。
要知道,就在8個月前,這家公司估值還只有81億美元。現(xiàn)在等于翻了6倍,可見現(xiàn)在的市場對于AI鏟子股究竟有多瘋狂。
AI推理是時代來了,但英偉達的GPU不再是唯一解。
市場憑什么認為Cerebras,能夠撼動英偉達的地位?
01
推理新王
2026年,隨著推理需求大爆發(fā),傳統(tǒng)GPU架構在推理場景的物理瓶頸愈發(fā)凸顯,而Cerebras晶圓級芯片,為破解這一難題提供了顛覆性方案。
黃仁勛在GTC2026上明確提出:AI推理拐點已至。
據(jù)德勤數(shù)據(jù),2023年,AI算力支出還是訓練占60%,推理占40%,但兩年后,這個比例幾乎都要翻過來了,推理預計將占企業(yè)AI預算的85%。
推理大模型還在持續(xù)放大這一趨勢。據(jù)a16z對100萬億token數(shù)據(jù)的研究,2025年推理模型的token消耗份額從近乎歸零飆升至總算力的半數(shù)以上。每一次模型升級,都在成倍放大推理的算力消耗。
GPU推理有一個結構性弱點。要理解它,需先明確LLM推理的兩大核心階段:Prefill(預填充)與Decode(解碼)。
Prefill階段負責處理用戶提示詞,支持并行計算,GPU很擅長,因此這階段GPU效率表現(xiàn)優(yōu)異。
而Decode階段是逐一生成token,屬于串行運算,后一個token的生成必須等待前一個完成。且每生成一個token,都需要完整讀取全部模型權重與KVCache緩存,數(shù)據(jù)搬運成本極高、重復損耗嚴重。
以70B參數(shù)模型為例,其權重約140GB,疊加對話過程中持續(xù)膨脹、可達數(shù)十GB的KVCache,龐大的數(shù)據(jù)量進一步加重了GPU的運算與搬運負擔。
也就是說,GPU推理低效的核心,并非算力不足,而是傳統(tǒng)架構物理局限導致的內存墻問題。
這就是AI行業(yè)的核心“內存墻”——算力增長遠快于內存帶寬增長,計算性能被數(shù)據(jù)搬運卡住了。
數(shù)據(jù)顯示,算力每兩年提升3倍,HBM帶寬僅提升1.6倍;十年維度下,算力暴漲1000倍,帶寬僅提升10倍,這相當于買了一張超級計算卡,實際跑推理的時候98%的時間在發(fā)呆。
性能剪刀差持續(xù)擴大,就導致了架構矛盾日益凸顯。
據(jù)HuggingFace Blog分析,B200在batch等于1時,tensor core空閑超過99%。
這個痛點也體現(xiàn)在英偉達核心營收上。
黃仁勛公開確認,其數(shù)據(jù)中心業(yè)務65%收入來自推理場景,意味著英偉達最核心的營收來源,恰恰是GPU架構效率最低的場景。這也是為什么英偉達要斥資200億美元去收購Groq的原因。側面印證傳統(tǒng)GPU無法適配高端推理需求,行業(yè)亟需專用推理架構。
在此背景下,Cerebras跳出傳統(tǒng)GPU設計邏輯,以晶圓級計算架構給出了破局方案。其核心產(chǎn)品WSE-3摒棄芯片切割模式,將整片300mm硅晶圓作為單一處理器,集成90萬個AI核心、搭載44GB片上SRAM,官方帶寬達21PB/s,是B200 8TB/s帶寬的2625倍,實現(xiàn)了跨量級的性能突破。
![]()
也就是說,這是真正物理意義上的超大芯片,所以說它是英偉達的“大”對手,確實沒毛病。
晶圓級計算75年沒人做出來,不是沒人想過,是工程上做不到。Cerebras解了三個難題。
第一,突破光刻工藝極限。傳統(tǒng)光刻單次曝光最大面積僅26mm×33mm,遠小于晶圓尺寸。Cerebras聯(lián)合臺積電研發(fā)“劃線橋接”技術,復用晶圓劃線區(qū)域延伸金屬沉積路徑,讓通信網(wǎng)絡無縫覆蓋整片晶圓,徹底消除芯片邊界與跨芯片延遲。
第二,解決大芯片缺陷。雖然Cerebras把芯片做得極大,但它把每個AI核心做到了只有0.05平方毫米,約等于H100 SM核心面積的1%。單個缺陷只廢掉0.05平方毫米,而不是6平方毫米。據(jù)Cerebras官方博客,WSE-3的缺陷容忍度是GPU的100倍。額外加1%到1.5%的冗余核心做替換。
第三,攻克超大功率供電散熱難題。WSE-3功耗達23kW,需輸送超2萬安培電流。Cerebras采用上置垂直供電、底部水冷散熱方案,將整片晶圓溫差控制在20℃以內,保障芯片高負載穩(wěn)定運行。
![]()
據(jù)實測數(shù)據(jù),Cerebras WSE-3對最佳GPU/云方案,四個主流模型全部領先。Llama 3.3 70B差距最大,2140對120,18倍。Llama 4 Maverick 400B差距最小,2500對1000,超過2倍。
![]()
憑借出奇快的推理速度,Cerebras的估值一路水漲船高。根據(jù)S-1融資輪次數(shù)據(jù),公司估值八個月漲了六倍。從81億美元到230億再到488億。
![]()
并且,公司的商業(yè)前景也得到了科技巨頭的背書。OpenAI一上來就直接跟它簽了超百億美元的多年合同。還有AWS也選擇Cerebras作為Bedrock推理加速層。
整體而言,Cerebras以顛覆性的晶圓級架構,發(fā)起了對GPU行業(yè)霸主的技術挑戰(zhàn)。這套突破傳統(tǒng)束縛的技術方案,打破了長期的GPU算力壟斷,想象空間廣闊,也讓公司估值從一開始就偏離了正常的比較范圍。
02
估值合理嗎?
根據(jù)S-1文件,CerebrasIPO估值對應2025年5.1億美元營收,約95倍收入倍數(shù)。據(jù)StockMaven數(shù)據(jù),NVIDIA大約25倍,Cerebras是NVIDIA的近4倍。
但盈利能力上Cerebras顯然還沒有證明自己,NVIDIA財報顯示其毛利率75%到80%,Cerebras只有39%。
![]()
公司2025年GAAP凈利潤2.378億美元,里面有3.63億非現(xiàn)金會計收益(遠期合約負債公允價值變動)。實際Non-GAAP虧損7570萬美元。毛利率從42.3%滑到39.0%,還在往下走。
這也說明了,公司的估值邏輯本身已經(jīng)超出了芯片公司的標準,市場更像是把它當成了一種稀缺的AI基礎設施來定價。
但是翻一翻賬,估值給的太高還不是最大的問題。
根據(jù)S-1經(jīng)審計財務報告附注,2025年公司86%的收入來自兩個阿聯(lián)酋實體。MBZUAI占62%,G42占24%。美國收入反而降了34%。
![]()
OpenAI的百億美元合同目前是該公司最大的一筆潛在收入。但事情還要更加復雜,OpenAI同時扮演了四個角色:客戶、債權人,潛在股東,還有個人投資者,Altman等人做過天使投資人。
數(shù)據(jù)還顯示,246億美元訂單積壓中,只有15%在2026到2027年確認。43%在2028到2029年。一旦交付不了產(chǎn)能,OpenAI有權終止合同并要求償還貸款。
雖然簽了百億合同,但OpenAI在同時押注多條路線,Cerebras只是其中一條。去年10月,OpenAI與AMD簽署了6GW部署協(xié)議。
實際上,每家科技巨頭都在推理上多方下注,沒有一家把Cerebras當成主力路線孤注一擲。亞馬遜跟Cerebras合作,但也只讓它負責decode加速層。主力推理用的依然是自研Trainium3。
近幾年,推理芯片創(chuàng)業(yè)公司的歸宿也佐證了這一點。Groq被NVIDIA收購,Graphcore被SoftBank收購,UntetherAI被AMD收購。而Cerebras是唯一獨立IPO的推理獨角獸。
對于科技巨頭而言,Cerebras又何嘗不是補丁,只是補丁熬到了上市。
再者,標稱速度也有水分。Cerebras用了推測解碼技術——讓小模型先猜、大模型再驗證,能快3倍。去掉技術加速,純硬件對推理速度的支持沒那么多。而且測試是在單用戶條件下跑的,實際多用戶并發(fā)時優(yōu)勢還會進一步縮水。
更關鍵的是,Cerebras的44GB片上內存只夠做"一問一答"式的快速推理。但推理市場增長最快的方向是AIAgent——需要長對話、大上下文,內存需求遠超44GB。據(jù)Stratechery判斷:內容在片上內存內,Cerebras速度驚人;一旦超出,就不劃算了。
Cerebras未來能在推理市場拿下多大份額,取決于晶圓級架構能否突破44GB內存的天花板,從"一問一答"走向更復雜的推理場景。
03
尾聲
總的來說,"英偉達對手"這個定位,更多來自資本市場的敘事需求,支撐溢價的核心假設是"稀缺AI基礎設施"。
Cerebras能走多遠,還是要看自身的稀缺性能否轉換成更大的商業(yè)價值。
拆開看,稀缺性的成立依賴于兩個前提:其一,OpenAI百億合同的交付執(zhí)行。其二,晶圓級架構能否突破場景限制。
尤其是后者,如果技術迭代停滯、應用場景難以拓展,那么一切的敘事都可能變成巨大的泡沫,淪為AI算力生態(tài)里的邊角備胎。
聲明:文中觀點均來自原作者,不代表格隆匯觀點及立場。特別提醒,投資決策需建立在獨立思考之上,本文內容僅供參考,不作為任何實際操作建議,交易風險自擔。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.