![]()
誰也沒料到,AI芯片賽道的大變局,來得這么快。
去年這個(gè)時(shí)候,英偉達(dá)還因?yàn)镈eepSeek引發(fā)股價(jià)大跌,而當(dāng)時(shí)英偉達(dá)和特斯拉Dojo對(duì)手、AI芯片巨頭Cerebras緊急撤回IPO。
如今,情況發(fā)生巨變,AI Agent導(dǎo)致推理算力需求猛增、英偉達(dá)壟斷加劇、OpenAI到處尋找新的AI算力芯片,而搶到OpenAI大單的Cerebras成為了其中的受益者。
4月18日消息,今晨,Cerebras Systems Inc.正式向美國證券交易委員會(huì)(SEC)提交最新一版IPO招股書,股票代碼為“CBRS”,重啟納斯達(dá)克IPO上市之路。
![]()
摩根士丹利成為主承銷商。
花旗、巴克萊、瑞銀投資銀行、瑞穗、TD COWEN、WEDBUSH SECURITIES等一堆大投行上陣,護(hù)著Cerebras上市。
招股書顯示,2024年,Cerebras公司還處于巨額虧損4.85億美元的規(guī)模。而如今,拿到OpenAI超400億美元訂單之后,Cerebras馬上起死回生——2025年,Cerebras營收達(dá)到5.1億美元,同比增幅接近76%;同期凈利潤8790萬美元。
如今,Cerebras公司估值已經(jīng)超過350億美元(約合人民幣2300億元),有望成為今年美國AI、芯片半導(dǎo)體、科技三大領(lǐng)域的最大規(guī)模IPO上市項(xiàng)目之一。
對(duì)于資本市場(chǎng)來說,“黃仁勛勁敵”、“英偉達(dá)最大對(duì)手”這個(gè)title太誘人了,Cerebras要贏麻了。
![]()
馬斯克曾重金收購,
如今卻成OpenAI的“最強(qiáng)算力靠山”
Cerebras公司的故事非常長、非常有趣。
在聊Cerebras公司之前,我們先普及一下為什么其AI芯片產(chǎn)品做的這么大。
![]()
這是Cerebras晶圓級(jí)引擎3(WSE-3)芯片,是全球最大、速度最快的AI芯片。
該芯片于2024年3月發(fā)布,用于訓(xùn)練大規(guī)模生成式AI模型。
它采用臺(tái)積電5nm技術(shù)制造,擁有4萬億個(gè)晶體管、90萬個(gè)AI核心,可提供125 petaflops的性能,專門用于驅(qū)動(dòng)Cerebras CS-3超級(jí)計(jì)算機(jī)。
和英偉達(dá)GPU相比,Cerebras為什么要做這么大?主要原因在于適配芯片迭代和數(shù)據(jù)中心發(fā)展。
在芯片設(shè)計(jì)行業(yè)里面有個(gè)概念叫PPA——功率(Power)、性能(Performance)和面積(Area)三個(gè)指標(biāo)的首字母縮寫,這三個(gè)指標(biāo)是數(shù)字IC設(shè)計(jì)的核心要素,也是與“摩爾定律”一同驅(qū)動(dòng)芯片硬件迭代的重要指標(biāo)。
數(shù)據(jù)中心里面則有三要素——叫計(jì)算、存儲(chǔ)和網(wǎng)絡(luò),這是服務(wù)器和數(shù)據(jù)中心當(dāng)中的核心三大件。
而在常規(guī)的芯片生產(chǎn)流程中,一個(gè)晶圓會(huì)在光刻后被切割成許多小裸片(Die)并且進(jìn)行單獨(dú)封裝,每片裸片在單獨(dú)封裝后成為一顆完整的芯片。
芯片算力的提升方式,是依靠增加芯片面積,所以芯片廠商都在不斷努力增加芯片面積、增加更多性能、電力供應(yīng),以塞更多的晶體管。
但目前算力芯片的單Die尺寸大約是26x33=858平方毫米,也就是接近曝光窗大小,但是芯片的最大尺寸無法突破曝光窗的大小。
而Cerebras通過“晶圓級(jí)芯片”這種3D堆疊+Chiplet的大芯片方式,直接把互聯(lián)、計(jì)算都放在了同一款芯片節(jié)點(diǎn)上,解決很多算力不足、摩爾定律失效等問題。
![]()
![]()
![]()
![]()
這是清華大學(xué)集成電路學(xué)院胡楊教授的PPT,介紹晶圓級(jí)芯片和相關(guān)架構(gòu)技術(shù)。
在晶圓級(jí)芯片中,顯存、計(jì)算、互聯(lián)帶寬都在制造層面解決,用面積換工藝制程,從而解決摩爾定律放緩、工藝節(jié)點(diǎn)讓算力提升不足的問題。
散熱、計(jì)算、基板、供電等層面,晶圓級(jí)芯片通過縱向方式、擴(kuò)大面積解決此問題,以最大算力密度實(shí)現(xiàn)大模型推理。
總結(jié)來說:Cerebras 的 WSE-3 架構(gòu)旨在最大限度地減少數(shù)據(jù)通信開銷,并最大限度地提高可用內(nèi)存,以適應(yīng)越來越大的模型推理和顯存需求,這與英偉達(dá)更傳統(tǒng)的(盡管是高性能的)基于 GPU 的設(shè)計(jì)形成對(duì)比,后者將計(jì)算和內(nèi)存耦合在每個(gè) GPU 上,并依賴于 GPU 之間的外部互連。
1、逐層執(zhí)行和解耦內(nèi)存使 Cerebras 的晶圓級(jí)引擎能夠處理龐大的模型,而不受通常 GPU 內(nèi)存限制的影響。
2、晶圓上的芯片間互連繞過了多 GPU 設(shè)置中的許多延遲瓶頸,簡(jiǎn)化了數(shù)據(jù)傳輸。
3、晶圓上數(shù)千個(gè)核心的純數(shù)據(jù)級(jí)并行性使得編程模型(一次一層)更加簡(jiǎn)單,而無須像GPU那樣頻繁地使用流水線并行或模型并行策略。
由此而來,其WSE-3芯片體積是當(dāng)前最大GPU的56倍,單位計(jì)算功耗卻遠(yuǎn)低于同類產(chǎn)品,同時(shí)推理和訓(xùn)練速度比競(jìng)品快20倍以上。
而且,盡管晶圓級(jí)芯片單卡成本高,但總集群需要的計(jì)算互聯(lián)更少、計(jì)算卡更少,所以成本比GPU低很多。據(jù)估算,在特定的大模型推理場(chǎng)景下,Cerebras芯片的單位任務(wù)成本比GPU低30%–80%,但顯存要比DGX H100高1900倍、AI算力提升8倍等。
![]()
所以,這就是Cerebras比較成功的地方。
它不僅能夠形成萬卡算力集群,而且成本比GPU低、推理算力還適配當(dāng)前主流大模型。Cerebras也是英偉達(dá)在AI推理算力層面的最大對(duì)手,或許也是老黃200億美元收購Groq的原因之一。
招股書顯示,Cerebras成立于2016年,總部坐落于加州森尼韋爾市,截至去年12月31日,員工總數(shù)僅708人。
![]()
這是Cerebras公司聯(lián)合創(chuàng)始人兼CEO安德魯·費(fèi)爾德曼(Andrew Feldman),他在芯片行業(yè)擁有深厚的經(jīng)驗(yàn)和履歷:
- Cerebras Systems - 創(chuàng)始人兼首席執(zhí)行官(2016 年至今)
- AMD - 公司副總裁兼總經(jīng)理(2012 年至 2014 年)
- SeaMicro - 首席執(zhí)行官(2007 年至 2012 年),隨后以 3.55 億美元出售給AMD。
- Crosslink Capital - 駐場(chǎng)企業(yè)家(2007 年 3 月至 2007 年 11 月)
- 美國風(fēng)險(xiǎn)投資公司- 駐場(chǎng)企業(yè)家(2007 年 5 月至 2007 年 10 月)
- Force10 Networks - 市場(chǎng)營銷和產(chǎn)品管理副總裁(2003 年至 2006 年)
- Riverstone Networks - 企業(yè)營銷和企業(yè)發(fā)展副總裁(2000 年至 2003 年)
- Cabletron - 高級(jí)市場(chǎng)總監(jiān)(1998 年至 2000 年)
- 分子應(yīng)用集團(tuán)- 銷售和市場(chǎng)營銷副總裁(1991 年至 1993 年)
費(fèi)爾德曼此前透露,早在2018年,特斯拉首席執(zhí)行官埃隆·馬斯克就曾提出全資收購Cerebras的意向。
招股文件公示的投資方名單中,包括阿爾法波浪資本、標(biāo)桿資本、日蝕風(fēng)投、富達(dá)投資、基石資本等知名機(jī)構(gòu),企業(yè)官網(wǎng)同時(shí)標(biāo)注,OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)亦是其個(gè)人投資方。
![]()
OpenAI、亞馬遜、甲骨文排隊(duì)買英偉達(dá)勁敵
招股書顯示,2025年收入當(dāng)中,硬件占比70%以上,高達(dá)3.6億美元;算力云及其他軟件服務(wù)收入占比約30%。
![]()
事實(shí)上,OpenAI、亞馬遜、甲骨文等巨頭都非常看好Cerebras公司,尤其是英偉達(dá)收購Groq之后,奧特曼就押注了Cerebras。
OpenAI:今年1月,Cerebras宣布計(jì)劃在2028年前向OpenAI提供高達(dá)750兆瓦的計(jì)算能力。Cerebras表示,該交易價(jià)值超過200億美元。合同規(guī)定,Cerebras將在2026年至2028年間每年提供250兆瓦的計(jì)算能力。而且,OpenAI與Cerebras擴(kuò)大合作關(guān)系的價(jià)值超過200億美元,合計(jì)要超過400億美元。
OpenAI還可以通過Cerebras在2030年前額外購買1.25吉瓦的計(jì)算能力。去年12月,Cerebras向OpenAI發(fā)行了認(rèn)股權(quán)證,允許其購買至多3340萬股無投票權(quán)的N類股票。今年1月,Cerebras從OpenAI獲得了一筆10億美元的貸款,年利率為6%,用于建設(shè)數(shù)據(jù)中心基礎(chǔ)設(shè)施并提供服務(wù),這是雙方更廣泛協(xié)議的一部分。Cerebras可以現(xiàn)金償還貸款,也可以通過交付產(chǎn)品或服務(wù)來償還。只有當(dāng)OpenAI從Cerebras購買2吉瓦的計(jì)算能力時(shí),該認(rèn)股權(quán)證才能完全生效。
Cerebras表示,OpenAI聯(lián)盟“將在未來幾年內(nèi)為我們帶來相當(dāng)可觀的預(yù)期收入”。與此同時(shí),如果這家芯片制造商未能按時(shí)提供計(jì)算能力,或者其服務(wù)低于特定標(biāo)準(zhǔn),OpenAI有權(quán)終止與Cerebras的部分或全部協(xié)議。
亞馬遜:今年3月,Cerebras與亞馬遜簽署了一項(xiàng)協(xié)議。這將使基于 Cerebras 芯片的云服務(wù)成為可能,并使這家商業(yè)公司能夠購買價(jià)值約2.7億美元的Cerebras N類股票。
甲骨文:在Oracle 3月份的財(cái)報(bào)電話會(huì)議上,首席執(zhí)行官Clay Magouyrk提到,這家數(shù)據(jù)庫和云計(jì)算公司提供來自Cerebras和其他供應(yīng)商的芯片。但當(dāng)時(shí),甲骨文的價(jià)目表中并未提及Cerebras。周五提交的文件也沒有提及與甲骨文的任何業(yè)務(wù)往來。
財(cái)報(bào)顯示,Cerebras首次嘗試在 2024 年上市時(shí),曾有一家公司表示,微軟總部位于阿聯(lián)酋的G42公司(由G42投資)貢獻(xiàn)了該公司當(dāng)年上半年87%的收入。
但如今,到2025年,Cerebras公司24%的收入將來自G42。但另一家客戶,同樣位于阿聯(lián)酋的公共機(jī)構(gòu)——穆罕默德·本·扎耶德人工智能大學(xué),在2025年貢獻(xiàn)了該公司62%的收入。
截至去年12月31日,Cerebras剩余履約義務(wù)為246億美元,預(yù)計(jì)將在2026年和2027年確認(rèn)其中15%的金額。
![]()
總結(jié)
2018年馬斯克收購Cerebras未果后,果斷讓特斯拉另起爐灶布局Dojo。
2021年,馬斯克就讓特斯拉的人做類似Cerebras的晶圓級(jí)芯片路線。
看似是“退而求其次”,實(shí)則特斯拉Dojo精準(zhǔn)踩中了AI算力的核心痛點(diǎn)——實(shí)用與成本的平衡。
![]()
但特斯拉Dojo的技術(shù)路線和Cerebras不一樣。是通過采用Chiplet路線,在晶圓尺寸的基板上集成了25顆專有的D1芯粒(裸Die)。
D1芯粒在645平方毫米的芯片上放置了500億個(gè)晶體管,單個(gè)Dojo擁有9Petaflops的算力,以及每秒36TB的帶寬。
而特斯拉的Dojo系統(tǒng)開始專門針對(duì)全自動(dòng)駕駛(FSD)模型的訓(xùn)練需求而定制,希望用10個(gè)機(jī)柜組成1套ExaPOD超算系統(tǒng),能夠提供1.1EFlops的計(jì)算性能——成本大大降低。
如今,Dojo AI5回片之后,要做的則是大模型、太空算力這些新項(xiàng)目。
但是,Dojo曾停下來了近一年,團(tuán)隊(duì)解散、項(xiàng)目停擺——所以本質(zhì)上,Cerebras這種晶圓級(jí)芯片路線依然存在巨大問題:
1、制造成本高:相比傳統(tǒng)GPU計(jì)算單卡30萬美元的成本,單個(gè)WSE-3制造成本就要高達(dá)250萬美元、整個(gè)機(jī)架要高達(dá)500萬美元,核心還是在于需要另開一條產(chǎn)品線去制造量產(chǎn),無法規(guī)模化量產(chǎn)。
所以,臺(tái)積電、三星量產(chǎn)Cerebras都需要排隊(duì)和時(shí)間,而且因?yàn)楹芏嗷ヂ?lián)導(dǎo)線穿插Die之間,良率是否更高,外界依然未知,沒有可行性證據(jù)。
![]()
2、雖然說躲開了工藝節(jié)點(diǎn),但未來三年內(nèi),不排除AI大模型行業(yè)會(huì)發(fā)生什么變化,芯片迭代需要三年、模型迭代就一周。
所以,未來Cerebras這類晶圓級(jí)芯片的銷售會(huì)變得更難——畢竟傳統(tǒng)GPGPU產(chǎn)業(yè)鏈成熟,有更大的規(guī)模化量產(chǎn)銷售機(jī)會(huì)。
前兩天,黃仁勛的判斷一語中的:摩爾定律死了。
制程迭代的性能差距,被嚴(yán)重高估。從Hopper到 Blackwell,制程帶來的硬件性能提升僅有 75%,而架構(gòu)、算法、互聯(lián)優(yōu)化帶來的能效提升達(dá)到50倍。
芯片半導(dǎo)體工藝只是底層基礎(chǔ),計(jì)算架構(gòu)、軟件生態(tài)、算法創(chuàng)新、高速互聯(lián),才是決定AI算力上限的核心因素。單純依靠先進(jìn)制程封鎖,無法限制AI發(fā)展,反而會(huì)倒逼對(duì)方探索差異化技術(shù)路線。
所以,黃仁勛已經(jīng)不再追制程、追單卡性能領(lǐng)先,而是追集群系統(tǒng)級(jí)效能提升:從 Hopper 架構(gòu)到 Blackwell 架構(gòu),算力能效提升10至20倍,部分場(chǎng)景甚至達(dá)到30至50倍。
而Cerebras的堅(jiān)守固然值得敬佩,其晶圓級(jí)芯片路線試圖跳出傳統(tǒng)GPU的框架,卻終究沒能繞開行業(yè)的現(xiàn)實(shí)壁壘:
高昂的制造成本、難以規(guī)模化的量產(chǎn)難題、未知的良率風(fēng)險(xiǎn),再加上黃仁勛拋出的“架構(gòu)與算法才是算力核心”的觀點(diǎn),更讓這條路線的未來蒙上了一層迷霧。
它躲開了工藝節(jié)點(diǎn)的束縛,卻沒能建立起成熟的產(chǎn)業(yè)鏈生態(tài),面對(duì)傳統(tǒng)GPGPU的成熟布局和英偉達(dá)的戰(zhàn)略轉(zhuǎn)型,僅憑硬件性能的差異化,很難在激烈的競(jìng)爭(zhēng)中站穩(wěn)腳跟。
這場(chǎng)AI算力路線發(fā)展,沒有絕對(duì)完美的技術(shù)路線,只有適配時(shí)代需求的選擇。
未來,AI算力的競(jìng)爭(zhēng)只會(huì)愈發(fā)激烈。
無論是堅(jiān)守差異化路線的Cerebras,還是務(wù)實(shí)調(diào)整的Dojo,唯有正視自身短板、緊跟行業(yè)趨勢(shì),才能在這場(chǎng)算力革命中占據(jù)一席之地。
而這,也正是整個(gè)AI芯片行業(yè)需要思考的核心命題。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.