通過與 Meta 協(xié)作、在 Verda 上部署、以及對 OCP 貢獻創(chuàng)新等一系列舉措,Arm AGI CPU 基礎(chǔ)設(shè)施正實現(xiàn)規(guī)模化落地
![]()
隨著人工智能 (AI) 系統(tǒng)從單純運行模型逐步演進為編排自主的代理式工作流,基礎(chǔ)設(shè)施的需求正在發(fā)生根本性變革。工作負載不再局限于孤立的推理任務(wù),而是由模型、工具和服務(wù)之間的成千上萬次協(xié)同交互構(gòu)成。在這一全新環(huán)境中,CPU 正成為 AI 的控制中樞——負責統(tǒng)籌全棧的編排調(diào)度、數(shù)據(jù)流轉(zhuǎn)與系統(tǒng)行為調(diào)度。
為滿足這些新興需求,Arm 近期推出了Arm AGI CPU——一款專為下一代 AI 基礎(chǔ)設(shè)施量身打造的處理器。Arm AGI CPU 主打高核心擴展性、高內(nèi)存帶寬與系統(tǒng)級能效,可統(tǒng)籌協(xié)調(diào) CPU、GPU 及其他加速器之間的復(fù)雜交互,并針對大規(guī)模部署場景下的性能、一致性與互操作性進行了優(yōu)化。
在四月底的 2026 年 OCP EMEA 峰會上,Arm 正式宣布:歐洲云服務(wù)提供商 Verda 將在其下一代基礎(chǔ)設(shè)施中部署 Arm AGI CPU,用于代理式 AI 的編排調(diào)度;并將其與基于 NVIDIA GB300 的系統(tǒng),以及即將面世的基于 NVIDIA Vera Rubin 的系統(tǒng)協(xié)同運行。此次落地部署印證了行業(yè)正朝著 CPU 與加速器深度融合架構(gòu)的方向演進,CPU 在此類架構(gòu)中承擔著核心作用,支撐可擴展、高能效 AI 系統(tǒng)落地。
與此同時,Arm 正通過向開放計算項目 (Open Compute Project, OCP) 持續(xù)貢獻一系列技術(shù)成果,進一步踐行其對開放、標準化基礎(chǔ)設(shè)施的長期承諾。這些實際落地部署與開放生態(tài)協(xié)作的雙重推進,既清晰展現(xiàn)了 AI 基礎(chǔ)設(shè)施的演進趨勢,也體現(xiàn)了 Arm 正為這一全新階段定義核心算力底座。
攜手 Meta規(guī)模化落地代理式 AI
Arm 在 AGI CPU 方面的工作,正與引領(lǐng) AI 基礎(chǔ)設(shè)施未來發(fā)展的頭部超大規(guī)模云服務(wù)提供商緊密協(xié)作,其中包括主要合作伙伴及客戶 Meta。此次合作體現(xiàn)了雙方在構(gòu)建可擴展、開放平臺方面的共同愿景,以應(yīng)對日益復(fù)雜的 AI 工作負載需求。
AI 系統(tǒng)面臨的挑戰(zhàn)不止于算力性能本身。系統(tǒng)整體效率與互操作性同樣是實現(xiàn)工作負載規(guī)模化的關(guān)鍵。Arm 與 Meta 正攜手推進基于 Arm AGI CPU 打造的新一代基礎(chǔ)設(shè)施建設(shè),以滿足上述需求,從而實現(xiàn)代理式 AI 更高效的任務(wù)編排與落地部署。
![]()
Arm 與 Meta 的合作凸顯了行業(yè)整體發(fā)展趨勢:隨著超大規(guī)模云服務(wù)提供商邁向高度集成的系統(tǒng)架構(gòu),CPU 在 AI 工作流管理中扮演核心角色。雙方基于開放架構(gòu)與系統(tǒng)級設(shè)計展開協(xié)作,正攜手為下一代 AI 基礎(chǔ)設(shè)施筑牢核心根基。
Verda 部署:AI 基礎(chǔ)設(shè)施的實踐落地
乘著行業(yè)發(fā)展勢頭,Verda 對 Arm AGI CPU 的部署體現(xiàn)了下一代 AI 系統(tǒng)的構(gòu)建方式。通過將基于 Arm CPU 的基礎(chǔ)設(shè)施與 NVIDIA GB300 GPU 平臺相結(jié)合,Verda 正在打造一種緊密耦合的架構(gòu),以支持代理式 AI 工作負載的規(guī)模化運行。
在該架構(gòu)模式中,加速器負責提供模型執(zhí)行所需的性能,CPU 則負責工作流編排、數(shù)據(jù)流轉(zhuǎn)管理及跨組件的系統(tǒng)行為協(xié)調(diào)。這種算力均衡架構(gòu)對基于代理式 AI 系統(tǒng)至關(guān)重要,因為其性能不僅取決于計算吞吐能力,更依賴全棧層面的高效協(xié)同。
Verda 的此次落地應(yīng)用,反映出行業(yè)正朝著面向 AI 優(yōu)化的集成式異構(gòu)系統(tǒng)演進,CPU 在其中正扮演核心且具有戰(zhàn)略意義的角色。
代理式 AI 重新定義基礎(chǔ)設(shè)施
傳統(tǒng)的 AI流程相對線性:數(shù)據(jù)輸入,推理輸出。而代理式系統(tǒng)則與之不同,它們可自主規(guī)劃、推理并執(zhí)行操作,往往通過跨越多個模型、服務(wù)與決策點的持續(xù)循環(huán)來完成任務(wù)。
這一轉(zhuǎn)變正推動基礎(chǔ)設(shè)施需求發(fā)生跨越式升級。加速器仍然負責執(zhí)行模型工作負載并生成詞元 (token),而 CPU 則正日益承擔起全系統(tǒng)層面的統(tǒng)籌協(xié)調(diào)職責。因此,CPU 的需求不僅在規(guī)模上持續(xù)增長,其重要性也在不斷提升。
隨著這類系統(tǒng)持續(xù)擴展,硬件平臺與系統(tǒng)管理的一致性變得至關(guān)重要。服務(wù)器基礎(chǔ)系統(tǒng)架構(gòu) (SBSA)、服務(wù)器基礎(chǔ)可管理性規(guī)范 (SBMR) 等標準化架構(gòu),能夠確保復(fù)雜的多智能體工作負載在多元環(huán)境中穩(wěn)定運行,無需開展定制化集成。
依托開放標準,實現(xiàn) AI 基礎(chǔ)設(shè)施規(guī)模化擴展
隨著 AI 系統(tǒng)復(fù)雜度不斷提升,實現(xiàn)高效規(guī)模化擴展,不僅需要芯片技術(shù)革新,更需要生態(tài)在硬件、固件、系統(tǒng)設(shè)計與部署模式等層面實現(xiàn)協(xié)同統(tǒng)一。
Arm 正持續(xù)貢獻多項標準規(guī)范,助力 OCP 達成生態(tài)協(xié)同,并降低合作伙伴構(gòu)建Arm 架構(gòu) AI 基礎(chǔ)設(shè)施的門檻。這些貢獻覆蓋三大核心領(lǐng)域:首日部署就緒、參考設(shè)計加速方案落地、打造開放的芯粒生態(tài)。
首日部署就緒
規(guī)模化基礎(chǔ)設(shè)施的落地部署,需要從起步階段就具備高穩(wěn)定性與高可靠性。Arm 正通過 OCP 持續(xù)優(yōu)化其成熟的系統(tǒng)架構(gòu)規(guī)范,包括 SBSA、SBMR 及 Arm 數(shù)據(jù)中心架構(gòu)合規(guī) (ADAC) 框架,為基礎(chǔ)設(shè)施的規(guī)模化部署提供有力支撐。
上述規(guī)范為硬件平臺、系統(tǒng)管理與驗證構(gòu)建了統(tǒng)一基準,使操作系統(tǒng)與應(yīng)用程序無需修改即可在各類硬件實現(xiàn)版本上直接運行。配套的診斷、合規(guī)測試與系統(tǒng)驗證工具,可進一步幫助合作伙伴加快系統(tǒng)上線速度,同時降低部署后的運維風險。
參考設(shè)計加速方案落地
為縮短從芯片研發(fā)到部署落地的周期,Arm 正為基于 Arm AGI CPU 的系統(tǒng)提供參考服務(wù)器設(shè)計。這些設(shè)計涵蓋服務(wù)器硬件規(guī)范與固件開發(fā)框架,為合作伙伴提供滿足量產(chǎn)標準的技術(shù)基礎(chǔ)。
此類規(guī)范在對系統(tǒng)設(shè)計核心要素進行標準化的同時,保留了差異化定制的靈活空間,有助于簡化開發(fā)流程,助力合作伙伴在各類應(yīng)用場景中實現(xiàn)更快速、高效的部署。
打造開放的芯粒生態(tài)
隨著 AI 基礎(chǔ)設(shè)施的持續(xù)演進,芯粒化設(shè)計已成為實現(xiàn)性能擴展與靈活性提升的關(guān)鍵。通過與 OCP及生態(tài)合作伙伴共同推進基礎(chǔ)芯粒系統(tǒng)架構(gòu) (Foundation Chiplet System Architecture, FCSA) 工作,Arm 正在助力構(gòu)建更加開放、且具備互操作性的芯粒生態(tài)系統(tǒng)。
該方案支持模塊化系統(tǒng)設(shè)計,可降低集成復(fù)雜度,幫助合作伙伴更高效地開發(fā)與部署面向 AI 優(yōu)化的芯片平臺。
生態(tài)發(fā)展勢頭
Arm 與 OCP 的合作,是業(yè)界協(xié)同共建開放、規(guī)模化 AI 基礎(chǔ)設(shè)施進程中不可或缺的一環(huán)。
Meta 軟件工程師 Paul Saab 表示:“隨著 AI 基礎(chǔ)設(shè)施持續(xù)規(guī)模化擴展,全棧標準化對實現(xiàn)系統(tǒng)互操作與運行能效愈發(fā)重要。我們與 Arm 的合作,體現(xiàn)了雙方在推動開放平臺方面的共同愿景,以支撐大規(guī)模的 AI 工作負載需求。”
OCP 首席執(zhí)行官 George Tchaparian 指出:“OCP 匯聚全球社群力量,通過開放協(xié)作加速技術(shù)創(chuàng)新。在芯粒、系統(tǒng)就緒度、參考設(shè)計等領(lǐng)域持續(xù)輸出規(guī)范成果,是推動開放 AI 基礎(chǔ)設(shè)施大規(guī)模普及的關(guān)鍵。”
Verda 創(chuàng)始人兼首席執(zhí)行官 Ruben Bryon 表示:“Verda 運營著由可再生能源驅(qū)動,專為機器學習 (ML) 團隊打造的 AI 云平臺。通過將 Arm AGI CPU 與 NVIDIA GB300 算力集群以及即將上線的 VR200 集群搭配部署,我們力求打造一套從調(diào)度編排到推理任務(wù)的 Arm 原生全棧技術(shù),為客戶提供代理式 AI 大規(guī)模部署所需的算力密度與能效表現(xiàn)。”
奠定 AI 下一階段發(fā)展的基石
隨著 AI 基礎(chǔ)設(shè)施的持續(xù)演進,行業(yè)的成敗不僅取決于性能,更取決于能否在日趨復(fù)雜的系統(tǒng)環(huán)境中實現(xiàn)高效部署、規(guī)模化擴展與生態(tài)互通。開放標準與生態(tài)協(xié)作,將是開啟 AI 下一發(fā)展階段的關(guān)鍵支撐。
Arm 的技術(shù)路徑將高性能計算與開放、標準化的系統(tǒng)基礎(chǔ)相結(jié)合,確立了 CPU 在 AI 基礎(chǔ)設(shè)施中的核心層級地位。依托 Verda 等實際場景部署,以及在 OCP 中持續(xù)推進的協(xié)作,Arm 正攜手業(yè)界合作伙伴,共同構(gòu)建可規(guī)模化、可商用落地的 AI 系統(tǒng)。(作者:Arm 云AI事業(yè)部副總裁 Eddie Ramirez)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.