AI算力狂飆背后,藏著一個致命痛點——內存利用率居然只有20%到30%!花大價錢買的內存,一大半都在閑置?別急,最近有個技術突然火了,三星、谷歌、英偉達都在搶著布局,它就是CXL。今天就來扒一扒,這個被稱為“存儲領域下一個HBM”的技術,到底能解決什么問題?
![]()
三星最近在IEEE學術會議上放了個大招,他們的CXL內存系統“Pangea v2”,直接把數據傳輸性能干到了傳統互聯方式的10.2倍,還把內存架構里的老瓶頸降低了96%!
這可不是小打小鬧,據韓國媒體報道,這個系統能把22個CXL DRAM模塊整合成一個共享內存池,最多支持5.5TB容量,多臺服務器都能共用。
而且三星還和Marvell、Liquid AI合作開發,看來是下了血本。更狠的是,他們已經瞄準了最新的CXL 3.2標準,計劃于2026年推出Pangea v3,這節奏簡直是要把對手甩在身后。
![]()
不止三星,另外兩家存儲大佬也沒閑著。SK海力士早在2022年就推出了首款CXL DRAM,2023年又跟進了CXL 2.0的產品,他們的96GB CMM-DDR5方案已經在2025年完成客戶認證,負責人還放話要靠CXL 3.0的第二代產品保持領先。
美光科技也不甘落后,2024年正式發布了自己的CXL內存模塊,終于加入戰局。現在三大存儲廠商都齊活了,CXL賽道的競爭格局算是初步定下來了,接下來就是拼技術、拼速度的時候了。
![]()
CXL之所以能火起來,核心原因就是它能解決AI服務器的內存痛點。現在的AI架構里,每個GPU和CPU都有自己的專屬內存,利用率低得可憐。
但CXL不一樣,它能讓多個GPU和CPU共享一個內存池,直接把資源利用率拉上去。谷歌已經開始在數據中心部署CXL了,還在裝控制器管理數據流量;英偉達更猛,今年晚些時候要推出的Vera CPU會支持CXL 3.1標準,這可是迄今為止最大規模的CXL實戰檢驗。
有個韓國初創公司的CEO說得很實在:“AI需要大量內存,價格又漲得厲害,現在只有CXL能解決內存效率問題,沒別的替代方案。”
![]()
雖然CXL看起來前景光明,但要大規模商用還得跨一個大坎——生態協同。伯恩斯坦的分析師說:“CXL要正常工作,CPU、GPU、內存、軟件都得兼容,能同時搞定這些的公司沒幾個,也就英偉達和谷歌能試試。”
之前AMD和英特爾都推出過支持CXL的芯片,但商業化落地都不行。就算谷歌已經在用了,行業工程師還是覺得現有技術滿足不了大型云服務商的全部需求。
更麻煩的是,每次CXL更新版本,芯片商要重新設計處理器(得1到2年),然后元器件廠商做控制器,存儲廠商改內存模塊,服務器商再測試兼容性,這一套流程下來,時間成本太高了。
今年英偉達Vera CPU的落地情況,可能就是CXL能不能從實驗走向主流的關鍵信號。
CXL技術確實戳中了AI時代的痛點,但生態協同這關不好過啊。你覺得英偉達今年的Vera CPU能推動CXL普及嗎?或者你看好哪家公司能打破這個僵局?評論區聊聊你的觀點,覺得有用的話別忘了點贊收藏,轉給身邊搞科技的朋友看看,說不定這就是下一個改變行業的技術呢!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.