英偉達Blackwell把算力推上了新臺階,也把數據中心的熱量推到了新高度。
Vertiv在2024年發布了與英偉達共同開發的GB200 NVL72參考架構,單柜最高支持132千瓦。TrendForce在2025年判斷,AI數據中心液冷滲透率將從2024年的14%升至2025年的33%。
電力、機柜、溫控、管路、冷卻液和運維系統越來越重要。
GPU越貴,散熱越值錢。算力越緊急,機房越像一座高密度能源工廠。芯片負責計算,電力負責供能,液冷負責讓昂貴的芯片持續滿血工作。
![]()
![]()
風冷的時代正在被擠壓
過去的數據中心,服務器擺進機柜,機房通過空調、風機、冷通道、熱通道來控制溫度。風從冷通道進入,把服務器里的熱量帶出來,再由空調系統處理。大多數傳統互聯網業務,靠這套系統還能支撐。
AI機柜的功率密度上來以后,GPU密集堆疊,機柜內部熱量急劇上升。風冷越來越吃力。空氣的導熱能力有限,風扇越轉越快,空調越開越猛,耗電越來越高,噪音和空間壓力也一起上來。
一旦風冷帶不走熱量,GPU就會降頻。一旦降頻,訓練速度下降,推理成本上升,昂貴的芯片沒法保持高效率運行。對于云廠商、AI服務商和智算中心來說,降熱已經成為成本問題、效率問題、交付能力問題。
![]()
![]()
液冷為什么突然變重要
液冷走到臺前,第一層原因是芯片功耗提升。
AI芯片已經不再是一塊單獨工作的計算卡。它正在變成整柜、整集群協同運行的系統。英偉達GB200 NVL72把72顆Blackwell GPU放進機柜級系統中,功率密度遠高于傳統服務器。
機柜越密,熱源越集中。風冷像用空調給整間屋子降溫,液冷則更接近把散熱系統貼到熱源旁邊。冷板式液冷把冷板貼近芯片,通過液體循環帶走熱量。浸沒式液冷更進一步,把服務器放進特殊冷卻液中,讓熱量直接被液體吸收。
液體帶走熱量的能力遠高于空氣。AI機柜功率越高,散熱就越要靠近芯片本身。
第二層原因是能效被重新定價。
過去PUE更多是綠色數據中心指標,用來衡量機房能源使用效率。到了AI時代,PUE直接影響算力成本。冷卻系統耗電越高,每一次訓練、每一次推理、每一個token的成本都會被推高。
這就是液冷的現實價值。
它是在幫AI公司降低長期運營成本。買更強的GPU只是第一步,讓這些GPU用更低能耗持續運行,是更難的一步。
第三層原因是數據中心的建設方式變了。
AI機房要同時處理電力接入、配電、UPS、溫控、液冷循環、漏液監測、水處理、運維管理和系統冗余。冷板、CDU、泵、閥、管路、換熱器、冷卻液和監控系統要一起運行。
散熱從設備采購,變成了系統工程。而目前更容易規模化的路線,是冷板式液冷。
它對現有服務器架構和機房改造更加友好,客戶接受度更高,也更適合當前主流AI服務器。服務器內部的關鍵發熱部件通過冷板帶走熱量,機房仍然可以保留部分風冷系統,整體改造難度相對低。
這也是為什么冷板式液冷更容易率先放量。
浸沒式液冷效率更高,想象空間也更大。服務器直接浸入絕緣冷卻液中,空氣冷卻的部分壓力大幅下降。但它面對的問題也更多,比如冷卻液材料兼容性、服務器維護習慣、長期可靠性、行業標準、客戶心理門檻和資產改造成本。
對于超高密度AI集群來說,浸沒式液冷會有更強吸引力。但從當下產業節奏看,冷板式液冷更像這一輪AI數據中心建設中的主流選擇。
簡單講,冷板式液冷先吃當下需求,浸沒式液冷等待更成熟的標準和更激進的機房形態。
![]()
![]()
產業鏈機會已經攤開
海外企業里,Vertiv、施耐德電氣、伊頓、ABB、西門子、Johnson Controls都已經站在數據中心基礎設施的重要位置。它們的優勢不只在單個設備,而在電力、配電、溫控、機房管理、全球客戶和大型項目交付經驗。
AI數據中心需要的不是一個零件,而是一整套能穩定運行的基礎設施。
中國企業也在進入這條鏈條。
英維克、申菱環境、佳力圖、科華數據、科士達、依米康等公司,都出現在數據中心溫控、電源、機房環境控制和系統集成環節。隨著國內智算中心、云廠商、運營商和第三方IDC推進高功率機柜建設,本土溫控和液冷供應商的機會會繼續增加。
AI數據中心的停機代價太高。GPU本身昂貴,訓練任務昂貴,客戶合同也昂貴。液冷系統一旦泄漏、腐蝕、堵塞或維護失控,損失可能遠高于設備價格。
所以大客戶選擇供應商時,會非常謹慎。
誰有大規模案例,誰能通過長期驗證,誰能提供穩定交付和持續服務,誰才可能真正進入核心供應鏈。
而標準還在演進。不同芯片平臺、服務器形態、機柜設計和機房改造路線,都可能影響液冷方案選擇。今天適合的系統,未來可能要重新適配。
當行業進入放量階段,冷板、管路、泵閥、CDU等部分環節都會面臨競爭加劇。真正能保住利潤的企業,往往要靠系統能力、客戶關系、認證壁壘和運維服務,而不是單純賣硬件。
水資源和環保要求會影響數據中心選址。AI數據中心越來越像能源設施,電從哪里來,水從哪里來,熱怎么處理,都會成為地方政府、運營商和云廠商必須考慮的問題。
客戶架構也是變數。英偉達路線、其他AI芯片路線、自研芯片路線、云廠商自建路線,都會影響液冷需求的節奏和形態。
這個行業有機會,液冷會成長,但不會讓所有公司一起受益。
![]()
算力的盡頭,是工程能力
AI產業最開始拼模型,后來拼芯片,接下來一定會拼基礎設施。
因為真正的大規模AI服務,靠的不是實驗室里一次漂亮的演示,而是每天、每小時、每秒穩定運行的算力系統。
芯片決定上限,電力決定供給,散熱決定持續性。
當單柜功率來到100千瓦以上,數據中心就不再是普通機房。它更像一座被壓縮到極致的能源工廠。每一顆GPU都在制造熱量,每一套冷卻系統都在決定算力能不能持續釋放。
這就是液冷產業被重新定價的原因。
過去散熱是配套環節,今天它正在變成AI基礎設施的核心環節。過去機房冷卻系統藏在服務器背后,今天它已經站到臺前,和GPU、電力、網絡一起決定AI的真實成本。
AI越往后走,真正稀缺的東西會越來越清楚。
不是只有更強的芯片。
還有更便宜的電,更穩定的機房,更高效的液冷系統,以及能把這些東西全部整合起來的工程能力。
未來幾年,算力產業鏈里最容易被低估的一條線,可能就是散熱。GPU把AI推向高功率時代,液冷負責讓這場算力競賽繼續跑下去。
責任編輯 | 汪鵬
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.