![]()
AI的盡頭是電力,當黃仁勛說這個話的時候,可能很多人還沒有真正理解。直到錯過了儲能,錯過了變壓器,錯過了燃氣輪機,才追悔莫及。如果還有下一個機會,那可能會輪到AI服務器電源。AI服務器電源需求的爆發也為眾多企業打開了一個全新的、高增長的增量市場。當前,AI服務器電源正經歷一場由算力爆發驅動的、從量到質的全面升級。其需求規模不僅體現在功率的指數級增長,更體現在對供電架構、效率和可靠性的革命性要求上。
功率需求:從千瓦級到兆瓦級的跨越
AI服務器,特別是用于大模型訓練的GPU集群,其功耗遠超傳統服務器,直接導致了電源需求的劇增。
AI模型訓練涉及海量矩陣運算,對算力要求極高,這使得GPU的功耗持續攀升。例如,英偉達的旗艦GPU從H100的約700W,躍升至Blackwell架構B200的1000W,而其GB200超級芯片的功耗更是高達2700W。單顆芯片的功耗飆升傳導至整個服務器系統。傳統服務器:單機柜功耗通常在5-10kW。一臺搭載8顆H100 GPU的AI服務器功耗已達10.2kW。而最新的英偉達NVL72整機柜方案,集成了72顆B200 GPU,其總功耗已突破120kW,考慮冗余后總功率需求甚至達到198kW。這徹底顛覆了傳統數據中心的設計上限。
架構重構:從低壓到高壓的必然選擇
為了應對兆瓦級的電力需求,傳統的供電架構已無法滿足,一場供電架構的重構正在進行。
在功率一定的情況下,提升電壓是降低電流,從而減少損耗和線纜成本的最有效方式。傳統服務器的12V供電架構已被淘汰,目前AI服務器電源的主流輸出電壓已提升至48V至54V,功率等級也普遍達到5.5kW、8kW甚至12kW。為了支撐未來單機柜1兆瓦(MW)以上的電力需求,英偉達等巨頭已推出800V直流(HVDC)供電架構。該架構能將傳輸電流減半,使電力損耗降至原來的四分之一,是支撐下一代AI工廠的關鍵技術。
質量要求:效率與可靠性的雙重挑戰
巨大的功耗也帶來了散熱和穩定性的嚴峻挑戰,對電源的品質提出了前所未有的高要求。
為了降低運營成本和散熱壓力,AI服務器電源的效率要求極高,普遍需要達到96%以上的“鈦金級”標準,部分高端產品甚至要求達到98%。在有限的服務器空間內實現更大功率,要求電源的功率密度從傳統的50W/立方英寸提升至100W/立方英寸以上。AI訓練任務成本高昂,停機一小時可能損失數十萬美元。因此,電源必須具備極高的可靠性(平均無故障時間超200萬小時),并普遍采用N+N冗余、熱插拔等設計,確保7x24小時不間斷運行。
市場規模:一個數百億美元的黃金賽道
AI算力需求的爆發式增長,直接催生了一個規模龐大的電源市場。
據行業估算,全球AI算力基礎設施投資中,電源系統占比約10%,對應著一個高達300億美元的全球市場空間。巨大的市場需求正在吸引資本加速投入。2026年1月,一個總投資5億元的高端AI算力電源系統研發及產業化項目在上海動工,計劃年產4萬套高端電源系統,以滿足爆發式增長的需求。
在AI大潮正洶涌而來的當下,AI服務器電源的需求是全方位、顛覆性的。它不僅是功率的簡單增加,更是一場涉及芯片技術、材料科學、散熱方案和系統架構的全面革新。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.