![]()
5月14日,英偉達CEO黃仁勛在離開人民大會堂期間回應記者的提問時,他豎起拇指,表示會談進展順利。
5月14日晚間,英偉達大漲4%,再創歷史新高,截至發稿時市值已高達5.7萬億美元。這與H200獲批進入中國市場這則市場傳聞直接相關。
![]()
該新聞首先由路透獨家報道,“美方已批準約10家中國公司購買H200、單一客戶上限7.5萬顆”。目前,包括觀察者網在內的多家中國媒體亦對此全面跟進。
截至目前,H200在中國市場尚未出現任何交付或銷售記錄。 但是,這并不等于獲批后仍然交付無望。更何況,自今年初開始,H200對華交易已經出現過多次推進信號。
更何況,自今年初開始,H200 對華交易已經出現過多次推進信號,包括英偉達要求中國客戶以全額預付、不可取消、不予退款的嚴苛條款鎖定訂單。
本次H200 獲批發生在中美領導人會晤之后,雙方就經貿、科技等領域達成多項共識,釋放出 "穩定預期、管控分歧" 的積極信號。在這一背景下,H200的討論已經超出單純的進出口范疇,它不僅關系到國內云廠商的擴容節奏、智算中心的上架計劃,更深刻影響著國產GPU的發展路徑與中美算力競爭的格局。
深算派通過下表來簡單梳理下H200的時間線。
![]()
01
H200的代際差
要準確理解H200獲批的產業意義,首先需要厘清它在英偉達產品譜系中的位置。
H200并非英偉達最新一代架構的芯片,而是Hopper架構H系列的強化型號,于2023年11月正式發布。其核心升級全部集中在顯存與帶寬兩個維度,這也是當前大模型推理場景最核心的瓶頸。
根據英偉達官網公開數據,H200搭載 141GB HBM3e顯存,顯存帶寬達到 4.8TB/s,較 H100 的 80GB HBM3 顯存和 3.35TB/s 帶寬,分別提升了 76% 和 43%NVIDIA。在計算性能方面,H200 與 H100 基本保持一致,FP8 算力為 4000 TFLOPS,FP16 算力為 2000 TFLOPS。這意味著 H200本質上是 H100 的"顯存增強版",專門針對大模型推理和長上下文任務進行了優化。
英偉達的GPU產品迭代遵循"架構代際+型號升級"的雙軌制。目前,英偉達已經形成了完整的三代產品體系:Hopper架構的H系列、Blackwell架構的B系列以及未來的Vera Rubin架構的R系列。這三代產品在定位、性能和工程實現上存在顯著差異。
![]()
從代際關系來看,H200與H100 同屬 Hopper 架構,二者之間不存在架構代際的斷裂。這意味著H200完全兼容H100的軟件棧、服務器平臺和運維體系。對于已經部署了H系列集群的云廠商和智算中心來說,升級到H200幾乎不需要改造現有基礎設施,可以實現 "即插即用",快速轉化為可用產能。
相比之下,Blackwell架構的B系列則是一次徹底的架構換代。B200不僅在計算性能和顯存帶寬上有顯著提升,更重要的是它采用了全新的系統級設計,對整機形態、互聯方案、機柜級集成提出了更高要求。B200的TDP高達1000W,遠高于H200的700W,需要全新的電源和散熱系統支持。這意味著部署B系列,需要對數據中心進行大規模改造,部署周期顯著拉長。
更遠期的Rubin平臺,無疑是最先進的,代表了英偉達的未來戰略方向。它不再是單一的GPU芯片,而是一個完整的AI 工廠平臺,集成了CPU、GPU、NVLink 交換、網卡、DPU、以太網交換等一整套組件。
Rubin平臺的目標是實現從芯片到機柜再到數據中心的全棧優化,將競爭門檻從單卡性能提升到了平臺級生態綁定。
02
中國AIDC,為什么更適合H系列?
當前,國內智算中心在GPU選型上,普遍更傾向于H系列而非B系列。這一選擇并非因為H系列性能更先進,而是基于交付確定性、部署成本和工程可行性的綜合考量。
首先,H系列的交付確定性遠高于B系列。
自2022年美國出臺先進計算芯片出口管制規則以來,英偉達的高端GPU對華出口一直受到嚴格限制。B系列作為英偉達最新一代架構的產品,技術含量更高,戰略意義更強,因此受到的出口管制也更為嚴格。截至目前,B系列尚未獲得任何對華出口許可,短期內也看不到放開的跡象。而H系列作為上一代產品,管制相對寬松,本次H200 獲批就是一個明證。
其次,H系列的部署成本更低,周期更短。
如前所述,H200完全兼容H100的服務器平臺和運維體系。國內已經有大量的H100和H20服務器在運行,相關的工程團隊、運維經驗和軟件生態都已經非常成熟。部署H200 只需要替換GPU 芯片,不需要改造機柜、電源、散熱和網絡系統,部署周期可以控制在1-2個月內。而部署B系列則需要全新的服務器設計、機柜改造和系統調優,部署周期至少需要6個月以上,成本也會增加30%-50%。
第三,H系列更適合當前國內的主流應用場景。
當前國內AI產業已經從訓練階段全面轉向部署階段,推理業務成為算力消耗的絕對主力。根據中國信通院的數據,2025年國內AI算力中推理算力的占比已經達到68%,預計2026年將進一步提升至75%。H200 的核心優勢正是在于推理性能,其141GB的大顯存和4.8TB/s的高帶寬,完美適配長上下文對話、RAG 檢索增強、多模態交互等主流推理場景。而B系列雖然在訓練性能上更具優勢,但在推理場景下的性價比并不比H200高多少。
第四,H系列的供應鏈更加穩定。
英偉達的H系列芯片已經量產多年,產能充足,供應鏈成熟。而B系列芯片剛剛進入量產階段,產能有限,主要供應北美和歐洲市場。即使未來B系列獲得對華出口許可,國內企業也很難拿到足夠的配額。
綜合以上因素,對于國內智算中心來說,H 系列是當前最現實、最經濟、最可靠的選擇。
B系列雖然性能更先進,但在可獲得性、部署成本和周期上都存在明顯劣勢。在出口管制和供應鏈不確定的背景下,能上線遠比追求最先進更為重要。
不過,這里仍要說明一下,英偉達B系列(Blackwell)并不像有人說的是過渡性產品,而是英偉達從單卡算力轉向系統級算力的核心主力平臺,生命周期約 2年(2024-2026),是全球首個專為推理優化的架構,首次將競爭維度從單卡提升到機柜級集成。B200/B300是2025-2026年全球高端算力的絕對主力,出貨量將遠超H系列。
03
推理時代的到來,以及國產替代的真實進展
AI產業正在經歷一場深刻的范式轉變:過去的重心是模型訓練,而當下和未來,推理將成為絕對的主角。這一轉變對國產算力產業的發展具有深遠影響。
訓練階段的核心目標是打造出能力強大的模型,它對硬件的要求是極致的性能和生態的一致性。訓練任務通常需要數千甚至數萬張GPU卡協同工作(萬卡集群),對卡之間的互聯帶寬和延遲要求極高。同時,訓練任務高度依賴CUDA 生態,軟件棧的成熟度直接影響訓練效率。這也是為什么在訓練階段,英偉達的GPU幾乎處于壟斷地位。
而推理階段則完全不同。
推理的核心目標是以最低的成本、最高的效率為用戶提供穩定的服務。它對硬件的要求不再是單一的峰值性能,而是單位token成本、吞吐與時延的綜合表現。推理階段的工程手段更加豐富,量化、并行策略、KV Cache管理、推理引擎優化、算子融合、調度與通信優化等,都可以在不改變模型結構的情況下顯著提升性能。這為國產GPU提供了彎道超車的機會。
在推理時代,國產GPU已經取得了顯著的進展,形成了以華為昇騰為龍頭,寒武紀、海光信息、摩爾線程等多強并立的格局。
華為昇騰是國產GPU的絕對領導者。2026年4 月,華為正式啟動昇騰950PR 的大規模量產。根據公開信息,昇騰950PR搭載112GB自研HiBL 顯存,FP4 算力達1.56P FLOPS,在DeepSeek V4模型8K輸入長度的標準測試場景下,單卡推理性能是英偉達H20 的2.87 倍。
華為還推出了 CloudMatrix384 超節點系統,將384顆昇騰910C與192顆鯤鵬CPU通過高帶寬互聯實現全互聯與資源池化,并圍繞MoE 并行、KV Cache 訪問等推理負載做了系統級優化。這一系統在eepSeek V4 模型上的表現已經接近英偉達的同類產品。
寒武紀是國內領先的 AI 芯片設計公司。2026年一季度,寒武紀實現營收 28.85億元,同比增長159.56%;歸母凈利 10.13億元,同比增長185.04%;經營現金流轉正至8.34 億元,為上市以來首次季度現金流為正。支撐這一業績的核心是思元590芯片的大規模出貨。思元590采用7nm Chiple封裝,FP16 算力 256TFLOPS,INT8 算力 512TOPS,96GB HBM2e,綜合性能接近英偉達A100的80%。目前,思元590已經在字節跳動、百度、阿里巴巴等頭部互聯網企業實現大規模部署。
海光信息堅持CPU+DCU雙輪驅動戰略。2026年一季度,海光信息實現營收 40.34億元,同比增 68.06%;歸母凈利潤6.87 億元,同比增長35.82%。海光的DCU產品已經廣泛應用于超算中心、金融、能源等領域,在科學計算和 AI 訓練方面表現出色。
盡管國產GPU取得了顯著進展,但我們必須清醒地認識到,國產替代仍然處于初級階段。在高端訓練芯片領域,國產GPU與英偉達的差距仍然較大。即使在推理領域,雖然國產GPU已經能夠滿足大部分應用需求,但在生態成熟度、軟件工具鏈和大規模集群穩定性方面,與英偉達仍有不小的差距。
04
國產GPU與英偉達的差距正在加大?
這幾乎是一個關乎中國算力戰略成敗的核心問題。
市場上存在兩種截然不同的觀點:一種觀點認為,隨著國產GPU性能的快速提升和生態的不斷完善,差距正在逐步縮小;另一種觀點則認為,英偉達的迭代速度太快,平臺化優勢太明顯,差距實際上在不斷加大。
深算派認為,從單卡性能的角度來看,國產GPU 與英偉達的差距確實在逐步縮小;但從平臺化和生態的角度來看,差距正在不斷加大。
從單卡性能來看,國產GPU的進步有目共睹。華為昇騰950PR的推理性能已經超過了英偉達的H20,接近H100的水平。寒武紀的思元590綜合性能也達到了 A100的80%左右。按照這個速度,國產GPU望在未來2-3年內,在單卡性能上追平英偉達的上一代產品。
但從平臺化和生態的角度來看,差距正在不斷拉大。
英偉達已經從單一的GPU芯片供應商,轉變為完整的AI計算平臺提供商。其 Blackwell架構和未來的Rubin 平臺,不再是簡單的芯片升級,而是系統級和平臺級的革新。英偉達通過DGX系統、HGX模組、NVLink互聯、CUDA軟件棧、TensorRT推理引擎等一整套產品和技術,構建了一個封閉但高效的生態系統。這個生態系統的壁壘極高,后來者很難突破。
更重要的是,英偉達的迭代速度正在不斷加快。
過去,英偉達的GPU架構迭代周期是2年;現在,已經縮短到了18個月。而且,每一代架構的提升幅度都是指數級的。Blackwell架構相比Hopper架構,推理性能就提升了4 倍,能效提升了 25倍。按照這個速度,國產GPU 即使在單卡性能上追平了英偉達的上一代產品,英偉達的下一代產品又已經推出了,差距似乎永遠存在。
此外,出口管制的不斷升級也在拉大差距。
美國不僅限制高端GPU對華出口,還限制先進制造設備、EDA軟件、IP核等關鍵技術的出口。這使得國產GPU在制程工藝、先進封裝、HBM顯存等方面面臨巨大的瓶頸。例如,HBM顯存目前幾乎被三星、SK海力士和美光三家壟斷,國產HBM顯存剛剛進入量產階段,性能和產能都與國際先進水平有較大差距。
綜合來看,討論國產GPU與英偉達的差距,是一個復雜的問題,不能簡單地用 加大或縮小來概括。在單卡性能和特定應用場景上,差距正在縮小;但在平臺化、生態和整體技術實力上,差距正在加大。這就要求我們的算力戰略必須更加務實,不能盲目追求全面超越,而應該聚焦重點領域,發揮比較優勢,走差異化發展道路。
05
放H200進來的利與弊
放H200進來,其實是一把雙刃劍。
它既可以緩解國內高端算力的緊張局面,為國產GPU提供對標基準;也可能擠壓國產GPU的市場空間,延緩國產替代的進程。如何在 "算力即國力" 與 "自主可控" 之間找到平衡,是當前我國算力戰略面臨的核心挑戰。
放H200進來的好處是顯而易見的。
首先,它可以快速緩解國內高端算力的緊張局面。
當前,國內AI產業正處于快速發展期,對高端算力的需求呈爆發式增長。
根據中國信通院的數據,2025年國內AI算力需求達到了350EFLOPS,同比增長78%;預計2026年將達到600EFLOPS,同比增長71%。而國產GPU的產能遠遠無法滿足這一需求。
2026年國內高端AI芯片總需求約450萬顆,國產供給約220-240萬顆,自給率約50%,其中昇騰950PR 計劃出貨75萬顆。
缺口主要靠三類方式填補:一是合規進口英偉達H20/H200(H200 獲批后配額落地);二是大廠出海部署,在東南亞、中東采購英偉達芯片建集群;三是存量復用+算力調度優化,通過低負載業務遷移、集群池化提升利用率,同時用寒武紀、海光等國產中低端芯片分流非核心需求。
其次,它可以為國產GPU提供明確的對標基準。
有了 H200 這個參照物,國產 GPU 廠商可以更清晰地找到自身的差距與不足,從而更有針對性地加大研發投入,提升產品性能與生態成熟度。同時,H200 的進入也會給國產 GPU 帶來競爭壓力,倒逼它們加快技術創新和產品迭代的速度。
第三,它可以為國內企業爭取寶貴的時間窗口。
AI產業的競爭是一場速度的競賽。誰能先把產品推向市場,誰就能占據先機。放H200進來,可以讓國內企業在短期內獲得足夠的算力支持,加快產品研發和商業化進程,在全球AI競爭中占據有利位置。同時,也為國產GPU的發展爭取了寶貴的時間。
當然,放H200 進來也存在明顯的風險。
最主要的風險是可能擠壓國產GPU的市場空間。
如果國內企業可以輕松獲得 H200,它們可能會更傾向于使用成熟的英偉達產品,而不愿意冒險使用國產 GPU。這會導致國產GPU失去寶貴的市場機會和真實負載,從而延緩生態成熟和技術進步的速度。
其次,它可能會增強國內企業對英偉達的依賴。
英偉達的生態系統非常強大,一旦國內企業深度融入這個生態系統,就很難再脫離出來。這會使得中國的AI產業在核心技術上受制于人,存在巨大的安全風險。
第三,它可能會影響國產GPU產業鏈的發展。
如果國產GPU的市場需求不足,相關的上游企業,如芯片設計、制造、封裝、測試等,也會缺乏發展的動力。這會使得整個國產GPU產業鏈陷入惡性循環。
如何平衡這些利弊,找到一條適合中國國情的算力發展道路?主流企業、官方和學者普遍認為,應該采取"分層使用、場景切割、比例管理"的策略。
具體來說,就是將算力需求分為不同的層次和場景:
對于關鍵在線推理業務,對時延和穩定性要求極高,可以允許使用一定比例的進口高端GPU;
對于政企核心業務、關鍵基礎設施、以及可控范圍內的行業模型,必須使用國產GPU;
對于科研和教育等非敏感領域,可以靈活使用進口和國產GPU。同時,通過政策引導和市場機制,確保國產GPU獲得足夠的市場空間和真實負載。
這種策略的核心思想是:既能保證國內AI 產業的發展速度,不要因為追求自主可控而犧牲發展機遇;也要堅持自主可控的戰略方向,不能因為短期的便利而放棄長期的安全。通過兩條腿走路,實現發展與安全的有機統一。
06
H200放行對產業鏈的影響,以及A股的機會
H200放行的影響,將沿著"芯片→服務器→數據中心→應用" 的產業鏈條逐層傳導。從A 股投資的角度來看,以下幾個環節的受益最為直接且確定性最高。
(一)頭部互聯網企業:推理產能邊際改善,競爭力顯著提升
H200放行的最大受益者,無疑是國內的頭部互聯網企業,尤其是字節跳動、阿里巴巴和騰訊。這三家公司是本次獲批采購H200的主要主體,也是國內AI算力需求最大的企業。
字節跳動作為國內AI應用的領軍者,其抖音、今日頭條、豆包等產品對推理算力的需求極其巨大。H200的引入將顯著提升字節跳動的推理集群吞吐能力,降低單位token成本,改善用戶體驗。同時,也將加快字節跳動在多模態、AGI 等前沿領域的研發進度。
根據公開信息,字節跳動2026年的AI資本開支已從1600億元上調至2000億元,其中60%-70%將投向AIDC領域。
阿里巴巴和騰訊也將從H200放行中顯著受益。阿里云和騰訊云是國內最大的兩家云服務商,擁有大量的AI 客戶。H200的引入將提升它們的云服務競爭力,吸引更多的AI客戶。同時,也將支持它們自身的AI業務發展,如阿里的通義千問、騰訊的混元大模型等。
(二)AIDC 基礎設施服務商:高功率機柜需求爆發,龍頭企業率先受益
H200進入國內后,頭部互聯網公司將加速推進AI算力集群的擴容計劃,這將直接帶動高功率智算中心(AIDC)的需求。那些深度綁定頭部客戶、擁有充足高功率機柜儲備、且掌握成熟液冷技術的 AIDC 龍頭,將成為本次利好最直接的受益者。
潤澤科技(300442.SZ)是本次H200 獲批最具確定性的A股受益者。
根據潤澤科技 2025 年年報披露口徑,H200 獲批的利好邏輯可從四個維度精準落地:
一是業務結構高度匹配。2025年公司AIDC業務實現營收25.10億元,同比大增 72.97%,占總營收比例升至44.24%,毛利率達48.50%,已超越傳統 IDC 成為核心增長引擎。H200等高功耗GPU的部署需求,將直接拉動公司高毛利 AIDC業務的加速放量。
二是客戶綁定深度足夠。年報明確公司"深度覆蓋國內前三大互聯網企業、頭部云廠商及核心 AI 企業",其中字節跳動為第一大客戶,貢獻約60%收入,承接了字節2025年新增算力需求的50%。本次字節為H200主要獲批主體,其算力擴容節奏加快將直接傳導至公司業績。
三是技術能力完全適配。2025年公司自研冷板式液冷技術全面應用,實現單機柜45kW以上高密度部署,PUE低至1.08-1.15,可穩定承載H200單卡700W 的高功耗需求。全年新增交付算力220MW,交付規模超此前十六年累計總量的 40%,產能儲備充足。
四是業績確定性極強。公司與頭部客戶簽訂10-15年長單。H200 獲批后,字節 2026年上調至2000億元的AI資本開支中,預計將有200-280億元轉化為潤澤的增量訂單,直接提升公司高功率機柜上架率與單卡ARPU。
萬國數據(GDS.US/09698.HK)是國內領先的第三方IDC 服務商,深度綁定阿里、騰訊等頭部客戶。截至2025年底,萬國數據擁有約15萬架機柜,是國內規模最大的第三方 IDC 服務商。H200 獲批后,阿里和騰訊的算力擴容計劃將加速推進,萬國數據將從中顯著受益。
數據港(603881.SH) 是阿里云的核心合作伙伴,在長三角地區擁有豐富的高功率機柜資源。公司與阿里云簽訂了長期合作協議,承接了阿里云大量的 AI 算力需求。H200 獲批后,阿里云的算力擴容將帶動數據港的業務增長。
光環新網(300383.SZ)是AWS 中國區的核心運營商,同時也服務字節跳動、騰訊等客戶。公司在京津冀、長三角等核心區域擁有多個數據中心,高功率機柜儲備充足。
07
字節出海,能否從根本上解決GPU卡點?
面對國內GPU供給的緊張局面,很多企業選擇了出海的方式,在海外建設數據中心,采購英偉達的高端GPU。那么,出海能否從根本上解決GPU卡點問題呢?
深算派認為,出海可以在一定程度上緩解GPU供給的緊張局面,但無法從根本上解決問題。
首先,出海可以規避部分出口管制的限制。
美國的出口管制主要針對中國境內的企業和實體,對于中國企業在海外設立的子公司,管制相對寬松。因此,中國企業可以通過在海外設立子公司的方式,采購英偉達的高端GPU,建設數據中心,為全球用戶提供服務。
其次,出海可以利用海外的能源和土地資源。
建設大型智算中心需要消耗大量的電力和土地資源。海外很多國家和地區擁有豐富的能源和廉價的土地,建設成本相對較低。例如,北歐國家擁有豐富的水電資源,氣候寒冷,非常適合建設數據中心。
但是,出海也面臨著諸多挑戰和風險。
第一,出口管制的風險仍然存在。
美國的出口管制政策是不斷變化的,未來有可能將中國企業在海外的子公司也納入管制范圍。例如,2025年美國就曾出臺政策,限制中國企業通過海外子公司采購高端GPU。因此,出海并不能完全規避出口管制的風險。
第二,數據合規的風險。
不同國家和地區有不同的數據保護法規,如歐盟的GDPR、美國的CCPA 等。中國企業在海外建設數據中心,處理用戶數據,必須遵守當地的數據保護法規。如果違反這些法規,可能會面臨巨額罰款和業務暫停的風險。
第三,時延和成本的問題。
將數據中心建在海外,會增加國內用戶的訪問時延,影響用戶體驗。同時,出海建設數據中心還需要面臨匯率波動、政治風險、文化差異等諸多問題,運營成本和風險都顯著高于國內。
第四,無法解決國內業務的需求。
很多中國企業的主要市場在國內,它們需要為國內用戶提供服務。根據中國的數據安全法,關鍵信息基礎設施運營者在境內運營中收集和產生的個人信息和重要數據,應當在境內存儲。因此,這些企業無法將核心業務轉移到海外,出海只能解決部分海外業務的需求。
對于AIDC 企業來說,出海同樣面臨著機遇與挑戰。潤澤科技、萬國數據等國內領先的AIDC企業已經開始布局海外市場。例如,萬國數據在新加坡、馬來西亞等地建設了數據中心;潤澤科技也在規劃海外數據中心項目。出海可以幫助這些企業拓展市場空間,分散經營風險。但同時,它們也需要面對當地市場的競爭、政策法規的差異、文化沖突等諸多挑戰。
08
H200與華為昇騰950PR能否互補?
為了更直觀地了解H200與國產高端GPU之間的差距,我們將H200 與華為昇騰 950PR進行了詳細的對比。
![]()
從上表中可以看出,H200在單卡性能、顯存帶寬和生態成熟度方面具有明顯優勢;而昇騰950PR則在價格、自主可控和系統級優化方面具有優勢。
另外,華為昇騰950PR的產能雖然已經翻了幾倍,但每年75萬顆的產量,還是不能完全滿足市場需求。根據行業估算,2026年國內高端AI芯片的需求約為 250萬顆,其中推理芯片需求約為180 萬顆,訓練芯片需求約為70 萬顆。華為昇騰 950PR 的75萬顆產量,加上其他國產廠商的約 30 萬顆產量,國產芯片的總供給量約為 105 萬顆,只能滿足約 42% 的市場需求。
在這種情況下,放H200進來,不僅可以填補市場需求的缺口,還有利于我國算力產業的整體進步。H200 與國產GPU可以形成互補關系,H200用于關鍵在線推理業務,國產GPU用于政企和行業應用,共同構建一個多元化、多層次的算力供給體系。
后 記
H200獲批是中美算力博弈進程中的一個重要里程碑,它為國內AI產業的發展提供了寶貴的緩沖期。短期來看,它將有效緩解國內高端算力的緊張局面,帶動 AIDC、光模塊、服務器等產業鏈環節的業績增長。長期來看,它不會改變國產替代的大趨勢,反而會刺激國產算力產業加速追趕。
中國的算力產業正處于一個關鍵的發展階段。我們既要充分利用國際先進技術和資源,加快產業發展;也要堅定不移地推進自主可控戰略,掌握核心技術。只有這樣,我們才能在全球 AI 競爭中占據有利位置,實現 "算力即國力" 的戰略目標。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.