談及商用、具備容錯能力的量子計算未來,量子糾錯這一棘手難題始終是首要攻關目標。作為量子計算基石的量子比特(qubit)脆弱且易受干擾,極易發生退相干,導致系統計算出現錯誤;而頻繁出錯的計算系統,本身不具備實用價值。
量子糾錯(QEC)研究的核心是邏輯量子比特。它通過將多個物理量子比特進行糾纏構建而成 —— 物理量子比特的量子態極易被光、聲或其他量子比特運動等環境噪聲破壞,而邏輯量子比特則能在保護物理比特的同時,實現錯誤檢測與糾正。
目前,全球正開展大量研究,力求讓量子糾錯技術更易落地、更具可擴展性。我們此前已報道過微軟、谷歌、亞馬遜云科技(AWS)等企業在量子芯片量子糾錯領域的多項進展。
ModAI 公司全棧工程師賈納基拉姆·薩里帕利表示,這些案例正是量子糾錯研發范式正在發生轉變的體現。該公司利用人工智能、大語言模型與機器人技術開發商用工具。
“如今,這一領域正經歷關鍵轉型。” 薩里帕利寫道。他指出,早期量子系統需要成百上千個物理量子比特,才能構建出一個穩定可靠的邏輯量子比特,規模問題是核心挑戰。“這種巨大開銷,正是容錯能力長期以來看似遙不可及的原因。而現在,這一認知正在改變。近期技術突破,正讓容錯從抽象理論走向真實硬件設計。研究人員不再糾結于‘糾錯是否可行’,而是聚焦‘如何高效實現糾錯’。”
引入經典計算系統與人工智能
本月早些時候,來自亞馬遜云科技、Quantum Elements、南加州大學與哈佛大學的科學家聯合發表研究成果:他們運用數字孿生技術與云端高性能計算(HPC)系統運行仿真模型,為量子糾錯研究提速。
這一成果也進一步凸顯了經典高性能計算、人工智能與軟件在量子糾錯研發中的關鍵作用。
科學家們寫道:“該成果讓貼合硬件真實噪聲特性的電路仿真,在以往無法企及的實驗級規模上變得實用,也讓基于經典云基礎設施開展量子糾錯數字孿生常規研究成為可能。由于工作流效率足夠高、可大規模運行,還能生成高保真度的校驗數據,用于開發和驗證更強大的解碼器 —— 這是進一步抑制邏輯錯誤、提升量子糾錯碼性能的關鍵抓手。”
這項研究的核心,是初創公司 Quantum Elements 的人工智能數字孿生技術,以及由 AWS ParallelCluster 集群管理工具調度的 AWS EC2 Hpc7a 實例。研究團隊成功對包含 97 個物理量子比特的7階旋轉表面碼完成量子主方程仿真。
7 階表面碼是一種量子糾錯方案,物理量子比特按二維晶格排布,需要 97 個物理比特,遠超傳統經典系統開放系統仿真的能力范圍。借助 Quantum Elements 的數字孿生能力與配備 96 個虛擬 CPU 的云端高性能計算集群,研究團隊僅用單個計算節點、75 分鐘便完成仿真,還能更精準捕捉相干噪聲與關聯噪聲 —— 這些正是克利福德門仿真器等傳統模型會遺漏的特性。
Quantum Elements 聯合創始人兼首席執行官伊扎爾·梅達爾西表示,這是量子糾錯領域的重要一步。
“如今,我們已經能在高度貼合真實場景的環境中,加速量子糾錯技術研發。” 梅達爾西在接受《The Next Platform》采訪時說,“你可以調整參數,適配不同硬件平臺;還能研究更高級的特性與量子糾錯策略,比如 qLDPC 碼。”(qLDPC 即量子低密度奇偶校驗碼,是一類重要的量子糾錯碼。)
![]()
彌補現有方案的缺陷
研究團隊采用南加州大學開發的實時量子蒙特卡洛算法,對 7 階旋轉表面碼執行量子主方程仿真。該算法通過有限條隨機軌跡進行壓縮,降低內存與算力開銷,從而加速主方程數字孿生仿真。團隊構建的電路包含 228 個單比特哈達瑪門、168 個糾纏雙比特門,共分為 8 個電路層,將數據比特與輔助比特(“輔助量子比特”)結合在一起。
科學家表示,該方案彌補了其他基于數字孿生的主方程仿真技術的短板。
克利福德仿真器等替代方案速度更快,也能提取用于檢錯、糾錯的校驗統計數據,以及數據比特上的真實錯誤,但存在明顯取舍。
他們寫道,克利福德仿真器要求量子比特噪聲以適配框架的形式表達,容易遺漏相干效應與相位敏感效應;張量網絡方法則依賴近似收縮與截斷處理,導致計算成本與保真度波動,同樣可能丟失噪聲行為特征。此外,這類方法在仿真超過 15~20 個量子比特時,難度會急劇上升。
97量子比特里程碑
“如果采用所謂‘暴力計算’,仿真上限大概只有 20 個含噪量子比特。” 梅達爾西說,“但通過數學方法壓縮計算規模,我們能遠超這一限制,達到行業公認極具關鍵意義的規模 ——97 量子比特。97 比特足以實現 7 階表面碼,這個規模足夠突破閾值性能,能夠模擬代表當前頂尖水平的大型系統。”
在如此大規模的數字孿生中,研究人員可以納入量子比特間串擾等效應 —— 也就是 “相鄰比特如何相互影響”,從而構建高保真度的計算系統設計,用于訓練下一代解碼器,快速推進量子糾錯研發。
“一旦能夠仿真并構建如此大規模的數字孿生,我們就不必再坐等硬件成熟后才開始研發量子糾錯策略,而是可以與硬件研發并行推進。當硬件發展到足以支撐大規模量子糾錯的成熟階段時,對應的解碼器與糾錯策略也已完善,從而加速容錯量子計算的落地。” 梅達爾西說。
加速研發進程
他表示,科學家們公布的這項研究只是第一步,加速與規模化這類計算始終是核心目標。與此同時,該工作也為量子糾錯發展邁出關鍵一步:將人工智能融入其中,助力實現目標。
“人工智能真正深度參與的最大障礙之一,是數據生成。” 梅達爾西說,“當下用于訓練機器學習、人工智能模型的硬件系統,本質上還是兩三年前的設計。如何構建面向未來的研發路徑?”
這項研究的重要性,既體現在規模上,也體現在效率上。如今相關工作只需一個多小時即可完成;而借助人工智能驅動的數字孿生,只需增加資源就能進一步提速。
“如果能將系統配置調整為未來形態,反復開展訓練,那么我們虛擬構建的模型、解碼器與糾錯策略,就會與一兩年后硬件的實際水平完全匹配。” 他說,“在無法直接使用未來硬件的前提下,這是我們唯一能加速研發、唯一能訓練并構建適配未來系統的原生機器學習與人工智能方案。”
原文:
https://www.nextplatform.com/compute/2026/04/17/how-hpc-and-ai-digital-twins-accelerate-quantum-error-correction/5218112
創芯大講堂芯片課程匯總
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.