![]()
來源:新智元
【導讀】2025年就要結束,DeepMind華人研究員萬字長文為我們揭秘了谷歌內(nèi)部對于AI的預言:除了算力,其他一切都是雜音。
今天是2025年的最后一天了,很多人都在這一天進行AI回顧總結。
在經(jīng)歷一年的模型、算力、資本的新聞轟炸后,AI距離通用人工智能還有多遠?
如果說2024年是人們對于AI的好奇之年,那么2025年就是AI深刻影響人類社會之年。
在這充滿變數(shù)的一年里,我們聽到了截然不同的聲音:
Sam Altman在2025年中的博文《溫和的奇點》中大膽預言:
「我們已經(jīng)知道如何構建AGI,2026年我們將看到能夠產(chǎn)生原創(chuàng)見解的系統(tǒng)。」他堅持認為,Scaling Law遠未觸及天花板,智能的成本將隨著電力的自動化生產(chǎn)而趨近于零。
![]()
NVIDIA的黃仁勛則將目光從「算力崇拜」轉向了「AI工廠」。
他在2025年底的一次演講中提到:
「AI的瓶頸不再是想象力,而是電力。未來的Scaling Law不僅是模型的堆疊,更是推理效率10萬倍的飛躍。」
![]()
相比之下,Meta的前首席科學家Yann LeCun依然嘴炮,他甚至在離職創(chuàng)辦新公司前公開表示:
「LLM是通往 AGI 的死胡同,它沒有世界模型,就像一個沒有軀體的空中樓閣。」
![]()
2026年,Scaling Law是否還能繼續(xù)玩下去?
對于這個問題,一篇來自DeepMind華人研究員的萬字長文在社交網(wǎng)絡火了:
Scaling Law沒死!算力依然就是正義,AGI才剛剛上路。
![]()
文章地址:https://zhengdongwang.com/2025/12/30/2025-letter.html
本文是Google DeepMind研究員Zhengdong Wang撰寫的2025年度長信。
作者以獨特的個人視角,回顧了從2015年至今AI領域的劇變,并深刻剖析了驅動這一切的核心動力——算力。
盡管外界對Scaling Laws存疑,但歷史反復證明,隨著算力的指數(shù)級增長,AI模型不斷涌現(xiàn)出超越人類預期的能力。
作者結合自己在DeepMind的工作經(jīng)歷,驗證了強化學習教父Richard S. Sutton「苦澀的教訓」:
通用算力方法終將戰(zhàn)勝人類的特定技巧。
![]()
這也是我們今年最大的感受!
除了算力,其他都是雜音
2025年12月30日,當回望這波瀾壯闊的一年時,腦海中浮現(xiàn)的是十五年前那場由AlexNet開啟的視覺革命。
那場辛頓、李飛飛、Ilya都參與的大會,或許就是如今AI時代的真正萌芽。
![]()
那時,大多數(shù)人認為人工智能僅僅是關于「特征工程」和「人類聰明才智」的博弈,而今天,我們已經(jīng)進入了一個完全不同的維度:
一個由算力主導、由Scaling Law驅動、且AGI(通用人工智能)才剛剛踏上征途的紀元。
最近大家關注的焦點無外乎:Scaling Law是否已經(jīng)撞墻?
算力的信仰:為什么Scaling Law從未失效
在2024年底,業(yè)內(nèi)曾出現(xiàn)過一陣強烈的悲鳴,認為預訓練數(shù)據(jù)的枯竭和邊際收益的遞減標志著Scaling Law的終結。
然而,站在2025年的終點,我們可以負責任地說:
Scaling Law不僅沒死,它正在經(jīng)歷一場從「暴力堆參數(shù)」到「智能密度」的深刻演化。
十五年一遇的連續(xù)性
我們要理解Scaling Law,首先要看到它的歷史韌性。
研究顯示,過去十五年里,用于訓練AI模型的算力每年以四到五倍的速度增長。
這種指數(shù)級的復合增長,在人類技術史上是罕見的。
在DeepMind內(nèi)部觀察到,模型在訓練過程中所消耗的數(shù)學運算量,已經(jīng)超過了可觀測宇宙中的恒星數(shù)量。
這種增長并非盲目,而是建立在極其穩(wěn)定的經(jīng)驗公式之上。
根據(jù)Kaplan和Hoffmann等人的實證研究,性能與算力之間存在著明確的冪律關系:性能提升與算力的0.35次方成正比。
![]()
文章地址:https://fourweekmba.com/ai-compute-scaling-the-50000x-explosion-2020-2025/
這意味著,每投入10倍的算力,大約能帶來3倍的性能增益;而當我們跨越1000倍的算力鴻溝時,性能的提升將達到驚人的10倍量級。
定性躍遷與涌現(xiàn)能力
Scaling Law最迷人的一點在于,它不僅帶來了定量的誤差減少,更誘發(fā)了不可預測的定性躍遷。
在DeepMind的實驗中,隨著算力的增加,模型會突然展現(xiàn)出邏輯推理、復雜指令遵循以及事實性修正等「涌現(xiàn)能力」。
這種現(xiàn)象意味著,算力不僅僅是燃料,它本身就是一種能夠催生智能的物理量。
2025年的真相是:我們已經(jīng)從單純的「預訓練Scaling」轉向了「全四個維度Scaling」:
- 預訓練Scaling
通過海量多模態(tài)數(shù)據(jù)構建基礎認知。
- 后訓練Scaling
利用強化學習(RL)進行對齊和偏好優(yōu)化。
- 推理時Scaling
即讓模型在回答前「想得更久」。
- 上下文Scaling
通過超長記憶提升端到端任務能力。
在DeepMind親歷的「1000倍算力」瞬間
如果說Scaling Law是宏觀的哲學,那么2021年Zhengdong Wang在DeepMind經(jīng)歷的那次實驗,就是微觀的啟示錄。
那次經(jīng)歷徹底重塑了Zhengdong Wang的「智能觀」,也讓Zhengdong Wang理解了為什么說「算力即正義」。
算法聰明才智的貶值
當時,DeepMind團隊正在嘗試解決具身智能(Embodied AI)在3D虛擬環(huán)境中的導航與交互問題。
那是典型的「硬核AI」挑戰(zhàn),涉及到復雜的強化學習算法優(yōu)化。
當時的共識是:這個問題的瓶頸在于算法的精妙程度,在于我們?nèi)绾卧O計更優(yōu)的采樣策略和獎勵函數(shù)。
然而,一位同事提出了一個近乎「魯莽」的方案:不要改算法,直接把算力投入增加一千倍。
在那次算力狂飆之后,奇跡發(fā)生了!
那些原本被認為需要突破性人類巧思才能解決的邏輯死角,在海量的矩陣乘法面前直接「融化」了。
算法并沒有變聰明,但規(guī)模賦予了它一種類似于生物本能的魯棒性。
算力之波的沖擊
那一刻,Zhengdong Wang深刻體會到了理查德·薩頓(Richard Sutton)在《苦澀的教訓》中所表達的真理:
人類在AI領域的所謂「巧思」,在算力的指數(shù)增長面前往往不值一提。
這種realization就像是一股巨大的「算力之波」從你身上碾過,讓你意識到,與其苦思冥想如何優(yōu)化那1%的算法效率,不如直接去擁抱那1000倍的算力擴張。
這種視角在2025年的今天已經(jīng)成為了DeepMind內(nèi)部的通用語:
我們不再問「這個問題能不能解」,而是問「這個問題需要多少算力才能解」。
正是這種心態(tài),讓我們敢于在數(shù)據(jù)中心投資上砸下遠超阿波羅計劃的重金。
基礎設施的極限與挑戰(zhàn):1GW時代的到來
Zhengdong Wang還提供了額外的視角。
當DeepMind在內(nèi)部討論算力時,話題已經(jīng)從「PFLOPS」轉向了「GW」。
![]()
2025年,AI不再僅僅是代碼,它是重工業(yè),是土地、能源和定制硅基芯片的終極整合。
硬件的代際跨越:Blackwell與Ultra
這種終極整合,用一個詞概括就是「AI工廠」,正是黃仁勛在GTC大會所提出的概念。
![]()
Wang認為,NVIDIA在2025年交付的Blackwell平臺,是DeepMind能夠維持Scaling Law信仰的物理基礎。
GB200 NVL72系統(tǒng)將72顆GPU互聯(lián)為一個單一的超級計算引擎,其萬億參數(shù)模型的推理速度比H100提升了30倍。
![]()
BlackwellUltra的推出更是將單芯片顯存推向了288GB的極限,這意味著即使是300B以上的模型,也可以在不需要顯存卸載的情況下完整駐留,這對于長上下文和高并發(fā)推理至關重要。
電力與散熱的硬墻
然而,物理定律依然嚴苛。
單芯片功耗逼近1000W,讓DeepMind不得不全面轉向液冷方案。
2025年,開始談論「AI工廠」而非「數(shù)據(jù)中心」。
谷歌的基礎設施首席執(zhí)行官Amin Vahdat在內(nèi)部會議中明確指出,為了滿足爆發(fā)式的算力需求,我們必須每六個月將算力能力翻倍,并在未來4-5年內(nèi)實現(xiàn)1000倍的增長。
![]()
這種壓力不僅體現(xiàn)在金錢上。
2025年上半年,AI數(shù)據(jù)中心投資占據(jù)了美國GDP增長的90%以上。
盡管外界擔心泡沫,但DeepMind內(nèi)部的視角是:
如果你能看到1000倍算力帶來的智能紅利,那么任何低于這個數(shù)字的投入都是一種風險。
具身智能的突破:SIMA 2與通用Agent的誕生
在DeepMind,始終認為AGI的終極形態(tài)不在對話框里,而在物理世界中。
2025年,SIMA 2項目展示了從「理解」到「行動」的跨越。
![]()
像素級交互與開放式學習
SIMA 2是一個通用的具身智能體,它不依賴于游戲內(nèi)部的數(shù)據(jù)接口,而是像人類一樣,通過觀察像素和操作鍵盤鼠標在復雜的3D虛擬世界中行動。
這種設計確保了它所習得的技能——從基礎的導航到復雜的工具使用——具有極強的泛化性,可以無縫遷移到完全不同的數(shù)字環(huán)境,甚至為未來的物理機器人提供大腦。
更重要的是,SIMA 2展示了「自我進化」的能力。
通過與Gemini基礎模型的結合,它可以自主生成任務、自我設定獎勵,并在沒有任何人類標注的情況下,通過不斷的嘗試和錯誤習得新技能。
擴展閱讀:我的王者榮耀有救了!谷歌發(fā)布游戲SIMA 2,不開外掛「像人一樣」練級
![]()
METR時間跨度圖:智能的量化加速
在評估進展時,作者最推崇的是METR的時間跨度圖。
![]()
兩年前,AI只能穩(wěn)定完成人類耗時9分鐘的任務;而到了2025年底,這個數(shù)字已經(jīng)躍升到了4小時以上。
按照目前的Scaling趨勢,到2028年,AI有望獨立完成人類專家需要數(shù)周才能完成的科研或工程任務。
AGI才剛剛上路,正處于爆發(fā)的前夜
在結尾,Zhengdong Wang寫道:「這就是我上車的地方——我們現(xiàn)在還極其早。」。
盡管2025年我們已經(jīng)看到了能過IMO的金牌模型,看到了能自主在3D世界中生存的Agent,但在DeepMind的「Post-AGI」團隊看來,這僅僅是序幕。
我們依然受困于1GW的電力瓶頸,受困于數(shù)據(jù)采集的效率,受困于推理成本的最后幾美分。
AGI不是終點,而是起點!
DeepMind之所以成立Post-AGI團隊,是因為預見到:
當AGI的門檻被跨過那一刻,人類社會真正需要面對的挑戰(zhàn)才剛剛開始:
如何管理那些能夠自主進化、且由于算力規(guī)模而產(chǎn)生「不可解釋性」的智能體?
在一個智能成本趨近于零的世界里,人類的獨特價值如何重構?
當AI開始主導科學研發(fā)的循環(huán),人類文明的知識邊界將以何種速度擴張?
![]()
2025年的真相是,Scaling Law不僅是通往AGI的路徑,它本身就是一種重塑物理世界的哲學。
那些還在爭論泡沫的人,或許還沒意識到,這股由1000倍算力卷起的風暴,已經(jīng)將人類送往了一個再也回不去的紀元。
對于AI的擁躉,所有人正滿懷敬畏地看著那列名為「智能」的火車加速駛向遠方。
我們并非在等待奇跡,我們正在親手塑造它。
AGI,才剛剛上路。
參考資料:
https://zhengdongwang.com/2025/12/30/2025-letter.html
為偉大思想而生!
AI+時代,互聯(lián)網(wǎng)思想(wanging0123),
第一必讀自媒體
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.