![]()
來源:新智元
【導(dǎo)讀】CES巨幕上,老黃的PPT已成中國AI的「封神榜」。DeepSeek與Kimi位列C位之時(shí),算力新時(shí)代已至。
萬眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。
老黃主旨演講上,中國大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開源大模型前列,性能正在逼近閉源模型。
CES之夜無顯卡!老黃引爆Rubin時(shí)代,6顆芯狂飆5倍算力
天空一聲巨響,全新版本的「皮衣老黃」閃亮登場。
![]()
在本次CES演講中最為激動人心的瞬間,就是英偉達(dá)全新一代芯片架構(gòu)——Vera Rubin正式登場!
全球AI算力告急?老黃霸氣回應(yīng):Vera Rubin已全面投產(chǎn)。
這是新一代的算力怪獸,也是對上一代霸主Blackwell的降維打擊——
推理Token成本直接暴降10倍,算力性能狂飆5倍。
就連訓(xùn)練MoE模型所需的GPU數(shù)量,也直接減少了4倍。
曾經(jīng),Blackwell終結(jié)了Hopper;如今,Rubin親手埋葬了Blackwell。
![]()
全程近兩小時(shí)演講,老黃提及重點(diǎn)包括——
下一代Rubin平臺亮相:六顆芯片,推理狂飆十倍
自動駕駛端到端模型:AlphaMayo會思考、自主推理,全程0接管上路
物理AI全家桶開源:基礎(chǔ)模型、框架
玩家徹夜難眠:CES 2026,沒有顯卡
至于游戲玩家?
對不起,這次真的沒有新顯卡。
![]()
英偉達(dá)在X上的一紙公告,徹底擊碎了「攢機(jī)黨」最后的幻想:CES 2026將沒有任何新GPU發(fā)布。
這意味著,英偉達(dá)自2021年以來連續(xù)五年在CES發(fā)布新硬件的傳統(tǒng),就此終結(jié)。
傳聞已久的RTX 50 Super系列,受困于GDDR7顯存的「產(chǎn)能地獄」,大概率已經(jīng)胎死腹中。
Rubin炸裂登場
6顆芯片,10倍推理,AI超算變工廠
去年10月,老黃曾預(yù)計(jì):未來五年,將有3到4萬億美元砸向AI基礎(chǔ)設(shè)施。
Vera Rubin的大規(guī)模投產(chǎn),可謂生逢其時(shí)。
如果說Blackwell打破了單卡性能的極限,那么Rubin解決的則是系統(tǒng)規(guī)模化的難題。
從此,算力將像電力一樣廉價(jià),AI的大爆發(fā)已近在咫尺!
![]()
2024年,Vera Rubin架構(gòu)首次亮相。
等了兩年,現(xiàn)在它終于正式投產(chǎn)了!
Blackwell架構(gòu),從此將退出歷史舞臺。
演講現(xiàn)場,老黃告訴大家:AI所需的計(jì)算量急劇飆升,怎么辦?不用怕,Vera Rubin,將解決我們面臨的根本性挑戰(zhàn)!
這套為萬億參數(shù)模型的海量推理而生的平臺,會徹底讓算力低成本、規(guī)模化、工業(yè)化生產(chǎn)。
Rubin架構(gòu),以天文學(xué)家Vera Florence Cooper Rubin而命名。
![]()
可以說,Rubin是英偉達(dá)第一次把CPU、GPU、網(wǎng)絡(luò)、存儲、安全,當(dāng)成一個(gè)整體來設(shè)計(jì)。
核心思路就是:不再「堆卡」,而是把整個(gè)數(shù)據(jù)中心變成一臺AI超算。
整個(gè)Rubin平臺,由這6個(gè)關(guān)鍵組件構(gòu)成。
![]()
![]()
其中,Rubin GPU是整個(gè)平臺的核心。它搭載第三代Transformer引擎,為AI推理提供50 PFLOPS的NVFP4算力。
之所以能達(dá)到Blackwell GPU性能的5倍,是因?yàn)樗腘VFP4張量核心,后者能分析Transformer各層的計(jì)算特性,動態(tài)調(diào)整數(shù)據(jù)精度與計(jì)算路徑。
![]()
另外,該架構(gòu)還引入一顆全新的Vera CPU,專為智能體推理而設(shè)計(jì)。
它采用88個(gè)英偉達(dá)自研Olympus核心,完全兼容Armv9.2,并具備超快的NVLink-C2C 連接,能實(shí)現(xiàn)176個(gè)線程的全性能執(zhí)行,I/O帶寬和能效比直接翻倍。
![]()
當(dāng)我們在Agentic AI或長期任務(wù)中啟用全新的工作流時(shí),會對KV cache造成很大壓力。
為了解決存儲和互聯(lián)的瓶頸,Rubin架構(gòu)特別改進(jìn)了Bluefield和NVLink系統(tǒng)。它通過外部方式和計(jì)算設(shè)備相連,這樣就能更高效地?cái)U(kuò)展整體存儲池的規(guī)模。
BlueField-4 DPU是一個(gè)數(shù)據(jù)處理單元,它能卸載網(wǎng)絡(luò)、存儲和安全任務(wù),還能管理AI的上下文記憶系統(tǒng)。
![]()
NVLink 6中,單芯片就能提供每秒400Gb的交換能力。每塊GPU提供3.6TB/s 的帶寬,而Rubin NVL72機(jī)架提供260TB/s,帶寬超過整個(gè)互聯(lián)網(wǎng)。
通過3.6 TB/s的帶寬和網(wǎng)絡(luò)內(nèi)計(jì)算能力,它能讓Rubin中的72個(gè)GPU像一個(gè)超級GPU一樣協(xié)同工作,直接把推理成本打至1/7。
![]()
現(xiàn)場,老黃給我們展示了Vera Rubin的托盤。小小的托盤上集成了2顆Vera CPU、4顆Rubin GPU、1顆BlueField-4 DPU和8顆ConnectX-9網(wǎng)卡,整個(gè)計(jì)算單元算力達(dá)到100 PetaFLOPS。
![]()
![]()
Rubin的目標(biāo),是解決MoE和萬億參數(shù)模型的訓(xùn)練成本,它做到了嗎?顯然,成果是顯著的。
訓(xùn)練、推理效率暴增
測試結(jié)果顯示,Rubin架構(gòu)訓(xùn)練模型時(shí)的運(yùn)行速度,直接達(dá)到上一代Blackwell架構(gòu)的3.5倍(35 petaflops),推理任務(wù)的速度則高達(dá)5倍,最高可達(dá)50 petaflops!
同時(shí),它的HBM4內(nèi)存帶寬提升至22 TB/s,達(dá)到2.8倍,單GPU的NVLink互連帶寬則翻倍到3.6 TB/s。
![]()
在超大規(guī)模MoE訓(xùn)練中,Rubin所需的GPU數(shù)量相比Blackwell可減少至1/4,同時(shí)整體能耗顯著下降。
這背后,就有三大功臣。
NVLink 6,讓GPU間互聯(lián)帶寬再次大幅提升,多卡訓(xùn)練不再被通信拖慢;Vera CPU與Rubin GPU的協(xié)同調(diào)度,可以減少「GPU等數(shù)據(jù)」的空轉(zhuǎn)時(shí)間;而ConnectX-9與Spectrum-6的深度協(xié)同,也讓大模型訓(xùn)練不會再被集群規(guī)模限制。
![]()
![]()
從此,訓(xùn)練萬億模型,不再是「堆錢」,只會是工程問題。
訓(xùn)練解決了,那推理呢?
結(jié)果顯示,在推理側(cè),Rubin平臺單位token的推理效率提升最高可達(dá)10倍!同樣的模型和響應(yīng)延遲,算力成本可以直接下降到原來的1/10。
所以,模型可以跑得起百萬token的長下文,企業(yè)級AI應(yīng)用也可以部署了。
![]()
![]()
存儲瓶頸解決
如上文所言,讓AI模型多跑一會的關(guān)鍵挑戰(zhàn),就在于上下文數(shù)據(jù)。
![]()
大量KV Cache該如何處理?英偉達(dá)推出了由BlueField-4驅(qū)動的推理上下文內(nèi)存存儲平臺。
這個(gè)平臺在GPU內(nèi)存和傳統(tǒng)存儲之間創(chuàng)建了「第三層」,直接讓每秒處理的 token數(shù)提升高達(dá)5倍。
![]()
DGX Super POD
本次CES上,英偉達(dá)還推出了新一代DGX SuperPOD。
![]()
它把多個(gè)裝有72個(gè)GPU的Rubin NVL72連接起來,形成了更大的AI計(jì)算集群。
在這次的DGX SuperPOD中,共有8個(gè)Rubin NVL72機(jī)架,相當(dāng)于有576個(gè)GPU。
![]()
NVIDIA Vera Rubin NVL72 提供統(tǒng)一、安全的系統(tǒng),集成了72 塊Rubin GPU、36塊Vera CPU、NVLink 6、ConnectX-9 SuperNICs和BlueField-4 DPUs
這樣,SuperPOD就可以處理數(shù)千個(gè)Agentic AI智能體,以及數(shù)百萬token上下文。
可以說,英偉達(dá)一次性解決了數(shù)百個(gè)GPU相連、管理存儲的問題,直接給我們提供了開箱即用的AI基礎(chǔ)設(shè)施。
![]()
![]()
第三代機(jī)密計(jì)算平臺
更為重要的是,Rubin是首個(gè)支持第三代機(jī)密計(jì)算(Confidential Computing)的AI超算平臺。
模型參數(shù)、推理數(shù)據(jù)、用戶請求都會被全鏈路加密,即使的云廠商,也無法直接訪問明文數(shù)據(jù)。
這就解決了「敢不敢把核心AI放到云上」的問題,對于金融、醫(yī)療、政府、企業(yè)私有模型都非常重要。
這些大廠,第一批用上Rubin
老黃介紹說,Rubin會由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI這些頭部廠商先部署。
而到2026年下半年,Rubin平臺就會進(jìn)入大規(guī)模商用階段。
所以,下一代GPT、Gemini、Claude模型,大概率都會運(yùn)行在Rubin架構(gòu)上。
![]()
全程0接管,自動駕駛AI「會思考」
如何教會AI物理學(xué)的基礎(chǔ)事實(shí)?
英偉達(dá)給出的答案是,把算力變成高質(zhì)量的數(shù)據(jù)(Compute is Data)。
在這一體系中,「世界基礎(chǔ)模型」Cosmos扮演著重要的角色。
交通模擬器輸出的信號,被送入Cosmos再生成合理、運(yùn)動上連貫的環(huán)繞視頻,讓AI學(xué)習(xí)其中真實(shí)世界的行為模式。
![]()
如今,Cosmos已被全球下載數(shù)百萬次,成為物理AI時(shí)代的重要基礎(chǔ)設(shè)施。在英偉達(dá),內(nèi)部也在用其做自動駕駛研究。
在此基礎(chǔ)上,今天,英偉達(dá)正式發(fā)布了「端到端」自動駕駛AI——AlphaMayo。
它是一個(gè)會思考、會推理的自動駕駛AI。從攝像頭輸入到車輛執(zhí)行動作,全流程由模型完成。
![]()
AlphaMayo獨(dú)特之處,在于它具備了顯式推理能力。
系統(tǒng)不僅執(zhí)行轉(zhuǎn)向、制動、加速動作,還會給出即將采取行動的理由,以及對應(yīng)的形式軌跡。
![]()
自動駕駛最大挑戰(zhàn),來自于「長尾場景」,幾乎不可能覆蓋所有國家、所有道路的數(shù)據(jù)。
AlphaMayo的策略是將復(fù)雜場景,拆解為多個(gè)熟悉的物理與交通子問題,通過推理將罕見情況分解為常見組合,完成應(yīng)對。
在演示中,車輛可以在全程0接管狀態(tài)下,完成路徑規(guī)劃與行駛,順利抵達(dá)目的地。
![]()
在自動駕駛領(lǐng)域,英偉達(dá)投入持續(xù)了八年,如今第一次把AI「五層架構(gòu)」完整跑通。
由下到上:實(shí)體本身、芯片體系、模型層、基礎(chǔ)設(shè)施層、應(yīng)用層,構(gòu)成了一套完全貫通的AI系統(tǒng)棧。
AlphaMayo構(gòu)成模型層,梅賽德斯-奔馳汽車構(gòu)成應(yīng)用層。
這一次,老黃還官宣了,NVIDIA DRIVE AV軟件首次搭載全新梅賽德斯-奔馳 CLA,提供L2級端到端駕駛。
![]()
更重磅的是,Alpamayo家族全部開源。這一整套方法論,并不只適用于汽車,同樣適用于機(jī)器人、機(jī)械臂等各類系統(tǒng)。
全家桶開源,機(jī)器人ChatGPT時(shí)刻
下一階段,機(jī)器人將以各種形態(tài)進(jìn)入現(xiàn)實(shí)世界,前提是,它們首先在Omniverse中學(xué)會如何行動。
現(xiàn)場,老黃又召喚來了機(jī)器人瓦力登臺配合演出,這里他講了一句意味深長的話:
未來的系統(tǒng),都誕生在計(jì)算機(jī)里。
![]()
英偉達(dá)正把自身能力嵌入到,計(jì)算密度最高、最復(fù)雜的工業(yè)體系統(tǒng),就像此前與Palantir、ServiceNow的集成一樣。
如今,這一模式正被復(fù)制到了工業(yè)仿真與設(shè)計(jì)領(lǐng)域。
在具身智能領(lǐng)域,老黃直接扔下了一套針對物理AI(Physical AI)的「開源全家桶」——模型、框架及基礎(chǔ)設(shè)施,應(yīng)有盡有。
機(jī)器人的ChatGPT時(shí)刻已經(jīng)到來!
![]()
目前,所有新模型均已上線Hugging Face,拿來即用:
NVIDIA Cosmos Transfer/Predict 2.5,這是完全可定制的世界模型,專門在虛擬世界里生成符合物理規(guī)律的數(shù)據(jù),訓(xùn)練機(jī)器人的大腦。
NVIDIA Cosmos Reason 2,讓機(jī)器像人一樣「看懂」世界并進(jìn)行邏輯推理。
NVIDIA Isaac GR00T N1.6,專為人形機(jī)器人打造,解鎖全身控制,讓機(jī)器人不再四肢僵硬。
為了解決機(jī)器人開發(fā)中「各自為戰(zhàn)」的痛點(diǎn),英偉達(dá)發(fā)布了兩大神器:
Isaac Lab-Arena:這是GitHub上的開源框架,連接了主流基準(zhǔn)測試,確保機(jī)器人在進(jìn)廠打工前,已經(jīng)在虛擬世界里經(jīng)過了千錘百煉。
NVIDIA OSMO:無論是在工作站還是混合云,它都能統(tǒng)一調(diào)度數(shù)據(jù)生成、模型訓(xùn)練和測試,大幅縮短開發(fā)周期。
機(jī)器人技術(shù)已是Hugging Face上增長最快的領(lǐng)域。英偉達(dá)這次不僅是提供模型,更是深度集成:
LeRobot集成:Isaac和GR00T技術(shù)直接通過LeRobot框架即可調(diào)用。
硬件互通:Hugging Face的開源機(jī)器人Reachy 2和Reachy Mini現(xiàn)已完美適配英偉達(dá)的Jetson平臺,語音、視覺、大模型能力瞬間拉滿。
軟件強(qiáng)還不夠,硬件必須硬。如今,全新的Jetson T4000模組,直接將Blackwell架構(gòu)帶到了邊緣端:
算力高達(dá)1200 FP4 TFLOPS,是上一代的4倍。
1000臺起訂單價(jià)僅1999美元。
70瓦功耗,簡直是為能源受限的自主設(shè)備量身定做。
![]()
老黃震撼預(yù)言
未來所有應(yīng)用,建在AI之上
每隔10-15年,計(jì)算產(chǎn)業(yè)就會重來一次。
演講伊始,老黃還回顧了計(jì)算產(chǎn)業(yè)過去數(shù)十年的演進(jìn)路徑——
從大型機(jī)到CP,到互聯(lián)網(wǎng)、云計(jì)算,再到移動計(jì)算,每一次平臺級躍遷,都會催生一整套全新的應(yīng)用生態(tài),軟件開發(fā)方式也隨之重構(gòu)。
而這一次,變化來得更加猛烈。
他提到,當(dāng)前產(chǎn)業(yè)正同時(shí)經(jīng)歷兩次平臺級轉(zhuǎn)變:一是從傳統(tǒng)計(jì)算走向AI,另一個(gè)是整個(gè)軟件、硬件棧的底層重塑。
AI正成為全新的「底座」,應(yīng)用開始建立在AI之上。同時(shí),軟件開發(fā)與運(yùn)行方式、應(yīng)用生成方式發(fā)生了根本性變化。
這一切,共同推動了「加速計(jì)算+AI」對整個(gè)計(jì)算體系的重塑,五個(gè)層級正在同時(shí)被重新發(fā)明。
![]()
2022年ChatGPT爆發(fā)后,AI才真正走進(jìn)大眾視野。一年之后,推理模型首次登場,引入了「測試時(shí)Scaling」這一概念。
模型不僅在訓(xùn)練階段學(xué)習(xí),還在推理階段實(shí)時(shí)計(jì)算和推演。預(yù)訓(xùn)練、RL、推理這些階段,都需要機(jī)器龐大的計(jì)算資源,也同時(shí)推動模型能力持續(xù)提升。
2024年,另一項(xiàng)突破開始顯現(xiàn),直到2025年,智能體系統(tǒng)(Agentic AI)才迅速擴(kuò)散開來。
老黃再次提及,在英偉達(dá)內(nèi)部,像Cursor這樣的Agentic工具已深刻改變了軟件的開發(fā)方式。
智能體AI之后,下一個(gè)前沿便是物理AI(Physical AI),理解自然規(guī)律和物理法則,為AI打開了全新疆域。
除此之外,過去一年,另一個(gè)具有決定性意義的變化來自「開源模型」。
DeepSeek R1的出現(xiàn),作為首批開源推理模型之一,給行業(yè)帶起來巨大震動。
但不可否認(rèn)的是,其仍比前沿模型落后六個(gè)月。每隔半年,就有新模型涌現(xiàn),而且越來越智能。
![]()
![]()
英偉達(dá),正引領(lǐng)著開源模型的生態(tài),遍布多個(gè)領(lǐng)域。而且,在多個(gè)榜單上取得了亮眼的成績。
最具代表性的包括多模態(tài)Nemotron 3、世界模型Cosmos、機(jī)器人模型GR00T、蛋白預(yù)測模型OpenFold 3......
![]()
![]()
老黃現(xiàn)場表示,以上一切成果,都為構(gòu)建AI智能體服務(wù),這是真正突破性的發(fā)展領(lǐng)域。
當(dāng)前AI模型已變得極其強(qiáng)大,智能體的推理能力為各類應(yīng)用開啟了大門。
![]()
令老黃深感震驚的是,首次在Perplexity見證了其同時(shí)調(diào)用多個(gè)模型——AI在推理任何環(huán)節(jié),直接調(diào)用最頂尖的模型。
這背后本質(zhì)上是「多云協(xié)同」,同時(shí)還具備了混合云特性。
老黃明確地表示,這就是未來AI應(yīng)用的基本形態(tài)。或者說,因?yàn)槲磥響?yīng)用都構(gòu)建在AI之上,這就是未來應(yīng)用的基礎(chǔ)框架。
一方面,AI可以被深度定制。另一方面,系統(tǒng)始終保持最前沿。「定制+前沿」能力在同一架構(gòu)中同時(shí)存在。
![]()
在軟件世界之外,更大挑戰(zhàn)來自于現(xiàn)實(shí)世界。為此,物理AI需要三臺計(jì)算機(jī)——
第一臺計(jì)算機(jī):用于訓(xùn)練模型
第二臺計(jì)算機(jī):用于推理,運(yùn)行咋i汽車、機(jī)器人、工廠等邊緣環(huán)境
第三臺計(jì)算機(jī):專門用于仿真、模擬
老黃提到,仿真是整個(gè)體系的核心,只有在可控的數(shù)字環(huán)境中,AI才能反復(fù)嘗試、評估行為后果,并逐步建立對世界的理解。
![]()
彩蛋
演講最后還有一個(gè)幕后花絮,DGX Station臺式AI超算將在2026年春季上線。
屆時(shí),英偉達(dá)還將同步推出更多針對GB300系統(tǒng)的實(shí)戰(zhàn)手冊(Playbooks)。
![]()
如果說DGX Spark是開發(fā)者的入門首選,那么DGX Station就是一臺放在你辦公桌上的微型數(shù)據(jù)中心:
搭載GB300 Grace Blackwell Ultra超級芯片。
配備高達(dá)775GB的FP4精度一致性內(nèi)存(Coherent Memory)。
擁有Petaflop級AI算力,支持在本地運(yùn)行高達(dá)1萬億(1T)參數(shù)的超大規(guī)模模型。
得益于強(qiáng)大的硬件基礎(chǔ),DGX Station實(shí)測威力驚人:
LLM預(yù)訓(xùn)練速度高達(dá)250,000 Token/秒。
支持對數(shù)百萬數(shù)據(jù)點(diǎn)進(jìn)行聚類和大型可視化。
從DeepSeek R1的開源震動,到Agentic AI的全面爆發(fā),計(jì)算產(chǎn)業(yè)正在經(jīng)歷一場前所未有的重塑。
在這個(gè)只有玩家落淚的早上,一個(gè)由物理AI驅(qū)動的全新世界,正在Vera Rubin的轟鳴聲中,加速向我們走來。
參考資料:HYZ
https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/
https://blogs.nvidia.com/blog/dgx-superpod-rubin/
https://www.nvidia.com/en-us/events/ces/
https://youtu.be/0NBILspM4c4
老黃開年演講「含華量」爆表!直接拿DeepSeek、Kimi驗(yàn)貨下一代芯片
這一刻,是屬于中國AI的高光時(shí)刻。
另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標(biāo)注。
![]()
而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級規(guī)模的嘗試,僅需激活少量參數(shù),大幅減少計(jì)算量和HBM顯存帶寬的壓力。
![]()
在下一代Rubin架構(gòu)亮相的核心環(huán)節(jié)上,老黃還選用了DeepSeek和Kimi K2 Thinking來秀性能。
在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來的1/10。
![]()
這種「指數(shù)級」的降本增效,等于宣告了:AI推理即將進(jìn)入真正的「平價(jià)時(shí)代」。
另外,在計(jì)算需求暴漲這頁P(yáng)PT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗(yàn)證了參數(shù)規(guī)模每年以十倍量級scaling。
![]()
不得不說,老黃整場發(fā)布會上,中國AI模型的含量超標(biāo)了。
推理狂飆十倍
中國模型成老黃「御用」AI?
無獨(dú)有偶,英偉達(dá)去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評判性能的標(biāo)桿。
實(shí)測顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。
![]()
另外,在SemiAnalysis InferenceMax測試中,DeepSeek-R1將每百萬token的成本降低10倍以上。包括Mistral Large 3在內(nèi)同樣獲得了十倍加速。
這意味著,復(fù)雜的「思考型」MoE部署到日常應(yīng)用,成為了現(xiàn)實(shí)。
![]()
![]()
如今,隨便拎出一款前沿模型,只要深入其內(nèi)部結(jié)構(gòu),便會發(fā)現(xiàn)MoE(混合專家)成為了主流的選擇。
據(jù)統(tǒng)計(jì),自2025年以來,超60%開源AI采用了MoE架構(gòu),從2023年初,這一架構(gòu)推動LLM智能水平提升近70倍。
此外,在權(quán)威機(jī)構(gòu)Artificial Analysis(AA)排行榜上,最智能的TOP 10開源模型,也全都用的是MoE結(jié)構(gòu)。
如此巨大規(guī)模的MoE,單GPU必然無法部署,英偉達(dá)GB200 NVL72卻能破解這一難題。
![]()
DeepSeek R1和Kimi K2 Thinking實(shí)測結(jié)果,恰恰證明了英偉達(dá)Blackwell超算性能的強(qiáng)大所在。
如今,中國大模型閃耀全球舞臺,它們令人驚嘆的表現(xiàn),開啟了AI推理高效的新時(shí)代。
![]()
開源AI扛把子,震驚歪果仁
去年底,Anthropic發(fā)布了一項(xiàng)針對全球16個(gè)前沿模型的嚴(yán)苛行為基準(zhǔn)測試。
在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國面孔,更交出了驚艷的答卷——
Kimi K2 Thinking憑借極低的被誤導(dǎo)率,一舉摘得「表現(xiàn)最佳的非美國模型」桂冠。
![]()
注:得分越低性能越強(qiáng),越不容易被誤導(dǎo)
這種技術(shù)實(shí)力也迅速轉(zhuǎn)化為國際影響力和落地應(yīng)用。
從「硅谷風(fēng)投教父」Marc Andreessen的公開盛贊,到OpenAI前CTO的新產(chǎn)品Thinker上月官宣接入Kimi K2 Thinking,中國AI的硬實(shí)力正在被全球核心圈層接納。
![]()
![]()
權(quán)威評測進(jìn)一步印證了這一趨勢。
在知名AI大佬Nathan Lambert與Florian Brand聯(lián)合發(fā)布的「2025年度開源模型回顧」中,DeepSeek、Qwen和Kimi強(qiáng)勢包攬Top 3。
![]()
隨后,Lambert更在專文中深入分析,高度評價(jià)了中國開源AI所具備的獨(dú)特優(yōu)勢。
![]()
1. 開源模型的「唯快不破」
盡管最強(qiáng)閉源模型與開源之間仍存代差,但中國實(shí)驗(yàn)室正在以驚人的速度發(fā)布模型,大幅壓縮了這一差距。
在技術(shù)飛速迭代的當(dāng)下,「更早發(fā)布」本身就是一種巨大的先發(fā)優(yōu)勢。
2. 始于「沖榜」,終于「體驗(yàn)」
中國模型在基準(zhǔn)測試上的表現(xiàn)愈發(fā)生猛,但更關(guān)鍵的是從「分高」到「好用」的轉(zhuǎn)變。
我們見證了Qwen的進(jìn)化:最初以「沖榜」聞名,如今已成為名副其實(shí)的優(yōu)質(zhì)模型。
順著這一思路,K2 Thinking在后訓(xùn)練階段原生采用4bit精度,顯然是為了更高效地支持長序列RL擴(kuò)展,使其更勝任實(shí)際的服務(wù)任務(wù)。
3. 中國力量的品牌崛起
年初,外國用戶可能叫不出任何一家中國AI實(shí)驗(yàn)室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術(shù)實(shí)力的代表。
它們各有高光時(shí)刻和獨(dú)特優(yōu)勢。重要的是,這份名單還在不斷變長,中國AI正在世界舞臺占據(jù)一席之地。
4. 突破:海量工具調(diào)用與穿插思考
Kimi K2 Thinking支持「數(shù)百步穩(wěn)定工具調(diào)用」引發(fā)熱議。
雖然這在o3、Grok 4等閉源模型中已成標(biāo)配(RL訓(xùn)練中的自然涌現(xiàn)),但這通過開源模型實(shí)現(xiàn)尚屬首批,這對托管服務(wù)商的精準(zhǔn)支持能力提出了極高要求。
此外,是「交錯(cuò)思考」(Interleaved thinking)——即模型在調(diào)用工具的間隙進(jìn)行思考。
這是繼Claude之后,強(qiáng)調(diào) agentic 能力的模型都在跟進(jìn)的新趨勢,標(biāo)志著模型邏輯鏈條的進(jìn)一步成熟。
5. 倒逼美國閉源巨頭
開源的激增讓美國閉源實(shí)驗(yàn)室倍感壓力——僅僅依靠基準(zhǔn)測試分?jǐn)?shù)已無法解釋「為什么付費(fèi)更好」了。
相比之下,中國模型或許在收入上暫未占優(yōu),但在全球市場的「心智份額」上,正在切走越來越大的一塊蛋糕。
回看CES 2026這場演講,老黃直接把「開源」講成了全場最硬核的主線。
中國開源AI的表現(xiàn)足以令世界驚嘆,隨著更多開發(fā)者和企業(yè)擁抱這些模型,AI應(yīng)用的全面爆發(fā)指日可待。
參考資料:
https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/
https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means
為偉大思想而生!
AI+時(shí)代,互聯(lián)網(wǎng)思想(wanging0123),
第一必讀自媒體
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.