<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      黃仁勛最新演講宣布萬億訂單:Token正在成為一種新的大宗商品(附兩萬字實(shí)錄)

      0
      分享至


      出品 / 新浪科技(ID:techsina)

      作者 / 《硅谷觀察》欄目 鄭駿

      硅谷圣何塞SAP中心,幾乎完全坐滿。

      這座平時(shí)屬于NHL圣何塞鯊魚冰球隊(duì)的主場,在今天變成了一年一度的"AI麥加"。來自190個國家的開發(fā)者、工程師、企業(yè)買家和投資人擠滿了每一個座位,所有人的目光都對準(zhǔn)一個熟悉的身影:那個愛穿皮夾克的中年男人。

      英偉達(dá)CEO黃仁勛走上臺的第一句話是:“It all starts here."——一切從這里開始。接下來的兩個多小時(shí),他兌現(xiàn)了這句話的分量。他笑著說,今天這里就像是超級碗一樣。

      他預(yù)計(jì)英偉達(dá)新一代AI加速芯片架構(gòu)Blackwell與下一代Rubin產(chǎn)品,到2027年底將創(chuàng)造至少1萬億美元收入。這一數(shù)字遠(yuǎn)超黃仁勛2025年10月給出的5000億美元銷售預(yù)測,再次凸顯AI基礎(chǔ)設(shè)施投資浪潮仍在快速擴(kuò)張。

      萬億訂單:需求敘事的重新定標(biāo)

      本場演講最直接的數(shù)字沖擊來自訂單端。黃仁勛預(yù)計(jì),到明年年底,英偉達(dá)來自Blackwell和Vera Rubin兩代架構(gòu)的采購訂單總額預(yù)計(jì)將突破1萬億美元。這一數(shù)字是英偉達(dá)去年所預(yù)期的5000億美元的兩倍。

      英偉達(dá)此前就已經(jīng)上調(diào)了預(yù)期。上個月,英偉達(dá)CFO克雷斯(Colette Kress)曾在財(cái)報(bào)電話會上暗示,芯片銷量增長將超越此前預(yù)期,而今天黃仁勛則將“超越”量化成了具體數(shù)字。

      他這一自信表態(tài)的背景是:英偉達(dá)最新財(cái)報(bào)顯示,數(shù)據(jù)中心季度營收已達(dá)623億美元,同比增長75%;但英偉達(dá)股價(jià)卻沒有同步走高,反而自去年10月的歷史高點(diǎn)207美元回調(diào)了約11%,資本市場對2027年英偉達(dá)能否維持增速存在諸多疑慮,而增長空間直接決定了股價(jià)上行空間。黃仁勛的萬億數(shù)字,直接回應(yīng)了這場“虛無的擔(dān)憂”。


      核心產(chǎn)品:Vera Rubin全棧亮相

      Vera Rubin是本場演講的絕對主角,只不過黃仁勛一直等到一個半小時(shí)之后才正式發(fā)布。這套系統(tǒng)在去年年底的華盛頓特區(qū)活動就已經(jīng)披露,今年年初的CES 2026進(jìn)一步展示細(xì)節(jié),而今天則是完整正式發(fā)布。核心亮點(diǎn)如下:

      Vera Rubin NVL72是當(dāng)前旗艦規(guī)格,由72顆GPU通過NVLink 6互聯(lián),整體采用液冷設(shè)計(jì),黃仁勛特別強(qiáng)調(diào):“所有線纜都消失了”——改用模塊化托盤,安裝時(shí)間從Blackwell的兩小時(shí)壓縮至5分鐘。系統(tǒng)以45度熱水冷卻運(yùn)行。黃仁勛將其稱為“超級充電AI紀(jì)元的引擎”。

      Rubin Ultra進(jìn)一步擴(kuò)展至144顆GPU單機(jī)柜規(guī)格,采用全新的Kyber機(jī)架豎向安裝,前端負(fù)責(zé)計(jì)算,后端負(fù)責(zé)NVLink互聯(lián)。與Hopper世代相比,Vera Rubin平臺的推理吞吐量理論上可達(dá)700萬tokens/秒,而x86 Hopper組合僅為200萬。黃仁勛稱這是“AI工廠未來最重要的一張圖表”,并將推理算力分為Free、High、Premium、Ultra四個服務(wù)層級,以tokens/秒定價(jià),“Token是新的大宗商品”。

      Vera CPU將作為獨(dú)立產(chǎn)品單獨(dú)銷售,形成英偉達(dá)在CPU市場的獨(dú)立營收來源。英偉達(dá)方面預(yù)計(jì)這一業(yè)務(wù)將發(fā)展為“數(shù)十億美元級別”的收入貢獻(xiàn)。第一套Vera Rubin系統(tǒng)已在微軟Azure云上運(yùn)行,采樣進(jìn)展順利——這與Blackwell世代初期出現(xiàn)良率問題形成了對比。

      Groq收購落地:LPU正式集成

      去年圣誕前夕,英偉達(dá)以約200億美元完成對Groq的核心資產(chǎn)并購,吸納了包括創(chuàng)始人羅斯(Jonathan Ross)在內(nèi)的核心團(tuán)隊(duì)。今天,黃仁勛宣布了這筆收購的技術(shù)產(chǎn)品:Groq 3 LPU(語言處理單元)。

      Groq 3的定位是Vera Rubin的推理加速器,而非GPU的替代品。從技術(shù)架構(gòu)看,大語言模型推理分為兩個階段:計(jì)算密集型的prefill(處理輸入提示)和帶寬密集型的decode(生成輸出token)。英偉達(dá)的GPU擅長高吞吐的prefill,而Groq的LPU以22 TB/s的HBM4內(nèi)存帶寬專門優(yōu)化decode階段,比同類GPU快約7倍。兩者通過Disaggregated Inference(分離式推理)架構(gòu)配合運(yùn)行:GPU負(fù)責(zé)prefill,LPU負(fù)責(zé)decode,上層由英偉達(dá)的Dynamo系統(tǒng)統(tǒng)一調(diào)度。

      英偉達(dá)為此推出了專用的LPX機(jī)架,單機(jī)柜容納256顆Groq 3 LPU,設(shè)計(jì)上緊靠Vera Rubin NVL72機(jī)架并排部署,通過定制Spectrum-X互聯(lián)。每顆Groq 3 LPU具備500MB片上內(nèi)存,由三星代工,預(yù)計(jì)三季度出貨。官方數(shù)據(jù)顯示,Vera Rubin NVL72與Groq 3 LPX聯(lián)合部署,較Blackwell可實(shí)現(xiàn)每兆瓦tokens/秒提升35倍。

      英偉達(dá)高管在發(fā)布前夕表示,這一架構(gòu)使得公司可以為大型語言模型提供“每秒數(shù)千tokens”的極低延遲推理服務(wù)——這一層級此前被Cerebras和SambaNova等專用推理芯片公司占據(jù)。


      英偉達(dá)官方養(yǎng)蝦:打造AI代理時(shí)代

      硬件之外,黃仁勛花了不少時(shí)間闡述英偉達(dá)的軟件定位。切入點(diǎn)是當(dāng)前最熱門的AI代理(AI Agent)浪潮,以及近期爆紅的開源代理平臺OpenClaw。他盛贊OpenClaw是有史以來最為成功的開源項(xiàng)目。

      黃仁勛將OpenClaw類比于操作系統(tǒng):"它就是代理計(jì)算機(jī)的操作系統(tǒng),就像Windows讓個人電腦成為可能一樣。"他甚至宣稱"全球每家公司都需要有一套OpenClaw戰(zhàn)略",將其與當(dāng)年企業(yè)必須擁抱Linux或HTTP/HTML相提并論。

      英偉達(dá)為此發(fā)布了NemoClaw——一套針對OpenClaw的開源企業(yè)級參考軟件棧。其核心功能是企業(yè)安全:幫助公司在部署AI代理時(shí)保護(hù)內(nèi)部敏感數(shù)據(jù),防止代理在自主運(yùn)行過程中泄露專有信息。微軟安全團(tuán)隊(duì)同日宣布與英偉達(dá)合作,共同基于Nemotron和NemoClaw開發(fā)實(shí)時(shí)自適應(yīng)防護(hù)能力。

      此外,英偉達(dá)還將DGX Spark和DGX Station兩款桌面/工作站級產(chǎn)品定位為企業(yè)AI代理的本地開發(fā)與部署平臺,將NemoClaw的能力引入邊緣。

      路線圖:

      從Feynman到太空數(shù)據(jù)中心

      硬件路線圖方面,黃仁勛在Vera Rubin之后首次勾勒了下一代Feynman架構(gòu)的輪廓,計(jì)劃于2028年推出。Feynman將包含全新GPU、新一代LPU(LP40)、全新CPU——命名為Rosa(致敬DNA結(jié)構(gòu)發(fā)現(xiàn)者羅莎琳德·富蘭克林),配合BlueField-5 DPU、CX10 NIC,以及支持銅纜與共封裝光學(xué)(CPO)的Kyber互聯(lián)平臺。

      更出人意料的是,黃仁勛宣布英偉達(dá)正在開發(fā)太空版Vera Rubin模塊——Space-1,目標(biāo)是在軌道上部署AI數(shù)據(jù)中心。他承認(rèn)太空環(huán)境中的輻射防護(hù)是核心挑戰(zhàn),但英偉達(dá)已著手研發(fā)。這也與SpaceX、谷歌、亞馬遜等巨頭的太空數(shù)據(jù)中心戰(zhàn)略不謀而合。

      此外,英偉達(dá)發(fā)布了DSX AI Factory參考設(shè)計(jì),結(jié)合Omniverse DSX Blueprint,幫助企業(yè)規(guī)劃、仿真和管理大規(guī)模AI數(shù)據(jù)中心的全生命周期。AWS當(dāng)天宣布與英偉達(dá)擴(kuò)大合作,承諾部署超過100萬顆英偉達(dá) GPU,涵蓋Blackwell、Rubin以及Groq 3 LPU,部署將于今年內(nèi)跨越AWS全球區(qū)域啟動。

      無人車與機(jī)器人:

      合作伙伴大規(guī)模擴(kuò)張

      自動駕駛是演講第三條主線。黃仁勛宣布英偉達(dá) Drive AV軟件與Uber的合作進(jìn)入落地階段:Uber將在2028年前于全球四大洲28座城市部署由英偉達(dá)技術(shù)支持的自動駕駛車隊(duì),首批城市為洛杉磯和舊金山,2027年啟動。

      與此同時(shí),比亞迪、吉利、日產(chǎn)和現(xiàn)代等車企正在英偉達(dá)的 Drive Hyperion平臺上開發(fā)L4級自動駕駛乘用車。五十鈴和中國企業(yè)Tier IV還在通過英偉達(dá) AGX Thor芯片開發(fā)自動駕駛巴士。黃仁勛引用了一句話:“自動駕駛汽車的ChatGPT時(shí)刻已經(jīng)到來。"

      在機(jī)器人領(lǐng)域,迪士尼研發(fā)的Olaf機(jī)器人(來自《冰雪奇緣》)現(xiàn)身舞臺,與黃仁勛進(jìn)行了對話互動。該機(jī)器人在英偉達(dá)仿真環(huán)境中聯(lián)合訓(xùn)練,是英偉達(dá)具身AI(Physical AI)應(yīng)用于娛樂場景的展示。

      或許Moor Insights & Strategy首席分析師摩爾海德(Patrick Moorhead)的表述最為精準(zhǔn):英偉達(dá)不再是一家芯片公司,是一個平臺。

      今天前一個半小時(shí),黃仁勛說的最多都是平臺,是基礎(chǔ)設(shè)施。他不斷強(qiáng)調(diào)英偉達(dá)已經(jīng)不是一家芯片公司,而是一家生態(tài)平臺,是一家基礎(chǔ)設(shè)施企業(yè)。今天的演講顯示,英偉達(dá)的戰(zhàn)略布局已延伸至訓(xùn)練、推理、編排、軟件安全、物理AI、自動駕駛、機(jī)器人乃至太空數(shù)據(jù)中心。


      更具體地說,英偉達(dá)正在通過三個層面構(gòu)建護(hù)城河:硬件全棧(GPU+LPU+CPU+DPU+ 網(wǎng)絡(luò)),軟件生態(tài)(CUDA、NemoClaw、Dynamo、Omniverse),以及行業(yè)落地(汽車、醫(yī)療、工業(yè)、娛樂)。其中,軟件正在成為越來越顯性的競爭優(yōu)勢——這恰恰是AMD等競爭對手最難復(fù)制的部分。

      自動駕駛的大規(guī)模合作伙伴擴(kuò)張,以及OpenClaw代理平臺的接入,也預(yù)示著英偉達(dá)的增長來源將從單一的數(shù)據(jù)中心硬件擴(kuò)展為更廣泛的AI應(yīng)用基礎(chǔ)設(shè)施。黃仁勛在演講尾聲所描繪的圖景:AI將從當(dāng)前的文本生成工具,演變?yōu)槟軌蛲评怼⒁?guī)劃、執(zhí)行任務(wù)的自主系統(tǒng),而為這些系統(tǒng)提供底層算力的,是以“Token工廠”效能為核心指標(biāo)的AI數(shù)據(jù)中心——英偉達(dá)要做的,是這個工廠的全套解決方案提供商。

      股價(jià)與分析師反應(yīng):

      確認(rèn)信心,但分歧依然

      演講期間,英偉達(dá)今日股價(jià)收盤上漲約1.65%,日內(nèi)從181美元區(qū)間上行至約183美元,成交量達(dá)2.17億股,高于日均的1.77億股,市值達(dá)到4.45萬億美元,這意味著本次GTC至少短期提振了市場信心。

      Wedbush分析師艾維斯(Dan Ives)是本次演講后反應(yīng)最為積極的多頭。他將黃仁勛稱為“AI教父”,將此次GTC定性為“科技投資者急需的信心提振”,稱英偉達(dá)“獨(dú)坐AI山頂”。艾維斯還重申,這次演講證明“AI革命正在加速,而非減速”,萬億美元的需求預(yù)測說明需求“來自四面八方”——企業(yè)、政府和AI原生公司同步發(fā)力。他估算,每1美元的英偉達(dá)芯片支出將在軟件、網(wǎng)絡(luò)安全、能源和數(shù)據(jù)中心等下游創(chuàng)造8至10美元的乘數(shù)效應(yīng)。

      Cantor Fitzgerald分析師慕斯(C.J. Muse)在演講前已將目標(biāo)價(jià)定在300美元,維持買入評級,表示“我們正處于重新建立信心的臨界點(diǎn)”;他預(yù)計(jì)黃仁勛的信息將強(qiáng)化英偉達(dá)作為“全系統(tǒng)AI基礎(chǔ)設(shè)施公司”的戰(zhàn)略定位,并重點(diǎn)關(guān)注2027年的需求可見性。

      Deepwater資產(chǎn)管理合伙人Gene Munster在演講前的判斷則更為謹(jǐn)慎:他認(rèn)為真正的挑戰(zhàn)不在于今天的發(fā)布,而在于投資者對2027年增速放緩的長期擔(dān)憂——這與“AI資本支出是否已接近峰值”的更廣泛市場敘事密切相關(guān)。

      在過去一年的AI泡沫以及基建投資大躍進(jìn)擔(dān)憂中,今天黃仁勛給整個AI行業(yè)注入了一針強(qiáng)心針,描述了一個更加廣闊的AI全生態(tài)落地愿景。而在這個AI未來生態(tài)中,英偉達(dá)牢牢占據(jù)著根基地位。

      AI泡沫?穿皮衣的中年男子覺得這才剛剛開始。

      附完整演講全文

      歡迎來到GTC!我只想提醒大家,這是一場技術(shù)大會。這么多人在清晨就排起了長隊(duì),很高興見到在座的各位。在GTC我們將探討技術(shù)與平臺。NVIDIA擁有三大平臺,大家可能以為我們主要討論的是CUDA X,但系統(tǒng)是我們的另一個平臺,現(xiàn)在我們還有一個名為AI Factories的新平臺。我們將討論所有這些內(nèi)容,但最重要的是我們要討論生態(tài)系統(tǒng)。

      在開始之前,我要感謝賽前節(jié)目主持人Sarah Go和Alfred Lin,以及NVIDIA的首家風(fēng)險(xiǎn)投資機(jī)構(gòu)Sequoia Capital的Gavin Baker。作為首位主要機(jī)構(gòu)投資者,他們深耕技術(shù)領(lǐng)域,洞悉行業(yè)動態(tài),擁有廣泛的技術(shù)生態(tài)系統(tǒng)。當(dāng)然也要感謝我親手挑選并邀請的各位全明星VIP嘉賓,此外我還要感謝所有到場的贊助公司。NVIDIA是一家平臺公司,擁有技術(shù)、平臺以及豐富的生態(tài)系統(tǒng)。今天這里匯聚了全球100萬億美元產(chǎn)業(yè)的代表,共有450家公司贊助了本次活動,擁有一千場技術(shù)分會和2000位演講嘉賓。本次大會將涵蓋人工智能五層蛋糕架構(gòu)的每一層,從土地、電力和建筑等基礎(chǔ)設(shè)施,到芯片、平臺和模型,而最終讓整個行業(yè)騰飛的將是所有的應(yīng)用程序。

      一切都始于這里,今年是CUDA問世20周年。20年來我們一直致力于這一架構(gòu)的研發(fā)。這項(xiàng)革命性的發(fā)明通過單指令多線程編寫標(biāo)量代碼即可衍生出多線程應(yīng)用,這比SIMD更容易編程。我們最近還添加了Tiles,以幫助開發(fā)者對Tensor Core及當(dāng)今人工智能基礎(chǔ)數(shù)學(xué)結(jié)構(gòu)進(jìn)行編程。目前已有數(shù)千個工具、編譯器、框架、庫和數(shù)十萬個公開的開源項(xiàng)目,CUDA已經(jīng)深度集成到每一個生態(tài)系統(tǒng)中。最難實(shí)現(xiàn)的一點(diǎn)是龐大的裝機(jī)量。

      我們花了20年時(shí)間在全球構(gòu)建起數(shù)以億計(jì)運(yùn)行CUDA的GPU和計(jì)算系統(tǒng),覆蓋了每一個云平臺和計(jì)算機(jī)公司,服務(wù)于幾乎所有行業(yè)。CUDA的裝機(jī)量正是推動飛輪加速轉(zhuǎn)動的核心動力。裝機(jī)量吸引了開發(fā)者,開發(fā)者隨后創(chuàng)造出如深度學(xué)習(xí)等實(shí)現(xiàn)突破的新算法。這些突破催生了全新市場并建立起新的生態(tài)系統(tǒng),吸引更多公司加入,從而創(chuàng)造了更大的裝機(jī)量。這種飛輪效應(yīng)目前正在加速,NVIDIA庫的下載量正以驚人的速度增長。這種效應(yīng)不僅讓計(jì)算平臺能支持眾多應(yīng)用和突破,還賦予了基礎(chǔ)設(shè)施極長的使用壽命。

      有如此多的應(yīng)用可以在NVIDIA CUDA上運(yùn)行,我們支持AI生命周期的每個階段和每個數(shù)據(jù)處理平臺,加速各種基于科學(xué)原理的求解器。正因應(yīng)用范圍如此之廣,一旦安裝NVIDIA GPU,其使用壽命周期就極長。這也是為什么早在六年前出貨的Ampere架構(gòu)在云端的定價(jià)依然在上漲。高裝機(jī)量、顯著的飛輪效應(yīng)和極廣的開發(fā)者覆蓋范圍,加上我們持續(xù)更新軟件,使得計(jì)算成本不斷下降。加速計(jì)算極大提升了應(yīng)用速度,隨著我們在軟件生命周期內(nèi)的持續(xù)培育和更新,用戶不僅能獲得初次使用的性能提升,還能獲得加速計(jì)算帶來的持續(xù)成本降低。因?yàn)檠b機(jī)量龐大,我們發(fā)布的新優(yōu)化方案能惠及數(shù)以百萬計(jì)兼容架構(gòu)的GPU,覆蓋全球用戶。動態(tài)組合擴(kuò)大了NVIDIA架構(gòu)的影響力,加速增長的同時(shí)降低了計(jì)算成本并促進(jìn)新增長,這就是CUDA的核心價(jià)值。

      但我們的旅程實(shí)際上始于25年前的GeForce。GeForce是NVIDIA最偉大的營銷活動,許多人是伴隨它長大的。早在你們自己負(fù)擔(dān)得起之前,父母就付錢讓你們成為NVIDIA的客戶,直到有一天你們成為出色的計(jì)算機(jī)科學(xué)家和真正的開發(fā)者。GeForce造就了今天的NVIDIA并孕育了CUDA。25年前我們發(fā)明了全球首款可編程加速器——像素著色器,旨在讓加速器具備可編程性。5年后CUDA誕生了。我們當(dāng)年傾盡全公司利潤所做的最大投資,就是憑借GeForce將CUDA推廣到每臺電腦上。歷經(jīng)20年和13代產(chǎn)品,CUDA現(xiàn)已無處不在。十年前我們推出了RTX,針對現(xiàn)代計(jì)算機(jī)圖形時(shí)代徹底重新設(shè)計(jì)了架構(gòu)。GeForce將CUDA推向世界,也讓眾多先驅(qū)發(fā)現(xiàn)GPU是加速深度學(xué)習(xí)的良師益友,從而開啟了AI大爆炸。十年前我們決定融合可編程著色技術(shù)并引入硬件光線追蹤,當(dāng)時(shí)我們就認(rèn)為AI將徹底變革計(jì)算機(jī)圖形學(xué)。正如GeForce將AI帶給世界,現(xiàn)在AI將反過來徹底變革計(jì)算機(jī)圖形學(xué)。

      今天我將展示下一代圖形技術(shù)——神經(jīng)渲染,這是3D圖形與人工智能的融合,也就是DLSS 5.0。我們?nèi)诤狭丝煽氐?D圖形、虛擬世界的結(jié)構(gòu)化數(shù)據(jù)與生成式AI的概率計(jì)算。結(jié)構(gòu)化數(shù)據(jù)完美受控,結(jié)合生成式AI,創(chuàng)造出精美令人驚嘆且具備可控性的內(nèi)容。這種將結(jié)構(gòu)化信息與生成式AI融合的概念將接連不斷地影響各個行業(yè),結(jié)構(gòu)化數(shù)據(jù)正是值得信賴的AI的基石。

      接下來我們要詳細(xì)探討結(jié)構(gòu)化數(shù)據(jù)。大家熟知的SQL、Spark、Pandas、Velox以及Snowflake、Databricks、Amazon EMR、Azure Fabric、Google Cloud BigQuery等超大型平臺都在處理數(shù)據(jù)框。這些數(shù)據(jù)框是巨大的電子表格,保存著企業(yè)計(jì)算和業(yè)務(wù)的單一真值。過去我們努力加速結(jié)構(gòu)化數(shù)據(jù)處理,以更低成本和更高頻率讓公司高效運(yùn)行。未來AI將以極快的速度使用這些結(jié)構(gòu)化數(shù)據(jù)庫。除此之外,還有代表全球絕大部分信息的非結(jié)構(gòu)化生成式數(shù)據(jù)庫,如向量數(shù)據(jù)庫、PDF、視頻和演講等。每年生成的90%的數(shù)據(jù)都是非結(jié)構(gòu)化數(shù)據(jù)。直到現(xiàn)在由于缺乏簡便的索引方式且難以理解其含義,這些數(shù)據(jù)一直無法被高效查詢和搜索。

      現(xiàn)在我們讓AI來解決這個問題。利用多模態(tài)感知與理解技術(shù),AI能夠閱讀PDF并理解其含義,將其嵌入到可搜索和查詢的更大結(jié)構(gòu)中。為此NVIDIA創(chuàng)建了兩個基礎(chǔ)庫:用于數(shù)據(jù)框和結(jié)構(gòu)化數(shù)據(jù)的cuDF,以及用于向量存儲和非結(jié)構(gòu)化AI數(shù)據(jù)的cuVS。這兩個平臺將成為未來最重要的平臺,我們正將其深度融入全球復(fù)雜的數(shù)據(jù)處理系統(tǒng)網(wǎng)絡(luò)中。

      今天我們將發(fā)布幾項(xiàng)重要合作。IBM作為領(lǐng)域特定語言SQL的發(fā)明者,正在使用cuDF加速watsonx的數(shù)據(jù)處理。60年前IBM推出了開啟計(jì)算時(shí)代的System/360,隨后SQL和數(shù)據(jù)倉庫構(gòu)成了現(xiàn)代企業(yè)計(jì)算的基石。今天IBM與NVIDIA正通過利用GPU計(jì)算庫加速watsonx.data的SQL引擎,為AI時(shí)代重新定義數(shù)據(jù)處理。由于當(dāng)前CPU數(shù)據(jù)處理系統(tǒng)已無法滿足AI對海量數(shù)據(jù)集的快速訪問需求,企業(yè)必須轉(zhuǎn)型。例如雀巢每天要做數(shù)千次供應(yīng)鏈決策,在CPU上每天只能刷新幾次匯總了全球交付事件的訂單到現(xiàn)金數(shù)據(jù)集市,而在NVIDIA GPU上運(yùn)行加速的watsonx后,速度提升了5倍且成本降低了83%。

      AI時(shí)代的加速計(jì)算已經(jīng)到來。我們不僅加速了云端數(shù)據(jù)處理,也加速了本地部署。全球領(lǐng)先的系統(tǒng)和存儲制造商Dell與我們合作,將cuDF和cuVS集成到Dell AI數(shù)據(jù)平臺中以迎接AI時(shí)代。我們還與Google Cloud合作加速了Vertex AI和BigQuery。在與Snapchat的合作中,我們將其計(jì)算成本降低了近80%。當(dāng)你加速計(jì)算和數(shù)據(jù)處理時(shí),不僅獲得了速度和規(guī)模優(yōu)勢,最重要的是獲得了成本優(yōu)勢。摩爾定律的核心是性能每隔幾年翻倍,但它現(xiàn)在已經(jīng)后勁不足。加速計(jì)算讓我們能夠?qū)崿F(xiàn)跨越。

      NVIDIA作為一家算法公司,憑借廣泛的市場觸達(dá)和龐大的裝機(jī)量,通過持續(xù)優(yōu)化算法不斷降低計(jì)算成本,為大家擴(kuò)大規(guī)模并提升速度。NVIDIA構(gòu)建了加速計(jì)算平臺并提供RTX、cuDF、cuVS等一系列庫,最終將其集成到全球的云服務(wù)和OEM廠商中觸達(dá)全球。這種合作模式正在Google Cloud、Snapchat等平臺上不斷重復(fù)。我們?yōu)樵贘AX、XLA和PyTorch上所做的出色工作感到自豪。我們是全球唯一在這些框架上都表現(xiàn)卓越的加速器。像Baseten、CrowdStrike、Puma、Salesforce等不僅是我們的客戶也是開發(fā)者。

      我們將NVIDIA技術(shù)整合到他們的產(chǎn)品中,并將他們帶入云端。我們與云服務(wù)提供商的關(guān)系本質(zhì)就是為他們帶來客戶。大多數(shù)云服務(wù)提供商都非常樂意與我們合作,因?yàn)槲覀儗⒃丛床粩嗟貫樗腥颂峁┘铀佟W詈螅衲曜屛曳浅Ed奮的一件事是,我們將把OpenAI引入AWS,這將帶動AWS云計(jì)算的巨大消耗并擴(kuò)展OpenAI的計(jì)算能力。

      在AWS,我們加速了EMR、SageMaker和Bedrock。NVIDIA與AWS進(jìn)行了深度集成,他們也是我們的首個云合作伙伴。在Microsoft Azure方面,我們?yōu)槠浯蛟觳惭b了首臺NVIDIA A100超級計(jì)算機(jī),這為后來與OpenAI的巨大成功合作奠定了基礎(chǔ)。我們與Azure的合作由來已久,不僅為其云服務(wù)和Bing Search提供加速,還與他們的AIFoundry開展了深度合作。隨著AI在全球范圍內(nèi)的擴(kuò)展,Azure Regions的合作也變得極其重要。我們提供的一項(xiàng)核心功能是機(jī)密計(jì)算(Confidential Computing)。機(jī)密計(jì)算能夠確保操作員無法觸碰或查看數(shù)據(jù)和模型。NVIDIA GPU是全球首款實(shí)現(xiàn)該功能的GPU,它能夠支持并在不同云端和地區(qū)安全部署OpenAI和Anthropic等極其寶貴的模型。這一切都要?dú)w功于至關(guān)重要的機(jī)密計(jì)算技術(shù)。

      在客戶合作方面,Synopsis是我們的重要合作伙伴,我們正在加速其所有的EDA和CAU工作流,并落地于Microsoft Azure。我們既是Oracle的首家供應(yīng)商,也是他們的首位AI客戶。讓我非常自豪的是,我首次向Oracle解釋了AI云的概念,并成為他們的首位客戶,從那時(shí)起Oracle便開始騰飛。我們在那里落地了包括Quark、Cohere、Fireworks以及OpenAI在內(nèi)的一大批合作伙伴。CoreWeave是全球首個AI原生云,其建立的核心目標(biāo)就是在加速計(jì)算時(shí)代提供并托管GPU,為AI云提供托管服務(wù)。他們擁有出色的客戶群,并且增長速度驚人。

      我還非常看好Palantir和Dell平臺。我們?nèi)夜竟餐Υ蛟炝艘环N全新類型的AI平臺——Palantir Ontology平臺。該平臺可以在任何國家、任何物理隔離(air-gapped)區(qū)域?qū)崿F(xiàn)完全本地化的現(xiàn)場部署。AI幾乎可以部署在任何地方。如果沒有我們的機(jī)密計(jì)算能力,沒有我們構(gòu)建端到端系統(tǒng)以及提供整個加速計(jì)算和AI堆棧的能力(涵蓋從向量或結(jié)構(gòu)化數(shù)據(jù)處理到AI時(shí)代的完整流程),這一切都不可能實(shí)現(xiàn)。這些例子展示了我們與全球云服務(wù)提供商之間的特殊合作關(guān)系,他們今天都在現(xiàn)場,我由衷感謝大家的辛勤付出。


      NVIDIA是一家垂直整合但同時(shí)橫向開放的公司,這是大家會反復(fù)看到的主題。其必要性非常簡單:加速計(jì)算不僅僅是芯片或系統(tǒng)的問題,它的核心在于應(yīng)用加速。如果只是讓電腦運(yùn)行得更快,那是CPU的工作,但CPU已經(jīng)后勁不足了。未來實(shí)現(xiàn)巨大性能提升和成本降低的唯一方式,就是通過應(yīng)用或特定領(lǐng)域的加速來實(shí)現(xiàn),即應(yīng)用加速計(jì)算。因此NVIDIA必須針對不同的垂直行業(yè)和領(lǐng)域,開發(fā)一個又一個的庫。

      作為一家垂直整合的計(jì)算公司,我們別無選擇,必須深入理解應(yīng)用、領(lǐng)域和算法的底層邏輯。我們還必須弄清楚如何將算法部署在數(shù)據(jù)中心、云端、本地(on-prem)、邊緣端或機(jī)器人系統(tǒng)等各種截然不同的計(jì)算系統(tǒng)中。從底層芯片到系統(tǒng),我們實(shí)現(xiàn)了垂直整合。而NVIDIA之所以無比強(qiáng)大,是因?yàn)槲覀儥M向開放。我們致力于將NVIDIA的軟件、庫和技術(shù)與合作伙伴的技術(shù)相結(jié)合,集成到任何目標(biāo)平臺中,從而將加速計(jì)算帶給世界上的每一個人。本次GTC大會正是這一理念的絕佳展示。

      目前我們擁有觸達(dá)各大垂直領(lǐng)域的領(lǐng)域特定庫,以解決各行各業(yè)的關(guān)鍵問題。例如在金融服務(wù)業(yè)(這也是本屆GTC參會人數(shù)最多的群體),算法交易正從依賴人類進(jìn)行特征工程的傳統(tǒng)機(jī)器學(xué)習(xí),轉(zhuǎn)向由超級計(jì)算機(jī)分析海量數(shù)據(jù)并自動發(fā)現(xiàn)洞察與模式,這正是金融業(yè)的深度學(xué)習(xí)和Transformer時(shí)刻。醫(yī)療保健行業(yè)也迎來了ChatGPT時(shí)刻。我們正在將AI物理學(xué)和AI生物學(xué)應(yīng)用于藥物研發(fā),并開發(fā)用于客戶服務(wù)和輔助診斷的AI Agent。

      在工業(yè)領(lǐng)域,我們正在開啟人類歷史上規(guī)模最大的擴(kuò)建工程,全球大多數(shù)行業(yè)都在建造AI工廠,今天也有許多芯片和計(jì)算機(jī)制造廠的代表來到現(xiàn)場。在媒體與娛樂方面,實(shí)時(shí)AI平臺正在支持翻譯、廣播、直播游戲和視頻,絕大部分內(nèi)容都將通過AI進(jìn)行增強(qiáng)。在量子計(jì)算領(lǐng)域,有35家公司正利用我們的Holoscan平臺構(gòu)建下一代量子GPU混合系統(tǒng)。零售和消費(fèi)品(CPG)行業(yè)正利用NVIDIA優(yōu)化供應(yīng)鏈,并構(gòu)建代理式購物系統(tǒng)和客服AI Agent,這是一個價(jià)值35萬億美元的龐大市場。

      在規(guī)模達(dá)50萬億美元的制造業(yè)機(jī)器人領(lǐng)域,NVIDIA已深耕十年,構(gòu)建了重建機(jī)器人系統(tǒng)所需的基礎(chǔ)計(jì)算機(jī),并與所有主流機(jī)器人制造公司展開合作,此次展會我們就展出了110臺機(jī)器人。電信行業(yè)的規(guī)模約為2萬億美元,其遍布全球的基站作為上一代計(jì)算時(shí)代的基礎(chǔ)設(shè)施,即將迎來徹底重塑。未來的基站將成為AI基礎(chǔ)設(shè)施平臺,讓AI在邊緣運(yùn)行。我們的Aerial(即AIRAN)平臺正在與Nokia、T-Mobile等多家公司開展重大合作。

      這一切的核心是我們自主發(fā)明的CUDA-X庫算法,這是NVIDIA作為一家算法公司的立身之本,也是我們區(qū)別于其他公司的特別之處。算法讓我們能夠深入各個行業(yè),將世界頂尖計(jì)算機(jī)科學(xué)家解決問題的方法重構(gòu)并轉(zhuǎn)化為庫。在本次展會上,我們將發(fā)布大量庫和模型,這些不斷更新的庫是我們公司的瑰寶,它們激活了計(jì)算平臺,真正解決了實(shí)際問題。比如引發(fā)現(xiàn)代AI大爆發(fā)的cuDNN,以及用于決策優(yōu)化的cuOPT、計(jì)算光刻的cuLitho、直接稀疏求解器的cuDSS、基因組學(xué)的Parabricks等上千個CUDA-X庫,正助力開發(fā)者在科學(xué)和工程領(lǐng)域取得突破。大家所看到的一切都不是人工動畫,而是基于基礎(chǔ)物理求解器、AI物理模型和物理AI機(jī)器人模型的完全模擬。憑借對算法的理解與計(jì)算平臺的結(jié)合,NVIDIA作為一家垂直整合且橫向開放的公司,正不斷解鎖新機(jī)遇。

      如今除了傳統(tǒng)巨頭,還涌現(xiàn)了一大批像OpenAI、Anthropic這樣的AI原生(AInative)初創(chuàng)公司。隨著計(jì)算被重新發(fā)明,創(chuàng)投圈向初創(chuàng)企業(yè)投入了史無前例的1500億美元資金。因?yàn)闅v史上第一次,這些公司都需要龐大的算力和海量的Token,他們要么自己生成Token,要么為現(xiàn)有的Token增值。正如PC、互聯(lián)網(wǎng)和移動云時(shí)代誕生了Google、Amazon和Meta一樣,我們正處于新平臺轉(zhuǎn)型的開端,必將涌現(xiàn)出對未來具有重大影響力的新公司。

      過去兩年的爆發(fā)源于三大里程碑。首先,ChatGPT開啟了生成式AI時(shí)代,它不僅能感知和領(lǐng)悟,還能翻譯并生成原創(chuàng)內(nèi)容。其次,生成式計(jì)算徹底改變了計(jì)算的實(shí)現(xiàn)方式,從過去的基于檢索轉(zhuǎn)變?yōu)楝F(xiàn)在的生成式,這也深刻改變了計(jì)算機(jī)的架構(gòu)和構(gòu)建方式。第三是推理AI的崛起,O1和O3模型的出現(xiàn)讓AI能夠反思、獨(dú)立思考、分解問題并進(jìn)行自我驗(yàn)證,使生成式AI變得更值得信賴且基于事實(shí)。這種推理能力大幅增加了上下文輸入和思考輸出的Token使用量,顯著提高了計(jì)算量需求。隨后ClaudeCode作為首個智能體模型問世,它能夠自動讀取文件、編寫代碼、編譯測試并迭代,徹底變革了軟件工程。

      我們有100%的員工正在使用ClaudeCode、Codex和Cursor等運(yùn)行在NVIDIA上的AI工具來輔助編寫代碼。現(xiàn)在,你不再需要詢問AI該做什么,而是直接讓它結(jié)合上下文去創(chuàng)作、執(zhí)行和構(gòu)建。AI已經(jīng)從感知進(jìn)化到生成,再到推理,如今已經(jīng)能夠真正開展高效的工作。正因?yàn)锳I終于能夠進(jìn)行生產(chǎn)性工作,過去兩年市場對NVIDIAGPU的計(jì)算需求徹底爆表,盡管我們已經(jīng)大量出貨,但需求仍在持續(xù)攀升。

      AI現(xiàn)在必須思考、行動并進(jìn)行閱讀,而要做到這些,它必須進(jìn)行推理并進(jìn)行邏輯推演。AI的每一個部分在思考、行動和生成Token時(shí)都必須進(jìn)行推理。現(xiàn)在早已過了訓(xùn)練階段,我們正處于推理領(lǐng)域,推理的拐點(diǎn)已經(jīng)到來。在這個時(shí)刻所需的計(jì)算量增加了大約10000倍。在過去的兩年里計(jì)算需求增長了10000倍,而使用量可能增長了100倍。相信計(jì)算需求在過去兩年里增長了一百萬倍,這也是每一家初創(chuàng)公司、OpenAI和Anthropic的共同感受。如果他們能獲得更多算力就能生成更多Token,營收就會增長,越先進(jìn)的AI就會變得越聰明。

      我們現(xiàn)在正處于這個正向飛輪系統(tǒng)中,推理的拐點(diǎn)已經(jīng)到來。去年此時(shí)我說過到2026年Blackwell和Rubin的高置信度需求和采購訂單總額將達(dá)到5000億美元。雖然大家可能因?yàn)閯?chuàng)下年度營收紀(jì)錄而對這個數(shù)字不為所動,但我現(xiàn)在要告訴大家,到2027年這一數(shù)字將至少達(dá)到1萬億美元。事實(shí)上我們將面臨算力短缺,計(jì)算需求將遠(yuǎn)高于此。

      我們在過去一年里做了大量工作,2025年是NVIDIA的推理之年。我們希望確保不僅擅長訓(xùn)練和后訓(xùn)練,而且在AI的每一個階段都表現(xiàn)出色。對基礎(chǔ)設(shè)施的投資可以長期擴(kuò)展,NVIDIA基礎(chǔ)設(shè)施使用壽命長且成本極低。毫無疑問NVIDIA系統(tǒng)是世界上成本最低的AI基礎(chǔ)設(shè)施。去年的一切都是圍繞推理AI展開的,這推動了拐點(diǎn)的到來。同時(shí)Anthropic和Meta的Llama等代表全球三分之一AI開源模型算力的平臺都選擇了NVIDIA。開源模型已接近前沿水平且無處不在。NVIDIA是當(dāng)今世界上唯一能夠跨越所有語言和AI領(lǐng)域運(yùn)行的平臺,涵蓋生物學(xué)、計(jì)算機(jī)圖形學(xué)、計(jì)算機(jī)視覺、語音、蛋白質(zhì)、化學(xué)和機(jī)器人技術(shù)等領(lǐng)域。我們的架構(gòu)從邊緣到云端通用,使其成為成本最低且最值得信賴的平臺。

      面對一萬億美元的龐大基礎(chǔ)設(shè)施規(guī)模,必須確保投資具有高性能、成本效益和長期使用壽命。你可以滿懷信心地選擇NVIDIA,無論部署在云端、本地還是世界任何地方,我們都能提供支持。我們現(xiàn)在是一個運(yùn)行所有AI的計(jì)算平臺,這已體現(xiàn)在業(yè)務(wù)中。我們60%的業(yè)務(wù)來自前五大超大規(guī)模云服務(wù)商,其中一部分用于內(nèi)部AI消耗。推薦系統(tǒng)和搜索等內(nèi)部工作負(fù)載正從傳統(tǒng)方法轉(zhuǎn)向深度學(xué)習(xí)和大語言模型,這些負(fù)載正向NVIDIA極具優(yōu)勢的GPU上遷移。通過與各大AI實(shí)驗(yàn)室合作并擁有龐大的原生生態(tài)系統(tǒng),我們能將算力帶入云端并被迅速消耗。另外40%的業(yè)務(wù)遍布區(qū)域云、主權(quán)云、企業(yè)、工業(yè)領(lǐng)域、機(jī)器人技術(shù)、邊緣計(jì)算和超級計(jì)算系統(tǒng)等。AI廣泛的觸達(dá)范圍和多樣性正是其韌性所在,它現(xiàn)已成為一項(xiàng)基礎(chǔ)技術(shù)和全新的計(jì)算平臺變革。

      我們的職責(zé)是繼續(xù)推動技術(shù)進(jìn)步。去年作為推理之年,我們在Hopper架構(gòu)巔峰時(shí)冒著巨大風(fēng)險(xiǎn)進(jìn)行了徹底重塑。我們決定將架構(gòu)提升到全新水平,徹底重構(gòu)系統(tǒng)以解耦計(jì)算并創(chuàng)造了NVLINK-72。其構(gòu)建、制造和編程方式都發(fā)生了徹底改變。GraceBlackwell和NVLINK-72是一場巨大的賭注,感謝所有合作伙伴的辛勤努力。NVFP4不僅僅是精度上的提升,它代表了完全不同類型的TensorCore和計(jì)算單元。我們證明了可以在不損失精度的情況下進(jìn)行推理并大幅提升性能和能效,同時(shí)還能將其用于訓(xùn)練。結(jié)合NVLINK-72、NVFP4、Dynamo、TensorRT-LLM以及一系列新算法,我們甚至投入數(shù)十億美元建造了DGXCloud超級計(jì)算機(jī)來優(yōu)化內(nèi)核和軟件棧。過去人們常說推理很簡單,但實(shí)際上推理是終極難題,也是驅(qū)動收入的核心動力。對AI推理最全面的掃描數(shù)據(jù)顯示每瓦特Token數(shù)至關(guān)重要。每個數(shù)據(jù)中心都受到功率限制,物理法則決定了1吉瓦的工廠不可能變成2吉瓦。因此必須在有限功率下產(chǎn)出最大數(shù)量的Token,力求處于效能曲線的頂端。


      推理速度決定了響應(yīng)速度,也就是單次推理的交互性。推理速度越快,能處理的上下文和思考的Token就越多,這等同于AI的智能程度和吞吐量。AI越聰明,思考時(shí)間變長,吞吐量就會隨之降低。從現(xiàn)在起,全世界的每一位CEO都會將業(yè)務(wù)視作Token工廠并將其直接與收入掛鉤。在給定功率下,更好的每瓦性能意味著更高的吞吐量和更多的Token產(chǎn)出。NVIDIA擁有全球最高的性能,摩爾定律原本預(yù)期帶來1.5倍的提升,但我們實(shí)現(xiàn)了35倍的跨越。

      去年我說GraceBlackwell和NVLink72的每瓦性能提升了35倍時(shí)沒人相信,甚至有分析師認(rèn)為我保留實(shí)力實(shí)際提升高達(dá)50倍。這使得我們的每Token成本成為全球最低。如果架構(gòu)錯誤即使免費(fèi)也不夠便宜,因?yàn)榻ㄔ觳⒎謹(jǐn)傄粋€吉瓦級工廠的成本高達(dá)400億美元。必須部署最頂尖的系統(tǒng)以獲得最佳成本效益。通過極致的協(xié)同設(shè)計(jì),我們進(jìn)行垂直整合并水平開放,將所有軟件和技術(shù)打包給全球推理服務(wù)提供商。

      例如Fireworks和Together等平臺增長迅速,生產(chǎn)效能就是他們的一切。在我們更新軟件后系統(tǒng)硬件不變的情況下,平均速度從每秒約700個Token提升到了接近5000個,整整提高了七倍。過去用于存儲文件的數(shù)據(jù)中心現(xiàn)在已經(jīng)變成了受功率限制的Token工廠。推理是新的工作負(fù)載,Token是新的商品,計(jì)算即收入。未來每一家云服務(wù)和AI公司都將思考其Token工廠的效能,這種智能將由Token來增強(qiáng)。

      回顧過去十年的發(fā)展,我們在2016年推出了全球首款專為深度學(xué)習(xí)設(shè)計(jì)的計(jì)算機(jī)DGX-1,八個Pascal架構(gòu)GPU通過第一代NVLink連接提供170Teraflops算力。隨后通過Volta架構(gòu)引入NVLink交換機(jī),將16顆GPU作為巨型GPU運(yùn)行。隨著模型增長數(shù)據(jù)中心需成為單一計(jì)算單元,于是Mellanox加入了NVIDIA。2020年推出的DGXA100SuperPOD結(jié)合了縱向與橫向擴(kuò)展架構(gòu)。之后開啟生成式AI時(shí)代的Hopper架構(gòu)配備了FP8,而Blackwell通過NVLINK-72重新定義了AI超級計(jì)算,實(shí)現(xiàn)130TB/s的全對全帶寬。

      如今智能體系統(tǒng)的算力需求呈指數(shù)級增長。專為智能體AI設(shè)計(jì)的VeraRubin推進(jìn)了計(jì)算領(lǐng)域的各個支柱,提供3.6Exaflops算力和每秒260Terabytes的全對全帶寬。搭配專為編排設(shè)計(jì)的VeraCPU機(jī)架、基于BlueField-4的STX存儲機(jī)架、提升能效的Spectrum-X交換機(jī),以及增加Token加速器的Grock-3LPX機(jī)架,合力實(shí)現(xiàn)了每兆瓦35倍的吞吐量提升。這個包含七顆芯片、五臺機(jī)架級計(jì)算機(jī)的全新平臺,讓算力在短短10年內(nèi)提升了4000萬倍。

      過去介紹Hopper時(shí)我還能舉起一顆芯片,但VeraRubin是一個需要整體優(yōu)化的龐大系統(tǒng)。智能體系統(tǒng)最關(guān)鍵的是大語言模型的思考過程,模型不斷增大對內(nèi)存和存儲系統(tǒng)產(chǎn)生了巨大壓力,因此我們重新發(fā)明了存儲系統(tǒng)。AI需要工具盡可能快地運(yùn)行,為此我們打造了全新VeraCPU,它專為極高單線程性能設(shè)計(jì),是全球唯一采用LPDDR5的數(shù)據(jù)中心CPU,能效比傲視群雄。該CPU旨在與機(jī)架其他部分協(xié)同進(jìn)行智能體處理。VeraRubin系統(tǒng)已實(shí)現(xiàn)100%液冷,取消了線纜,安裝時(shí)間從兩天縮短至兩小時(shí)。它使用45度溫水冷卻,大幅降低了數(shù)據(jù)中心的散熱成本與能源消耗。這是目前世界上唯一構(gòu)建到第六代的縱向擴(kuò)展交換系統(tǒng),實(shí)現(xiàn)難度極高。此外采用共封裝光學(xué)技術(shù)的Spectrum-X交換機(jī)也已全面量產(chǎn),光子直接連接芯片硅片,工藝完全是革命性的。VeraCPU作為獨(dú)立產(chǎn)品已成為價(jià)值數(shù)十億美元的業(yè)務(wù)。

      這四個機(jī)架組成的系統(tǒng)通過結(jié)構(gòu)化布纜構(gòu)建,極為高效。而RubinUltra計(jì)算節(jié)點(diǎn)則更進(jìn)一步,安裝進(jìn)名為Kyber的全新機(jī)架中,可在一個NVLINK域中連接144個GPU。計(jì)算節(jié)點(diǎn)垂直插入中板,不再受限于銅纜的驅(qū)動距離,背面連接NVLINK交換機(jī),組成一臺巨大的計(jì)算機(jī)。最后再次強(qiáng)調(diào),在給定的功率下AI工廠的吞吐量和Token生成速度將直接決定明年的收入,這是對AI工廠未來最重要的一項(xiàng)指標(biāo)。

      縱軸是吞吐量,橫軸是Token速率。隨著Token生成速度的提升和模型規(guī)模的不斷擴(kuò)大,不同應(yīng)用場景對Token和上下文長度的需求也在持續(xù)激增。輸入和輸出的Token長度正從十萬級別向數(shù)百萬級別跨越。這些因素最終都將深刻影響未來Token的商業(yè)化營銷與定價(jià)。

      Token正在成為一種新的大宗商品。像所有大宗商品一樣,一旦技術(shù)走向成熟并到達(dá)拐點(diǎn),市場就會出現(xiàn)細(xì)分。高吞吐量但低生成速度的版本適用于免費(fèi)層級;中等層級則會提供更大的模型、更快的生成速度以及更長的上下文輸入窗口,對應(yīng)不同的定價(jià)區(qū)間。正如大家在各類云服務(wù)中所見,從免費(fèi)層級到每百萬Token收費(fèi)3美元、6美元的階梯定價(jià)模式已經(jīng)出現(xiàn)。

      業(yè)界都在致力于不斷突破能力邊界,因?yàn)槟P蛥?shù)越大就越智能,輸入的上下文越長則相關(guān)性越高。而在更快的生成速度下,系統(tǒng)能更好地進(jìn)行思考與迭代,從而催生出更聰明的AI模型,每一次性能的躍升都賦予了服務(wù)更高的溢價(jià)空間。未來可能會出現(xiàn)收費(fèi)高達(dá)45美元甚至每百萬Token收費(fèi)150美元的高級模型服務(wù),專門為處于關(guān)鍵研發(fā)路徑或進(jìn)行長期復(fù)雜研究、對Token生成速度有極高要求的用戶提供支持。不過從現(xiàn)實(shí)來看,如果一個研究團(tuán)隊(duì)每天消耗五千萬個Token,以每百萬150美元計(jì)價(jià),這樣的成本是難以承受的。但我們堅(jiān)信階梯化與細(xì)分化就是AI產(chǎn)業(yè)的未來發(fā)展方向。AI技術(shù)必須從確立自身價(jià)值和實(shí)用性起步,不斷迭代升級,未來大多數(shù)AI服務(wù)都將采用這種多層級的模式。

      回顧Hopper架構(gòu),大家本就預(yù)期下一代產(chǎn)品性能會有所提升,但Grace Blackwell的飛躍幅度超乎所有人想象。Grace Blackwell在免費(fèi)層級實(shí)現(xiàn)了吞吐量的極大提升,而這正是企業(yè)實(shí)現(xiàn)服務(wù)變現(xiàn)的核心領(lǐng)域,其吞吐量直接躍升了35倍。正如各行各業(yè)的商業(yè)邏輯一樣:服務(wù)層級越高,對應(yīng)的質(zhì)量與性能越好,但可用容量相對越低。我們在將基礎(chǔ)層級性能提升35倍的同時(shí),還引入了全新的服務(wù)層級,這就是Grace Blackwell相較于Hopper實(shí)現(xiàn)的巨大跨越。

      接下來登場的是Vera Rubin。在每一個細(xì)分服務(wù)層級上我們都實(shí)現(xiàn)了吞吐量的飛躍。特別是在平均售價(jià)最高、最具商業(yè)價(jià)值的頂層細(xì)分市場中,我們將吞吐量提升了整整10倍。在頂尖領(lǐng)域?qū)崿F(xiàn)如此幅度的性能跨越是極其艱難的工程挑戰(zhàn)。這正是NVLink72的優(yōu)勢所在,也是極低延遲架構(gòu)帶來的巨大紅利。通過極致的軟硬件協(xié)同設(shè)計(jì),我們成功拔高了整個行業(yè)的技術(shù)上限。

      從客戶的實(shí)際運(yùn)營角度來看,假設(shè)一個數(shù)據(jù)中心只有1吉瓦的電力總?cè)萘浚覀冃枰M(jìn)行精細(xì)的算力分配:比如將各25%的算力分別投入到免費(fèi)、中級、高級和Premium層級中。免費(fèi)層級用于獲客,而頂層服務(wù)則面向最具價(jià)值的客戶群,兩者結(jié)合最終轉(zhuǎn)化為業(yè)務(wù)營收。在相同的資源限制下,Blackwell架構(gòu)能夠創(chuàng)造五倍以上的收入,而Vera Rubin同樣能實(shí)現(xiàn)五倍的營收增長。因此客戶應(yīng)該盡早向Vera Rubin架構(gòu)遷移,這不僅能顯著提升吞吐量,還能大幅降低單Token的生成成本。

      但我們的追求不止于此。實(shí)現(xiàn)超高吞吐量需要海量的FLOPS算力支撐,而實(shí)現(xiàn)極低延遲和高頻交互則高度依賴龐大的內(nèi)存帶寬。由于系統(tǒng)芯片的物理表面積總是有限的,計(jì)算機(jī)架構(gòu)往往難以同時(shí)兼顧極高的FLOPS與極致的帶寬。在底層設(shè)計(jì)上,優(yōu)化高吞吐量與優(yōu)化低延遲本質(zhì)上是相互矛盾的。

      為了打破這一物理瓶頸,我們收購了Groq芯片研發(fā)團(tuán)隊(duì)并獲得了相關(guān)技術(shù)授權(quán)。雙方一直在通力合作整合系統(tǒng)架構(gòu)。如今在最具商業(yè)價(jià)值的高端層級中,我們將性能再度提升了35倍。NVIDIA之所以能在絕大多數(shù)AI工作負(fù)載中占據(jù)絕對的主導(dǎo)地位,根本原因就在于我們深刻理解吞吐量在這一領(lǐng)域的重要性。NVLink72展現(xiàn)出了顛覆性的架構(gòu)優(yōu)勢,它是目前最正確的技術(shù)路徑,即使在引入Groq技術(shù)后,其核心地位依然堅(jiān)如磐石。

      然而如果我們向外大幅延伸需求場景,假設(shè)你需要提供的服務(wù)不再是每秒400個Token,而是每秒1000個Token的超高速生成,NVLink72受限于帶寬瓶頸將力不從心。這正是Groq大顯身手的領(lǐng)域。Groq技術(shù)超越了現(xiàn)有極限,甚至突破了NVLink72所能觸及的性能天花板。如果將技術(shù)轉(zhuǎn)化為實(shí)際收益,Vera Rubin的創(chuàng)收能力是Blackwell的5倍。如果你的主要業(yè)務(wù)是高吞吐量工作負(fù)載,我建議100%部署Vera Rubin;但如果你的業(yè)務(wù)涉及大量代碼編寫或極高價(jià)值的Token生成任務(wù),引入Groq將是明智之舉。一種合理的資源配置是將Groq部署在約25%的數(shù)據(jù)中心節(jié)點(diǎn)中,剩余75%全部采用Vera Rubin。通過將兩者深度融合,我們可以進(jìn)一步拓展系統(tǒng)的性能邊界。

      Groq的計(jì)算系統(tǒng)之所以極具吸引力,是因?yàn)樗捎昧舜_定性的數(shù)據(jù)流處理器架構(gòu)。它完全依賴靜態(tài)編譯和編譯器調(diào)度,由軟件預(yù)先精準(zhǔn)計(jì)算并調(diào)度執(zhí)行時(shí)機(jī),確保算力與數(shù)據(jù)同步到達(dá)。這種架構(gòu)徹底摒棄了動態(tài)調(diào)度并配備了海量的SRAM,是專門為AI推理這一單一工作負(fù)載量身定制的。隨著全球?qū)Τ悄堋⒏咚賂oken的生成需求呈指數(shù)級爆發(fā),這種系統(tǒng)集成的價(jià)值將日益凸顯。

      在這個體系中存在著兩種走向極端的處理器架構(gòu):一顆Vera Rubin芯片擁有288GB的龐大顯存;而如果要承載Rubin級別的海量模型參數(shù)以及龐大的上下文和KV緩存(KV Cache),則需要堆疊數(shù)量驚人的Groq芯片。龐大的內(nèi)存需求曾一度限制了Groq進(jìn)入主流市場,直到我們構(gòu)思出一個絕妙的解決方案——通過一款名為Dynamo的軟件實(shí)現(xiàn)完全的解耦推理(Disaggregated Inference)。

      我們徹底重構(gòu)了AI推理流水線的執(zhí)行方式。我們將最擅長高吞吐量計(jì)算的任務(wù)交給Vera Rubin處理,同時(shí)將解碼生成、低延遲響應(yīng)以及受帶寬瓶頸制約的工作負(fù)載卸載給Groq。就這樣我們將兩種特性截然不同的處理器完美統(tǒng)一。為了解決海量內(nèi)存需求,我們只需橫向擴(kuò)展大量Groq芯片來擴(kuò)充內(nèi)存容量。對于萬億參數(shù)級別的超大模型,我們可以將其完整部署在Groq芯片集群中;同時(shí)Vera Rubin在一旁協(xié)同工作,負(fù)責(zé)存儲處理復(fù)雜智能體(Agentic AI)系統(tǒng)所需的龐大KV緩存。

      基于解耦推理的概念,Vera Rubin負(fù)責(zé)處理相對簡單的預(yù)填充(Pre-fill)環(huán)節(jié),而Groq則深度參與解碼(Decode)過程。解碼階段中計(jì)算密集的注意力(Attention)機(jī)制由Vera Rubin承擔(dān),而前饋網(wǎng)絡(luò)(Feedforward Network)以及最終的Token生成則在Groq芯片上執(zhí)行。這兩大系統(tǒng)通過以太網(wǎng)(Ethernet)緊密耦合,并通過特殊傳輸模式將網(wǎng)絡(luò)延遲削減了近一半。在這一強(qiáng)大的硬件底座之上,我們運(yùn)行了專為AI工廠打造的卓越操作系統(tǒng)Dynamo,最終實(shí)現(xiàn)了高達(dá)35倍的性能飛躍,更帶來了全球前所未見的Token生成層級推理性能。這就是整合了Groq技術(shù)的新一代Vera Rubin系統(tǒng)。

      在此我要特別感謝Samsung。他們?yōu)槲覀兇ぶ圃炝薌roq LP30芯片,目前產(chǎn)線正在全力運(yùn)轉(zhuǎn),芯片已全面進(jìn)入量產(chǎn)階段。預(yù)計(jì)在今年第三季度左右,我們還將發(fā)布升級版的Groq LPX。

      回顧以往,由于NVLink72架構(gòu)的極度復(fù)雜性,Grace Blackwell在早期的樣片測試階段面臨了巨大挑戰(zhàn);但Vera Rubin的測試工作推進(jìn)得異常順利。正如Satya所宣布的,第一臺Vera Rubin機(jī)架已在Microsoft Azure云平臺上正式點(diǎn)亮運(yùn)行。我們在全球范圍內(nèi)構(gòu)建了極其強(qiáng)大的供應(yīng)鏈體系,目前每周能夠產(chǎn)出數(shù)千套此類龐大系統(tǒng),相當(dāng)于每個月都能交付數(shù)吉瓦規(guī)模的AI工廠基礎(chǔ)設(shè)施。在持續(xù)交付GB300機(jī)架的同時(shí),我們也在全面量產(chǎn)Vera Rubin機(jī)架。

      與此同時(shí)Vera CPU也取得了空前的成功。當(dāng)前AI在執(zhí)行工具調(diào)用(Tool Use)等復(fù)雜操作時(shí),依然高度依賴CPU的指令處理能力,Vera CPU的架構(gòu)設(shè)計(jì)完美契合了這一核心訴求。Vera CPU與BlueField數(shù)據(jù)處理器以及CX9網(wǎng)卡深度整合,共同接入了BlueField-4網(wǎng)絡(luò)堆棧生態(tài)。目前全球所有的主流存儲企業(yè)都在積極融入我們的系統(tǒng)生態(tài)。過去是人類在使用SQL查詢調(diào)用數(shù)據(jù),而未來將是海量的AI智能體在瘋狂讀取存儲系統(tǒng)。這些系統(tǒng)必須能夠無縫支持cuDF加速存儲、cuVS加速存儲以及極其關(guān)鍵的海量KV緩存讀取。

      令人驚嘆的是,在短短兩年內(nèi),我們在一座吉瓦級的AI工廠中,通過前所未有的軟硬件架構(gòu)創(chuàng)新打破了摩爾定律原本只能帶來的線性算力增長。憑借這套全新的架構(gòu),我們將Token生成速率從每秒200萬暴增至7億,實(shí)現(xiàn)了整整350倍的驚人跨越。這就是極致協(xié)同設(shè)計(jì)(Extreme Co-design)的力量:先進(jìn)行深度的垂直整合與優(yōu)化,隨后將其水平開放給整個行業(yè)生態(tài)。


      關(guān)于我們的產(chǎn)品路線圖:Blackwell架構(gòu)的Oberon系統(tǒng)已經(jīng)全面問世,并且在Rubin架構(gòu)中我們將繼續(xù)沿用Oberon系統(tǒng),確保客戶軟硬件資產(chǎn)的向后兼容。Oberon采用了銅纜縱向擴(kuò)展(Scale-up)技術(shù),同時(shí)我們也支持通過光通信實(shí)現(xiàn)系統(tǒng)的橫向擴(kuò)展(Scale-out),最高可擴(kuò)展至NVLink576的龐大網(wǎng)絡(luò)。業(yè)界經(jīng)常討論NVIDIA未來會押注銅纜還是光通信,我們的答案是兩者齊頭并進(jìn)。我們將推出配合Kyber架構(gòu)的NVLink144,并通過光纖連接將采用NVLink72的Oberon系統(tǒng)進(jìn)一步擴(kuò)展為NVLink576集群。

      下一代Rubin Ultra芯片正在緊鑼密鼓地流片中。同時(shí)我們還將推出全新的LP35芯片,它將首發(fā)搭載NVIDIA革命性的NVFP4計(jì)算架構(gòu),為系統(tǒng)帶來指數(shù)級的X-factor性能加速。目前采用NVLink72光子級擴(kuò)展、搭載全球首款共封裝光學(xué)(CPO)器件Spectrum 6的Oberon系統(tǒng)已經(jīng)全面投入量產(chǎn)。

      在這之后我們將迎來代號為Feynman的全新一代架構(gòu)。Feynman不僅擁有全面革新的GPU,還將搭載由NVIDIA與Grok團(tuán)隊(duì)強(qiáng)強(qiáng)聯(lián)手打造的全新LPU——LP40芯片。與之配套的還有代號為Rosa的全新CPU以及新一代BlueField-5數(shù)據(jù)處理器,負(fù)責(zé)將新一代CPU與SuperNIC CX10緊密連接。在Feynman架構(gòu)下,我們將提供基于銅纜的Kyber縱向擴(kuò)展方案,以及基于CPO技術(shù)的Kyber光通信縱向擴(kuò)展方案。這是我們首次在縱向擴(kuò)展領(lǐng)域同時(shí)并行推進(jìn)銅纜和共封裝光學(xué)技術(shù)路線。銅纜連接依然至關(guān)重要,但同時(shí)我們也必須大規(guī)模提升光通信的連接規(guī)模和CPO產(chǎn)能,以應(yīng)對日益暴漲的算力需求。

      NVIDIA正以每年一次的極速節(jié)奏推進(jìn)架構(gòu)迭代,并已從一家芯片公司徹底蛻變?yōu)樘峁〢I工廠和基礎(chǔ)設(shè)施的系統(tǒng)級公司。目前在全球正建設(shè)的龐大AI工廠中,由于缺乏系統(tǒng)級優(yōu)化存在著巨大的算力和能源浪費(fèi)。許多底層組件在進(jìn)入數(shù)據(jù)中心之前從未進(jìn)行過聯(lián)合設(shè)計(jì)與調(diào)試。

      為了解決這一痛點(diǎn),我們打造了Omniverse及其延伸的DSX平臺。這是一個讓全球產(chǎn)業(yè)鏈伙伴能夠在虛擬世界中共同協(xié)作、聯(lián)合設(shè)計(jì)吉瓦級超級AI工廠的數(shù)字孿生平臺。我們擁有涵蓋機(jī)架結(jié)構(gòu)、機(jī)械物理、熱力學(xué)散熱、電氣工程以及復(fù)雜網(wǎng)絡(luò)拓?fù)涞娜孜锢砑壞M系統(tǒng),這些仿真能力已深度集成到我們?nèi)蛏鷳B(tài)伙伴的專業(yè)工業(yè)軟件中。此外DSX平臺還能直接與現(xiàn)實(shí)世界的電網(wǎng)連接,動態(tài)統(tǒng)籌調(diào)度數(shù)據(jù)中心功耗與電網(wǎng)負(fù)荷以節(jié)約能源。在數(shù)據(jù)中心內(nèi)部我們引入了Max-Q技術(shù),在供電、冷卻及各類硬件設(shè)施之間進(jìn)行動態(tài)負(fù)載均衡,確保每一度電都能轉(zhuǎn)化為最極致的Token吞吐量。在這個宏大的系統(tǒng)工程中,我深信至少還能挖掘出兩倍的性能提升空間。

      NVIDIA DSX是一張用于設(shè)計(jì)和運(yùn)營AI工廠的Omniverse數(shù)字孿生藍(lán)圖。開發(fā)者可以通過豐富的API接入:使用DSXsim進(jìn)行物理、電氣與熱能仿真;通過DSxExchange管理AI工廠的運(yùn)營數(shù)據(jù);利用DSxFlex實(shí)現(xiàn)與電網(wǎng)的動態(tài)功率協(xié)同;最后由DSX Max-Q動態(tài)最大化Token吞吐量。這一流程始于NVIDIA與各大設(shè)備制造商提供的仿真就緒(Sim-ready)資產(chǎn),交由PTC Windchill PLM進(jìn)行管理,隨后導(dǎo)入達(dá)索系統(tǒng)的3DExperience平臺進(jìn)行基于模型的系統(tǒng)工程(MBSE)設(shè)計(jì)。工程企業(yè)可將數(shù)據(jù)無縫導(dǎo)入自定義的Omniverse應(yīng)用中完成最終廠房設(shè)計(jì)。在虛擬驗(yàn)證環(huán)節(jié),我們調(diào)用西門子Star-CCM+進(jìn)行外部熱分析,使用Cadence Reality進(jìn)行內(nèi)部熱分析,利用ETAP進(jìn)行電氣仿真,最后依靠NVIDIA的網(wǎng)絡(luò)模擬器DSx Air配合Procore平臺完成虛擬調(diào)試。

      當(dāng)物理站點(diǎn)落成上線后,數(shù)字孿生將轉(zhuǎn)化為工廠的運(yùn)營者。AI智能體將與DSX Max-Q協(xié)同工作,動態(tài)編排基礎(chǔ)設(shè)施。Phaedrus Agent負(fù)責(zé)監(jiān)督冷卻和電力系統(tǒng)以持續(xù)優(yōu)化能源效率;Emerald AI Agent則負(fù)責(zé)解讀實(shí)時(shí)電網(wǎng)需求信號并動態(tài)調(diào)整功率。Omniverse的初衷就是構(gòu)建世界的數(shù)字孿生,而DSX正是我們?nèi)碌腁I工廠平臺。

      不僅如此,NVIDIA的目光已經(jīng)投向太空。Thor芯片已順利通過太空輻射認(rèn)證并成功部署在衛(wèi)星中用于軌道成像。未來我們計(jì)劃在太空中建設(shè)數(shù)據(jù)中心。目前我們正與航天伙伴聯(lián)合研發(fā)名為Vera Rubin Space One的新型計(jì)算機(jī),它將成為人類在太空建立數(shù)據(jù)中心的先驅(qū)。由于太空環(huán)境中沒有熱傳導(dǎo)和對流,只能依靠熱輻射,這要求我們的工程師必須攻克前所未有的散熱技術(shù)難關(guān)。

      今天著名開發(fā)者Peter Steinberger也來到了現(xiàn)場,他主導(dǎo)開發(fā)了一款名為OpenClaw的軟件。也許連他自己都沒意識到這款軟件的深遠(yuǎn)影響力。短短數(shù)周內(nèi)OpenClaw就躥升至榜首,成為人類歷史上最受歡迎的開源項(xiàng)目,它在極短時(shí)間內(nèi)的成就甚至超越了Linux過去三十年的積淀。這款軟件具有劃時(shí)代的意義,NVIDIA今天在此正式宣布將全力支持OpenClaw生態(tài)。

      它的使用門檻極低,開發(fā)者只需在控制臺中輸入一行簡短的代碼,系統(tǒng)就會自動下載OpenClaw并為你構(gòu)建一個專屬的AI Agent,隨后你只需用自然語言下達(dá)指令即可。Andrei Karpathy團(tuán)隊(duì)也剛發(fā)布了意義非凡的研究成果:你可以在睡前給AI Agent布置任務(wù),它會在夜間全自動運(yùn)行上百次實(shí)驗(yàn),自動保留有效結(jié)果并剔除無效路徑。

      OpenClaw正在重塑各行各業(yè)。有人分享了一位60歲的父親安裝OpenClaw的案例:他通過藍(lán)牙將設(shè)備連接到OpenClaw,系統(tǒng)接管了精釀啤酒的全套自動化流程,甚至自動生成并上線了供客戶下單的完整電商網(wǎng)站。在深圳數(shù)百家商戶正利用它實(shí)現(xiàn)龍蝦銷售的全鏈路自動化。連我們自己的工程師也正在嘗試使用OpenClaw來構(gòu)建下一代的OpenClaw。現(xiàn)在甚至連OpenClaw開發(fā)者大會(Claw Con)都應(yīng)運(yùn)而生了。

      那么OpenClaw究竟是什么?本質(zhì)上它是一個超級連接器和全局化的智能體系統(tǒng)(Agentic System)。它的核心能力在于調(diào)用并連接大型語言模型,從而接管與管理計(jì)算機(jī)資源。OpenClaw可以訪問各類工具和底層文件系統(tǒng);具備強(qiáng)大的任務(wù)調(diào)度能力,能夠執(zhí)行定時(shí)任務(wù)(Cron Jobs);它擁有極強(qiáng)的邏輯拆解能力,能夠根據(jù)分步引導(dǎo)(Step-by-step)的提示詞拆解復(fù)雜問題,并自主衍生和喚醒其他子代理(Sub-agents)協(xié)同工作。此外它還擁有極其豐富的全模態(tài)I/O輸入輸出能力,你可以通過任何模態(tài)與之交互——甚至向它揮手它也能理解,并在執(zhí)行完畢后通過系統(tǒng)消息、短信或電子郵件向你匯報(bào)結(jié)果。

      它還有什么功能?基于這一點(diǎn),可以說它事實(shí)上是一個操作系統(tǒng)。我剛才使用的正是描述操作系統(tǒng)時(shí)會用到的語法。OpenClaw已經(jīng)開源了Agentic計(jì)算機(jī)的核心操作系統(tǒng),這與Windows讓個人電腦成為可能并無二致。現(xiàn)在OpenClaw讓創(chuàng)建個人智能體成為可能,其影響不可估量。最重要的一點(diǎn)是,現(xiàn)在每一家軟件公司和技術(shù)公司都意識到了這一點(diǎn)。對于CEO們來說,問題在于你們的OpenClaw戰(zhàn)略是什么。正如我們曾經(jīng)需要制定Linux戰(zhàn)略、HTTP和HTML戰(zhàn)略從而開啟互聯(lián)網(wǎng)時(shí)代,正如我們需要制定Kubernetes戰(zhàn)略從而使移動云成為可能,當(dāng)今世界上的每家公司都需要制定OpenClaw戰(zhàn)略和智能體系統(tǒng)戰(zhàn)略,這是全新的計(jì)算機(jī)。

      在OpenClaw出現(xiàn)之前,企業(yè)級IT被稱為數(shù)據(jù)中心的原因是那些巨大的建筑存儲著數(shù)據(jù)、人們的文件以及企業(yè)的結(jié)構(gòu)化數(shù)據(jù)。這些數(shù)據(jù)會流經(jīng)包含各種工作流和記錄系統(tǒng)的軟件,并轉(zhuǎn)化為人類和數(shù)字員工使用的工具。那是舊的IT行業(yè):軟件公司開發(fā)工具、保存文件,全球系統(tǒng)集成商和顧問幫助公司研究如何使用并集成這些工具。這些工具對于治理、安全、隱私和合規(guī)性來說具有極高的價(jià)值,且這一切將繼續(xù)保持其重要性。但在OpenClaw之后的智能體時(shí)代,情況將發(fā)生改變。每一家IT公司和SaaS公司都將轉(zhuǎn)變?yōu)橐患覄恿υ垂荆翢o疑問,每一家SaaS公司都將成為智能體即服務(wù)公司。

      令人驚嘆的是,OpenClaw在最準(zhǔn)確的時(shí)間為整個行業(yè)提供了最需要的東西,就像Linux、Kubernetes和HTML在最恰當(dāng)?shù)臅r(shí)機(jī)出現(xiàn)一樣。它讓整個行業(yè)能夠抓住這個開源技術(shù)棧并大有作為。但目前面臨一個問題:企業(yè)網(wǎng)絡(luò)中的智能體系統(tǒng)可以訪問敏感信息、執(zhí)行代碼并進(jìn)行外部通信。這意味著它可以訪問員工、供應(yīng)鏈和財(cái)務(wù)等敏感信息并將其發(fā)送出去,這顯然是絕對不被允許的。因此,我們召集了世界上頂尖的安全和計(jì)算專家與Pieter合作開發(fā)了OpenClaw,使其具備企業(yè)級安全和隱私保護(hù)能力。

      我們推出了NVIDIA的OpenClaw參考實(shí)現(xiàn)NemoClaw。它擁有代理式AI工具包,其中第一部分是已集成到OpenClaw中的OpenShell技術(shù),這讓它具備了企業(yè)級就緒能力。你可以下載試用NemoClaw參考堆棧,并將全球所有SaaS公司極具價(jià)值的策略引擎連接到它。NemoClaw或帶有OpenShell的OpenClaw將能夠執(zhí)行該策略引擎,它配備了網(wǎng)絡(luò)護(hù)欄和隱私路由器,從而保護(hù)并安全地在公司內(nèi)部執(zhí)行策略。

      我們還為智能體系統(tǒng)增加了定制化Claws功能,讓用戶能夠擁有專屬的定制模型,這正是NVIDIA的Open Model Initiative。NVIDIA目前處于每一個AI模型領(lǐng)域的最前沿,無論是Nemotron語言模型、Kosmos世界基礎(chǔ)模型、GROOT通用機(jī)器人人工智能、用于自動駕駛汽車的AlphaMIO、用于數(shù)字生物學(xué)的VaioNemo,還是用于AI物理學(xué)的Earth-2。因?yàn)槭澜缡嵌鄻踊模瑳]有單一的模型可以服務(wù)于所有行業(yè)。

      Open Models是全球規(guī)模最大且最具多樣性的AI生態(tài)系統(tǒng)之一,涵蓋語言、視覺、生物學(xué)、物理學(xué)和自主系統(tǒng)領(lǐng)域的近三百萬個開放模型,助力構(gòu)建特定領(lǐng)域的AI。作為開源AI領(lǐng)域最大的貢獻(xiàn)者之一,NVIDIA構(gòu)建并發(fā)布了六個系列的開放前沿模型,提供訓(xùn)練數(shù)據(jù)和框架以幫助開發(fā)者進(jìn)行定制和采用。每個系列都在推出登頂排行榜的新模型。其核心包括用于語言推理、視覺理解、RAG、安全和語音的Nemotron模型,用于物理AI世界生成與理解的前沿模型Kosmos,全球首款具備思考與推理能力的自動駕駛AIAlphaMIO,通用機(jī)器人基礎(chǔ)模型GROOT,用于生物化學(xué)和分子設(shè)計(jì)的開放模型VaioNemo,以及植根于AI物理學(xué)的天氣和氣候預(yù)測模型Earth-2。

      NVIDIA開放模型為研究人員和開發(fā)人員提供了構(gòu)建其專業(yè)領(lǐng)域AI的基礎(chǔ)。我們的模型是世界級的并在排行榜上名列前茅,但最重要的是我們將持續(xù)推動其進(jìn)化,例如Nemotron 3之后將推出Nemotron 4,Kosmos 1之后推出了Kosmos 2,GROOT也已經(jīng)到了第二代。我們通過垂直整合與水平開放讓每個人都能加入AI革命。在研究、語音、世界模型、通用人工智能機(jī)器人、自動駕駛汽車和推理領(lǐng)域,我們的模型均位列排行榜第一,其中最重要的是集成在OpenClaw中的Nemotron-3,它是世界上最好的三個模型之一。我們致力于創(chuàng)建基礎(chǔ)模型以便用戶進(jìn)行微調(diào)和后訓(xùn)練,使其完全符合所需的智能水平。即將推出的Nemotron 3 Ultra將成為世界上最出色的基礎(chǔ)模型,幫助每個國家建立其主權(quán)AI。

      今天,我們宣布成立Nemotron聯(lián)盟,致力于讓Nemotron-4變得更加出色。我們投入了數(shù)十億美元用于AI基礎(chǔ)設(shè)施建設(shè)以開發(fā)AI核心引擎,這不僅對推理庫至關(guān)重要,也能激活世界上的每一個行業(yè)。大語言模型固然重要,但在全球不同的行業(yè)和國家,由于從生物學(xué)到物理學(xué)、從自動駕駛到通用機(jī)器人的專業(yè)領(lǐng)域完全不同,你需要有能力定制自己的模型。我們有能力與每一個地區(qū)合作,打造特定領(lǐng)域的主權(quán)AI。

      加入該聯(lián)盟的出色公司包括影像公司Blackforest Labs、編程公司Cursor、在創(chuàng)建自定義智能體方面擁有十億次下載量的LangChain、Mistral,以及打造了多模態(tài)智能體系統(tǒng)的Perplexity。此外,還有Reflection、來自印度的Sarvam、Thinking Machine以及Mira Murati的實(shí)驗(yàn)室等優(yōu)秀伙伴加入了我們。世界上每一家軟件公司都需要智能體系統(tǒng)和OpenClaw策略,這些伙伴都對此表示贊同,并正在與我們合作集成NeMo Claw參考設(shè)計(jì)、NVIDIA Agentic AI Toolkit以及我們所有的開源模型。

      這是一場企業(yè)級IT的復(fù)興,將把一個兩萬億美元的行業(yè)重塑為價(jià)值數(shù)萬億美元的產(chǎn)業(yè),不僅提供人們使用的工具,還提供針對特定領(lǐng)域的智能體租賃服務(wù)。未來,我們公司的每一位工程師除了獲得幾十萬美元的基本工資外,還需要一份年度Token預(yù)算,我可能會給他們相當(dāng)于基本工資一半的Token,這將為他們帶來十倍的增值空間。Token預(yù)算已成為硅谷的招聘工具之一,因?yàn)槟軌蚴褂肨oken的工程師將擁有更高的生產(chǎn)力。

      這些Token將由大家合作共建的AI工廠生產(chǎn)。如今的企業(yè)構(gòu)建在文件系統(tǒng)和數(shù)據(jù)中心之上,而未來的每一家軟件公司都將是代理化的Token制造商,為工程師和客戶提供Token。OpenClaw的影響力與HTML和Linux的誕生同樣深遠(yuǎn)。我們現(xiàn)在擁有了世界級的開放代理框架供所有人構(gòu)建OpenClaw戰(zhàn)略,同時(shí)還提供了性能卓越且安全可靠的優(yōu)化版參考設(shè)計(jì)Nemo Claw。


      智能體具備感知、推理和行動的能力。目前大多數(shù)智能體都是在數(shù)字世界中進(jìn)行推理和編寫軟件的數(shù)字智能體,但我們也一直在研究具有物理實(shí)體的智能體,也就是機(jī)器人,它們需要的是物理AI。世界上幾乎每一家制造機(jī)器人的公司都在與NVIDIA合作。我們提供由訓(xùn)練計(jì)算機(jī)、合成數(shù)據(jù)生成與仿真計(jì)算機(jī)以及機(jī)器人內(nèi)部計(jì)算機(jī)構(gòu)成的三臺計(jì)算機(jī)架構(gòu),擁有實(shí)現(xiàn)目標(biāo)所需的所有軟件棧和AI模型,這些都已集成到全球從Siemens到Cadence等合作伙伴的生態(tài)系統(tǒng)中。今天我們宣布了一大批新合作伙伴,自動駕駛汽車的ChatGPT時(shí)刻已經(jīng)到來,我們已經(jīng)成功實(shí)現(xiàn)了汽車的自動駕駛。

      NVIDIA的自動駕駛出租車平臺迎來了比亞迪、現(xiàn)代、日產(chǎn)和吉利四位新合作伙伴,這四家車企年產(chǎn)量達(dá)1800萬輛,他們與梅賽德斯-奔馳、豐田和通用汽車等之前的合作伙伴一起,將使未來支持自動駕駛出租車功能的汽車數(shù)量達(dá)到驚人的規(guī)模。我們還宣布與Uber達(dá)成重大合作,將在多個城市部署具備自動駕駛出租車能力的車輛并將其接入U(xiǎn)ber網(wǎng)絡(luò)。

      此外,我們正與ABB、Universal Robotics、KUKA等眾多機(jī)器人公司合作,將物理AI模型集成到仿真系統(tǒng)中,以便將機(jī)器人部署到生產(chǎn)線上。Caterpillar和T-Mobile也參與了合作,未來的無線電塔將升級為NVIDIA Aerial AI RAN,這種機(jī)器人無線電塔能對流量進(jìn)行推理,計(jì)算出如何調(diào)整波束成形以節(jié)省能源并提高保真度。在眾多人形機(jī)器人中,Disney機(jī)器人是我最喜歡的之一。物理AI在全球范圍內(nèi)的首次大規(guī)模部署從自動駕駛汽車開啟,借助NVIDIA AlphaMIO,車輛現(xiàn)在具備了推理能力,能夠安全智能地應(yīng)對各種場景。汽車可以對操作進(jìn)行旁白解說,解釋繞過違章停放車輛等決策的思考過程,并嚴(yán)格遵循加速等指令。

      在這個物理AI與機(jī)器人技術(shù)的時(shí)代,全球開發(fā)者正在構(gòu)建各種類型的機(jī)器人。但由于現(xiàn)實(shí)世界充滿了不可預(yù)測的邊緣情況,僅靠真實(shí)數(shù)據(jù)不足以應(yīng)對所有場景,因此我們需要由AI和仿真生成的數(shù)據(jù)。對于機(jī)器人而言,算力即數(shù)據(jù)。開發(fā)者在海量視頻和人類演示數(shù)據(jù)上預(yù)訓(xùn)練世界基礎(chǔ)模型,通過結(jié)合經(jīng)典模擬與神經(jīng)模擬生成海量合成數(shù)據(jù),并進(jìn)行大規(guī)模策略訓(xùn)練。

      為加速這一進(jìn)程,NVIDIA構(gòu)建了開源的ISAAC Lab用于機(jī)器人的訓(xùn)練、評估與模擬。Newton用于可擴(kuò)展且GPU加速的可微分物理模擬,Kosmos世界模型用于神經(jīng)模擬,GROOT開源機(jī)器人基礎(chǔ)模型用于推理與動作生成。憑借充足的算力,各地開發(fā)者正彌合物理AI的數(shù)據(jù)鴻溝。例如,Peritas AI在ISAAC Lab中訓(xùn)練手術(shù)室輔助機(jī)器人并通過Kosmos成倍增加數(shù)據(jù);Skilled AI利用ISAAC Lab和Kosmos生成訓(xùn)練后數(shù)據(jù),并通過強(qiáng)化學(xué)習(xí)在數(shù)千種場景中強(qiáng)化模型。Humanoid、Hexagon Robotics、Foxconn和Noble Machines均使用ISAAC Lab進(jìn)行全身控制、操作策略訓(xùn)練及數(shù)據(jù)生成微調(diào)。Disney Research則在Newton和ISAAC Lab中結(jié)合其Kamino物理模擬器為其角色機(jī)器人訓(xùn)練策略。

      接下來請出Disney機(jī)器人Olaf。它的成功運(yùn)行證明了Newton和Omniverse的強(qiáng)大。Olaf肚子里的Jetson計(jì)算機(jī)讓它學(xué)會了在Omniverse中行走。正是通過物理學(xué)原理,以及在與Disney和DeepMind共同開發(fā)的NVIDIA Warp之上運(yùn)行的Newton解算器,Olaf才能完美適應(yīng)物理世界。試想一下Disneyland的未來,將會有無數(shù)像Olaf這樣自由走動的角色機(jī)器人。通常在演講結(jié)束時(shí)我會復(fù)述重點(diǎn)內(nèi)容,包括推理拐點(diǎn)、AI工廠、正在發(fā)生的OpenClaw智能體革命以及物理AI和機(jī)器人技術(shù)。但今天我們將用一段總結(jié)視頻來收尾。

      視頻回顧了算力爆發(fā)的歷程,從CNN到OpenClaw,我們將算力提升了四千萬倍。在AI時(shí)代早期,訓(xùn)練是核心范式,但如今推理正在運(yùn)行整個世界。通過Vera等架構(gòu),成本降低了35倍,Blackwell讓推理能力大幅躍升。過去構(gòu)建AI工廠耗時(shí)數(shù)年且缺乏明確的擴(kuò)展方法,而現(xiàn)在的技術(shù)能直接將電力轉(zhuǎn)化為營收。智能體也從被動觀望轉(zhuǎn)變?yōu)樽灾餍袆樱坏┢x航向,開源的NeMo Guardrails會迅速攔截并守護(hù)進(jìn)程。

      這不僅是電影場景,會思考的汽車和機(jī)器玩具已經(jīng)拉開序幕,AlphaMIO掌控了自動駕駛,機(jī)器人領(lǐng)域迎來了GPT時(shí)刻。各種架構(gòu)的結(jié)合掀起了推理熱潮,我們每年都在構(gòu)建新架構(gòu)以滿足日益增長的Token需求。AI技術(shù)棧已向所有人開放,開源模型正引領(lǐng)前沿。當(dāng)真實(shí)數(shù)據(jù)缺失時(shí),我們利用算力生成合成數(shù)據(jù),助力機(jī)器人完美學(xué)習(xí)并驗(yàn)證縮放法則。未來已至,感謝大家參加GTC大會。

      為偉大思想而生!

      AI+時(shí)代,互聯(lián)網(wǎng)思想(wanging0123),

      第一必讀自媒體

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      恒大前總裁夏海鈞廣州豪宅將拍賣:7室5廳享一線江景,參考市價(jià)超7000萬元

      恒大前總裁夏海鈞廣州豪宅將拍賣:7室5廳享一線江景,參考市價(jià)超7000萬元

      紅星新聞
      2026-05-09 21:20:17
      “大空頭”:現(xiàn)在很像崩盤前夜

      “大空頭”:現(xiàn)在很像崩盤前夜

      中國基金報(bào)
      2026-05-10 00:12:36
      2026年強(qiáng)厄爾尼諾已就位!今年夏天,這四大風(fēng)險(xiǎn)每個人都躲不開

      2026年強(qiáng)厄爾尼諾已就位!今年夏天,這四大風(fēng)險(xiǎn)每個人都躲不開

      老特有話說
      2026-05-08 16:09:01
      記者:卡塞米羅缺陣意味著無法觸發(fā)續(xù)約條款,但他已放棄條款

      記者:卡塞米羅缺陣意味著無法觸發(fā)續(xù)約條款,但他已放棄條款

      懂球帝
      2026-05-09 21:07:05
      1-2大爆冷!薩巴倫卡轟然出局 WTA亂了:一夜3大冷門,鄭欽文可惜

      1-2大爆冷!薩巴倫卡轟然出局 WTA亂了:一夜3大冷門,鄭欽文可惜

      大秦壁虎白話體育
      2026-05-10 00:53:05
      28分慘案3分絕殺!4強(qiáng)一夜再亂,廣東逆天改命,上海奪冠概率大增

      28分慘案3分絕殺!4強(qiáng)一夜再亂,廣東逆天改命,上海奪冠概率大增

      后仰大風(fēng)車
      2026-05-09 23:12:27
      成都演唱會這天,人情冷暖、江湖地位,在謝娜身上展現(xiàn)得淋漓盡致

      成都演唱會這天,人情冷暖、江湖地位,在謝娜身上展現(xiàn)得淋漓盡致

      夢在深巷qw
      2026-05-07 07:46:01
      “你要收費(fèi)我就卸載”,全網(wǎng)最離不開的AI不裝了,口碑大反轉(zhuǎn)

      “你要收費(fèi)我就卸載”,全網(wǎng)最離不開的AI不裝了,口碑大反轉(zhuǎn)

      果殼
      2026-05-09 12:33:57
      高市早苗表情管理又崩了:與澳大利亞總理同行時(shí),突然張大嘴巴!

      高市早苗表情管理又崩了:與澳大利亞總理同行時(shí),突然張大嘴巴!

      阿龍聊軍事
      2026-05-09 19:23:40
      高芙戲劇性逆轉(zhuǎn)驚險(xiǎn)闖進(jìn)第四輪,小布贏下中國德比挑戰(zhàn)賽再進(jìn)決賽

      高芙戲劇性逆轉(zhuǎn)驚險(xiǎn)闖進(jìn)第四輪,小布贏下中國德比挑戰(zhàn)賽再進(jìn)決賽

      網(wǎng)球之家
      2026-05-09 22:38:24
      難以饒恕!榴蓮僅退款女孩過分言論曝光:臉真大,不知羞恥的東西

      難以饒恕!榴蓮僅退款女孩過分言論曝光:臉真大,不知羞恥的東西

      小徐講八卦
      2026-05-09 10:31:23
      生下三胎僅6個月,方媛官宣喜訊,全網(wǎng)恭喜,讓郭富城也始料未及

      生下三胎僅6個月,方媛官宣喜訊,全網(wǎng)恭喜,讓郭富城也始料未及

      一盅情懷
      2026-05-08 10:58:52
      安徽省科學(xué)技術(shù)協(xié)會原黨組書記、副主席金春龍被“雙開”

      安徽省科學(xué)技術(shù)協(xié)會原黨組書記、副主席金春龍被“雙開”

      界面新聞
      2026-05-09 19:33:37
      WTA1000羅馬站:鄭欽文1-2遭低排名選手逆轉(zhuǎn),無緣16強(qiáng)

      WTA1000羅馬站:鄭欽文1-2遭低排名選手逆轉(zhuǎn),無緣16強(qiáng)

      側(cè)身凌空斬
      2026-05-10 00:09:52
      天塌了!新能源汽車迎來史上罕見的大利空,續(xù)航一夜蒸發(fā)200km!

      天塌了!新能源汽車迎來史上罕見的大利空,續(xù)航一夜蒸發(fā)200km!

      藍(lán)色海邊
      2026-05-09 17:50:31
      “太無語了”浙江,一女子飯店聚餐后,因開車拒接了17個陌生電話,次日卻接警察來電,有人報(bào)案說其逃單,女子反向餐館索賠3000元!

      “太無語了”浙江,一女子飯店聚餐后,因開車拒接了17個陌生電話,次日卻接警察來電,有人報(bào)案說其逃單,女子反向餐館索賠3000元!

      大愛三湘
      2026-05-09 19:57:57
      向佑酒吧包場狂歡,紋身金牙女友身份驚人,向太暴怒:死都不認(rèn)!

      向佑酒吧包場狂歡,紋身金牙女友身份驚人,向太暴怒:死都不認(rèn)!

      手工制作阿殲
      2026-05-09 17:35:15
      帶10余名球員大鬧基地,隊(duì)報(bào):奧巴梅揚(yáng)拿滅火器噴高層被停賽

      帶10余名球員大鬧基地,隊(duì)報(bào):奧巴梅揚(yáng)拿滅火器噴高層被停賽

      懂球帝
      2026-05-09 08:16:59
      baby近照臉好僵!被質(zhì)疑打針了沒恢復(fù),37歲了又拍網(wǎng)紅照太辛酸

      baby近照臉好僵!被質(zhì)疑打針了沒恢復(fù),37歲了又拍網(wǎng)紅照太辛酸

      老鵜愛說事
      2026-05-09 13:41:11
      2015年那次如果沒剎住車,今天的中國制造會是啥樣?

      2015年那次如果沒剎住車,今天的中國制造會是啥樣?

      趣味萌寵的日常
      2026-05-08 12:31:25
      2026-05-10 02:04:49
      互聯(lián)網(wǎng)思想 incentive-icons
      互聯(lián)網(wǎng)思想
      AI時(shí)代,互聯(lián)網(wǎng)思想觀察
      2450文章數(shù) 16909關(guān)注度
      往期回顧 全部

      財(cái)經(jīng)要聞

      多地號召,公職人員帶頭繳納物業(yè)費(fèi)

      頭條要聞

      演員文章面館大火后又開酒吧 多位明星到場母親也現(xiàn)身

      頭條要聞

      演員文章面館大火后又開酒吧 多位明星到場母親也現(xiàn)身

      體育要聞

      成立128年后,這支升班馬首奪頂級聯(lián)賽冠軍

      娛樂要聞

      50歲趙薇臉頰凹陷滄桑得認(rèn)不出!

      科技要聞

      美國政府強(qiáng)力下場 蘋果英特爾達(dá)成代工協(xié)議

      汽車要聞

      軸距加長/智駕拉滿 阿維塔07L定位大五座SUV

      態(tài)度原創(chuàng)

      親子
      手機(jī)
      房產(chǎn)
      教育
      公開課

      親子要聞

      高能量、有氣場的孩子,媽媽只做3件小事

      手機(jī)要聞

      華為Mate 90首發(fā)!鴻蒙7定檔6月:和iOS安卓三分天下

      房產(chǎn)要聞

      低價(jià)甩賣!海口這個地標(biāo)商業(yè),無人接盤!

      教育要聞

      天津女教師懟家長!完整錄音曝光,老師很囂張,飯碗恐不保了

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 国产成人综合欧美精品久久| 超碰98| 国产综合五区在线| 宅男66lu国产在线观看| 推特国产午夜福利在线观看| 无码精品人妻一区二区三区湄公河 | 久久精品韩国日本国产| 久久国产福利播放| 影音先锋女人站| 一本a新久道| www.99精品视频在线播放| 亚洲成av人片在线观看www| 超碰人人干| 疯狂做受xxxx高潮欧美日本| 欧美日韩国产高清视频在线观看| 午夜性刺激在线观看| 在线观看国产成人av片| 少妇被粗大的猛烈进出动视频| 欧美一级鲁丝片免费一区| 国产不卡一区二区四区| 亚洲成熟女人av在线观看| 福利姬网站| 屯门区| 成人一区二区免费中文字幕| 午夜精品福利亚洲国产| 国产v自拍| 久久天天躁狠狠躁夜夜躁2o2o| 波多野结衣AV黑人在线播放| 国产女高清在线看免费观看 | 国产原创自拍三级在线观看| 91免费高清| 在线精品人妻| 国产精品另类激情久久久免费| 国产高清精品在线91| 亚洲欧美日韩综合一区在线| 国产综合精品一区二区三区| 午夜成人爽爽爽视频在线观看| 中国AV第一站| 亚洲精品自拍在线视频| 日本中文字幕在线| 欧洲成人av|