英偉達具身自主研究團隊負責人Jim Fan宣告,機器人領(lǐng)域正在復制大語言模型的成功路徑,終局之戰(zhàn)已經(jīng)開始,而他以95%的置信度押注:2040年,機器人技術(shù)樹將徹底解鎖。機器人技術(shù)樹即機器人從“身體”到“大腦”所需的關(guān)鍵技術(shù),包括底層硬件、中層感知、上層決策等。
在近日舉行的AI Ascent大會上,英偉達具身自主研究團隊負責人Jim Fan發(fā)表了一場題為"機器人學:終局之戰(zhàn)"的主題演講。他系統(tǒng)闡述了一套完整的機器人技術(shù)發(fā)展路線圖——從模型范式革命到數(shù)據(jù)策略顛覆,并以"偉大的類比"為核心論點:機器人領(lǐng)域?qū)栏駨椭芁LM的成功路徑,從預訓練到推理,再到自動化研究,"這是對大語言模型成功路徑的全面復制。"
Fan開場即直接點出他對大語言模型團隊的羨慕:"LLM團隊正在享受他們?nèi)松凶钶x煌的時刻……那么,機器人領(lǐng)域為什么不能也沾沾光呢?"
![]()
機器人“大腦”換新方案:舊模型偏“嘴皮子”,新模型長“手腳”
過去三年,機器人行業(yè)流行一種叫VLA的訓練方法(中文叫“視覺-語言-動作模型”)。英偉達自己的Groot和另一家明星公司Pi都用的這套。
但Fan直接開懟:這套方法說白了就是“語言-視覺-動作模型”——大部分算力都喂給了語言模塊,語言是老大,視覺和動作只能排后面。結(jié)果是,機器人學了一堆知識和名詞,但物理操作和“動詞”能力明顯不行。
英偉達的新方案是:先看世界怎么動,再學自己怎么動。
Fan團隊推出了新模型,叫“世界行動模型”。邏輯很簡單:第一步,用海量視頻訓練機器人預測“接下來世界會發(fā)生什么”(比如杯子倒了水會灑);第二步,用少量操作數(shù)據(jù)微調(diào),讓機器人把注意力放到真實任務上;最后用強化學習收尾。
具體產(chǎn)品叫Dream Zero。它能一邊預測畫面一邊輸出動作——畫面預測對了,動作就執(zhí)行;畫面預測錯了,動作就失敗。實驗顯示,它甚至能零樣本執(zhí)行從沒見過的軟體操作任務。
遙操作之死:人類視頻成為機器人數(shù)據(jù)主糧
數(shù)據(jù)策略上,F(xiàn)an指出遙操作同樣走到了終點。問題的本質(zhì)是物理極限:
"每臺機器人每天的有效工作時間更像是3小時——而且還是在機器人狀態(tài)良好、不鬧脾氣的情況下。"
他提出的替代路徑是"類FSD方案"——讓數(shù)據(jù)采集無感化、背景化,就像特斯拉FSD悄悄上傳駕駛數(shù)據(jù)一樣。英偉達團隊開發(fā)了MANUS系統(tǒng)(與五指機械手實現(xiàn)1:1映射的軸骨架),并用Ego Scale方案證明了以人為中心視頻的顛覆性潛力。關(guān)鍵數(shù)字如下:
- 使用20,000小時真實場景人類手部視頻預訓練
- 零機器人數(shù)據(jù)參與預訓練
- 微調(diào)階段僅需50小時模擬數(shù)據(jù) + 4小時真實數(shù)據(jù)(占總訓練數(shù)據(jù)不足0.1%)
最終模型能夠泛化到卡片分類、操作注射器、液體轉(zhuǎn)移等高靈巧度任務,"也許有一天我們會擁有家庭機器人護士。"
更值得關(guān)注的發(fā)現(xiàn)是:Fan團隊發(fā)現(xiàn)了機器人靈巧操作的神經(jīng)縮放定律——"在最初針對語言模型的神經(jīng)縮放定律提出六年之后,我們發(fā)現(xiàn)了一個簡潔的對數(shù)線性數(shù)學方程,同樣適用于機器人靈巧操作。"預訓練時長與最優(yōu)驗證損失之間存在非常清晰的數(shù)學關(guān)系。
他明確預測:未來一兩年內(nèi),遙操作數(shù)據(jù)需求將下降至幾乎可以忽略不計,以自我中心視頻為核心的數(shù)據(jù)范式將全面接管。
"計算量=環(huán)境=數(shù)據(jù)":模擬器革命
強化學習訓練環(huán)境的規(guī)模化,是機器人領(lǐng)域的另一大瓶頸——"我們目前還無法實現(xiàn)100萬個并行訓練環(huán)境的目標,如果用傳統(tǒng)方法,那需要100萬個真實機器人。"
英偉達的解法分兩步:
Real2Sim2Real:用iPhone拍照→3D掃描提取物體→在物理模擬器中自動重新合成,"iPhone基本上就變成了一個口袋世界掃描儀。"
Dream Dojo:基于視頻世界模型構(gòu)建的神經(jīng)模擬器,實時輸出RGB圖像和傳感器狀態(tài),"不涉及任何物理方程,也不涉及任何圖形引擎。"
這使得一個等式成立:"計算量 = 環(huán)境,環(huán)境 = 數(shù)據(jù)。" Fan隨即引用了黃仁勛的話作為注腳——"買得越多,省得越多。"
三大成就與2040年終局
Fan將機器人技術(shù)的終局拆解為文明游戲式的"三大成就":
第一成就——物理圖靈測試:讓人無法分辨是機器人還是人類在完成任務。Fan判斷:"大約還需要兩到三年時間。"
第二成就——物理API:機器人像軟件一樣通過API和命令行調(diào)度,支撐"燈塔工廠"(原子打印機:輸入Markdown設計文件,輸出完整組裝產(chǎn)品)或濕實驗室中化學、生物、醫(yī)學領(lǐng)域的科學發(fā)現(xiàn)自動化。
第三成就——物理自動化研究的頂峰:機器人能夠設計、改進和構(gòu)建下一代自身,"其能力將遠遠超出人類的范疇。"
時間線上,F(xiàn)an援引了一個精確類比:AI領(lǐng)域從2012年AlexNet到如今逼真視頻生成模型,歷時14年。"2026年正好介于2012年和2040年之間。而且技術(shù)發(fā)展并非線性,而是呈指數(shù)級增長。"
以下是演講原文:
主持人 00:02
首先,我很高興向大家介紹我的朋友 Jim Fan。Jim 領(lǐng)導著英偉達的具身自主研究團隊,也就是英偉達機器人團隊。我認為機器人是未來最激動人心的發(fā)明之一。汽車本質(zhì)上就是一個大型機器人,但我更期待機器人能夠幫我們排便、搬運東西。Jim 在去年的 AI 大會上表現(xiàn)出色,我們非常高興他能再次參加。
Jim Fan 00:27
那是 2016 年的一個夏日,就在我們現(xiàn)在坐的這間辦公室里。一個穿著锃亮皮夾克、肌肉發(fā)達的家伙,把一個大金屬托盤扔了進來。托盤上寫著:"致埃隆·馬斯克和 OpenAI 團隊,致計算機和人類的未來:我向你們展示世界上第一臺 DGX-1。"那是我第一次見到黃仁勛(Jensen)。像任何一個優(yōu)秀的實習生一樣,我趕緊排隊在上面簽名。你們能找到嗎?我的名字就在這里。還能找到另一個嗎?那是安德烈(Andrej)。安德烈,我們要去計算機歷史博物館了。我感覺自己像個恐龍。那時候我根本不知道自己即將加入的是什么。接下來發(fā)生的事,恐怕沒有人比伊利亞(Ilya)本人更能描述清楚了。如果你相信深度學習,他們也會相信你。他們對我們所有人的深度學習信念,真是無比堅定。
Jim Fan 01:36
三個階段,六年時間,這就是我們走到今天的全部歷程。
首先是 GPT-3,無監(jiān)督預訓練。接下來是詞元預測——它實際上是在學習語法規(guī)則,語言結(jié)構(gòu)則是在模擬思想、代碼以及各種信息序列應當如何折疊。2022 年,我們引導 GPT 進行監(jiān)督微調(diào),使模型能夠完成有用的工作,或者使用強化學習進行推理,以超越模仿學習。最后是自動化研究,將整個循環(huán)加速到人類能力的極限。正如 Andrej 所說,所有的努力都是為了最終決戰(zhàn)。對于大語言模型(LLM)團隊來說,他們已經(jīng)進入了游戲的最后階段。說實話,我非常羨慕。看看 Andrej 有多開心,臉上掛著燦爛的笑容。
Jim Fan 02:33
LLM 團隊正在享受他們?nèi)松凶钶x煌的時刻。他們用名為"Missile"的神秘利器,以極速推進通用人工智能(AGI)。那么,機器人領(lǐng)域為什么不能也沾沾光呢?于是,就像任何一個自尊自重的科學家都會做的那樣,我照搬了這套方法,并給它起了個新名字,稱之為"偉大的類比"。
與其預測 token 序列,我們能否預測下一個物理世界狀態(tài)?然后,通過動作微調(diào),將機器人與模擬中對真實機器人至關(guān)重要的關(guān)鍵區(qū)域進行對齊。最后,讓強化學習完成最后的沖刺。就是這樣。這是對大語言模型成功路徑的全面復制。
Jim Fan 03:18
既然無法戰(zhàn)勝他們,那就加入他們。請收看新一期節(jié)目——機器人學:終局之戰(zhàn)。
香蕉真是太美味了,謝謝,Dennis。
那么,我們該如何打這場終局之戰(zhàn)呢?歸根結(jié)底,就是兩件事:模型策略和數(shù)據(jù)策略。
我們先來看模型。過去三年,視覺-語言-動作模型(VLA)占據(jù)了主導地位,Pi 和 Groot 這樣的模型也屬于這一范疇。我們假設預訓練由視覺語言模型完成,然后在其上附加一個動作頭。但如果仔細想想,這些模型其實更應該叫做語言-視覺-動作模型(VLA),因為大部分參數(shù)都分配給了語言模塊。語言是第一等公民,視覺和動作居其次。根據(jù)設計,VLA 更擅長編碼知識和名詞,但在物理和動詞方面則略顯不足——在某些方面有點用力過猛。
這是我最喜歡的 VLA 原始論文中的例子:把可樂罐移動到泰勒·斯威夫特的圖片上。是的,模型之前從未見過泰勒·斯威夫特,它確實具備泛化能力,但這并非我們所追求的預訓練方向。
那么,第二種預訓練范式是什么?我們原本以為它會非常出色。可惜結(jié)果發(fā)現(xiàn),它不過是"AI 視頻老虎機"——就是那種"我可以整天看監(jiān)控錄像里的貓彈班卓琴"的玩意兒,簡直是互聯(lián)網(wǎng)的巔峰之作。但說真的,除非我們意識到這些視頻模型正在學習內(nèi)部模擬下一個世界狀態(tài),否則沒人會認真對待它。
這里展示了 Veo 3 中的一些片段。你可以看到,這些模型能夠自主地捕捉重力、浮力、光照、反射和折射等效果——所有這些都不是預先編碼的。物理特性是通過大規(guī)模預測下一個像素塊而涌現(xiàn)出來的,甚至視覺規(guī)劃也是如此。
Jim Fan 05:23
看看 Veo 是如何解決這些物理推理問題的——它通過在像素空間中向前運行模擬來解決。注意右下角,這是我最喜歡的例子。如果你眨一下眼,就會錯過 Veo 3 是如何解決這個問題的——它非常智能。你知道,如果不仔細看,幾何關(guān)系就顯得多余了。我把這稱為"物理槽"。
Jim Fan 05:53
那么,我們?nèi)绾尾拍茏屵@些世界模型真正發(fā)揮作用?答案是:進行動作微調(diào)。我們將所有可能的未來狀態(tài)疊加起來,并將其壓縮到對真實機器人至關(guān)重要的那一薄層上。
Jim Fan 06:09
隆重推出 Dream Zero。這是一種新型策略模型,它能夠預測幾秒鐘后的未來,并據(jù)此采取行動。運動動作是高維連續(xù)信號,看起來就像像素一樣,因此我們可以在渲染視頻的同時渲染動作。Dream Zero 可以聯(lián)合解碼下一個世界狀態(tài)和下一個動作。由此,它能夠零樣本執(zhí)行從未見過的軟體任務和動作。
當機器人執(zhí)行動作時,我們可以可視化正在傳輸?shù)膬?nèi)容,相關(guān)性非常高:如果視頻預測正確,動作就會執(zhí)行;如果視頻出現(xiàn)錯誤,動作就會失敗。視覺和動作再次成為重中之重。
我們用 Dream Zero 做了很多有趣的實驗——只需在實驗室里讓機器人滾動,然后在提示框中輸入一些隨機內(nèi)容。當然,Dream Zero 無法 100% 保證所有任務的魯棒性,但它就像 GPU 一樣,力求在每種情況下都正確捕捉運動軌跡。
Jim Fan 07:19
Dream Zero 是我們邁向機器人開放式、開放詞匯提示的第一步。我們將這種新型模型稱為世界行動模型(World Action Model)。
讓我們?yōu)槲覀兊睦吓笥?VLA 默哀片刻。它為我們做出了巨大貢獻。安息吧,一路走好。
接下來是數(shù)據(jù)策略。這位是英偉達首席科學家 Bill Dally,他正在我們實驗室進行遠程操作。考慮到他的薪水,我認為這絕對是我們數(shù)據(jù)集中收集到的最昂貴的軌跡。
過去三年,遠程操作占據(jù)了主導地位——這是黃金時代:VR 頭顯、極致優(yōu)化的流媒體延遲,以及這些看起來像中世紀酷刑裝置的復雜綁帶系統(tǒng)。
Jim Fan 08:17
工業(yè)領(lǐng)域投入了那么多資金,付出了那么多痛苦和磨難,然而每臺機器人每天的工作時間上限只有 24 小時,這是基本的物理極限。實際上,更準確地說,每臺機器人每天的有效工作時間更像是 3 小時——而且還是在機器人狀態(tài)良好、不鬧脾氣的情況下。
Jim Fan 08:37
那么我們該如何做得更好呢?不如試試這個——你只需把機械手戴在自己的手上。這叫做 UMI(通用操作接口,Universal Manipulation Interface),是一個看似簡單卻意義深遠的想法:戴上機器人末端執(zhí)行器,用手操作,像人類一樣直接收集數(shù)據(jù),而機器人的其他部分則無需參與。
我認為 UMI 或許是機器人數(shù)據(jù)領(lǐng)域最重要的論文之一,它催生了兩家獨角獸初創(chuàng)公司。左邊是 Physical Intelligence(π)對這個設計進行的改進;右邊是 Sunday 制作的三指數(shù)據(jù)手套。
去年,我們更進一步,設計了一個軸骨架,與五指 Dexterous 機器人手實現(xiàn)了 1:1 的映射,我們稱之為 MANUS(純文本操作數(shù)據(jù)采集系統(tǒng))。
來看一下對比:左邊是人直接收集數(shù)據(jù),速度最快;右邊,操作員是我們技術(shù)最精湛的博士之一,他必須非常仔細地進行對準,速度非常慢,成功率也很低;而中間方案,只需穿戴這個軸骨架,就能直接采集高質(zhì)量數(shù)據(jù)。我們用這些數(shù)據(jù)訓練機器人策略。現(xiàn)在看到的是完全自主的策略部署,該策略基于零機器人操作數(shù)據(jù)訓練而成。如此一來,我們打破了每個機器人每天 24 小時運行的限制——看看這些機器人有多開心,因為它們不再需要參與數(shù)據(jù)采集了。
Jim Fan 10:16
所以這就是答案嗎?我們解決了機器人技術(shù)的規(guī)模化問題嗎?
這里有人開特斯拉或 Waymo 嗎?你知道,當你開車的時候,你實際上參與了迄今規(guī)模最大的物理數(shù)據(jù)采集。妙處在于,在 FSD(全自動駕駛)模式下,你甚至感覺不到它的存在,因為數(shù)據(jù)上傳是一個無聲的過程。然而,佩戴 UMI 或 MANUS 這類數(shù)據(jù)可穿戴設備仍然很麻煩——它很突兀,不像開車上班那樣無縫。
所以我們需要一套類似 FSD 的方案。數(shù)據(jù)收集需要變得更加輕量、融入背景,這樣我們才能充分捕捉人類在各行各業(yè)、所有經(jīng)濟價值勞動中展現(xiàn)的靈巧技能。
Jim Fan 11:06
因此,我們?nèi)ν度氲揭匀祟悶橹行牡囊曨l中,這些視頻配有詳細標注,包括手部位置追蹤、密集語言標注,并引入了自我尺度(Ego Scale)的概念。其中,99.9% 的訓練數(shù)據(jù)都基于以人類為中心的視頻。最終,我們獲得了一種端到端的策略,可以直接將攝像頭像素映射到具有 22 個自由度的高靈巧度機器人手上。
Jim Fan 11:35
您現(xiàn)在看到的是完全自主運行的結(jié)果。我們使用 20,000 小時的真實場景下以人為中心的人類視頻數(shù)據(jù)對 Ego Scale 進行預訓練,完全不使用任何機器人數(shù)據(jù)。在預訓練過程中,我們預測手部關(guān)節(jié)位置和腕部姿態(tài)。在動作微調(diào)階段,我們僅收集了 50 小時的高精度模擬數(shù)據(jù),以及 4 小時的真實訓練數(shù)據(jù)——這 4 小時的數(shù)據(jù)不到我們總訓練數(shù)據(jù)的 0.1%。
憑借這些數(shù)據(jù),Ego Scale 能夠泛化到一些非常靈巧的任務,例如卡片分類、操作注射器以及液體轉(zhuǎn)移。也許有一天我們會擁有家庭機器人護士。對于這些任務,只需在測試時進行一次演示,模型就能學習不同的襯衫折疊策略。
Jim Fan 12:33
這篇論文中最引人入勝的發(fā)現(xiàn),是我們發(fā)現(xiàn)了靈巧性相關(guān)的神經(jīng)縮放定律——預訓練時長與最優(yōu)驗證損失之間存在非常清晰的關(guān)系。在最初針對語言模型的神經(jīng)縮放定律提出六年之后,我們發(fā)現(xiàn)了一個簡潔的對數(shù)線性數(shù)學方程,同樣適用于機器人靈巧操作。
如果我們把所有數(shù)據(jù)策略都放在一張圖表上,X 軸代表與機器人硬件的耦合程度,Y 軸代表可擴展性,圖表大致如下:可擴展性最差的數(shù)據(jù)可穿戴設備,其數(shù)據(jù)量也不過數(shù)十萬小時。而對于自我中心(Egocentric)視頻,如果能充分發(fā)揮類 FSD 的優(yōu)勢,下一階段的數(shù)據(jù)量很容易突破數(shù)千萬小時。此外,如果我們在圖表上畫一條分界線,線左側(cè)的所有方法都代表了新的數(shù)據(jù)范式——人體傳感器數(shù)據(jù)。
Jim Fan 13:29
讓我做幾個預測。
未來一兩年內(nèi),我們會看到機器人遙操作數(shù)據(jù)的需求持續(xù)下降,直至幾乎可以忽略不計。屆時,將會出現(xiàn)一系列針對不同硬件和應用場景定制的數(shù)據(jù)變體。最終,機器人領(lǐng)域的主要數(shù)據(jù)來源將是自我中心視頻。
讓我們?yōu)槲覀兊睦吓笥堰b操作默哀片刻。你為我們做出了卓越的貢獻。安息吧。
那么,數(shù)據(jù)策略完成了嗎?大家注意到我在數(shù)據(jù)策略上標了兩個環(huán)嗎?外環(huán)是什么?所有前沿 AI 領(lǐng)域都投入了大量資源來構(gòu)建數(shù)百萬個編碼環(huán)境,用于強化學習訓練。機器人領(lǐng)域同樣如此,我們迫切需要擴展訓練環(huán)境的數(shù)量。當然,你也可以直接在真實機器人上進行強化學習。在我們的實驗室里,我們通過 RL 將某些任務的成功率提升到接近 100%,讓機器人連續(xù)執(zhí)行數(shù)小時。
Jim Fan 14:35
看著這些機器人自主組裝 GPU,感覺確實挺有意思的。用我老板的話說就是:干得好,這項任務已經(jīng)得到批準了。然而,我們目前還無法實現(xiàn) 100 萬個并行訓練環(huán)境的目標——如果用傳統(tǒng)方法,那需要 100 萬個真實機器人。
所以我們需要一種更好的方法。假設你用 iPhone 拍張照片,通過 3D 掃描流程提取場景中所有物體,再在經(jīng)典物理模擬器中自動重新合成它們。掃描完成后,所有這些物體都具有交互性,你可以在模擬中無限擴展,添加我們稱之為"數(shù)字表親"的各種變體。在這個我們稱之為**"實物到仿真再回到實物(Real2Sim2Real)"**的流程中,iPhone 基本上就變成了一個口袋世界掃描儀。通過這種方式,我們擁有了一種可擴展的方法,可以將物理世界移植到數(shù)字世界。但這種方法仍然依賴于經(jīng)典的圖形渲染引擎。
我們能否做得更好?Dream Dojo 的出現(xiàn)讓我們能夠更好地利用視頻世界模型,并將其轉(zhuǎn)化為功能齊全的神經(jīng)模擬器。Dream Dojo 接收連續(xù)的動作信號作為輸入,并實時輸出下一幀 RGB 圖像以及傳感器狀態(tài)。您現(xiàn)在看到的每一個像素都不是真實的。Dream Dojo 能夠通過純數(shù)據(jù)驅(qū)動的方法,捕捉并學習不同機器人的運行機制。
Jim Fan 16:10
這個過程不涉及任何物理方程,也不涉及任何圖形引擎。因此,機器人訓練的新范式是:一套大規(guī)模并行的強化學習系統(tǒng),運行在少數(shù)幾個真實機器人工作站上,配備大量 GPU 來執(zhí)行世界掃描和強化學習計算,同時運行世界模型。
正如這個等式所描述的:計算量 = 環(huán)境,環(huán)境 = 數(shù)據(jù)。用我老板的話說:買得越多,省得越多。
好了,整理一下。機器人技術(shù)的發(fā)展將遵循一個宏大的平行規(guī)律,而且它正在發(fā)生——我們正處于最終階段的起點。
大家都玩過《文明》這款游戲吧,它至今仍是我的最愛。我喜歡把自己的研究比作在文明科技樹上解鎖成就。機器人技術(shù)還有三個成就需要解鎖。
Jim Fan17:16
解鎖之后,我就大功告成,可以退休了。
第一個成就,是讓機器人通過涵蓋各種活動的物理圖靈測試——讓你根本分辨不出是人類還是機器人在完成某項任務(也許喝醉的人類除外)。物理圖靈測試關(guān)注的是單位能量輸入與單位勞動輸出的比值。光看現(xiàn)在機器人的姿態(tài),我覺得我們還有很多工作要做。大約還需要兩到三年時間。
第二個成就是物理 API——屆時我們將擁有一整支機器人隊伍,它們可以像任何軟件一樣,通過 API 和命令行進行配置與調(diào)度,并最終由 Opus 9.0 這樣的 AI 進行協(xié)調(diào)。
有了物理 API,我們將能夠?qū)崿F(xiàn)燈塔工廠(Lighthouse Factory)。這些工廠本質(zhì)上是原子打印機:接收以 Markdown 文件形式輸入的設計,輸出完全組裝好的產(chǎn)品,全程自主運行。或者應用于濕實驗室,實現(xiàn)化學、生物學和醫(yī)學領(lǐng)域的科學發(fā)現(xiàn)自動化。
第三個成就是物理自動化研究的頂峰——屆時機器人將能夠設計、改進和構(gòu)建下一代自身,其能力將遠遠超出人類的范疇。
Jim Fan 18:40
你可能會問:這難道不是科幻小說嗎?我們這輩子能看到嗎?
人工智能領(lǐng)域花了整整 14 年,才從 2012 年 AlexNet 的第一次前向傳播,發(fā)展到如今能夠生成逼真視頻的模型。AlexNet 最初只能勉強區(qū)分貓和狗。
2026 年——好吧,我們聊的是實體智能,那就再加 14 年——2040 年。2026 年正好介于 2012 年和 2040 年之間。而且技術(shù)發(fā)展并非線性,而是呈指數(shù)級增長。
所以我可以 95% 確定地說,到 2040 年,我們將完成機器人技術(shù)樹的最終階段。而我們那時依然年輕。
如果你相信機器人技術(shù),機器人技術(shù)也會相信你。
對于在座的各位——我們這一代人,生不逢時,錯過了探索地球的最佳時機;生不逢時,錯過了探索星辰的最佳時機。但我們生逢其時,正值攻克機器人技術(shù)難題的最佳時機。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.