<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      中山大學郭裕蘭團隊:數據充足卻訓練失敗,多智能體到底卡在哪丨CVPR 2026

      0
      分享至


      MangoBench:評估多智能體在多目標任務中協作能力的離線基準。

      作者丨鄭佳美

      編輯丨岑 峰

      很多人其實已經在不知不覺中接觸到了多智能體協作帶來的變化。

      電商大促時,倉庫里往往不是一臺機器人在工作,而是一整組機器人同時分揀、運輸、避讓和交接。自動駕駛真正困難的地方,也不只是讓一輛車學會開,而是讓很多輛車在同一條路上彼此配合。現實中的很多復雜任務,本質上都不是單個智能體可以獨立完成的,智能系統也是一樣。

      但現實世界并不會給這些系統太多試錯機會。倉庫機器人撞一次貨架,工業機械臂裝錯一次零件,代價都是真實的。也正因為如此,越來越多研究開始轉向離線強化學習,也就是先利用已有數據訓練策略,而不是依賴實時試錯。

      可一旦從單智能體走向多智能體,難度會迅速上升,因為系統不僅要學會做決策,還要在反饋有限的條件下學會協作。

      這正是當前行業里的一個現實瓶頸。很多方法在實驗環境里效果不錯,但到了離線多智能體場景中,往往很快暴露出問題。

      一方面,真實任務里的獎勵通常非常稀疏,模型很難知道自己到底哪一步做對了。另一方面,多智能體協作還會帶來責任分配問題,也就是最后成功了,卻很難判斷到底是哪一個智能體起了關鍵作用。結果就是,系統明明有大量歷史數據,卻依然學不會穩定協作,更談不上面對新任務時的泛化能力。

      在這樣的背景下,來自中山大學的郭裕蘭團隊提出了MangoBench,并在研究《MangoBench A Benchmark for Multi-Agent Goal-Conditioned Offline Reinforcement Learning》中,嘗試重新回答一個關鍵問題,也就是當多個智能體不能隨便試錯時,怎樣才能真正學會協作。

      研究團隊沒有繼續依賴傳統獎勵驅動,而是把問題改寫成目標驅動,讓模型圍繞應該到達什么狀態去學習,從而為離線多智能體強化學習提供了一條更清晰的研究路徑。


      論文地址:https://wendyeewang.github.io/MangoBench/

      01


      性能分化的關鍵拐點

      在難度適中的導航任務里,不同方法的表現差距已經很明顯了。中山大學團隊提出的 IHIQL 的成功率能達到 80% 到 95%,說明它大多數時候都能把任務完成好。相比之下,ICRL 只有 40% 到 60%,GCMBC 只有 20% 到 40%,而 GCOMIGA 和 GCOMAR 基本接近 0%,幾乎等于沒學會。

      換句話說,同樣是面對離線數據,有的方法已經能比較穩定地找到路,有的方法卻連基本方向都抓不住。這說明在獎勵很少、反饋很弱的情況下,傳統的離線多智能體方法其實很容易失靈,而分層強化學習方法更容易學出效果。

      當任務再變難一點,這種差距會被進一步放大。所有方法的表現都會下降,但下降的程度并不一樣。IHIQL 雖然也會掉到 30% 到 40%,但至少還保留了一部分完成任務的能力。

      ICRL 和 GCMBC 會掉到 10% 到 20% 左右,其他方法則幾乎完全不行了。可以把它理解成,一開始大家都在考試,題目簡單的時候還能看出誰強誰弱,題目一難,很多方法就直接交白卷了,只有少數方法還能繼續答題。IHIQL 的優勢,正體現在它遇到更復雜的環境時沒有一下子垮掉。

      研究人員還專門看了另一件事,也就是把一個任務交給多個智能體時,具體怎么分工會不會影響結果。比如有的設置是每個智能體負責 4 個部分,有的是每個智能體只負責 2 個部分。

      結果發現,不管是 2×4 還是 4×2,IHIQL 在中等難度任務里都能穩定在約 90% 左右。這個結果可以理解成,它不是只會適應某一種固定分工,而是更像抓住了任務本身該怎么完成,所以換一種分工方式,它照樣能做得不錯。

      到了機械臂任務,這種差別就更容易看出來了。在同步協作的抬欄桿任務里,IHIQL 的成功率在 80% 以上,GCMBC 大約 60%,ICRL 大約 50%,模仿學習方法大約 40%。如果把這些方法想成幾組不同水平的工人,那么 IHIQL 這一組不但完成任務的概率更高,而且訓練時間只有模仿學習方法的約 5%。

      這說明它不只是做得更好,而且學得更快,效率也更高。通俗一點說,就是它不但更會做事,而且更快進入狀態。


      到了更復雜的異步協作任務,情況就不一樣了,原本領先的方法不一定還能繼續領先。以放置食物這個任務為例,這類任務不是大家一起同時發力,而是要一個智能體先完成前面的動作,另一個再接著往下做,所以更考驗先后配合。

      在這種情況下,ICRL 的表現最好,成功率大約在 30% 到 40% 之間,明顯高于 IHIQL 和 GCMBC,模仿學習方法甚至不到 10%。這說明當任務強調步驟之間的銜接時,對比學習方法更容易學到這種順序關系。更重要的是,它不僅做得更好,訓練時間還比模仿學習少了約 93%,也就是說,它不只是更會學,而且學得還更快。

      多目標和單目標的對比,則說明了另一件很容易被忽視的事,那就是測試方式本身也會影響我們對模型的判斷。如果只用一個目標去測試,同一個任務里,IHIQL 是 78%,GCMBC 是 22%,ICRL 是 37%。但換成多目標評估后,它們分別提升到 82%、47% 和 56%。

      這意味著很多方法其實并沒有我們原來想的那么差,只是單目標測試把它們的能力看窄了。換句話說,這些方法學到的并不只是某一個固定動作,而是面對不同目標時,仍然能夠做出調整的能力,也就是更接近真正的泛化。


      在訓練方式的對比里,研究人員發現,并不是拿到更多全局信息,效果就一定更好。分布式方法 IHIQL 在中等任務里成功率大約是 95%,任務規模變大后還有大約 85%,到了超大規模任務也還能保持在 50% 左右。

      相比之下,集中訓練方法 HIQL-CTDE 在中等任務里還有大約 70%,但任務一變復雜,很快就掉到 44%,再往上甚至只剩下 1%,幾乎等于學不動了。

      這個結果可以理解成,分布式方法更像是把問題拆開來,各個智能體先管好自己那一部分,所以任務變難時還能穩住。集中訓練方法看起來掌握的信息更多,但也正因為要同時處理太多全局信息,任務一復雜就容易顧不過來,最后訓練變得越來越不穩定。

      也就是說,在多智能體任務里,信息更多不一定更占優勢,關鍵還是系統能不能把復雜問題處理得足夠清楚。


      把所有實驗結果放在一起看,其實能得出幾個很清楚的判斷。首先,很多方法之所以一到復雜任務就失效,最根本的原因不是模型太弱,而是獎勵信號太少。

      因為在稀疏獎勵條件下,系統大部分時候都得不到明確反饋,很難知道自己到底哪一步做對了,所以訓練很容易陷入混亂。一旦把獎勵變得更密集,性能就會明顯恢復,這說明問題的關鍵不在模型本身,而在學習信號不夠。

      其次,目前表現最穩的還是分層方法。以 IHIQL 為代表的方法之所以更有效,是因為它不是讓模型一次性去解決整個復雜任務,而是把大任務拆成多個更小的步驟來學。

      這樣做的好處是,模型更容易在中間過程里得到反饋,也更不容易在任務變復雜時一下子崩掉。所以從實驗結果來看,分層策略更像是一種讓系統先學會一步一步完成任務的方法,而不是一上來就要求它掌握全部。

      最后,這項研究還說明了多智能體系統最難的地方,其實不只是學會做動作,而是學會彼此配合。在簡單任務里,多智能體有時還能比單智能體做得更好,因為大家分工之后效率更高。

      但一旦任務變復雜,需要更精細的協作和銜接時,問題就會立刻暴露出來。也就是說,真正卡住多智能體系統的,不只是學習能力,而是協同能力,這也是為什么協作會成為整個系統進一步提升表現的最大瓶頸。


      02


      從獎勵驅動到目標驅動

      在實驗設計上,研究團隊先做了一件很關鍵的事,就是把原本的離線數據重新整理了一遍。原始數據里只有狀態和動作,記錄的是系統當時看到了什么、做了什么。

      研究人員在這個基礎上又加進了目標和獎勵,也就是把原來的數據改造成了狀態、動作、目標、獎勵這樣的形式。具體來說,他們會從已有軌跡里隨機挑出一個狀態當作目標,再去判斷當前行為有沒有朝這個目標靠近,然后自動生成對應的獎勵。

      這樣一來,同一批歷史數據就不再只能拿來學一個任務,而是可以圍繞不同目標反復使用,相當于把原有數據的價值放大了。

      這樣做的意義在于,它把原來的學習方式換了一種思路。傳統強化學習更像是讓模型一邊做一邊等反饋,問題是這種反饋往往很少,很多時候模型根本不知道自己到底做得對不對。

      加入目標之后,情況就不一樣了。模型不再只是被動等獎勵,而是會一直圍繞一個明確目標去行動,判斷自己是不是在一步步接近它。換句話說,原本那種模糊又稀少的反饋,被變成了更直接、更容易理解的學習信號,所以模型更容易學出有效策略。

      為了讓結果更可靠,研究團隊在實驗設置上也做得比較嚴謹。運動任務一共訓練了 100 萬步,測試時還會換 5 個不同目標,并用 5 個隨機種子反復驗證,也就是不只看一次結果,而是看它在不同條件下是不是都能穩定表現。

      操作任務也一樣,訓練步數分別是 1.5 萬和 3.88 萬,測試時還用了 100 個隨機種子。這樣做的目的很明確,就是盡量避免某一次訓練碰巧表現好,確保最后看到的結果是穩定的,而不是偶然的。

      在任務安排上,研究人員也不是隨便選幾個場景,而是故意把難度一點點往上加。運動任務從較簡單的迷宮開始,逐漸增加到更復雜的迷宮,最后再加入隨機傳送這樣的高難度設置。

      操作任務則從需要同時配合的同步任務,發展到需要講究先后順序的異步任務。這樣設計,其實是想更系統地觀察模型在不同復雜度下的表現,不只是看它能不能完成任務,更想看它在任務越來越難時,是否還具備泛化能力、長期規劃能力和協作能力。

      換句話說,研究團隊想測試的不是模型會不會做一道題,而是題目一旦變難,它還能不能繼續做下去。


      研究人員還專門分析了,為什么 CTDE 這種看上去信息更多的方法,最后反而表現不好。按直覺來說,既然它在訓練時能看到更多全局信息,效果似乎應該更好,但問題恰恰也出在這里。

      因為它看到的東西太多了,全局狀態本質上就是把所有智能體的狀態都拼在一起,這會讓問題一下子變得非常大、非常復雜,模型需要同時處理的內容也會迅速增加。

      除此之外,CTDE 在訓練時和執行時其實并不是完全一致的。訓練階段,模型會利用全局信息來學習;但真正做決策時,每個智能體又只能根據自己的局部信息行動。這樣一來,就會出現一種情況:訓練時學到的東西,到了實際執行時不一定能順利用上,這會讓優化過程變得更困難。

      還有一個更隱蔽的問題在于目標本身。CTDE 一方面要處理整體任務的全局目標,另一方面又要讓每個智能體根據自己的局部目標去行動。這樣就容易出現兩套目標之間對不上的情況,也就是模型的一部分在學整體方向,另一部分卻在學局部細節,最后很難配合到一起。

      所以,CTDE 的問題并不是信息不夠,而是信息太多、結構太復雜,最后讓訓練變得不穩定。表面上看,它像是在幫模型看到更完整的全局;但實際上,正是這種額外的復雜性,讓它在任務一變難時更容易失效。

      03


      從方法到問題本質

      從實驗意義來看,研究團隊最重要的貢獻,不只是提出了一套新方法,而是更清楚地揭示了 Offline MARL 為什么一直很難真正做好。

      研究結果說明,問題的核心并不只是模型能力強不強,而是在訓練過程中存在兩個更根本的障礙。第一個障礙是學習信號太弱,因為 reward 很稀疏,模型在大多數時候得不到明確反饋,Q- function 很難穩定收斂,所以很多方法即使訓練很久,效果仍然很差。

      第二個障礙是責任分配問題,也就是在多智能體協作中,很難判斷到底是哪一個 agent 對最后的成功起了關鍵作用。一旦這個貢獻關系分不清,梯度更新就容易出錯,最后就會出現協作失敗。研究的價值就在于,它把多智能體離線強化學習最深層的困難點明確指出來了。

      研究團隊還說明了 goal-conditioned 真正有效的原因。它的作用并不只是給模型多加一個目標輸入,而是改變了整個學習方式。原來模型主要依賴 reward 來判斷行為好壞,這種信號很少,也不穩定。

      加入目標之后,每個 state 都能和某個 goal 聯系起來,學習信號就明顯變多了,模型也更容易知道自己應該往什么方向調整。

      這樣一來,強化學習就不再只是盲目地追逐獎勵,而更像是在學習如何從當前位置到達目標位置。這種形式比單純依賴 reward 更穩定,也更容易訓練。

      更重要的是,同一個模型可以面對不同目標完成不同任務,這說明模型學到的不是死記硬背的固定動作,而是具有一定泛化能力的行為策略。

      研究人員進一步說明了為什么分層方法會更有效。原因在于,分層方法同時解決了兩個難題。一方面,它通過設置中間目標緩解了稀疏獎勵問題,讓模型在任務還沒有最終完成之前,就已經能得到階段性的反饋。

      另一方面,它把原本很長、很復雜的任務拆成多個更短、更容易處理的小任務,從而減輕了長時間依賴帶來的學習難度。換句話說,分層方法之所以有效,本質上是因為它把一個很難直接學會的大問題,拆成了多個更容易逐步解決的小問題。

      這一點對于多智能體任務尤其重要,因為多智能體系統本來就比單智能體更難協調,如果沒有這種結構化拆分,訓練會更加不穩定。

      這項研究對普通人的影響也很實際。現實生活中很多場景并不允許系統反復試錯,比如自動駕駛、倉儲物流、工廠機械臂、醫院輔助機器人等。這些系統一旦出錯,代價往往很高,所以很多時候只能依賴已經收集好的歷史數據進行訓練,也就是離線學習。

      研究團隊所做的工作,本質上是在探索怎樣讓多個智能體在不能隨便試錯的情況下,依然學會穩定協作。這個方向如果繼續發展,未來普通人可能會直接受益于更安全的自動駕駛系統、更高效的物流配送機器人、更穩定的工業自動化設備,以及更可靠的醫療和家庭輔助機器人。

      04


      MangoBench 背后的科研工作者

      汪怡,中山大學在讀一年級博士生,主要研究方向為三維視覺和強化學習,師從郭裕蘭教授,于深圳河套學院實習,完成此論文時期在中山大學讀本科。在 CVPR 等 CCF A 類會議發表多篇論文,參與中國圖學學會“奮發圖強”博士生 workshop,參與 China3DV 墻報展示,曾獲中山大學研究生校長獎學金等。


      鐘檸澤,完成此論文時期在中山大學讀本科,與郭裕蘭教授合作,主要研究方向為機器人,三維視覺和強化學習。在 CVPR/ICLR/ACM MM 等 CCF A 類會議等發表論文,CVPR/NeurIPS/ECCV 審稿人,論文在China3DV/ChinaGraph 大會等展示,現在美國賓夕法尼亞大學 GRASP Lab 讀研究生,與 Vijay Kumar 院長合作。


      符智恒,西澳大學博士,香港理工大學博士后,主要研究方向為三維重建與生成。發表論文共 20 余篇(包括CVPR、ICCV、TIP、ECCV、IJCAI等),英文著作一部 Point Cloud Intelligence 。


      王龍光,中山大學博士后,主要研究方向為底層視覺和三維視覺。以第一作者身份發表 CCF A 類論文共 11 篇,谷歌學術總引用數為 7100 余次。入選中國科協青年人才托舉工程,連續三年入選全球前 2% 頂尖科學家榜單;主持國家及省部級項目 9 項。


      張曄,中山大學副研究員,主要研究方向為空間智能與三維視覺。發表學術論文 30 余篇,主持國家級和省部級項目3項,曾擔任首屆中國空間智能大會本地主席。


      郭裕蘭,中山大學教授,主要研究空間智能與三維視覺。主持國家自然科學基金聯合重點項目等 10 余項,發表學術論文 200 余篇,谷歌學術引用 2 萬余次,入選Clarivate全球高被引科學家。擔任中國圖象圖形學學會三維視覺專委會副主任,IEEE TIP 高級領域編輯(SAE)。曾擔任首屆中國空間智能大會主席,歷屆中國三維視覺大會組委會主席。


      這次去 CVPR 現場,一定不要錯過

      【認識大牛+賺外快】的機會

      需要你做什么:把你最關注的10個大會報告,每頁PPT都拍下來

      你能獲得什么?

      認識大牛:你將可以進入CVPR名師博士社群;

      錢多活少:提供豐厚獎金,任務量精簡;

      聽會自由:你的行程你做主,順手就把外快賺。拍下你最感興趣的10個報告PPT即可。

      如果你即將前往CVPR,想邊聽會邊賺錢,還能順便為AI學術社區做貢獻、認識更多大牛,歡迎聯系我們:[添加微信號:MS_Yahei]

      【限額5位,先到先得】

      未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!

      公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      曹操撩寡婦時說的金句,如今成了約會開場白,男人經常掛在嘴邊

      曹操撩寡婦時說的金句,如今成了約會開場白,男人經常掛在嘴邊

      掠影后有感
      2026-05-11 11:31:38
      溫莎血脈基因優良!哈里夫婦帶一雙兒女出游,阿奇兄妹給梅根爭光

      溫莎血脈基因優良!哈里夫婦帶一雙兒女出游,阿奇兄妹給梅根爭光

      楓塵余往逝
      2026-05-13 14:45:33
      突發!南京又一機構跑路!

      突發!南京又一機構跑路!

      南京擇校
      2026-05-14 20:12:40
      合川呆呆再登熱搜!母親節殺雞宴翻車,網友:套路都被玩爛了

      合川呆呆再登熱搜!母親節殺雞宴翻車,網友:套路都被玩爛了

      童叔不飆車
      2026-05-14 14:29:11
      馬斯克:每年休息兩三天,試過睡不到6小時結果腦子很痛效率很低

      馬斯克:每年休息兩三天,試過睡不到6小時結果腦子很痛效率很低

      頂級大佬思維
      2026-05-09 14:23:20
      我國都有哪些常見毒蛇?哪種蛇最毒?盤點我國十大毒蛇,第一名致死率超65%

      我國都有哪些常見毒蛇?哪種蛇最毒?盤點我國十大毒蛇,第一名致死率超65%

      農夫也瘋狂
      2026-05-13 11:40:43
      千萬網紅董赤赤賬號僅剩9000元,欠54萬!更背后誰拿走了網紅的錢

      千萬網紅董赤赤賬號僅剩9000元,欠54萬!更背后誰拿走了網紅的錢

      眼界縱橫
      2026-05-14 14:50:49
      張柏芝現身 4S 店,為剛考取駕照的大兒子 Lucas 提國產新車

      張柏芝現身 4S 店,為剛考取駕照的大兒子 Lucas 提國產新車

      老吳教育課堂
      2026-05-14 17:43:56
      沒給日本的,中方都給了特朗普,除了21響禮炮,還有一個重要承諾

      沒給日本的,中方都給了特朗普,除了21響禮炮,還有一個重要承諾

      知法而形
      2026-05-14 20:05:30
      女足亞洲杯太殘酷了:隨著中國女足2-4,4大勁旅已無緣爭冠

      女足亞洲杯太殘酷了:隨著中國女足2-4,4大勁旅已無緣爭冠

      俯身沖頂
      2026-05-14 21:23:59
      廣廈半決賽主場vs深圳票價:最低100元,最高1500元

      廣廈半決賽主場vs深圳票價:最低100元,最高1500元

      懂球帝
      2026-05-14 15:16:18
      正式棄用!斷崖式下滑!頂薪合同正式泡湯

      正式棄用!斷崖式下滑!頂薪合同正式泡湯

      籃球教學論壇
      2026-05-14 19:27:46
      廣東松源一在建橋梁因暴雨垮塌?當地:無人員傷亡,水流沖擊所致,只是一個架子

      廣東松源一在建橋梁因暴雨垮塌?當地:無人員傷亡,水流沖擊所致,只是一個架子

      瀟湘晨報
      2026-05-14 17:12:18
      “給兒子吃得大腦缺氧了!”一頓全碳水早餐,暴露了寶媽的低認知

      “給兒子吃得大腦缺氧了!”一頓全碳水早餐,暴露了寶媽的低認知

      妍妍教育日記
      2026-05-14 13:30:26
      買車半年維修9次!蔚來車主:不敢開了,要求退車

      買車半年維修9次!蔚來車主:不敢開了,要求退車

      深圳晚報
      2026-05-14 08:45:16
      杜鋒下課?廣東男籃做法有深意,遠超外界猜測,徐杰或成交易籌碼

      杜鋒下課?廣東男籃做法有深意,遠超外界猜測,徐杰或成交易籌碼

      萌蘭聊個球
      2026-05-13 16:32:05
      很多男人已經養不起家了,無數普通頂梁柱被壓垮!

      很多男人已經養不起家了,無數普通頂梁柱被壓垮!

      黯泉
      2026-05-14 10:57:59
      爽快!中美會晤提出的第一個要求,中方開場白定調,太高明了

      爽快!中美會晤提出的第一個要求,中方開場白定調,太高明了

      愛看劇的阿峰
      2026-05-14 18:59:00
      隨著騎士3-2領先活塞,馬刺3-2森林狼,NBA季后賽最終4強基本出爐

      隨著騎士3-2領先活塞,馬刺3-2森林狼,NBA季后賽最終4強基本出爐

      球場沒跑道
      2026-05-14 11:16:03
      美國眾議院議員強行將援助烏克蘭的法案賦予投票

      美國眾議院議員強行將援助烏克蘭的法案賦予投票

      山河路口
      2026-05-14 12:33:23
      2026-05-14 22:03:00
      AI科技評論 incentive-icons
      AI科技評論
      點評學術,服務AI
      7274文章數 20751關注度
      往期回顧 全部

      科技要聞

      馬斯克說會談很順利 黃仁勛點贊 庫克比耶

      頭條要聞

      重慶"萌感"佛頭意外走紅 雕刻者:不是文物且尚未完工

      頭條要聞

      重慶"萌感"佛頭意外走紅 雕刻者:不是文物且尚未完工

      體育要聞

      爭議抽象天王山,和季后賽最穩定中鋒

      娛樂要聞

      何九華官宣當爸!全程不提孩子媽

      財經要聞

      李強會見美國工商界代表

      汽車要聞

      雙零重力座椅/AI智能體/調光天幕 啟境GT7內飾發布

      態度原創

      教育
      家居
      手機
      數碼
      軍事航空

      教育要聞

      南京秦淮、雨花臺、玄武、建鄴2026高考考點公布!

      家居要聞

      精神奢享 對話塔尖需求

      手機要聞

      vivo S60預熱開啟,超大面積一體冷雕玻璃

      數碼要聞

      小米耳夾式耳機官宣,17Max樣張公布

      軍事要聞

      美以伊戰爭期間以總理密訪阿聯酋

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中文字幕免费无码专区剧情| AV探花| 精品无码av一区二区三区| 青青草视频华人绿色在线| 国产成人精品aa毛片| 国产漂亮白嫩美女在线观看| 人人妻人人插视频| 五月婷久久麻豆国产| 国产精品久久久久久52avav| 人妻少妇不满足中文字幕| 无码一区中文字幕| 亚洲羞羞| 伊人五月久久1区| 国产中文99视频在线观看| 亚洲色精品88色婷婷七月丁香| 国产精品久久国产精品99 gif| 久久se精品一区精品二区国产| 人妻精品| 久久99精品国产麻豆婷婷| 久久无码av一区二区三区| 国产成人亚洲综合a∨婷婷| 国产精品美女自慰喷水| 亚洲精品综合第一国产综合| 五月婷婷激情六月开心| 揭东县| 亚洲国产aⅴ综合网一区| 韩国无码一区二区三区| 国产熟女一区二区三区四区| 中文字幕熟妇人妻在线视频| 国产精品大片天天看片| 国产精品无码v在线观看| 好紧好滑好湿好爽免费视频| 熟女内射视频18| 国产精品三级一二三区| 18成禁人视频免费| 色婷婷欧美在线播放内射| 欧美高清性| 两女女百合互慰av赤裸无遮挡 | 久久国产精品成人免费| 国精品午夜福利视频不卡| 国产精品高潮呻吟久久AV嫩|