<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      清華大學&騰訊聯合研究:讓AI圖像編輯系統真正"看懂"你的指令

      0
      分享至


      這項由清華大學深圳國際研究生院與騰訊混元聯合開展的研究,于2026年4月發表在預印本平臺arXiv上,論文編號為arXiv:2604.24625。如果你對技術細節感興趣,可以通過這個編號找到完整的原始論文。

      你有沒有試過讓AI修改一張圖片,結果它做出來的東西跟你想要的完全對不上?比如你說"把這張照片里的背景換成白色",它卻把整張圖都弄成白色;或者你說"讓這匹馬看起來是用紅磚砌成的",它根本就不知道該怎么處理。這種"雞同鴨講"的尷尬,是目前AI圖像編輯領域最普遍的痛點之一。

      問題的根源在于,AI在執行圖像編輯指令的時候,很多時候并沒有真正"理解"你的意思,而是在靠"猜"——就像一個剛入職的助手,你交代任務,他點頭稱是,但其實心里一片茫然,做出來的東西全憑運氣。這支由清華大學和騰訊組成的研究團隊,決定從根本上解決這個問題。他們提出了一套叫做"Meta-CoT"的方法,核心思路是:在AI動手改圖之前,先讓它像一個經驗豐富的設計師一樣,把任務徹底想清楚、拆明白,然后再下手。

      這套方法帶來的效果相當顯著。在覆蓋21種不同編輯任務的測評基準上,Meta-CoT比之前的基準模型提升了整整20.1%;在另一個叫做ImgEdit的測試集上,也取得了13.0%的提升。更有意思的是,這套方法還具備很強的"舉一反三"能力——即便只學習了五種最基礎的編輯操作,它也能應對各種沒見過的復雜任務。

      一、AI編輯圖片為什么這么難?

      在正式介紹這套新方法之前,有必要先理解一下,為什么讓AI"理解"圖像編輯指令會是一件難事。

      當我們說"編輯圖片",背后其實隱藏著極其復雜的認知過程。以"把圖里的吉他換成一罐可口可樂"為例,一個人類設計師拿到這個指令,腦子里會自動完成一系列判斷:首先確認這是一個"替換"操作;然后在圖片里找到吉他的具體位置;再判斷可樂罐應該放在什么位置、什么角度才合理;最后還要確保圖里其他元素(比如拿著吉他的狐貍)不受影響,并且整個畫面的光影、風格保持一致。

      這一連串的思考,對人類來說是本能,但對AI來說,每一步都是挑戰。傳統的AI圖像編輯模型通常是"端到端"的——你把指令和圖片扔進去,它直接吐出一張修改后的圖片,中間沒有任何顯式的推理過程。這就好比讓一個不識字的人執行文字說明書,靠的完全是死記硬背和模式匹配,遇到稍微復雜一點的情況就會出錯。

      近年來,研究者開始嘗試給AI加入"思考步驟",也就是所謂的思維鏈(Chain-of-Thought,簡稱CoT)。這個思路有點像讓AI在動手之前先打草稿——先用文字把整個編輯計劃寫下來,然后再根據這個計劃執行。確實,這個方法比直接執行要好一些,但已有的方案要么太過泛泛(思考內容太寬泛,沒有真正觸及編輯的核心要點),要么太過專門化(只針對某種特定類型的編輯任務有效,換個場景就不靈了)。

      研究團隊把這個問題歸納成了一個核心矛盾:現有的思維鏈方法,要么在理解的精細程度上不夠,要么在跨任務的通用性上不夠,很難兩者兼顧。而Meta-CoT,就是他們給出的解題方案。

      二、把編輯任務拆成三個維度:任務、目標、理解能力

      Meta-CoT方法的第一個核心洞察,是把任何一個圖像編輯操作都理解為三個維度的組合,研究團隊把它叫做"三元組"(triplet)。

      這三個維度分別是:編輯任務類型、編輯對象,以及完成這個任務所需要的理解能力。舉個具體例子,"把圖里的小狗數量改成三只"這條指令,對應的任務類型是"數量修改",編輯對象是"小狗",而要完成這個任務,AI需要具備在圖片里定位小狗并且計數的能力。再比如"把照片轉成折紙風格",任務類型是"風格替換",編輯對象是整個圖片的視覺風格,需要的理解能力是對折紙這種視覺特征的認知——折疊的平面、銳利的折痕、幾何形狀的切面和沿折痕的硬邊陰影。

      把這三個維度明確區分出來,有什么好處?好處在于,AI可以對每個維度單獨學習和優化。如果不做這種拆分,AI面對"把圖里的椅子換成沙發"和"把椅子移到桌子左邊"這兩種指令,可能會混淆它們之間的差異——前者是"替換",后者是"位置變化",所需的思考方式完全不同。有了三元組的框架,AI就能更清晰地區分"我在做什么"、"我在改誰"、"我需要理解什么"。

      在實際操作中,研究團隊設計了一套叫做"三元組分解"(Triplet Decomposition)的推理流程,包含三個步驟。第一步是"任務摘要",AI根據指令判斷這是什么類型的編輯任務——比如"這是一個相機運動任務"。第二步是"任務思考",AI針對這個任務類型展開具體的推理——比如對于相機運動任務,AI會分析哪些物體在鏡頭移動后會出現,哪些會消失或發生遮擋變化。第三步是"目標編輯模式遍歷",AI逐一掃描圖片里的每個對象,明確判斷每個對象需要如何處理——是保持不變、調整大小、改變位置,還是被添加或刪除。

      以"鏡頭向外拉遠"這條指令為例,AI在第二步會推理出:背包、花瓶等桌面物體需要按比例縮小并上移;臺面和上方櫥柜的可見面積需要向四周延伸;地面下方會露出原來被遮住的椅腳。在第三步,AI會逐一列舉:背包——按比例縮小并稍微上移;黑色長方形物體——同樣縮小并上移;玻璃花瓶——縮小并上移;臺面——向水平和垂直方向延展;地板——在臺面下方增加可見區域,包括椅子。這種精細程度的規劃,使得最終的編輯結果更加準確、連貫。

      理論上,研究團隊還通過數學方法證明了這種分解的合理性。他們用信息熵來衡量推理的復雜度,發現三元組分解后的推理空間,復雜度顯著低于不加分解的原始推理空間。換句話說,拆分后反而更容易學習。同時,用互信息來衡量理解的精細程度,三元組分解后的理解粒度也高于傳統的整體性推理方式。

      為了確保AI真正掌握三元組中的第三個維度——"理解能力"——研究團隊在訓練時特意加入了大量的視覺理解任務數據,包括圖像描述、視覺問答等多種類型,讓AI在學習編輯的同時,也同步提升對各類視覺信息的理解能力。

      三、五種"元操作":構建通用化的編輯語言

      解決了精細度的問題之后,研究團隊面對的第二個挑戰是通用性。圖像編輯的任務類型實在太多了——風格遷移、顏色調整、物體添加、相機運動、邏輯推理……每一種都有自己的特點。如果模型要對每種任務單獨學習,訓練成本極高,而且遇到沒見過的新任務就會束手無策。

      研究團隊的解決思路,有點像數學里"基向量"的概念。在三維空間里,任何一個方向都可以用三個基本方向(x軸、y軸、z軸)的組合來表達。同樣地,研究團隊發現,圖像編輯領域里大多數復雜任務,都可以用幾種最基礎的操作組合而成。他們把這些最基礎的操作稱為"元任務"(meta-tasks)。

      經過仔細分析,研究團隊總結出了五種元任務:添加(在圖中加入新的物體或元素)、刪除(移除圖中的某個物體或元素)、替換(把某個物體或元素換成另一種)、相機運動(改變觀看視角或鏡頭位置),以及位置變化(在不改變物體本身的情況下移動其在圖中的位置)。

      這五種操作聽起來很簡單,但組合起來卻能覆蓋絕大多數編輯場景。風格遷移,本質上是對整體視覺風格進行"替換"。顏色調整,是對顏色屬性進行"替換"。數量變化,是"添加"和"刪除"的組合。文字編輯,根據情況可能涉及"添加"、"刪除"或"替換"某段文字。結構性改變,可能需要"添加"、"刪除"、"替換"和"相機運動"的綜合運用。就連"這張圖三個月后會變成什么樣子"這種需要推理的問題,AI也可以將其拆解為:蝌蚪會變成青蛙,因此操作等價于"替換蝌蚪為青蛙"。

      基于這套元任務體系,研究團隊提出了Meta-CoT的第二層分解——"元任務分解"(Meta-task Decomposition)。具體來說,就是把推理流程里的第一步"任務摘要"升級為"元任務摘要",讓AI不再只是籠統地說"這是一個風格遷移任務",而是具體描述"這是一個對編輯目標的風格屬性進行替換的操作"。

      這種分解方式帶來的最大好處是:模型不需要見過所有類型的任務,只需要熟練掌握這五種元操作,就能通過推理組合來應對沒有遇到過的復雜任務。就好比你只要學會了加減乘除四種運算,就能解決各種各樣的數學題,而不需要對每種題型單獨死記硬背一套解法。

      實驗結果非常有力地支持了這一思路。研究團隊做了一組對比實驗,讓模型只用五種元任務的數據進行訓練,然后測試它在21種不同任務上的表現。結果發現,這個"只學了元任務"的模型,表現與用全部21種任務數據訓練的模型基本相當,差距非常小。這說明,元任務確實構成了一套有效的"編輯語言基礎"。

      四、思考和行動要一致:CoT-編輯一致性獎勵

      在實驗過程中,研究團隊還發現了一個有趣但令人頭疼的現象:即便AI在推理階段寫出了正確的編輯計劃,在實際執行階段也不一定會忠實地按照計劃來。

      這就好比一個人在出門前明明記下了購物清單,結果到了超市卻把清單忘在腦后,全憑感覺隨手拿了些亂七八糟的東西。推理歸推理,執行歸執行,兩者之間出現了脫節。

      為了解決這個問題,研究團隊引入了一種叫做"CoT-編輯一致性獎勵"(CEC Reward,即CoT-Editing Consistency Reward)的機制。簡單來說,就是在模型生成編輯結果之后,額外請一個"審查員"來評估:最終的編輯圖片,是否真的符合之前推理階段所描述的計劃?

      這個"審查員"是另一個視覺語言模型(具體使用了Qwen2.5-VL),它會從兩個角度進行評估:一是操作層面,最終編輯結果的操作類型是否與推理中描述的一致;二是對象層面,被編輯的具體對象是否與推理中指定的目標一致。評估結果會給出一個0到10分的一致性得分,然后這個得分被用作強化學習的獎勵信號,引導模型在訓練中逐漸學會讓自己的執行行為與推理內容保持一致。

      為了確保這個"審查員"足夠靠譜,研究團隊做了大量的人工驗證工作。他們讓模型生成了500個編輯樣本,請四名標注人員對每個樣本的思維鏈與編輯結果之間的一致性進行人工打分,然后調整"審查員"的評判標準,反復迭代,直到"審查員"的評分與人類評分的相關系數達到0.8以上、平均誤差控制在2.5分以內。這相當于對這個自動評審系統進行了嚴格的"資質認證",確保它給出的獎勵信號是有意義的。

      在具體的訓練框架上,研究團隊使用了一種叫做Flow-GRPO的優化方法,并且針對圖像編輯的特點做了專門的調整。圖像生成過程可以類比為從噪聲中逐步"雕刻"出清晰圖像,分為早期階段(大框架和整體語義)和后期階段(細節紋理和精細修飾)。研究團隊發現,CoT與編輯結果之間的一致性主要體現在語義層面,因此把優化重點放在早期階段,跳過后期階段的更新。這樣既提升了語義一致性,又避免了后期階段引入不必要的噪聲干擾。

      五、兩階段訓練:先打草稿,再精雕細刻

      整套Meta-CoT方法對應的訓練流程分為兩個階段,思路類似于先把骨架搭穩,再在細節上精益求精。

      第一階段是監督微調(SFT),也就是讓模型看大量帶有完整Meta-CoT推理過程的樣本,學習如何生成正確的推理鏈并執行對應的編輯操作。在這個階段,模型的圖像理解模塊、圖像生成模塊和整體語言模型都會同步更新,相互配合學習。訓練數據由150萬個圖片-指令-推理鏈三元組組成。這些數據是研究團隊專門構建的:先用Gemini-2.5-Flash和GPT-4.1等工具生成編輯指令,再用FLUX Kontext、GPT Image 1等模型進行圖像編輯,經過自動過濾和人工審核篩選,確保質量。同時,還混入了來自LLaVA-OV和Mammoth-VL的10萬條視覺理解數據,用來強化模型對三元組中"理解能力"這一維度的掌握。

      生成Meta-CoT推理內容本身也是一個復雜的工程。研究團隊設計了一套自動化的流水線:首先用Qwen2.5根據編輯指令判斷任務類型,然后用Gemini-2.5-Flash對任務類型判斷結果進行一致性校驗,接著把原圖、目標圖、指令和任務類型一起輸入Qwen2.5-VL,由它按照精心設計的提示模板生成元任務摘要、任務思考和目標編輯模式遍歷,最后再對生成的推理內容與實際編輯過程之間的一致性進行自動評估。

      第二階段是強化學習(RL),使用前面介紹的CEC獎勵信號進行優化。在這個階段,圖像理解編碼器被凍結,只更新圖像生成模塊。研究團隊的理由是:經過第一階段訓練,模型已經能生成質量很高的推理鏈,不應該在第二階段破壞這些推理能力;而且如果在強化學習階段同時更新理解和生成兩個模塊,訓練會變得不穩定,推理質量反而會下降。第二階段使用了額外的2萬條編輯數據,在32塊GPU上訓練500步。

      六、測試結果:在21種任務上全面提升

      為了全面評估Meta-CoT的效果,研究團隊構建了一個覆蓋21種不同編輯任務的測評基準,這在該領域內屬于覆蓋面相當廣的評測。21種任務包括:背景變換、顏色修改、材質替換、動作變化、人物屬性編輯、風格遷移、物體添加、物體刪除、物體替換、文字編輯、色調調整、因果推理、邏輯推理、空間推理、時間推理、相機運動、結構變化、位置變化、數量變化、指定數量變化,以及多條指令同時執行。這些任務分別來自GEdit-Bench、RiseBench、ComplexEdit等已有的基準數據集,以及研究團隊自己新建的五個類別(每類100個樣本)。評分標準采用了VIEScore體系,由GPT-4.1自動評估,從指令遵循度、主體一致性、自然度和無瑕疵度四個維度打分,總分0到10分。

      在21任務測評基準上,完整版的Meta-CoT+強化學習方案平均得分達到6.415分。作為對比,同樣參數和編輯數據、但不加Meta-CoT的基準版本(稱為Train Editing Only)得分為5.538分,提升幅度達到15.8%?;A版的Bagel模型(帶思考功能版本)得分5.307分,對比提升幅度高達20.1%。

      拆開來看四個子維度,提升最顯著的是"指令遵循度"——從基準版本的6.61提升到7.44,充分說明Meta-CoT推理確實讓AI更好地理解并執行了用戶的編輯意圖。在具體任務層面,21種任務中有20種都實現了提升,唯一的例外是文字編輯任務。研究團隊對此的解釋是:文字編輯對圖片中文字內容的精確識別要求很高,而Meta-CoT的推理過程中大量的文字描述可能會干擾模型對圖中文字的感知,這是一個留待后續工作解決的問題。

      在另一個獨立的測評數據集ImgEdit上,Meta-CoT+強化學習的綜合得分為3.83分(滿分5分),在所有開源統一理解生成模型中表現最佳,超越了之前的BLIP3o-NEXT(3.62分)、OmniGen2(3.44分)等競爭者。與基礎Bagel模型(帶思考版本,3.39分)相比,提升幅度為13.0%。在單個子任務上,提升最為突出的是"混合編輯"(+25.9%)和"刪除"(+23.4%),這兩種任務恰恰需要對編輯目標的精確識別和對多個對象的協調處理,正是Meta-CoT三元組分解最擅長的場景。

      七、消融實驗:每個組成部分各貢獻多少?

      為了搞清楚Meta-CoT的各個組成部分分別貢獻了多少,研究團隊做了一系列細致的"拆解實驗",專業術語叫"消融實驗",就是把某個部分去掉,看結果會差多少。

      關于元任務數量的選擇,研究團隊測試了從3種元任務到6種元任務的不同配置。結果顯示,3種元任務(只有添加、刪除、替換)的指令遵循得分為6.75,4種元任務升至6.93,5種元任務達到7.09,6種元任務為7.13——可以看出,從5種到6種的提升已經很小,邊際效益明顯下降。同時,5種元任務訓練的模型與用全部21種任務訓練的模型相比,差距也極小(7.09 vs 7.20),說明5種是一個性價比很高的平衡點。

      關于"任務思考"這一步驟,研究團隊做了一個去掉這個步驟的對比實驗。結果顯示,去掉任務思考后,指令遵循得分從7.23下降到6.98,下降幅度不小。這說明對每種任務類型進行專門的思考分析,對最終編輯效果有實質性的貢獻——僅僅確定任務類型而不展開針對性分析是不夠的。

      關于視覺理解數據的作用,研究團隊對比了三種配置:完全不加理解數據、加1000條理解數據、加10萬條理解數據(標準配置)。完全不加理解數據時,指令遵循得分降至6.74,CoT質量評分(反映推理內容的完整性和準確性)僅為7.56;加1000條理解數據,得分升至6.92,CoT質量7.81;而完整的10萬條數據對應7.23分和8.89分。可以清楚地看出,理解數據的量與質量成正相關,更多的理解訓練數據帶來了更高質量的推理過程,進而帶來了更好的編輯效果。這有力地證明了三元組中"理解能力"這一維度的重要性,不能被忽視。

      八、它真的看懂了:從幾個具體例子感受差距

      光看數字可能沒什么感覺,幾個具體的編輯案例能更直觀地展示Meta-CoT帶來的變化。

      對于"用紅磚建造這匹馬"這條指令,基礎Bagel模型和Train Editing Only版本的輸出效果都不令人滿意,而Meta-CoT版本的模型不僅把馬的形態正確地轉化成了紅磚堆砌的外觀,還準確捕捉到了紅磚的視覺特征——溫暖的橙紅色調、磚塊之間的灰縫線條、方正模塊化的結構質感。這得益于推理階段對紅磚視覺特征的詳細分析。

      對于"1+1=?請補全答案"這條看起來像是邏輯題的編輯指令,Meta-CoT的模型準確地將其解析為:因為1+1=2,所以這個任務等價于"把問號替換為數字2",并正確地完成了編輯。相比之下,沒有這種推理能力的模型就會在這類需要先進行邏輯推斷再執行操作的任務上失敗。

      對于包含多條子指令的復雜編輯任務——"把棒球手套換成一個鑲嵌紅寶石的光滑金色器物(大小相近)、添加發光的閃光效果和空中漂浮的金色微粒、移除棒球、把毯子換成精致的大理石臺面,并調整場景燈光以營造精致的氛圍"——Meta-CoT的模型能夠有條不紊地逐一處理每一個子任務,最終得到一個融貫各項修改的完整結果,而對照組的模型則往往遺漏某些修改或在多個操作之間產生沖突。

      說到底,Meta-CoT做的事情,是給AI圖像編輯這個"有手就行"的過程,注入了真正意義上的理解和規劃能力。它并不是在讓AI變得更聰明,而是在給原本有能力但沒有方向的AI,提供一套系統性的思考框架——先弄清楚在做什么任務,再具體分析這個任務的特點,然后逐一確定圖里每個對象需要怎么處理,最后確保執行結果與規劃保持一致。

      這四步流程,其實就是一個有經驗的設計師面對復雜修圖任務時自然會走過的思維路徑。只不過研究團隊把這個路徑形式化了,讓AI也能學著走。

      更令人著迷的是元任務體系所揭示的那種簡潔性:表面上千變萬化的圖像編輯任務,骨子里可能都是那五種基本操作的不同組合。這種從復雜中發現簡單規律的過程,本身就是一件值得玩味的事情。

      當然,這套方法也有它目前還沒解決的問題。文字編輯任務的表現下滑,說明在某些場景下,過多的語言推理反而會干擾對視覺內容的精確感知。如何在不同類型的任務中動態地調整推理深度和方式,可能是下一步值得探索的方向。

      對這項研究感興趣的讀者,可以通過arXiv編號2604.24625查閱完整論文,了解更多技術細節、實驗數據和樣本展示。

      Q&A

      Q1:Meta-CoT方法的"三元組分解"具體是指什么?

      A:三元組分解是Meta-CoT的核心思路之一,它把任何圖像編輯指令拆解為三個維度:編輯任務類型(比如"替換"或"相機運動")、編輯對象(具體是圖里的哪個物體或屬性),以及完成該任務所需的理解能力(比如計數、空間理解、風格識別等)。通過分別對這三個維度進行學習和推理,AI能更準確地理解復雜指令并執行對應的編輯操作,而不是靠模式匹配"猜"出結果。

      Q2:Meta-CoT的"元任務"有哪五種,為什么只需要五種就夠用?

      A:五種元任務分別是:添加、刪除、替換、相機運動和位置變化。它們類似于數學中的基本運算,大多數復雜的圖像編輯任務都可以拆解為這五種操作的不同組合,比如風格遷移是對視覺風格的替換,數量變化是添加和刪除的組合。實驗證明,只用五種元任務的訓練數據,模型在21種任務上的表現,與用全部21種任務訓練相比差距極小。

      Q3:CoT-編輯一致性獎勵(CEC Reward)是怎么工作的?

      A:CEC獎勵是一種用來糾正AI"說一套做一套"問題的機制。模型完成編輯后,由另一個視覺語言模型(Qwen2.5-VL)評估最終編輯圖片是否真的符合推理階段寫下的計劃,從操作類型和編輯對象兩個角度打0到10分。這個分數作為強化學習的獎勵信號,引導模型在訓練中逐漸讓執行結果與推理內容保持一致。評審模型本身經過了人工標注數據的驗證,確保其評判與人類判斷高度吻合。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      十點街球體育
      2026-05-11 14:49:01
      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      愛看劇的阿峰
      2026-05-10 20:00:34
      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      樂悠悠娛樂
      2026-05-11 11:05:20
      Netflix新劇,又霸榜了

      Netflix新劇,又霸榜了

      i書與房
      2026-05-11 11:11:33
      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      懂球帝
      2026-05-11 14:17:20
      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      蒂蒂茱家
      2026-05-10 13:30:55
      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      細說職場
      2026-05-10 09:55:02
      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      荊醫生科普
      2026-05-08 21:10:04
      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      鄉野小珥
      2026-05-10 13:06:04
      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      民宿體驗志
      2026-05-10 14:14:12
      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      室內設計師有料兒
      2026-03-21 16:29:09
      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      千秋歷史
      2026-05-11 20:35:52
      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      阿纂看事
      2024-11-05 11:54:58
      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      緋雨兒
      2026-05-11 09:21:49
      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      生物學霸
      2026-05-11 18:14:32
      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      紙鳶奇譚
      2026-04-13 16:06:54
      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      第一財經資訊
      2026-05-11 21:16:11
      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      橙星文娛
      2026-05-08 09:06:29
      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      侃球熊弟
      2026-05-11 01:44:31
      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      文史達觀
      2026-04-18 09:29:56
      2026-05-11 23:04:49
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      8300文章數 563關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      宗馥莉罷免銷售負責人 部分業務將外包

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      游戲
      手機
      家居
      藝術
      親子

      吧友賣高端顯卡回歸PS5!道出真相引無數玩家共鳴

      手機要聞

      姜超吐槽手機圈果味太重:紅魔11S Pro透明機身跑水冷 業內獨一份

      家居要聞

      多元生活 此處無聲

      藝術要聞

      陸抑非寫竹,筆力遒勁

      親子要聞

      亞太生殖年會重磅發布LILY研究 科學循證守護母嬰安全

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 99久久精品久久久久久清纯| 国产成人综合久久精品91| 偷窥少妇久久久久久久久| 日韩精品久久久免费观看| 岛国中文字幕一区二区| 欧美色女人| 久久毛片少妇高潮| 无码里番纯肉h在线网站| 午夜A理论片在线播放| 亚洲综合无码一区二区三区不卡 | 99婷婷| 精品人妻中文字幕色站| 日韩中文字幕高清有码| 国产日韩一区二区四季| 亚洲中文字幕版| 蜜桃av一卡二卡三卡| 亚洲欧美日韩在线资源观看| 亚洲熟女乱色一区二区三区| 日韩色色电影| 无码中文字幕热热久久| 97色色网| 忘忧草社区在线www| 亚洲国产精品久久久天堂麻豆宅男 | 国产一区二区三区免费播放| 一本大道无码av天堂| 中文字幕有码高清日韩| 泾阳县| 日韩乱码人妻无码中文字幕久久| 日本一区二区不卡精品| 激情自拍av| 人妻少妇白浆| 国产欧美日韩VA另类| 欧美激情精品久久久久久| 激情综合网激情综合网五月| 你懂的视频在线一区二区| 日韩精品亚洲专区在线影视| 欧美一级久久久久久久大片| 国产主播精品福利午夜二区| 精品30P| 中文字幕中文字幕一区二区| 又爽又大又黄a级毛片在线视频 |