<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      清華大學的科學家們找到了讓AI"看圖"更快、更聰明的新方法

      0
      分享至


      這項由清華大學主導完成的研究以預印本形式發(fā)布于2026年5月,論文編號為arXiv:2605.01711,感興趣的讀者可通過該編號在arXiv平臺查閱完整原文。

      在現代人工智能的世界里,有一種叫做"Transformer"的神經網絡架構幾乎統(tǒng)治了所有領域——無論是讓機器讀懂文字、識別圖片,還是生成視頻,它都是核心引擎。這種架構成功的秘密,人們一直認為藏在一個叫做"注意力機制"(Attention)的裝置里。然而,清華大學的研究團隊對這個"常識"提出了一個顛覆性的疑問:如果我們對注意力機制的理解本身就錯了呢?

      他們的答案不僅重新解釋了注意力機制的工作原理,更在此基礎上設計出一種全新的架構——WeightFormer,讓AI在處理圖像時速度大幅提升,而準確率幾乎不打折扣。這項研究的意義,或許不亞于發(fā)現了一條比高速公路還快、還省油的新路。

      一、為什么原來的"注意力"方法既聰明又笨重

      要理解這項研究解決了什么問題,得先從注意力機制說起。不妨用一個課堂場景來理解:有一位老師在批改一張照片里的試卷,想知道"這道題和哪道題最相關"。傳統(tǒng)的注意力機制的做法,就是讓老師把照片上的每一道題都兩兩比較一遍——第一題和第二題比,第一題和第三題比,第一題和第四題比……以此類推,把所有可能的組合都過一遍。這個過程叫做"顯式注意力計算",用數學語言說,就是計算一個N×N的矩陣,其中N是圖片被切成的小塊數量(稱為"token",可以理解為照片上每一個小格子)。

      問題在于,當圖片變大,格子數量增多,這種兩兩比較的工作量會以平方速度爆炸式增長。格子數量翻倍,計算量就變成四倍;格子數量變成十倍,計算量就變成一百倍。這就是所謂的"二次方復雜度"。處理一張普通圖片還好,一旦碰到高分辨率圖像,或者需要同時處理很多圖片,這個開銷就變得極其昂貴,就像要求那位老師在期末考試時把全校所有同學的試卷都兩兩對比一遍。

      過去十年,無數研究者絞盡腦汁想辦法給這個兩兩比較的過程"減負"——有人讓老師只看部分題目的組合(稀疏注意力),有人讓老師把相似題目歸堆再比較(低秩近似),有人讓老師用更快的近似方法估算相似度(核方法線性注意力)。但所有這些努力,都是在想辦法把那張兩兩比較的大表格算得更快、更省力,而沒有人質疑過:這張大表格本身,真的是必要的嗎?

      這正是清華大學研究團隊切入的角度。他們發(fā)現,大家一直在優(yōu)化一道錯誤方向上的難題。

      二、一個改變游戲規(guī)則的新視角:注意力其實是一個"動態(tài)換裝"的神經網絡

      研究團隊做了一件數學上非常精巧的事情:他們重新審視了注意力機制的計算公式,發(fā)現從另一個角度看,它的結構和另一種完全不同的東西完全吻合。

      注意力機制的核心公式是:先把輸入數據分別變換成Q(查詢)、K(鍵)、V(值)三組數據,然后計算Q和K的相似度,再用這個相似度對V進行加權求和,得到最終輸出。大多數人看到這里,會把它理解為一個"加權投票"的過程:K和V就像一本百科全書,Q是查詢詞,系統(tǒng)根據查詢詞找到最相關的百科條目,把它們加權混合起來給出答案。

      但研究團隊換了一個角度:對于輸入數據中的任意一行(也就是一個格子的特征向量),整個注意力計算過程其實等價于把這個向量送進一個兩層的小神經網絡(MLP)里走一遍。這個小神經網絡的第一層參數是K(鍵矩陣的轉置),激活函數是Softmax,第二層參數是V(值矩陣)。

      這聽起來可能有點繞,打個比方會更直觀。把注意力機制比作一家餐廳的廚房——傳統(tǒng)理解是:顧客(Q)先看菜單(K)找到最喜歡的菜,然后廚房根據點單比例把不同食材(V)混合配給顧客。這是"顯式點單-備菜"的流程。而研究團隊的新理解是:這家餐廳的廚師會先把今天所有顧客的口味喜好(整個輸入序列)統(tǒng)計一遍,然后據此現場配制出一套"今日特供食譜"(K和V),每位顧客進門后直接按照這套食譜加工,不需要再做兩兩的點單比較。K和V不再是讓顧客互相比較喜好的工具,而是把今天整體偏好壓縮進去的"廚房配置"。

      這個洞察的核心在于:K和V是由整個輸入序列動態(tài)生成的,它們本身就攜帶了全局信息。當你把任意一個格子的特征向量送進這個"以K和V為參數的小網絡"里,輸出結果自然就融入了來自全圖的上下文信息,而不需要顯式地去計算這個格子和其他所有格子之間的相似度。

      用這個廚房比喻繼續(xù)延伸:關鍵在于菜譜是根據今天全體顧客的喜好動態(tài)定制的,所以即使每位顧客都只是"按菜譜吃飯",吃到的味道也已經隱含了全體顧客的集體偏好。全局信息的整合,發(fā)生在菜譜制定階段,而不是每位顧客進門時的兩兩比較階段。

      三、從理解到行動:如果全局信息可以藏在參數里,那何必還要那張大表格?

      這個新理解立刻引出了一個激動人心的問題:既然全局信息可以通過"動態(tài)生成參數"的方式隱含地傳遞,那我們能不能徹底拋開那張昂貴的N×N比較表格,單純靠動態(tài)參數來完成全局建模?

      這正是WeightFormer要驗證的核心假設。研究團隊決定把"動態(tài)參數生成"這個思路移植到另一種更輕量的網絡結構——卷積神經網絡(CNN)中去。CNN本來是處理圖像的傳統(tǒng)選手,每個卷積操作只看圖片的一小塊區(qū)域,沒有天然的全局視野。但如果給CNN的每一層配上"根據整張圖片動態(tài)調整參數"的能力,它是否也能獲得全局感知力?

      要實現這一點,首先需要解決一個工程問題:如何把整張圖片的信息壓縮成一套固定大小的參數?注意力機制在原始設計中,K和V的大小是隨圖片格子數N變化的(K是d×N大小,V是N×d大?。?,所以計算量是N的平方。要把復雜度壓到線性,就必須讓參數生成過程與N無關。

      研究團隊探索了兩大類壓縮方案,并圍繞每類設計了多種具體策略,在接下來的實驗中逐一檢驗。這些策略應用于兩類網絡層:線性層(負責在不同通道之間混合特征,不做空間操作)和深度可分離卷積層(負責在空間上捕捉局部紋理和形狀,但原本只看小區(qū)域)。

      四、為線性層動態(tài)"換菜譜"的各種方案

      先看線性層的動態(tài)參數生成。線性層的作用,可以理解為把一張圖片每個格子的特征向量乘以一個變換矩陣,相當于對每個格子做相同的線性混合。如果這個變換矩陣是靜態(tài)的,所有輸入圖片都用同一套"配方",就缺少了對具體內容的適應性。如果能根據當前圖片的整體內容動態(tài)調整這個矩陣,就能實現隱式的全局信息整合。

      最簡單的方案是用全局平均池化(GAP):把圖片所有格子的特征向量取平均,壓縮成一個單一的向量,再通過一個小神經網絡映射成變換矩陣的調整量。這就好比廚師先嘗一口今天所有食材混在一起的綜合味道,然后據此調整整體的調味策略。這個方法計算極為便宜,但缺點是壓縮得太粗暴,細節(jié)信息可能大量丟失。

      更精細的方案利用"相關矩陣"(X的轉置乘以X,即X?X)。這個矩陣的大小是d×d(d是特征維度),與格子數N完全無關,但它捕捉了所有格子之間的特征共現統(tǒng)計——可以理解為一份"今天所有顧客口味偏好的二階統(tǒng)計摘要"。從這個矩陣出發(fā),研究團隊依次嘗試了線性映射、加入非線性激活函數的版本、加入低秩分解的深層版本,以及一種被稱為"雙邊激活"的結構——后者把參數預測分成兩個互補分支,分別作用在X和X?上,再組合起來。為了進一步降低計算量,在計算相關矩陣之前,還會先用自適應平均池化把空間分辨率縮小一半,過濾掉高頻噪聲。

      實驗結果清晰地顯示,這些策略都大幅超越了靜態(tài)參數基線。靜態(tài)CNN在ImageNet圖像分類任務上的準確率是73.3%,而引入雙邊激活策略后,僅僅讓第一個線性層動態(tài)化,準確率就提升到了76.4%,而參數量和計算量的增幅非常有限。進一步把兩個線性層都動態(tài)化,能達到76.7%,但吞吐量(每秒處理的圖片數)有所下降,性價比相對較低。

      五、為空間卷積層動態(tài)"換模具"的各種方案

      深度可分離卷積層的動態(tài)化,則對應著為圖片的空間特征提取換上"動態(tài)模具"。卷積操作的本質,是用一個小小的濾波器(比如3×3大?。┰趫D片上滑動,檢測局部紋理。這個濾波器如果是固定的,不管什么圖片都用同一個模具壓;如果能根據圖片內容動態(tài)調整,那它就能捕捉到更具適應性的特征。

      研究團隊設計了幾種策略。最基礎的是全局池化方案:把全圖特征壓成一個向量,再生成卷積核的調整量,但這種方式丟失了空間結構信息。更聰明的"空間自適應方案"則是先把圖片通過自適應池化縮放到目標卷積核同樣大小的空間分辨率(比如3×3),再用一個小網絡生成卷積核,這樣既保留了空間結構的方向性,又與原始分辨率解耦。此外還有一種"幅度-方向解耦"策略,分別預測卷積核的強度(幅度)和形狀(方向),再組合,靈感來自權重歸一化的思想;以及直接用小型卷積網絡處理特征圖再池化的方案。

      實驗表明,空間自適應方案在準確率和效率之間取得了最佳平衡,相比靜態(tài)基線提升了約1.5個百分點,同時吞吐量損失最小。而把線性層的雙邊激活和深度卷積的空間自適應策略組合起來,可以在小模型(約740萬參數、1.2G浮點運算量)上達到76.8%的準確率,進一步超越單獨使用任何一種策略。

      研究團隊還通過一種叫做"有效感受野"(ERF)的可視化方法驗證了全局建模的真實性。感受野可以理解為:圖片中某個格子的輸出特征,受到了多大范圍內其他格子的影響。靜態(tài)CNN只關注小范圍鄰域,感受野圖像呈現為中心一個亮點,周圍完全黑暗。而所有動態(tài)參數策略訓練完成后,感受野圖像都變成了整張圖片均勻發(fā)光的狀態(tài),說明每個格子都能感知到來自全圖任意位置的信息。更有趣的是,在訓練開始前,動態(tài)模型的感受野和靜態(tài)模型一樣局限;訓練過后才展開為全局覆蓋,說明這種全局感知能力是模型通過學習主動獲得的,而不是結構上的硬編碼。

      六、WeightFormer:把動態(tài)參數策略變成一個完整的視覺模型

      驗證了各種動態(tài)參數策略的有效性之后,研究團隊把最優(yōu)策略組合起來,構建了WeightFormer這個完整的視覺架構。架構設計上有一個關鍵考量:并非所有層都需要動態(tài)化。

      考慮到動態(tài)參數生成本身是有計算代價的,如果每一層都動態(tài)化,參數量和運算量都會顯著上升,也不利于與其他模型進行公平比較。研究團隊做了一系列消融實驗,系統(tǒng)測試了設置不同數量動態(tài)塊(N=4、6、8、11、14、17)時的效果。結果顯示:當所有17個塊全部動態(tài)化時,模型竟然出現了訓練不穩(wěn)定甚至發(fā)散的問題,最終準確率只有70.2%;而N=11時準確率最高(76.9%),N=6時在準確率(76.3%)和吞吐量(每秒3515張圖片)之間取得最佳平衡,這對應著每三個塊中插入一個動態(tài)塊的"稀疏分布"策略。過多的動態(tài)層不僅代價高昂,還會帶來優(yōu)化困難,這個發(fā)現本身就頗耐人尋味。

      最終的WeightFormer每隔兩個靜態(tài)塊就插入一個動態(tài)塊,動態(tài)塊內使用空間自適應的動態(tài)深度卷積和雙邊激活的動態(tài)第一線性層,其余層保持靜態(tài)。整個架構的時間復雜度相對于輸入序列長度是嚴格線性的,從根本上突破了傳統(tǒng)注意力的二次方瓶頸。

      七、WeightFormer在各類視覺任務上的表現

      研究團隊在多個視覺基準任務上系統(tǒng)評估了WeightFormer,以驗證動態(tài)參數策略的通用價值。

      在圖像分類任務上,WeightFormer在ImageNet-1K數據集(包含128萬張訓練圖片、覆蓋1000類物體)上與多類主流模型正面交鋒。WeightFormer-T(約700萬參數,1.1G運算量)達到了76.3%的Top-1準確率,相比同等規(guī)模的DeiT-T(72.2%)大幅領先,吞吐量從3661張/秒提升到3515張/秒,相差無幾。WeightFormer-S(2700萬參數,4.4G運算量)達到81.3%,超越了DeiT-S(79.8%)和ConvNeXt-S(79.7%),且吞吐量更高。特別值得一提的是WeightFormer-B:它在448×448的高分辨率輸入下,以2700萬參數和17.7G運算量達到了83.4%的準確率,完全不弱于使用224×224輸入、參數量高達87M的DeiT-B(81.8%)或ConvNeXt-B(82.0%),而在高分辨率下運行時的吞吐量優(yōu)勢更為突出。

      在目標檢測和實例分割任務上,基于COCO 2017數據集的測試結果同樣令人鼓舞。以WeightFormer-T作為骨干網絡,配合Cascade Mask R-CNN框架,檢測精度(AP^b)從DeiT-T的44.4%提升到45.0%,分割精度(AP^m)從38.1%提升到38.3%,而總計算量從594G下降到566G,骨干部分的計算量從106G大幅削減到77G。這意味著用更少的算力獲得了更好的效果。

      語義分割任務(ADE20K數據集,使用UperNet框架)的結果也相當一致。WeightFormer-T以12M參數、38G總計算量(骨干僅7G)達到40.7的mIoU,比同等參數規(guī)模的DeiT-T(39.2 mIoU)高出1.5個點,且骨干計算量僅為DeiT-T的64%。WeightFormer-S以47M參數達到45.6 mIoU,超越DeiT-S的44.0,骨干計算量同樣更低(27G對35G)。

      研究團隊還將WeightFormer應用于圖像生成任務,基于DiT框架進行類條件圖像生成,用FID(Fréchet Inception Distance,數值越低表示生成質量越高)來衡量效果。結果顯示,WeightFormer在所有配置下都一致優(yōu)于DiT和DiG基線,例如WeightFormer-S/2以5.0G運算量獲得61.39的FID,優(yōu)于DiT-S/2(68.40)和DiG-S/2(62.06);WeightFormer-B/2以20.0G運算量獲得38.21的FID,優(yōu)于DiT-B/2(43.47)和DiG-B/2(39.50),而且計算量更低。這說明動態(tài)參數策略在生成類任務上同樣奏效,不局限于分類、檢測等判別性任務。

      八、高分辨率下的效率優(yōu)勢有多顯著

      WeightFormer最具說服力的優(yōu)勢體現在高分辨率場景下。傳統(tǒng)注意力機制的計算量隨分辨率平方增長,當輸入圖片變得很大時,內存和時間開銷會急劇膨脹。研究團隊專門測試了不同分辨率(從512×512到1248×1248)下WeightFormer-T和DeiT-T的吞吐量與顯存占用。

      在512×512分辨率下,兩者差距不大。但隨著分辨率上升,差距迅速拉開。到1248×1248(每張圖片被切成6084個格子)時,WeightFormer的吞吐量是DeiT的7.7倍,而每張圖片占用的顯存比DeiT節(jié)省了91%。這意味著,用同樣的硬件,WeightFormer可以處理多得多的高分辨率圖片,或者用低得多的成本完成同等規(guī)模的任務。對于需要處理醫(yī)學影像、衛(wèi)星圖片、高清視頻幀等高分辨率任務的實際應用場景,這種優(yōu)勢是極為實用的。

      九、動態(tài)參數的行為規(guī)律:越深處越活躍

      研究團隊還做了一項頗為有趣的分析:在WeightFormer訓練完成后,檢測每個動態(tài)層的"動態(tài)強度"——具體來說,是計算動態(tài)調整量(ΔW)和靜態(tài)基礎權重(W?)的范數之比r。這個比值越大,說明動態(tài)部分對最終參數的貢獻越顯著;比值接近1,說明靜態(tài)參數仍然主導。

      結果顯示了一個清晰的規(guī)律:對于動態(tài)線性層,各層深度的比值r都在1附近保持穩(wěn)定,變化幅度較小,說明動態(tài)線性層在整個網絡深度上都提供了穩(wěn)定且適度的全局通道混合調整。而對于動態(tài)深度卷積層,情況截然不同:淺層的r值接近1,但隨著深度增加,r值急劇攀升,在最深處達到了20-30倍之高。這意味著,越靠近網絡末端(語義抽象層次更高的地方),空間自適應卷積的動態(tài)調整越激烈,動態(tài)參數幾乎完全主導了空間特征提取。直覺上這很合理:淺層處理的是低級紋理(邊緣、顏色),靜態(tài)卷積核就已經夠用;深層處理的是高層語義(物體形狀、場景類型),需要更強的內容自適應能力。

      說到底,這項來自清華大學的研究做了一件非常有意思的事情:它沒有試圖把一個已有的東西做得更快,而是從一個新的角度重新理解它,然后發(fā)現其實不需要原來那個東西的全部。注意力機制被重新理解為"動態(tài)參數生成+前向傳播"的兩步走,而這兩步里,只有第二步(前向傳播)是線性復雜度的,第一步(參數生成)才是二次方開銷的來源。一旦意識到這一點,用別的方式完成"參數生成"步驟就成了合理的工程選擇。

      當然,研究團隊也坦誠地指出了目前工作的局限。整個評估都在視覺任務上進行,這套方法是否同樣適用于語言模型、語音識別或其他序列建模任務,目前還不清楚。動態(tài)參數生成的表達能力和歸納偏置,在理論層面也缺乏深入分析。更值得關注的是,動態(tài)參數的輸入依賴性會使梯度傳播更加復雜,有時會帶來訓練不穩(wěn)定的挑戰(zhàn)(如所有層都動態(tài)化時出現的發(fā)散現象)。這些都是未來研究需要面對的課題。

      不過,這項研究已經提供了一個重要的概念驗證:全局序列建模不是注意力機制的專利,只要能以某種方式把全局上下文壓縮進網絡參數里,再讓輸入數據通過這些參數進行變換,同樣能實現Transformer級別的全局感知能力——而且可以做到線性復雜度。這條路是否能走得更遠,是否能在語言、多模態(tài)等領域同樣奏效,或許會是接下來幾年里頗值得關注的方向。有興趣深入研究的讀者,可以通過arXiv編號2605.01711找到原論文,代碼也已在GitHub的LeapLabTHU/WeightFormer倉庫公開。

      Q&A

      Q1:WeightFormer和普通Transformer相比,速度到底快多少?

      A:在標準224×224分辨率圖片下,WeightFormer和DeiT的速度相近。真正的差距在高分辨率下體現出來——當圖片分辨率提升到1248×1248時,WeightFormer的處理速度是DeiT的7.7倍,顯存占用減少91%。這是因為WeightFormer的計算量隨圖片大小線性增長,而DeiT是平方增長,圖片越大差距越懸殊。

      Q2:WeightFormer放棄了注意力機制,會不會在理解圖片內容方面變弱?

      A:從實驗數據來看并沒有。WeightFormer-S在ImageNet分類上達到81.3%,超過了同規(guī)模的DeiT-S(79.8%),在目標檢測、語義分割和圖像生成任務上也都優(yōu)于或持平于對比模型。感受野可視化也顯示,訓練后的WeightFormer能感知圖片全局范圍內的信息,并不比注意力模型差。

      Q3:動態(tài)參數策略為什么不把所有層都換成動態(tài)的,效果豈不更好?

      A:研究發(fā)現并非如此。當所有17個塊都換成動態(tài)塊時,模型訓練會出現不穩(wěn)定甚至發(fā)散,最終準確率只有70.2%,還不如靜態(tài)模型。原因在于動態(tài)參數的生成依賴輸入,這會讓梯度傳播變得更復雜,過多動態(tài)層會帶來優(yōu)化困難。每三個塊中放一個動態(tài)塊(共6個)是最佳平衡點,性能76.3%,速度也最快。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      10億都救不了一命!京東副總裁蔡磊,生命進入倒計時

      10億都救不了一命!京東副總裁蔡磊,生命進入倒計時

      聽風喃
      2026-04-06 11:16:04
      伊朗議長:伊武裝部隊已做好準備應對任何侵略行為

      伊朗議長:伊武裝部隊已做好準備應對任何侵略行為

      財聯社
      2026-05-12 03:07:07
      侯友宜正式向大陸攤牌:將統(tǒng)一模式強加于臺灣人,主流民意不接受

      侯友宜正式向大陸攤牌:將統(tǒng)一模式強加于臺灣人,主流民意不接受

      杰絲聊古今
      2026-05-06 14:10:21
      45歲阿嬌現身活動,胯粗屁股大身高是硬傷,五官精致立體像18歲

      45歲阿嬌現身活動,胯粗屁股大身高是硬傷,五官精致立體像18歲

      往史過眼云煙
      2026-05-11 19:27:04
      世界正在發(fā)生一個極其惡心的變化!印度最終可能會成為地球大患

      世界正在發(fā)生一個極其惡心的變化!印度最終可能會成為地球大患

      世界圈
      2026-05-04 16:42:27
      第1現場|俄烏對峙下的紅場閱兵:36年來首次未見坦克

      第1現場|俄烏對峙下的紅場閱兵:36年來首次未見坦克

      澎湃新聞
      2026-05-09 21:40:28
      妻子出軌后,對方妻子主動聯系我,提議搭伙過日子每月給我五萬塊

      妻子出軌后,對方妻子主動聯系我,提議搭伙過日子每月給我五萬塊

      千秋文化
      2026-05-05 20:25:29
      盲人網紅盲道被電動車撞受傷,對方還出口辱罵,相關部門正式回應

      盲人網紅盲道被電動車撞受傷,對方還出口辱罵,相關部門正式回應

      新游戲大妹子
      2026-05-11 11:47:11
      爽,張本智和被日媒點名!“數典忘祖”的人,多忠心,也是笑談

      爽,張本智和被日媒點名!“數典忘祖”的人,多忠心,也是笑談

      開成運動會
      2026-05-11 12:13:43
      CBA官方:浙江因觀眾辱罵裁判、投擲雜物、投資人違規(guī)進場,罰款16萬

      CBA官方:浙江因觀眾辱罵裁判、投擲雜物、投資人違規(guī)進場,罰款16萬

      懂球帝
      2026-05-11 19:33:05
      在名為“統(tǒng)治東方”的地方,讓東方人去慶賀?海參崴閱兵未免過了

      在名為“統(tǒng)治東方”的地方,讓東方人去慶賀?海參崴閱兵未免過了

      歷史擺渡
      2026-05-10 18:55:03
      14歲送上北野武的床,17歲拍寫真,被操控半生,年過50仍風韻猶存

      14歲送上北野武的床,17歲拍寫真,被操控半生,年過50仍風韻猶存

      飄飄然的娛樂匯
      2026-05-11 20:05:06
      結婚才2年,蕭敬騰就嘗到老妻少夫的殘酷,其實舒淇早就把話說透

      結婚才2年,蕭敬騰就嘗到老妻少夫的殘酷,其實舒淇早就把話說透

      枯蝶
      2026-05-11 09:20:17
      我敢打賭99%的男人會選綠衣服女孩做老婆,看腿型就知道

      我敢打賭99%的男人會選綠衣服女孩做老婆,看腿型就知道

      娛樂洞察點點
      2026-04-21 00:47:32
      完勝印度隊,中國隊拿到U17女足世界杯門票,但主教練馬曉旭并不滿意

      完勝印度隊,中國隊拿到U17女足世界杯門票,但主教練馬曉旭并不滿意

      文匯報
      2026-05-12 03:57:25
      李賽鳳的亂倫,床縫摸出個用過的套,衣柜里還藏著個半裸的干兒子

      李賽鳳的亂倫,床縫摸出個用過的套,衣柜里還藏著個半裸的干兒子

      西樓知趣雜談
      2026-04-26 10:18:11
      賠償262082元!廣東46歲男子哭訴15年半的職場深耕,太不值當了

      賠償262082元!廣東46歲男子哭訴15年半的職場深耕,太不值當了

      火山詩話
      2026-05-11 19:08:25
      銅價無視中東逼近歷史新高,花旗:一旦霍爾木茲解封,將直奔15000美元

      銅價無視中東逼近歷史新高,花旗:一旦霍爾木茲解封,將直奔15000美元

      華爾街見聞官方
      2026-05-11 15:28:38
      我50歲才悟出一個道理:凡是從不參加同學聚會、不愛發(fā)動態(tài)、不混圈子的人,十有八九在這兩個方面遠超常人,觀察了身邊上百人屢試不爽

      我50歲才悟出一個道理:凡是從不參加同學聚會、不愛發(fā)動態(tài)、不混圈子的人,十有八九在這兩個方面遠超常人,觀察了身邊上百人屢試不爽

      心理觀察局
      2026-05-08 10:35:21
      正式官宣!張繼科重返賽場,5月份參加國際賽事,只為給自己正名

      正式官宣!張繼科重返賽場,5月份參加國際賽事,只為給自己正名

      謝綸郵輪攝影
      2026-04-13 12:23:43
      2026-05-12 04:55:00
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業(yè)世界
      8300文章數 563關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      母女二人一年用水量高達400多噸 警方發(fā)現背后隱情

      頭條要聞

      母女二人一年用水量高達400多噸 警方發(fā)現背后隱情

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      宗馥莉罷免銷售負責人 部分業(yè)務將外包

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態(tài)度原創(chuàng)

      房產
      游戲
      親子
      本地
      軍事航空

      房產要聞

      產業(yè)賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      LOL第一支MSI戰(zhàn)隊出爐,TSW確定晉級季中賽!BLG已鎖定淘汰賽名額

      親子要聞

      你們都喜歡哪些科目???

      本地新聞

      用蘇繡的方式,打開江西婺源

      軍事要聞

      特朗普:伊朗的回應“完全不可接受”

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 在线看片免费不卡人成视频| 就去干AV| 人妻少妇偷人精品一区| 日本一区二区久久人妻高清| 麻豆蜜桃伦理一区二区三区| 日韩一区二区三区四区不卡| 日本精品午夜福利视频| 精品亚洲综合一区二区三区| 97超碰在线播放| 97热| 制服jk白丝h无内视频网站| 国产精品高潮无码毛片| 国产乱码日产乱码精品精| 香蕉视频一区| 国产日韩精品一区在线不卡| 国产又粗又长又更又猛的视频| 精品熟女亚洲av在线观看| 一边吃奶一边做动态图| 色五开心五月五月深深爱| 久久精品久久电影免费理论片| 色avav色a∨爱avav亚洲色拍| 超碰777| 在线视频中文字幕二区| 免费99精品国产人妻自在现线| 东京热tokyo综合久久精品| 婷婷综合在线| 最近中文字幕在线中文视频 | 久久av中文字幕资源网| 久久国产乱子伦免费精品无码| 免费看欧美一级特黄a大片| 日韩av黄片| 日韩乱码免费一区二区三区| 亚洲精品综合成人1区2区3区| 日韩中文字幕v亚洲中文字幕| 亚洲日韩亚洲另类激情文学| 国产精品乱伦| 影音先锋av资源网站| 久久综合色之久久综合| 日本免费一区二区三区中文字幕| 男女啪啪网站| 天天影视色香欲综合久久|