<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      當文件提取出錯,AI"驗卷員"如何揪出每一處錯誤?

      0
      分享至


      這項研究由獨立研究者于2026年4月發布,論文標題為《RaV-IDP: A Reconstruction-as-Validation Framework for Faithful Intelligent Document Processing》,代碼已開源于GitHub,感興趣的讀者可以通過搜索"RaV-IDP GitHub pritesh-2711"找到完整代碼倉庫和實驗復現資料。

      每天,無數公司和機構都在用軟件把PDF文件里的表格、圖片和文字"抽取"出來,送進數據庫或智能問答系統。這件事看起來平凡無奇,背后卻藏著一個幾乎所有人都會忽視的隱患:這些軟件抽出來的內容,到底對不對?

      現有的文檔處理流程就像一條沒有質檢環節的流水線。原材料(PDF)進去,產品(結構化數據)出來,全程沒有人核查產品是否真實還原了原材料的模樣。偶爾軟件會給出一個"置信度分數",但那只是軟件對自己預測把握程度的自我評價,就像一個學生交卷時說"我感覺寫得不錯"——這和他的答案是否真的正確是兩回事。

      一旦抽取出錯,錯誤會悄無聲息地混入下游系統。一個被漏掉了列的表格,一段被OCR讀花了的合同條款,一張被裁切掉一半的數據圖——它們和正確的內容共用同一種格式,沒有任何外觀上的區別,卻會讓知識庫、財務分析乃至法律審查得出錯誤的結論。

      這篇論文提出的RaV-IDP,就是為了解決這個"啞巴流水線"的問題。它的核心思路出奇地簡單,卻被整個行業長期忽視:如果你真的把一份文檔的內容抽取正確了,那么用這些內容重新"畫"出來的樣子,應該和原文檔里的樣子一模一樣。如果兩者差異很大,就說明抽取出了問題。這就是"以重建為驗證"(Reconstruction-as-Validation,簡稱RaV)的精髓。

      **一、一條有"質檢員"的流水線是如何工作的**

      為了理解RaV-IDP的工作方式,不妨把整個文檔處理流程比喻成一座博物館的文物復制工坊。每件文物(PDF里的一個區域,比如一張表格)進來,工匠(抽取器)負責把它的所有細節記錄在案(轉成結構化數據)。在沒有質檢機制的傳統流程里,工匠記完就完事了,記錄對不對沒人檢查。

      RaV-IDP的做法是在工匠記錄完之后,加了一個環節:讓另一位工匠(重建器)根據這份記錄,重新"臨摹"出文物的樣子,再把臨摹品和文物原件放在一起對比(比較器)。如果臨摹品和原件高度相似,說明記錄是準確的;如果差異很大,說明哪里記錯了,需要找更厲害的工匠(GPT-4.1視覺模型)重新來一遍。

      這里有一個非常關鍵的規則,論文把它稱為"自舉約束"(bootstrap constraint):比較器在對比時,必須把臨摹品和文物原件對比,而不能把臨摹品和記錄本身對比。這個區別看起來微妙,卻至關重要。如果工匠記錯了,而他臨摹時也照著自己的錯誤記錄來,那臨摹品和記錄當然完全一致,但和文物原件卻差了十萬八千里。只有始終錨定原始文物,質檢才是真正有意義的質檢,而不是自欺欺人的循環驗證。

      整個RaV-IDP流水線共有八個環節。文檔先經過質量分類器,判斷這是干凈的數字PDF、掃描件還是拍攝的照片;接著進入布局檢測器,識別出每一頁上的表格、圖片、文字各在哪里,并在這一刻為每個區域拍下"原始快照"(像素裁剪圖)——這張快照將被永久保存,在后續所有比較步驟中作為不可篡改的參照物;然后預處理器對有問題的頁面做矯正處理;之后按照區域類型分流,進入各自的抽取、重建、比較環節;最后,圖像還會經過一步語義豐富處理,讓它在后續檢索系統中真正"可讀",而不再是一張啞圖。

      **二、針對表格、圖片和文字,質檢方式各有不同**

      不同類型的內容,判斷"抽取得準不準"的方式自然不同,就像鑒定一件陶器和鑒定一幅油畫,需要的工具和標準完全不一樣。

      對于表格,RaV-IDP使用了兩條并行的檢測通道。第一條是視覺通道:把抽取出來的表格數據渲染成HTML網格圖,再和原始裁剪圖做結構相似度比較(SSIM,簡單理解為"兩張圖長得有多像")。第二條是結構通道:統計行數和列數是否吻合,再對原始圖片重新做一次OCR(文字識別),把識別出來的文字和抽取結果里的單元格內容逐字比對,計算錯誤率(CER,字符錯誤率)。最終的表格忠實度分數是這兩條通道的加權組合:視覺部分占40%,結構部分占60%,而結構部分里,行列匹配占20%,單元格內容準確率占80%。

      對于圖片,檢測邏輯更直接。一張圖片如果被正確裁剪,它的感知哈希值(pHash,一種能抓住圖像整體視覺特征的"指紋")應該和原始區域高度吻合。同時,圖像的清晰度也會被檢查——如果抽取過程導致分辨率下降,銳度比值會明顯偏低。此外,如果圖片附近有配圖說明文字,也會被納入檢查范圍。這三項合并起來,構成圖像的忠實度分數,其中感知哈希占60%,清晰度占30%,配圖說明占10%。

      對于文字,檢測思路是找一個"獨立證人"。對于掃描文件,重建器會對原始裁剪圖重新跑一遍OCR,用這個獨立讀出來的文字和抽取結果比對;對于原生數字PDF,直接讀取PDF內嵌的文字流作為參照,這樣連OCR引入的誤差都被消除了。文字忠實度分數就是1減去字符錯誤率,越接近1說明抽取越準確。

      三類內容各有默認的"通過線":表格需要達到0.75,圖像需要達到0.70,文字需要達到0.85。文字通過線最高,是因為一個字符的差錯在法律合同或醫療記錄里可能影響重大,而圖像允許有更多余量,因為感知哈希本身就對細微的渲染差異有一定容忍度。

      **三、當質檢不通過時,"高級工匠"出場**

      當某個區域的忠實度分數低于通過線,流水線不會就此放棄,也不會悄悄把錯誤的結果混進輸出里。它會觸發一個備用通道:把原始裁剪圖連同周圍的文字上下文一起發給GPT-4.1視覺模型,用一個精心設計的結構化提示詞,讓它重新做一遍抽取工作。

      針對不同類型的內容,提示詞也有所不同。表格提示詞會要求GPT-4.1返回標題行、數據行和備注,以JSON格式輸出;圖像提示詞要求返回圖像類型、自然語言描述、圖內可見文字和結構化數據(比如圖表的坐標軸、數據系列);文字提示詞要求逐字逐句轉錄。

      備用通道的輸出完成后,驗證循環會重新跑一遍:重建、比較、算分。如果這次通過了,就用這個更好的結果作為最終輸出;如果還是沒過,就在兩次結果里取分數較高的那個,打上"低置信度"標記后輸出。整個流程中,每個區域最多嘗試兩次,絕對不會無限重試。

      這樣的設計有一個重要的哲學立場:就算最終還是沒能完全抽對,也要如實告訴下游系統"這里可能有問題",而不是把它當成沒事發生一樣塞進去。下游系統可以根據這個標記,決定要不要把這部分內容發給人工審核,或者在知識檢索時降低這條記錄的權重。

      **四、圖片不再是啞巴——語義豐富化讓圖片變得可檢索**

      傳統文檔處理系統抽取圖片,頂多就是把它從文檔里裁下來,存成一個像素文件,再貼個"圖片"的標簽。這樣的圖片在知識檢索系統(RAG)里幾乎毫無用處:語言模型看不見它,向量數據庫也無從對它建索引。

      RaV-IDP在每個圖像實體通過驗證之后,都會無條件地再做一步語義豐富化處理,不管它是順利通過還是觸發了備用通道后才勉強通過。這一步調用GPT-4.1視覺模型,為圖像填充四個字段:圖像類型(比如"照片""圖表""流程圖""截圖"等)、自然語言描述(用一段話說明圖里有什么)、圖內可見文字(逐字轉錄圖中出現的所有文字)、以及結構化數據(針對圖表類圖像,提取坐標軸名稱、數據系列名稱、數據點和趨勢方向)。

      有了這四個字段,一張原本沉默的訓練損失曲線圖就有了"靈魂":檢索系統知道它是一張折線圖,知道它展示了不同規模模型的損失下降過程,知道圖里有哪幾條曲線,也知道總體趨勢是隨著訓練token增加而降低。當用戶問"70B模型訓練到1500億token時損失是多少",這張圖的記錄就有可能被召回,而不是永遠沉睡在數據庫某個角落。

      **五、六個評測階段,每一環單獨打分**

      這項研究在評測設計上有一個值得關注的思路:它把流水線的每個環節分開評測,而不是只看最終端到端的結果。這就像考核一支球隊,不只看總比分,還要分別評估門將撲救率、中場傳球成功率和前鋒射門精度。

      布局檢測階段(第二階段)在DocLayNet的500頁文檔上進行評測,這是目前唯一一個覆蓋金融、科學、專利、法律、政府、醫療六大領域并有人工標注的基準數據集。表格檢測F1值達到0.907,圖像檢測F1值0.775,文字檢測F1值0.778。值得一提的是,在應用了空間包含過濾器(把被表格或圖像邊框完整包圍的文字區域過濾掉)之后,65.4%的文字誤報被清除了——那些坐標軸標簽、圖例文字本來不應該作為獨立文字塊被抽取出來。公式檢測F1值為零,這是所用布局檢測工具的已知局限,被留作后續工作。

      表格抽取階段(第三階段a)在PubTabNet的500個樣本上評測。行精度0.596,列精度0.584,兩者同時正確的精確形狀精度只有0.334,平均每個表格行數誤差約2.9行,平均每個表格列數誤差約0.97列,單元格字符錯誤率0.405。整體平均忠實度0.539,在0.75的通過線下有61.2%的樣本通過。主要失敗模式是列合并錯誤:相鄰兩列寬度相近且沒有明顯分割線時,檢測模型會把它們當成一列處理。

      文字抽取階段(第三階段c)分兩個場景評測。在FUNSD的100份掃描表單上,平均字符錯誤率0.517,平均忠實度只有0.295,在0.85的通過線下只有6%的樣本通過——這反映了掃描件OCR本身的難度,而不是流水線設計有問題。在25篇arXiv原生PDF的10028個文字區域上,平均字符錯誤率只有0.048,中位數僅0.006,平均忠實度0.947,在0.50的通過線下有97.1%的樣本通過。

      **六、忠實度分數真的能反映質量嗎?核心問題的實驗答案**

      整篇論文最關鍵的一個問題是:忠實度分數真的能可靠地反映抽取質量嗎?用數學語言說,就是忠實度分數和實際質量(字符錯誤率的負值)之間的Spearman相關系數有多高。

      在500個PubTabNet表格樣本上,這個相關系數達到了0.800,統計顯著性極高(p值約為2乘以10的負112次方,這意味著這個結果幾乎不可能是偶然)。在10028個原生PDF文字區域上,相關系數更是達到了0.877。在100個FUNSD掃描表單上,相關系數為0.611,弱于原生PDF,原因在于掃描件重新OCR時質量本身就不穩定,參照物的質量影響了分數的可靠性。

      把忠實度分數當作二分類器(分數高于某個閾值就接受,低于就拒絕)時,最優閾值0.43對應的F1值達到0.914,精確率0.891,召回率0.939。這說明僅憑忠實度分數,就能以極高的準確率判斷一個抽取結果是好是壞,無需任何人工標注的參考答案。

      **七、備用通道真的救了多少失敗案例?**

      在494個未通過忠實度門檻的表格樣本中(實際失敗數為194個),GPT-4.1視覺備用通道恢復了其中38.1%(74個)。從平均忠實度變化來看,整體提升幅度只有+0.005,看起來微小,但這個數字掩蓋了一個雙峰效應:大多數失敗案例在備用通道后仍然難以改善,而那74個被成功恢復的案例,平均忠實度達到了0.609,越過了通過線。

      在94個未通過的FUNSD文字案例中,備用通道恢復了24.5%(23個)。文字恢復率低于表格,主要是因為掃描件本身質量太差,即使是GPT-4.1也難以從模糊的像素中讀出清晰文字。

      一個有趣的橫向對比:用GPT-4o替換GPT-4.1做備用通道時,同樣10個樣本的測試中,GPT-4.1的恢復率是40.0%,GPT-4o是38.1%,差距在可接受范圍內,說明選擇哪個版本的大模型對整體影響有限。

      **八、端到端測試和與其他系統的比較**

      在DocVQA驗證集的300個問題、85份文檔上,RaV-IDP的完整流水線(啟用忠實度門檻和備用通道)達到了0.4224的ANLS分數(平均歸一化編輯距離相似度,可以理解為答案文字的準確程度,滿分為1)。

      這個分數優于所有開源抽取基線:Unstructured(0.3910)、單獨使用的Docling(0.3844)、Marker(0.3619)、LlamaParse(0.2674,云端超時拖累了分數)。而直接用GPT-4.1視覺模型讀取文檔圖片得到的ANLS是0.9372,遠高于所有基于抽取的流水線。

      對于這個差距,論文給出了坦誠的解釋:GPT-4.1直接讀圖片,繞過了所有結構化抽取步驟,相當于考試時直接看著書回答問題,而不是先把書里的知識整理成卡片再回答。RaV-IDP的目標不是在這道問答題上和GPT-4.1比分,而是生成一份結構化的、帶有空間坐標和來源標注的實體記錄,供下游數據庫、檢索系統和合規審查工具使用——這是GPT-4.1直讀模式無法提供的。

      從成本角度看,在每天處理1萬份文檔的企業場景下,全量走GPT-4.1視覺通道的成本約為60美元/天,而RaV-IDP的選擇性備用通道(只有約6.6%的實體觸發GPT調用)成本約為4美元/天,相差約15倍。

      消融實驗的結果是最能說明設計價值的部分。去掉RaV組件(no_rav模式,只用主抽取器)的ANLS是0.4206,和完整流水線的差距只有0.0018,看起來很小。但打開忠實度門檻同時關掉備用通道(gate_only模式)會發生什么?ANLS直接跌到0.1408,可回答率從44.7%降到14.3%,流水線錯誤率從0.7%飆升至29.7%。原因很直白:把抽取質量差的實體踢掉卻不用更好的結果替換,等于主動刪掉了大量內容,問題當然無從回答。門控機制的價值在于把失敗路由到備用通道,而不是在于過濾。

      細看問題級別的數據,300個問題里有248個(83%)在完整流水線和no_rav模式下得到了完全相同的ANLS;有27個問題(9%)在完整流水線下顯著更好,平均提升+0.765 ANLS;有25個問題(8%)完整流水線反而更差,平均下降-0.804 ANLS(這些是主抽取器本來正確、但備用通道誤判后被替換掉的案例)。這說明閾值的精細校準是下一步改進的關鍵方向。

      **九、這套系統有哪些真實的局限**

      研究對自身局限的描述相當坦率,值得完整呈現。

      表格行檢測缺口是一個具體的工程問題:當表格內容延伸到圖像邊緣時,結構識別模型會漏掉最后一行,影響了約40%的PubTabNet樣本,但這個問題在Docling處理完整PDF文檔時不會出現,因為整頁有自然留白。列合并錯誤是主要失敗模式,當兩列寬度相近且沒有豎分隔線時,模型偶爾會把它們視為一列,導致形狀精度從0.596(行)降至0.334(精確形狀)。

      圖像忠實度的相關性沒有被測量,因為實驗中使用了真實標注的邊界框,導致裁剪結果和原始圖完全一致,感知哈希值自然完美,無法用來衡量分數在不同質量水平間的區分能力。

      質量分類器目前只是基于規則(檢查傾斜角等),還沒有訓練一個真正的分類模型,這留作后續工作。備用通道和圖像語義豐富化依賴外部API,在不允許聯網的安全環境中無法使用,這時流水線會退化為只使用主抽取器。

      自舉約束有一個已知盲區:當主抽取器和重建器共享同一種系統性錯誤時(比如兩者都用了同一個OCR引擎,而這個引擎恰好總是把"rn"識別成"m"),比較器會認為兩者高度一致,實際上雙方都犯了同樣的錯誤,忠實度分數會虛高,導致誤報通過。這是一個理論上存在的漏洞,在掃描件場景中尤其需要注意。

      歸根結底,RaV-IDP用一個非常樸素的直覺——"能還原出來才算真的抽對了"——填上了文檔處理流水線里一個長期存在的空白。它不需要你提前準備任何人工標注的答案,不需要你打開模型的"黑盒子"看內部參數,只需要把抽取結果"演"回去,再和原件對一下,就能知道演得像不像。這個想法的價值不在于它有多新穎,而在于它居然從來沒有被當作標準流程被系統地實現過。

      對于任何需要把文檔內容喂給知識系統的團隊,這套框架提供了一種比"信任模型置信度"更可靠的質量保障機制。它不能讓所有抽取都變得完美,但它能讓系統知道哪里不完美,并且誠實地說出來。

      Q&A

      Q1:RaV-IDP的"自舉約束"是什么意思,為什么重要?

      A:自舉約束是指RaV-IDP在驗證抽取結果時,比較器必須始終把重建結果和原始文檔的像素裁剪圖比較,而不能和抽取結果本身比較。如果和抽取結果比較,一個錯誤的抽取只要能被"準確"地重建出來,就會永遠通過驗證——相當于用自己的答案批改自己的卷子。錨定原始文檔才能確保驗證不是自欺欺人的循環。

      Q2:RaV-IDP的忠實度分數在實際中有多可靠?

      A:在500個PubTabNet表格樣本上,忠實度分數和實際抽取質量的Spearman相關系數達到0.800,統計顯著性極高。在10028個原生PDF文字區域上,相關系數更達到0.877。以最優閾值0.43作為二分類器時,區分好壞抽取結果的F1值為0.914,精確率0.891,召回率0.939,說明這個分數在實際中是可以信賴的質量信號。

      Q3:RaV-IDP的備用通道使用GPT-4.1,成本劃算嗎?

      A:在每天處理1萬份文檔的場景下,完全依賴GPT-4.1視覺模型讀取文檔的成本約為60美元/天,而RaV-IDP只在約6.6%的實體上觸發GPT調用,成本降至約4美元/天,差距約15倍。備用通道在PubTabNet上恢復了38.1%的失敗表格抽取,使表格通過率從61.2%提升至76.0%,用145次API調用替代了本需500次的全量調用,節省了71%的API成本。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      十點街球體育
      2026-05-11 14:49:01
      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      愛看劇的阿峰
      2026-05-10 20:00:34
      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      樂悠悠娛樂
      2026-05-11 11:05:20
      Netflix新劇,又霸榜了

      Netflix新劇,又霸榜了

      i書與房
      2026-05-11 11:11:33
      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      懂球帝
      2026-05-11 14:17:20
      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      蒂蒂茱家
      2026-05-10 13:30:55
      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      細說職場
      2026-05-10 09:55:02
      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      荊醫生科普
      2026-05-08 21:10:04
      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      鄉野小珥
      2026-05-10 13:06:04
      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      民宿體驗志
      2026-05-10 14:14:12
      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      室內設計師有料兒
      2026-03-21 16:29:09
      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      千秋歷史
      2026-05-11 20:35:52
      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      阿纂看事
      2024-11-05 11:54:58
      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      緋雨兒
      2026-05-11 09:21:49
      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      生物學霸
      2026-05-11 18:14:32
      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      紙鳶奇譚
      2026-04-13 16:06:54
      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      第一財經資訊
      2026-05-11 21:16:11
      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      橙星文娛
      2026-05-08 09:06:29
      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      侃球熊弟
      2026-05-11 01:44:31
      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      文史達觀
      2026-04-18 09:29:56
      2026-05-11 23:04:49
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      8300文章數 563關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      宗馥莉罷免銷售負責人 部分業務將外包

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      旅游
      游戲
      教育
      時尚
      房產

      旅游要聞

      臨沂醉美花海!五月臨沂必打卡,錯過等1年!

      吧友賣高端顯卡回歸PS5!道出真相引無數玩家共鳴

      教育要聞

      最被QS2027看好的幾所學校!

      2026年了,最好看的還是這件上衣

      房產要聞

      產業賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 粉嫩av蜜臀一区二区三区| 亚洲一区二区三上悠亚| 国产成人8X人网站视频| 国产欧美日韩免费看AⅤ视频| 精品一区二区中文字幕| 句容市| 日本加勒比东京热日韩| 88XV日韩| 亚洲av本道一区二区| 色偷偷www8888| 天美麻花果冻视频大全英文版| 在线免费看日韩AV| 国产成人久久精品一区二区三区| 55夜色66夜色国产精品视频| 国产熟女| 一面膜上边一面膜下边视频| 亚洲人成网站在线小说| 一本大道久久a久久综合| 婷婷五月花| 亚洲成人国产综合| 国产精品福利无圣光一区二区| 国产一区二区一卡二卡| 国产熟女一区二区三区五月婷| 成人又黄又爽又色的网站| 成人无码av片在线观看蜜桃| 在线观看亚洲精品国产| 高清无码爆乳潮喷在线观看| 国产精品中文av专线| 亚洲变态另类天堂AV手机版| A片无码免费视频在线观看| 边添小泬边狠狠躁视频| 国产av无码国产av毛片| 鲁久久| 亚洲欧美一区二区三区在线| 久久国产美女固定| 91啪啪| 乐活家庭迅雷| 亚洲中文字幕国产精品| 潮喷无码正在播放| 免费在线3A级| 国产美女无遮挡裸色视频|