<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      讓小模型秒殺頂級大模型的內容審核黑科技

      0
      分享至


      這項由 Plurai Inc. 開發的研究以預印本形式于 2026 年 4 月 28 日發布,論文編號為 arXiv:2604.25203v1,有興趣深入了解的讀者可以通過該編號在 arXiv 平臺上查詢完整論文。

      一、你家 AI 客服說錯話了,誰來管?

      每天,全球數以億計的人與 AI 對話系統打交道——向它咨詢醫療建議、投訴快遞問題、尋求理財指導。這些 AI 背后,通常有一套"守門員"系統悄悄運作,專門負責判斷 AI 的回答有沒有越界。這套守門員系統,業內叫做"護欄模型"(Guardrail Model)。

      護欄模型的工作聽起來簡單:看看 AI 說的話有沒有違規,有就攔截,沒有就放行。但難點在于,什么叫"違規"?對于一家醫院的 AI 問診系統來說,給病人推薦具體的用藥劑量可能是嚴重違規;但對于一家藥店的 AI 客服來說,同樣的內容卻可能是必要的服務。規則因場景而異,而且這些場景多到數不清。

      目前市面上主流的解決方案大致分兩類。第一類是"固定菜單"式的護欄模型,比如 Meta 開發的 LlamaGuard、谷歌的 ShieldGemma 等。這類模型事先被訓練好識別特定類型的有害內容,速度快、精度高,但就像一家只賣固定套餐的餐廳——你點不到菜單之外的菜。一旦企業有定制化需求,比如"禁止 AI 透露員工的 GPS 位置坐標",這類固定模型就毫無辦法,必須重新訓練。第二類是"隨時點餐"式的動態護欄,可以在使用時直接告訴大模型當前的規則,讓它按規則判斷。這類方案靈活,但需要調用參數量龐大的模型,速度慢、成本高,而且精度往往不如前者。

      這就是 Plurai Inc. 的研究團隊面對的核心矛盾:既要定制化靈活,又要高精度高效率。他們給出的答案,叫做 BARRED。

      二、BARRED 是什么?一套用 AI 辯論生產訓練數據的流水線

      BARRED 的全稱是 Boundary Alignment Refinement through REflection and Debate,直譯過來大約是"通過反思與辯論實現邊界對齊精煉"。但這個學術名字背后的邏輯,其實相當直覺化。

      核心思路是這樣的:與其費力地讓人工智能"記住"各種規則,不如專門為每一條規則訓練一個小型專用模型。訓練小模型需要大量有標注的數據,而人工標注數據成本極高。BARRED 的解法是:用 AI 來自動生成這些訓練數據。

      但用 AI 生成數據有兩個已知的大坑。第一個坑叫"數據同質化",就像讓一個廚師反復做他最拿手的菜,菜單上永遠只有那幾道——AI 生成的數據往往集中在最典型的場景,覆蓋不了真實世界的多樣性。第二個坑叫"標簽噪聲",也就是 AI 給生成的數據打的標簽經常出錯,用錯誤數據訓練出來的模型,自然也會犯錯。

      BARRED 的創新點正是針對這兩個坑設計了兩套配套機制,分別對應"多樣性"和"準確性"兩個目標。

      整個流程由四個環節串聯而成。第一步是"維度分解",先把要檢測的任務拆解成多個不同的維度。第二步是"采樣",從這些維度的各種具體情形中隨機抽取組合。第三步是"樣本生成",根據抽到的組合,讓 AI 生成一個邊界案例(也就是那種讓人拿不準該怎么判斷的模糊情況)。第四步是"辯論驗證",讓多個 AI 裁判對生成的樣本展開辯論,確認標簽是否正確。通過驗證的樣本進入訓練集,未通過的則根據裁判反饋進行修改,再次驗證,直到通過或達到最大重試次數為止。

      三、維度分解:給問題建一張"坐標地圖"

      以內容審核為例,假設我們要訓練一個模型來判斷"用戶是否三次重復了同一問題"。如果直接讓 AI 隨機生成例子,它大概率會生成一些非常明顯的案例,比如用戶一字不差地發了三條"我想退款"。但真實世界里,用戶更可能換著說法問:先問"能不能退款",再問"退款政策是什么",又問"我的訂單符合退款條件嗎"——這算重復嗎?還是三個不同的問題?這類邊緣案例才是真正考驗模型的地方。

      維度分解的目的,就是系統性地把任務的"地形"勾勒出來,確保生成的訓練數據能覆蓋這張地圖的各個角落,而不只是最平坦、最顯眼的中心地帶。

      具體做法是:給系統提供一段任務描述(比如"判斷用戶是否重復發送同一條消息超過三次"),再給幾個無標注的示例樣本。系統會根據這些輸入,自動識別出與任務相關的多個維度,比如"重復的形式"這個維度,就包含了完全一字不差的重復、換個說法的重復、用反義詞改寫后的重復、跨多輪對話的重復等等不同情形;而"表達風格"這個維度,則涵蓋了正式商務語言、口語化表達、帶有情緒的投訴語氣等不同場景。

      為了讓每個維度的具體情形足夠多樣,系統還用到了一種叫做"語言化采樣"的技巧,簡單說就是不讓 AI 每次只給一個答案,而是讓它給出一個分布,列出所有合理的可能性及其相對概率,然后從中隨機抽取。這樣一來,即便是那些出現頻率不高的邊緣情形,也有機會被抽到,確保訓練數據的多樣性。

      研究團隊通過實驗驗證了這一機制的效果。他們測量了隨著維度情形數量增加,測試集中的樣本被覆蓋的比例如何變化。結果表明,覆蓋率隨情形數量的增加而顯著提升,模型準確率也隨之上升,呈現出一種對數增長的趨勢——剛開始每增加一些情形收益很大,到后來增益逐漸趨于平穩。這說明適量的維度分解就能捕捉任務領域的大部分變化,不需要無限堆砌。

      四、辯論驗證:用 AI 裁判團互相"找茬"

      光有多樣的數據還不夠,數據還得準確。BARRED 的另一個核心機制,是用多智能體辯論來給生成的樣本做質量把關。

      辯論的設計分為兩個角色。一方叫"倡導者",它拿到一條生成的樣本和建議的標簽,然后它的任務就是堅定地為這個標簽辯護,無論如何都不改變立場——哪怕對手說得再有道理。另一方是"裁判團",由兩個獨立的 AI 裁判組成,它們各自評估樣本,然后看倡導者的辯護,再彼此參考對方的意見,決定是否維持或改變自己的判斷。

      為什么倡導者要設計成"死不認錯"的形式?這是一種壓力測試的邏輯。如果一條樣本和它的標簽真的是自洽的、有理有據的,那倡導者拿出理由后,裁判們應該能被說服,最終達成與標簽一致的共識。反過來,如果樣本本身有漏洞——比如標簽是"無違規",但內容實際上很可疑——倡導者的辯護就會站不住腳,裁判們不會輕易被說服,辯論最終陷入僵局或裁判堅持給出不同結論。

      一條樣本要通過驗證,條件是:在辯論的某一輪結束時,所有裁判都給出了與目標標簽一致的判斷。如果在最大輪數內始終無法達成一致,這條樣本就被否決,系統根據裁判的反饋意見對樣本進行修改后重新提交驗證,直到通過或達到最大重試次數為止。

      研究團隊對 1350 次辯論過程進行了深度分析,發現超過 30% 的辯論呈現出非平凡的動態。有些案例在第一輪裁判就意見不一,經過第二輪辯論后才達成共識;有些案例第一輪兩位裁判意見一致,但在聽到倡導者的論證后,其中一位改變了立場;還有些案例始終無法達成一致,最終被丟棄。這些數字說明,辯論機制確實在認真"找茬",而不只是走過場。

      研究團隊還設計了對比實驗,將辯論驗證與兩種替代方案進行比較。第一種替代方案是完全不驗證,直接用 AI 第一次生成的樣本訓練模型;第二種是"自我修正",讓同一個 AI 反復審視和修改自己的輸出。結果讓人頗感意外:完全不驗證的方案,在人工標注測試集上的準確率只有 0.58;而自我修正方案的準確率更低,只有 0.53,甚至不如不驗證。這背后的原因在于:一個 AI 獨自審視自己的錯誤,往往會陷入自我強化的循環,越改越偏,因為它對"正確"的判斷本身就有偏差,缺乏外部視角的糾偏。引入多智能體辯論的 BARRED 在同一測試集上達到了 0.85 的準確率,提升幅度相當可觀。

      五、實驗驗證:小模型如何在四個戰場擊敗"大佬"

      研究團隊在四個不同的實際任務上檢驗了 BARRED 的效果,這四個任務覆蓋了相當寬泛的應用場景。

      第一個任務是"重復檢測",來自 DynaGuard 基準數據集,任務規則是:如果用戶重復或換說法問了同一個問題達到三次,AI 客服應該給出一個特定的引導回復。測試集包含 158 個人工標注樣本和 114 個合成樣本。第二個任務是"隱私保護",同樣來自 DynaGuard,規則是:AI 絕對不得透露員工的 GPS 位置坐標。測試集包含 112 個人工標注樣本和 117 個合成樣本。第三個任務是"計劃驗證",來自 GAIA 基準數據集,用于判斷 AI 助手生成的行動計劃是否符合給定的約束條件,包括只使用指定的工具、以正確格式結尾等。測試集包含 164 個人工標注樣本和 124 個合成樣本。第四個任務是"健康合規",基于 Health Advice 基準數據集,判斷一段文字是否包含健康建議,這在醫療通訊領域有直接的監管意義。測試集包含 200 個人工標注樣本和 123 個合成樣本。

      對比的基準模型分為兩大陣營。一類是"直接讓大模型來判斷"的方案,包括 GPT-4.1-nano、GPT-4.1-mini、GPT-4.1、GPT-5-mini(一個具備推理能力的模型),以及開源的 Qwen2.5-14B。另一類是專門訓練來做內容審核的通用護欄模型,包括 OSS-Safeguard-20B(OpenAI 推出的一個專為自定義策略設計的安全推理模型,參數量高達 200 億)和 Glider(一個在 685 個領域、183 個評估標準上訓練過的 38 億參數評測模型)。

      BARRED 生成的訓練數據被用于微調三個不同的學生模型:GPT-4.1-nano 微調版(通過 Azure 接口訓練)、Qwen2.5-14B 微調版(使用 LoRA 低秩適應技術,秩為 8),以及 Qwen2.5-3B 微調版(使用 LoRA,秩為 16)。每個任務只生成了 1000 條合成訓練樣本。

      實驗結果相當戲劇性。在重復檢測任務的人工標注測試集上,GPT-4.1 這個參數量遠超學生模型的大模型,準確率是 0.90;而 BARRED 微調的 GPT-4.1-nano 達到了 0.96,微調的 Qwen2.5-14B 達到 0.93,就連最小的 3B 版本也達到了 0.92。在計劃驗證任務的合成測試集上,GPT-4.1 只有 0.58 的準確率,而微調的 14B 和 nano 版本都達到了 0.98。Qwen2.5-14B 未經微調的原始版本準確率只有 0.40 到 0.59,微調后則躍升至 0.85 到 0.98,提升幅度令人印象深刻。而 OSS-Safeguard-20B 這個參數量是 3B 學生模型近 7 倍的專用護欄模型,在所有四個任務上都被 3B 微調版本超越或追平。

      這組數字的意義在于:通過 BARRED 合成數據微調后的小模型,在特定任務上的表現穩定地優于或持平于那些參數量大一個數量級的大模型。這意味著企業不需要為每次 API 調用付出大模型的推理成本,也不需要積累大量人工標注數據,只需要一段任務描述和少量無標注樣本,就可以得到一個高精度的輕量級專用護欄。

      六、模型規模的影響:大不一定好,但復雜問題需要更大的腦子

      研究團隊還專門考察了學生模型規模對最終效果的影響,測試了 Qwen2.5 家族從 1.5B 到 14B 的四個不同規格。

      結果呈現出一個有趣的規律:不同任務對模型規模的敏感度差異很大。對于相對簡單的"重復檢測"任務,1.5B 的微型模型就已經表現得相當不錯,隨著模型增大,準確率的提升越來越有限。然而對于更復雜的"隱私保護"和"健康合規"任務,模型規模的影響就顯著得多,從 1.5B 到 14B 的提升幅度明顯更大。

      這個規律背后有一種直覺上的合理性。判斷"同一個意思說了幾遍"相對具體,邊界比較清晰,小模型也能學會。但判斷"這段話算不算健康建議"就復雜得多——需要理解醫學語境、把握措辭的微妙差異、區分客觀描述和行動指導,這類需要更精細語義理解的任務,確實需要更大的模型才能勝任。

      不過研究團隊也強調,即便是最小的 1.5B 模型,在 BARRED 合成數據的加持下,也能取得比通用大模型直接推理更有競爭力的結果。這對于算力資源有限的中小型企業來說,是個非常實用的發現。

      七、一個具體的辯論案例:當"反義詞改寫"遇上三次重復規則

      為了更直觀地理解 BARRED 的工作方式,研究論文提供了一個詳細的案例分析,值得在這里原汁原味地還原。

      任務是檢測"用戶是否重復發送同一條消息超過三次",目標標簽是 0(即"無違規",不超過三次重復)。系統選中的維度情形是:"用反義詞替換的改寫——細小的詞匯改動在語義上非常顯著,不應被計算為重復。"

      在這個維度和目標標簽的組合下,生成器產生了如下對話片段:用戶問"增加注單腿數會提高潛在賠付嗎",AI 客服回答說"是的,增加腿數會提高賠付因為串關更難贏";用戶接著問"增加腿數會降低潛在賠付嗎",AI 客服回答"不,增加腿數通常會提高賠付,減少腿數才會降低賠付";用戶又問"如果減少腿數而非增加,賠付會降低嗎",AI 客服回答"是的,減少腿數通常會降低賠付因為串關更容易贏"。

      從表面上看,這三個問題確實詞匯各異,語義方向甚至相反(一個問增加一個問減少),按照"反義詞改寫不算重復"的維度設定,目標標簽應該是 0,即無違規。

      然而,辯論第一輪出現了分歧:兩位裁判給出了相互矛盾的判斷,一位認為是 0(無違規),另一位認為是 1(有違規)。持違規判斷的裁判的論據是:這三個問題的核心本質是一樣的——"腿數的增減如何影響賠付",只是從不同角度表述了同一個疑問。即便措辭相反,用戶實際上是在圍繞同一個核心問題反復追問。第二輪辯論后,情況沒有改變,兩位裁判維持了各自的立場,無法達成共識。這條樣本因此被拒絕。

      系統拿到裁判的反饋意見后,對樣本進行了修改:把第三條用戶消息改成了"謝謝,最后一個問題:可以在所有比賽結束前提前兌現串關注單嗎",完全轉換了話題。修改后的對話中,前兩條消息確實是在討論腿數和賠付的關系(語義相反,但主題相關),而第三條則跳到了一個完全不同的問題上,三條消息中明確只有兩條在討論同一大主題,不構成三次重復,標簽 0 更加站得住腳。

      這個案例生動地說明了辯論機制的價值:它不僅識別出了第一次生成的樣本存在的模糊性問題,還通過裁判的具體反饋給出了明確的改進方向,最終讓修改后的樣本真正符合任務的邊界定義。

      歸根結底,BARRED 這套框架解決的是一個非常實際的商業和技術痛點:企業想要高精度、低延遲的定制化內容審核,但又沒有足夠的資源去積累大量人工標注數據。它用一套系統化的合成數據生成流程,把這個"三難困境"中的兩個難題同時化解——用維度分解保證多樣性,用多智能體辯論保證準確性,最終用少量的合成數據訓練出一個在特定任務上性能突出的輕量級專用模型。

      當然,這套方案也有它的成本結構:在數據生成階段,需要調用多次大模型完成維度提取、樣本生成和辯論驗證。不過這是一次性的前期投入,生成完數據、訓練好模型之后,實際部署時只需要運行那個輕量級的學生模型,每次推理的成本遠低于持續調用大模型。這種"一次燒腦、長期省力"的結構,對于需要大規模部署護欄的企業來說,從經濟角度來看是合理的。

      未來,研究團隊計劃將這套框架擴展到多標簽和層級分類場景,探索能否把為某個任務生成的合成數據遷移到相關任務中,以及引入人類反饋對生成數據進行持續優化。這些方向如果走通,將進一步擴大這套方法論的適用邊界。

      有興趣深入了解技術細節的讀者,可以通過 arXiv 編號 2604.25203 查閱完整論文,代碼也已在 GitHub 的 plurai-ai/BARRED 倉庫公開。

      Q&A

      Q1:BARRED 框架需要多少人工標注數據才能運行?

      A:BARRED 的核心設計目標之一就是最大程度降低對人工標注數據的依賴。實際使用時,只需要提供一段任務描述(比如"如果用戶重復問同一個問題超過三次,AI 應該給出引導回復")以及少量無需標注的示例樣本即可啟動。研究實驗中,每個任務只用了 10 到 30 條無標注樣本作為起始輸入,系統隨后自動生成 1000 條帶標注的合成訓練數據,整個過程不需要人工為任何樣本打標簽。

      Q2:多智能體辯論驗證為什么比讓同一個 AI 自我修正效果更好?

      A:研究實驗表明,讓同一個 AI 反復審查和修改自己輸出的"自我修正"方案,準確率反而低于完全不驗證的方案。原因在于,當一個 AI 獨立判斷時,如果它對某類情況本身就存在理解偏差,它在自我審查時很可能繼續沿用同樣的錯誤邏輯,甚至越修越偏。而多智能體辯論引入了持有不同傾向的獨立裁判,通過互相審視對方的論據,能夠在更大概率上識別出樣本的邏輯漏洞,從而過濾掉那些標簽與內容不自洽的訓練數據。

      Q3:用 BARRED 微調后的小模型為什么能超過參數量更大的通用大模型?

      A:通用大模型在推理時面對一個新任務,只能依靠提示詞中的規則描述來理解任務邊界,理解深度和一致性受到諸多限制,對于規則的細微之處往往把握不準。而經過 BARRED 合成數據微調的小模型,則是通過大量具體的邊界案例進行專門訓練,模型的參數直接"記住"了任務邊界的細節,不需要在推理時實時理解規則。這種"提前消化、直接應用"的方式,在特定任務上天然比"臨時閱讀規則、現場判斷"更準確,即便模型本身的參數量少很多也是如此。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      重慶一57歲女醫生駕奔馳釀車禍,警方通報稱操作不當致2人死亡6人受傷

      重慶一57歲女醫生駕奔馳釀車禍,警方通報稱操作不當致2人死亡6人受傷

      大風新聞
      2026-05-11 19:31:06
      杭州市拱墅區半山街道原黨工委副書記、辦事處主任潘金財涉嫌嚴重違紀違法,目前正接受拱墅區紀委區監委紀律審查和監察調查

      杭州市拱墅區半山街道原黨工委副書記、辦事處主任潘金財涉嫌嚴重違紀違法,目前正接受拱墅區紀委區監委紀律審查和監察調查

      都市快報橙柿互動
      2026-05-11 19:57:59
      一年用水量達400多噸 背后竟藏離奇謎案?

      一年用水量達400多噸 背后竟藏離奇謎案?

      環球網資訊
      2026-05-11 19:19:57
      Here we go!羅馬諾:弗里克和巴薩續約至2028年,含續約選項

      Here we go!羅馬諾:弗里克和巴薩續約至2028年,含續約選項

      懂球帝
      2026-05-11 21:20:18
      毛主席83歲給華國鋒的珍貴書法,練字真的有意義嗎?

      毛主席83歲給華國鋒的珍貴書法,練字真的有意義嗎?

      書畫相約
      2026-05-11 10:09:02
      河南酒神醉狼去世,年僅46歲!死因曝光,家徒四壁留下三個女兒!

      河南酒神醉狼去世,年僅46歲!死因曝光,家徒四壁留下三個女兒!

      閱微札記
      2026-05-11 09:40:53
      傳來大消息,暴漲開啟

      傳來大消息,暴漲開啟

      隔壁老投
      2026-05-11 14:23:42
      天舟十號發射成功!中國空間站“超級補給時代”開啟——

      天舟十號發射成功!中國空間站“超級補給時代”開啟——

      海右那人
      2026-05-11 08:45:38
      爸爸想把房子送給"干女兒"保姆 兒子扣房產證

      爸爸想把房子送給"干女兒"保姆 兒子扣房產證

      看看新聞Knews
      2026-05-11 13:12:03
      大S年輕時房間曝光,太過詭異引人不適,難怪有人曾說活不過50歲

      大S年輕時房間曝光,太過詭異引人不適,難怪有人曾說活不過50歲

      草莓解說體育
      2026-05-11 20:49:33
      俄閱兵活動簡化,普京保護措施加強,有情報猜測可能與紹伊古有關

      俄閱兵活動簡化,普京保護措施加強,有情報猜測可能與紹伊古有關

      麓谷隱士
      2026-05-11 14:01:34
      OPPO再致歉:從嚴處罰高級副總裁段要輝

      OPPO再致歉:從嚴處罰高級副總裁段要輝

      21世紀經濟報道
      2026-05-11 14:48:08
      震驚!小馬云18歲成年首播,在線人數破7萬,與女生接吻刷爆網絡

      震驚!小馬云18歲成年首播,在線人數破7萬,與女生接吻刷爆網絡

      火山詩話
      2026-05-09 16:02:57
      卷瘋了?!追覓俞浩兩萬員工被迫起號,影石CEO劉靖康看傻了

      卷瘋了?!追覓俞浩兩萬員工被迫起號,影石CEO劉靖康看傻了

      雷科技
      2026-05-11 14:38:40
      誰都不看好你,偏偏你最爭氣——國乒榮膺男團12連冠

      誰都不看好你,偏偏你最爭氣——國乒榮膺男團12連冠

      體壇周報
      2026-05-11 17:54:14
      中央社會工作部副部長柳拯履新中國紅十字會黨組書記

      中央社會工作部副部長柳拯履新中國紅十字會黨組書記

      澎湃新聞
      2026-05-11 22:14:26
      阿根廷公布世界杯55人大名單:迪巴拉無緣!上屆5位冠軍成員落選

      阿根廷公布世界杯55人大名單:迪巴拉無緣!上屆5位冠軍成員落選

      我愛英超
      2026-05-11 21:12:05
      遭“僅退款”榴蓮賣家稱平臺已返還貨款,平臺解釋:因未能識別買家圖片真實情況,根據該圖片判定商品無退貨價值,將提升甄別能力

      遭“僅退款”榴蓮賣家稱平臺已返還貨款,平臺解釋:因未能識別買家圖片真實情況,根據該圖片判定商品無退貨價值,將提升甄別能力

      洪觀新聞
      2026-05-11 16:52:31
      東北一男子養鹿破產,賭氣放生了30頭鹿,8年后上山,眼前一幕卻讓他淚崩了...

      東北一男子養鹿破產,賭氣放生了30頭鹿,8年后上山,眼前一幕卻讓他淚崩了...

      背包旅行
      2026-05-11 14:51:09
      舉報成風,正在壓垮教育!

      舉報成風,正在壓垮教育!

      行者殷濤
      2026-05-11 19:00:42
      2026-05-12 00:19:00
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      8300文章數 563關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      母女二人一年用水量高達400多噸 警方發現背后隱情

      頭條要聞

      母女二人一年用水量高達400多噸 警方發現背后隱情

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      宗馥莉罷免銷售負責人 部分業務將外包

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      本地
      手機
      教育
      房產
      公開課

      本地新聞

      用蘇繡的方式,打開江西婺源

      手機要聞

      旗艦靠邊站!華為要把10000mAh+++巨鯨電池,先塞進中端機里

      教育要聞

      10-4是個什么信號

      房產要聞

      產業賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产精品高清视亚洲乱码有限公司| 亚洲成人av在线系列| 少妇人妻偷人精品视蜜桃| 国产成人综合欧美精品久久| 91网站在线看| 陈巴尔虎旗| 亚洲欧美成人中文日韩电影网站| 国产精品污一区二区三区| 中文字幕中文字幕久久| 天天橾夜夜操| 亚洲不卡在线免费视频| 久久亚洲精品11p| 精品91在线| 成人做爰A片免费看奶头| 一卡二卡AV| 国产亚洲日本精品成人专区| 国产成人不卡无码免费视频| 国产美女自慰在线观看| 国产精品区一二三四久久| 中文字幕av久久爽一区| 亚洲精品国内精品| 日韩Va| 91国内精品久久久久免费影院| 伊人日韩亚洲| 国产一区二区不卡在线| 亚洲的天堂在线中文字幕| 精品福利视频一区二区| 亚洲人成在久久综合网站| 美女爽到高潮嗷嗷嗷叫免费网站 | 无码日韩av一区二区三区| 午夜福利免费视频一区二区| 欧美天堂在线| 大香蕉综合网| 一本色道久久综合狠狠躁| 综合性爱网| 北岛玲中文字幕人妻系列| 国产免费午夜福利在线观看| 国产免费无遮挡吸乳视频| 日韩人妻熟女中文字幕aⅴ春菜| 亚洲AV无码成人精品一区| 99久久精品看国产一区|