<ruby id="9ue20"></ruby>

  1. 
    

      国产午夜福利免费入口,国产日韩综合av在线,精品久久人人妻人人做精品,蜜臀av一区二区三区精品,亚洲欧美中文日韩在线v日本,人妻av中文字幕无码专区 ,亚洲精品国产av一区二区,久久精品国产清自在天天线
      網易首頁 > 網易號 > 正文 申請入駐

      何愷明首個語言模型:105M參數,不走GPT自回歸老路

      0
      分享至

      henry 發自 凹非寺
      量子位 | 公眾號 QbitAI

      何愷明,也下場做語言模型了。

      只不過,這次他帶隊做的不是大家熟悉的、像ChatGPT背后那套“預測下一個詞元”(next token prediction)的自回歸范式。

      而是另一條過去幾年在圖像領域大火、如今正被越來越多人搬進文本生成的新路線:擴散語言模型(Diffusion Language Model,DLM)。

      在最新的論文中,何愷明團隊放出全新連續擴散語言模型:ELF:Embedded Language Flows



      與不少還停留在token層面做擴散的語言模型不同,ELF把整個生成過程都留在了連續的embedding空間里,直到最后一步,才重新離散化,將表示變回token

      靠著這套設計,ELF只用了105M參數、45B訓練token、32步采樣,就正面跑贏了一批主流擴散語言模型。

      最直觀的一項指標是它在OpenWebText上,把生成困惑度(Generative Perplexity)直接壓到了24。

      這里簡單科普一下生成困惑度,它本質上是讓一個強大的語言模型,給生成結果“檢查作業”,看看這些文本到底像不像真實人類寫出來的語料——

      值越低,說明生成質量越高、模型出來的東西也就越沒AI味兒,越自然。

      在和主流擴散語言模型的對比中,ELF在訓練token少近10倍、采樣步數更少的情況下,反而拿到了更低的生成困惑度。



      可以說,在過去很長一段時間里,擴散語言模型的進展,幾乎都發生在離散DLM(Discrete DLM)這一側。

      而ELF第一次證明了一件事:連續的方法,不但能跑,而且效果不錯。

      ELF到底做了什么

      要理解ELF,先得理解擴散語言模型現在到底在做什么。

      擴散語言模型,主要有兩種技術路線。一是以MDLM、Duo為代表的離散派,直接在token空間做擴散,每一步處理的是離散隨機變量。

      二是包括Diffusion-LM、CDCD、DiffuSeq在內的連續派,把token映成連續embedding,在連續空間里去噪。



      此前的研究中,像MDLM、LLaDA、Dream 7B這些離散路線占據了上風。原因是很簡單,因為語言本身就是離散的。

      對于這一看似常識的理解,愷明團隊給出的判斷恰恰相反——

      問題可能不是“語言必須離散”,問題可能是:前人根本沒有讓連續路線,連續到底。

      Diffusion-LM這一類的方法雖然在embedding空間去噪,但每一步都要算一次token-level的交叉熵,把連續軌跡一路綁在詞表上。

      后來的LD4LG、Cosmos走latent diffusion路線,去噪過程是連續了,但要單獨訓一個decoder把latent解回token,相當于多一個模塊。

      基于此,ELF把所有denoising,全留在continuous embedding space;直到最后一步 t=1,才重新投回token。



      具體來說,ELF在訓練時,離散token先被編碼成連續embedding,再加噪成 z_t,模型要么負責把它還原成干凈embedding(MSE),要么直接預測token(CE)。




      推理時,模型從高斯噪聲 z_0 出發,一路在連續空間里去噪,直到最后一步,才切到decode模式,把embedding重新投回token。

      ELF第一次把“連續表示”和“離散輸出”這兩個過去總被認為必須反復對齊的問題,徹底拆開了:

      中間的去噪,完全交給連續空間;最終的語言生成,只留到最后一步離散化。

      沒有每一步都往詞表上硬對齊,也不需要額外訓練一個decoder,整個生成流程第一次真正做到了:

      連續就是連續,離散就是離散。

      而這,恰恰也是ELF后面能用更少采樣步數、更少訓練token,卻跑贏一眾擴散語言模型的關鍵。

      ELF不是“先擴散,再解碼”。

      在具體的實現上,ELF還解決了三個問題:

      token怎么變連續?連續里怎么去噪?最后又怎么變回token?

      把token變成連續embedding

      要把連續擴散用在語言上,第一步,得先把離散的token變成連續表示。

      論文中,ELF先把它切成token序列,再映射到連續embedding空間。這里具體怎么映射,其實有多種選擇。

      默認情況下,ELF用的是T5預訓練encoder,生成雙向的contextual embedding。論文后面也測試了jointly trained embedding和隨機embedding等不同方案。

      值得注意的是,這個encoder只在訓練階段使用,推理時并不會額外增加模塊。

      在連續embedding空間里做Flow Matching

      拿到連續表示之后,ELF就在embedding空間里做Flow Matching。

      簡單說,Flow Matching定義了一條從噪聲到真實數據的連續流動軌跡:

      • t=0時,是高斯噪聲;
      • t=1時,是干凈的embedding;
      • 中間所有狀態,都是兩者的線性插值,也就是論文里的rectified flow。

      在傳統Flow Matching,網絡通常直接預測“速度場” v。

      但ELF沒有這么做,而是沿用了愷明團隊半年前在《Back to Basics: Let Denoising Generative Models Denoise》里提出的思路——

      直接預測干凈embedding x,也就是x-prediction



      訓練目標,就是最小化預測embedding和真實embedding之間的均方誤差(MSE)。



      至于為什么采用x-prediction,論文給了兩個原因:

      第一,它在高維表示上更穩定——比如768維甚至更高的token embedding;第二,它天然和最后一步“預測干凈token”的目標對齊。

      論文還特別提到:雖然理論上也可以先預測速度v,再換算成x,但這樣一來,后面denoising和decoding之間的權重共享就很難成立。

      實驗上,他們也發現:一旦共享權重,v-prediction效果明顯變差。

      從連續embedding,再回到離散token

      生成語言,最終輸出還是離散token。

      所以ELF只在最后一個時間步(t = 1),還得把連續embedding重新投回token空間。

      不過,這一步ELF沒有像很多latent diffusion方法那樣,額外訓練一個decoder。相反,它把最后一步直接視作:
      一次continuous-to-discrete decoding。

      換句話說:decoder和前面的denoiser,其實是同一個網絡。

      為了讓最后一步訓練不至于太簡單(因為理論上t→1時,輸入已經非常接近干凈embedding),ELF在最后一步額外加入了一次token-level corruption,構造出一個帶擾動的輸入。

      隨后,同一個網絡輸出clean embedding,再通過一個可學習的unembedding矩陣 W,投影成token logits。

      訓練目標,則是標準的token-level cross-entropy loss。整個網絡共享同一套參數,并額外接收一個二值的mode token:去噪模式/解碼模式。

      推理時,ELF從高斯噪聲開始一路在連續空間里去噪,直到最后一步 t = 1,才切換到decode模式,再通過argmax輸出最終token。

      值得一提的是,在ELF中,圖像生成里最常用的技術之一,CFG(classifier-free guidance)也被搬過來了

      ELF用self-conditioning作為條件信號,套上training-time CFG(一次forward模擬兩次推理,沒有inference開銷),把圖像那邊的方案直接搬了過來。

      實驗對比

      實驗部分,ELF基本回答了一個過去兩年一直懸著的問題:

      連續擴散語言模型,到底能不能打?答案是:不但能打,而且第一次在質量、速度、訓練成本三個維度同時贏。

      如開頭所說,在OpenWebText生成任務中,在不做蒸餾的情況下,ELF只用32步采樣,就把生成困惑度壓到了24。

      而此前主流的離散擴散模型,往往要跑到1024步,才能接近這個水平。



      更夸張的是,ELF實現這一結果時,訓練token只用了45B。

      而同級別對手,普遍是500B+。換句話說:采樣步數少了一個數量級,訓練數據也少了一個數量級,效果反而更好。

      而在很多擴散模型最容易掉隊的條件生成任務上,ELF也沒掉鏈子。

      無論是WMT14機器翻譯,還是XSum文本摘要,ELF都穩定超過現有擴散語言模型,甚至把不少自回歸baseline也壓了下去。



      論文最后給出的總結其實很克制:ELF在生成質量、采樣效率和訓練成本之間,實現了很強的trade-off。

      翻譯成人話就是:連續派,不是不能打。只是以前沒把連續這件事做到底。

      作者介紹

      最后,我們再來介紹一下這篇文章的作者。

      這篇論文的兩篇一作是共同貢獻,排名先后順序由硬幣決定。

      胡珂雅,她是這篇文章的兩位第一作者之一,MIT EECS一年級博士生,也是愷明在MIT帶的第一批博士生之一,目前由愷明Jacob Andreas聯合指導。

      她本科畢業于上交的ACM班,目前的研究興趣主要是語言和視覺的交叉領域,致力于構建數據效率更高、泛化能力更強的智能體。

      值得一提的是,在愷明MIT的主頁中,胡珂雅排在Grad students第一位,可以說是組內的大師姐了。



      第二位第一作者Linlu Qiu,同樣是MIT的博士生,師從Yoon Kim

      她本科畢業于香港大學,碩士畢業于Georgia Institute of Technology,此前還在Google做過AI Resident。

      有意思的是,這并不是她第一次和愷明合作。就在不久前,她還和愷明團隊一起拿下了CVPR 2026論文《ARC Is a Vision Problem!》,把ARC推理問題重新定義成了視覺問題。



      另一位作者Hanhong Zhao(趙瀚宏)為MIT本科生,他高中就讀于人大附中,曾是國際物理奧林匹克競賽IPhO金牌得主。

      還有一位作者陸伊煬,背景有點“少年班味道”。

      他是清華姚班大二本科生,目前在MIT計算機科學與人工智能實驗室(CSAIL)實習,導師是何愷明,主要研究方向為計算機視覺和深度生成模型。

      高中時期,他是物理競賽生,曾以江蘇選手中第一名、全國第九名的成績,在2022年獲得了第三十九屆全國中學生物理競賽(CPhO)金牌。

      此前,他以一作身份與愷明合作過論文《Bidirectional Normalizing Flow: From Data to Noise and Back》。



      另一位核心作者黎天鴻,則是愷明組的博后。

      他本科就讀于清華姚班,博士畢業于MIT,半年前那篇《Back to Basics: Let Denoising Generative Models Denoise》的一作,就是他。

      此外,論文的其他作者Yoon KimJacob Andreas,MIT EECS兩位語言模型方向的教授,以及何愷明本人。


      [1]https://arxiv.org/pdf/2605.10938

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      外交部:中方歡迎特朗普總統對中國進行國事訪問

      外交部:中方歡迎特朗普總統對中國進行國事訪問

      界面新聞
      2026-05-13 15:24:33
      黃仁勛最后時刻登上“空軍一號”釋放什么信號

      黃仁勛最后時刻登上“空軍一號”釋放什么信號

      環球時報國際
      2026-05-13 19:57:24
      美國對中國統一下達新結論:大陸只要按兵不動,越晚統一代價越小

      美國對中國統一下達新結論:大陸只要按兵不動,越晚統一代價越小

      華史談
      2026-05-13 08:49:26
      他本想著炸橋,結果一輛載滿日軍火車駛來,心中涌起一個大膽想法

      他本想著炸橋,結果一輛載滿日軍火車駛來,心中涌起一個大膽想法

      百年歷史老號
      2024-06-10 09:49:55
      王勵勤出手了!國乒3大新星獲重用,世界第1組合落選,雙打大變臉

      王勵勤出手了!國乒3大新星獲重用,世界第1組合落選,雙打大變臉

      阿晞體育
      2026-05-13 21:24:15
      斬獲賽季英超首球,薩維尼奧時隔500天再度在英超進球

      斬獲賽季英超首球,薩維尼奧時隔500天再度在英超進球

      懂球帝
      2026-05-14 04:49:07
      Here We Go!羅馬諾:40歲諾伊爾與拜仁續約1年

      Here We Go!羅馬諾:40歲諾伊爾與拜仁續約1年

      懂球帝
      2026-05-13 17:09:31
      超級騙子劉特佐,如何掏空一個國家?肥頭大耳卻能泡遍女明星?

      超級騙子劉特佐,如何掏空一個國家?肥頭大耳卻能泡遍女明星?

      午夜故事會
      2024-07-08 10:57:49
      森林狼球迷意難平!不止因為97-126慘敗馬刺,更多在于以下五點!

      森林狼球迷意難平!不止因為97-126慘敗馬刺,更多在于以下五點!

      田先生籃球
      2026-05-13 12:24:59
      堅持油車的原因是什么?看網友的評論:引起萬千共鳴

      堅持油車的原因是什么?看網友的評論:引起萬千共鳴

      另子維愛讀史
      2026-05-13 22:35:36
      著名演員在滬病逝,經典作品在電視黃金時段連續播放多年,網友:小時候天天聽

      著名演員在滬病逝,經典作品在電視黃金時段連續播放多年,網友:小時候天天聽

      上觀新聞
      2026-05-13 11:38:21
      倫敦市長稱西漢姆若降級將致財政損失,呼吁球迷支持西漢姆保級

      倫敦市長稱西漢姆若降級將致財政損失,呼吁球迷支持西漢姆保級

      懂球帝
      2026-05-14 04:17:07
      78歲荷蘭名帥重掌庫拉索,將創世界杯最年長主帥紀錄

      78歲荷蘭名帥重掌庫拉索,將創世界杯最年長主帥紀錄

      仰臥撐FTUer
      2026-05-13 13:13:02
      勇士隊傳聞:勇士一直夢想著將庫里、詹姆斯和杜蘭特組成超級陣容

      勇士隊傳聞:勇士一直夢想著將庫里、詹姆斯和杜蘭特組成超級陣容

      好火子
      2026-05-14 03:33:16
      日經亞洲突然爆出重磅消息!中國給國內所有芯片廠下一道"死命令"

      日經亞洲突然爆出重磅消息!中國給國內所有芯片廠下一道"死命令"

      阿七說史
      2026-05-11 15:23:09
      知名女主持人自曝痛到當場求饒,要求立即終止!醫生提醒:這些人不要盲目跟風

      知名女主持人自曝痛到當場求饒,要求立即終止!醫生提醒:這些人不要盲目跟風

      上海約飯局
      2026-05-13 15:05:22
      重慶發布中小河流漲水風險提示,涉及32個區縣

      重慶發布中小河流漲水風險提示,涉及32個區縣

      上游新聞
      2026-05-13 21:19:05
      伊朗:已將高濃縮鈾送往第三國!若談判失敗,伊朗會將其取回

      伊朗:已將高濃縮鈾送往第三國!若談判失敗,伊朗會將其取回

      AI商業論
      2026-05-11 08:36:11
      孟德爾驚人采訪:她如何評價澤連斯基,以及烏克蘭民眾對此的反應

      孟德爾驚人采訪:她如何評價澤連斯基,以及烏克蘭民眾對此的反應

      走進烏克蘭2022
      2026-05-13 07:19:24
      7年敗光2億!鄒市明冉瑩穎共同發文:二人最終還是邁出了這一步!

      7年敗光2億!鄒市明冉瑩穎共同發文:二人最終還是邁出了這一步!

      拳擊時空
      2026-04-16 06:04:48
      2026-05-14 05:03:00
      量子位 incentive-icons
      量子位
      追蹤人工智能動態
      12621文章數 176462關注度
      往期回顧 全部

      科技要聞

      阿里年營收首破萬億,AI終于不再是畫大餅

      頭條要聞

      女子閃婚獲千萬房產99%份額閃離后起訴分割 法院判了

      頭條要聞

      女子閃婚獲千萬房產99%份額閃離后起訴分割 法院判了

      體育要聞

      14年半,74萬,何冰嬌沒選那條更安穩的路

      娛樂要聞

      白鹿掉20萬粉,網友為李晨鳴不平

      財經要聞

      美國總統特朗普抵達北京

      汽車要聞

      C級純電轎跑 吉利銀河"TT"申報圖來了

      態度原創

      家居
      時尚
      游戲
      本地
      健康

      家居要聞

      內在自敘,無域有方

      專欄 | 進入心流后,不被洪流裹挾

      LOL迎來史詩級改動,GEN被削廢T1獲利!GEN老板:為誰改的版本?

      本地新聞

      用蘇繡的方式,打開江西婺源

      干細胞能讓人“返老還童”嗎

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 狠狠亚洲欧美日韩| 中文字幕日韩一区二区三区不卡| 一本色综合亚洲精品| 亚洲国产成人久久综合电影| 中文字幕无线码在线观看| 制服.丝袜.亚洲.中文.综合懂 | 日本熟妇浓毛| 最新亚洲人成网站在线影院| 国产欧美日韩精品一区二区三区| 日本新janpanese乱熟| 无码国产偷倩在线播放老年人| 少妇下面好紧好多水真爽播放| 国产综合一区二区三区黄页秋霞| 亚洲天堂伊人久久a成人| 国产午夜影视大全免费观看| 久久国产精品人妻丝袜| 18禁极品一区二区三区| 999白浆| www.亚洲一区| 亚洲av色香蕉一区二区三区精品| 久久精品视频这里有精品| 国产精成人| 国产主播福利在线观看| 欧洲一区二区中文字幕| 国产亚洲无日韩乱码| 成人网站网址导航| 97人人模人人爽人人喊电影| 97欧美精品激情在线观看最新| 日本熟妇大乳| 亚洲综合精品香蕉久久网| 亚洲国产精品成人久久蜜臀| 亚洲日本高清一区二区三区| 久久中文网中文字幕| 国产中文字幕日韩精品| 波多野结衣AV不卡无码| 久操不卡| 国产理论最新国产精品视频| 18禁黄无遮挡网站免费| 亚洲欧美综合一区二区三区| wwww亚洲熟妇久久久久| 久久93精品国产91久久综合|