![]()
新智元報(bào)道
編輯:好困 Aeneas
【新智元導(dǎo)讀】把閃存股一夜干崩的谷歌頂會(huì)論文,出大事了。TurboQuant的核心方法,兩年前就被一位華人學(xué)者做完、發(fā)完頂會(huì)、代碼全部開(kāi)源了。谷歌不僅沒(méi)正面提及,而且還惡意操縱實(shí)驗(yàn)數(shù)據(jù)把成果貶成「次優(yōu)」,即使收到郵件也拒不改正,這就是大科技公司赤裸裸的學(xué)術(shù)霸凌!
就在剛剛,谷歌塌房了!
前幾天,谷歌一篇即將在ICLR 2026亮相的新論文,直接把存儲(chǔ)巨頭美光和西部數(shù)據(jù)的股價(jià)干崩了。
Cloudflare CEO激動(dòng)地發(fā)推稱(chēng):「這是谷歌的DeepSeek時(shí)刻!」
![]()
![]()
就在AI圈沉浸在興奮中,全世界都在為這篇論文歡呼之時(shí),谷歌居然火速塌房了。
3月27日晚上10點(diǎn),一條推文打破了狂歡。
蘇黎世聯(lián)邦理工學(xué)院博士后,RaBitQ算法的第一作者高健揚(yáng)公開(kāi)表示:
TurboQuant論文在描述RaBitQ時(shí)存在嚴(yán)重問(wèn)題,包括不正確的技術(shù)聲明和誤導(dǎo)性的理論、實(shí)驗(yàn)對(duì)比——而這些問(wèn)題在投稿前就已向作者指出,對(duì)方承認(rèn)了,但選擇不修正。
翻譯過(guò)來(lái)就是,谷歌的這篇論文,不僅抄襲了他們的核心代碼,還強(qiáng)行拉踩!
![]()
![]()
具體來(lái)說(shuō),TurboQuant在核心方法(隨機(jī)旋轉(zhuǎn))上與高健揚(yáng)此前已發(fā)表的RaBitQ高度相似,但谷歌不僅未在正文中客觀探討,還在明知故犯的情況下,將RaBitQ的理論結(jié)果貶低為「次優(yōu)」。
而且,根據(jù)披露的郵件記錄,TurboQuant團(tuán)隊(duì)早在一年前就被私下告知了這些問(wèn)題,但從未修正。
![]()
原文地址:https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0
文章發(fā)布幾小時(shí)后,各大平臺(tái)的評(píng)論區(qū)里,全是網(wǎng)友們對(duì)谷歌激動(dòng)地聲討。
![]()
對(duì)于RaBitQ,高健揚(yáng)已經(jīng)做了兩年研究,發(fā)表了兩篇頂會(huì),而且代碼全部開(kāi)源。
然而現(xiàn)在,谷歌轉(zhuǎn)手就把他的成果「重新發(fā)明」了一遍,還榮登頂會(huì),獲得全行業(yè)的稱(chēng)贊。
這簡(jiǎn)直就是利用大廠光環(huán)歪曲事實(shí)的學(xué)術(shù)霸權(quán)行為!
谷歌的吃相太難看了
這次學(xué)術(shù)爭(zhēng)端,核心思路集中在向量量化上。
向量量化,就是把高維空間里的向量「壓小」,在盡量不丟失信息的前提下省內(nèi)存、省計(jì)算。此問(wèn)題可以追溯到香農(nóng)的信源編碼理論,是信息論里最經(jīng)典的問(wèn)題之一。
早在2024年5月,高健揚(yáng)團(tuán)隊(duì)就在arXiv上發(fā)布了RaBitQ。
![]()
論文地址:https://arxiv.org/abs/2405.12497
他們的核心思路是:
在量化之前,先對(duì)向量做一次隨機(jī)旋轉(zhuǎn)(Johnson-Lindenstrauss變換)。旋轉(zhuǎn)之后,向量每個(gè)坐標(biāo)的分布變得可預(yù)測(cè),就可以用更高效的方式做量化。
雖然想法看起來(lái)很簡(jiǎn)潔,但背后的理論工作卻很扎實(shí)。
在24年9月,團(tuán)隊(duì)又發(fā)表了擴(kuò)展版論文,嚴(yán)格證明了這種方法達(dá)到了理論計(jì)算機(jī)頂級(jí)會(huì)議FOCS 2017給出的漸近最優(yōu)誤差界。
因此,高健揚(yáng)被邀請(qǐng)到FOCS的Workshop做報(bào)告。隨后,RaBitQ先后發(fā)表在數(shù)據(jù)庫(kù)領(lǐng)域頂會(huì)SIGMOD 2024和SIGMOD 2025上,代碼全部開(kāi)源。
誰(shuí)能想到,這居然給谷歌的研究者們提供了方便。
他們這次發(fā)表的TurboQuant,核心也是隨機(jī)旋轉(zhuǎn)+向量量化,這不就是RaBitQ在2024年5月就公開(kāi)發(fā)表的核心架構(gòu)嗎?
可以說(shuō),谷歌,這就是在赤裸裸地抄襲!
![]()
谷歌這篇論文,已經(jīng)被稱(chēng)贊為「徹底改變AI格局」了
一封郵件,三個(gè)質(zhì)疑,全部「已讀不回」
有人問(wèn),是不是這次谷歌只是漏引了一篇論文?
了解事件詳情后就會(huì)發(fā)現(xiàn),谷歌的行為,比這要嚴(yán)重得多,惡劣得多!
![]()
![]()
第一,谷歌剽竊了他們的核心方法,卻假裝沒(méi)看見(jiàn)。
谷歌在TurboQuant論文中,反復(fù)強(qiáng)調(diào)隨機(jī)旋轉(zhuǎn)是自己方法的關(guān)鍵步驟,但在描述RaBitQ時(shí),只把它歸類(lèi)為「grid-based PQ」(基于網(wǎng)格的乘積量化),完全跳過(guò)了RaBitQ中同樣核心的隨機(jī)旋轉(zhuǎn)步驟。
因此在讀者看來(lái),RaBitQ仿佛是一個(gè)跟TurboQuant毫無(wú)關(guān)系的舊方法一樣。
然而,谷歌真的不知道RaBitQ用了隨機(jī)旋轉(zhuǎn)嗎?絕不可能!
審稿過(guò)程中,Reviewer Autm問(wèn)了一個(gè)直球問(wèn)題:「隨機(jī)旋轉(zhuǎn)是你們論文首創(chuàng)的嗎?」
TurboQuant作者在rebuttal中白紙黑字地回復(fù):
The use of random rotation has been explored before (see references like Quarot, RabitQ, QJL, etc).
(隨機(jī)旋轉(zhuǎn)的使用此前已有探索,參見(jiàn)Quarot、RabitQ、QJL等工作。)
所以很顯然,谷歌承認(rèn)是RaBitQ先用了隨機(jī)旋轉(zhuǎn),他們并不是首創(chuàng),然而在論文正文里,他們卻對(duì)此只字不提。
這個(gè)雞賊的做法,不止一位審稿人注意到了。
比如給出10分滿(mǎn)分(strong accept)的Reviewer WFrV就直接明示了這一點(diǎn),建議谷歌作者在論文終稿里承認(rèn)RaBitQ的地位。
RaBitQ and variants are similar to TurboQuant in that they all use random projection。
(RaBitQ及其變體與TurboQuant相似,都使用了隨機(jī)投影。)
I strongly encourage the authors to add these experiments in the final version of the paper.
(我強(qiáng)烈建議作者在終稿中加入這些實(shí)驗(yàn)。)
結(jié)果,谷歌的終稿出來(lái)之后,不僅沒(méi)有加入討論,還把正文中對(duì)RaBitQ僅有的(還不完整的)描述,挪到了附錄里,這個(gè)做法簡(jiǎn)直要把人氣笑了。
2026年3月,高健揚(yáng)團(tuán)隊(duì)正式致信TurboQuant全體作者要求糾正。
TurboQuant第一作者Amir Zandieh回了一句:
隨機(jī)旋轉(zhuǎn)和JL變換已經(jīng)是領(lǐng)域里的標(biāo)準(zhǔn)技術(shù)了,我們不可能引用每一個(gè)用到它們的方法。
簡(jiǎn)直讓人無(wú)語(yǔ)了。
第二,說(shuō)別人的理論是「次優(yōu)」,但證據(jù)呢?
TurboQuant論文中有這樣一句話(huà):
While the paper's theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds.
翻譯過(guò)來(lái):RaBitQ的理論保證是次優(yōu)的,很可能是因?yàn)榉治鎏植诹恕?/p>
然而真實(shí)情況是,RaBitQ擴(kuò)展版的Theorem 3.2已經(jīng)嚴(yán)格證明,其誤差界匹配FOCS 2017給出的漸近最優(yōu)界。
也正是因?yàn)檫@個(gè)事實(shí),他們才被邀請(qǐng)到FOCS去做Workshop報(bào)告。
2025年5月,高健揚(yáng)團(tuán)隊(duì)通過(guò)郵件與TurboQuant二作Majid Daliri進(jìn)行了多輪詳細(xì)技術(shù)討論,逐條解釋了為什么RaBitQ的理論保證是最優(yōu)的。
Daliri在郵件中明確表示,已將討論內(nèi)容告知全體共同作者。
然而,實(shí)際上他們什么都沒(méi)做。
華人學(xué)者辛辛苦苦花了兩年證明的最優(yōu)性定理,被人一句「suboptimal, likely due to loose analysis」就否定了。
第三,綁住別人的手,再說(shuō)自己跑得快。
TurboQuant論文報(bào)告RaBitQ的量化速度比TurboQuant慢了「數(shù)個(gè)數(shù)量級(jí)」。
然而這個(gè)計(jì)算方法,沒(méi)有任何公平可言。
Daliri在2025年5月的郵件中承認(rèn)了,他們測(cè)試RaBitQ時(shí)用的是自己翻譯的Python版本(而非官方開(kāi)源的高度優(yōu)化的C++實(shí)現(xiàn)),并且關(guān)閉了多線(xiàn)程,在單核CPU上跑。而TurboQuant用的則是英偉達(dá)的A100 GPU。
但問(wèn)題是,RaBitQ的官方代碼2024年5月就開(kāi)源了,默認(rèn)是多線(xiàn)程并行。
而且,Daliri在2025年1月的郵件中就已經(jīng)表示自己成功跑通了RaBitQ的C++代碼。
他知道官方實(shí)現(xiàn)有多快。但最終論文里用來(lái)做對(duì)比的,仍然是他自己翻譯的、運(yùn)行在單核CPU上的Python版本。
用Python單核CPU去跟A100 GPU對(duì)比,仿佛就是把對(duì)手的鞋帶綁在一起,再跟他賽跑,最后在論文中得出:我們快了好幾個(gè)數(shù)量級(jí)。
![]()
不僅如此,TurboQuant的論文還被發(fā)現(xiàn)漏洞百出!
3月26日,研究者Jonas Matthias Kübler在OpenReview上發(fā)布公開(kāi)評(píng)論,對(duì)TurboQuant的實(shí)驗(yàn)方法提出了多個(gè)具體質(zhì)疑:
速度對(duì)比的baseline是FP32精度,但現(xiàn)實(shí)中沒(méi)有框架會(huì)用32位存KV緩存,這讓「8倍加速」的說(shuō)法很不實(shí)在;
速度baseline在論文正文里寫(xiě)的是PyTorch einsum,到了博客里又變成了JAX;
更耐人尋味的是,Llama模型2.5bit配置的LongBench分?jǐn)?shù),從arXiv版本的49.44變成了ICLR版本的49.74,差距縮小了50%,但論文沒(méi)有說(shuō)明做了什么改動(dòng)。
![]()
總之,如果回顧完整的時(shí)間線(xiàn),就會(huì)發(fā)現(xiàn),谷歌的論文作者根本不是粗心,不是疏忽,每一步都有人提醒,每一步都被選擇性忽略了。
先把蛋糕吃完,再討論蛋糕是不是你的。
數(shù)千萬(wàn)人看到的敘事,是錯(cuò)的
現(xiàn)在,一邊是中國(guó)博士后,兩年研究,兩篇頂會(huì),代碼全部開(kāi)源。另一邊是Google Research,一篇博客,數(shù)千萬(wàn)曝光,存儲(chǔ)股跌停。
如果沒(méi)有人糾正,RaBitQ就會(huì)被記錄為一個(gè)「次優(yōu)的、很慢的」老方法,TurboQuant就是「從零開(kāi)始、全面超越」的新突破。
歷史就是這么被改寫(xiě)的。
在Hacker News上,NeurIPS 2021論文DRIVE的作者也站出來(lái)了——同樣使用了隨機(jī)旋轉(zhuǎn)+偏差校正框架,同樣曾被Google邀請(qǐng)做內(nèi)部報(bào)告,同樣沒(méi)有被TurboQuant引用。
這不是一兩個(gè)人的遭遇。
錯(cuò)誤的學(xué)術(shù)敘事一旦廣泛傳播,糾正的成本會(huì)越來(lái)越高。
在數(shù)千萬(wàn)曝光面前,這個(gè)聲音很小。
但是,必須有人發(fā)聲。
參考資料:
https://x.com/gaoj0017/status/2037532673812443214
https://www.linkedin.com/feed/update/urn:li:activity:7443322114301956096/?originTrackingId=Vc0dkeibHUvsvZ4FSE0Tdw%3D%3D
https://zhuanlan.zhihu.com/p/2020969476166808284?utm_medium=social&utm_psn=2020975962079118879&utm_source=wechat_timeline&wechatShare=1&s_r=0
https://openreview.net/forum?id=tO3ASKZlok
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.