![]()
新智元報道
編輯:好困 Aeneas
【新智元導讀】把閃存股一夜干崩的谷歌頂會論文,出大事了。TurboQuant的核心方法,兩年前就被一位華人學者做完、發完頂會、代碼全部開源了。谷歌不僅沒正面提及,而且還惡意操縱實驗數據把成果貶成「次優」,即使收到郵件也拒不改正,這就是大科技公司赤裸裸的學術霸凌!
就在剛剛,谷歌塌房了!
前幾天,谷歌一篇即將在ICLR 2026亮相的新論文,直接把存儲巨頭美光和西部數據的股價干崩了。
Cloudflare CEO激動地發推稱:「這是谷歌的DeepSeek時刻!」
![]()
![]()
就在AI圈沉浸在興奮中,全世界都在為這篇論文歡呼之時,谷歌居然火速塌房了。
3月27日晚上10點,一條推文打破了狂歡。
蘇黎世聯邦理工學院博士后,RaBitQ算法的第一作者高健揚公開表示:
TurboQuant論文在描述RaBitQ時存在嚴重問題,包括不正確的技術聲明和誤導性的理論、實驗對比——而這些問題在投稿前就已向作者指出,對方承認了,但選擇不修正。
翻譯過來就是,谷歌的這篇論文,不僅抄襲了他們的核心代碼,還強行拉踩!
![]()
![]()
具體來說,TurboQuant在核心方法(隨機旋轉)上與高健揚此前已發表的RaBitQ高度相似,但谷歌不僅未在正文中客觀探討,還在明知故犯的情況下,將RaBitQ的理論結果貶低為「次優」。
而且,根據披露的郵件記錄,TurboQuant團隊早在一年前就被私下告知了這些問題,但從未修正。
![]()
原文地址:https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0
文章發布幾小時后,各大平臺的評論區里,全是網友們對谷歌激動地聲討。
![]()
對于RaBitQ,高健揚已經做了兩年研究,發表了兩篇頂會,而且代碼全部開源。
然而現在,谷歌轉手就把他的成果「重新發明」了一遍,還榮登頂會,獲得全行業的稱贊。
這簡直就是利用大廠光環歪曲事實的學術霸權行為!
谷歌的吃相太難看了
這次學術爭端,核心思路集中在向量量化上。
向量量化,就是把高維空間里的向量「壓小」,在盡量不丟失信息的前提下省內存、省計算。此問題可以追溯到香農的信源編碼理論,是信息論里最經典的問題之一。
早在2024年5月,高健揚團隊就在arXiv上發布了RaBitQ。
![]()
論文地址:https://arxiv.org/abs/2405.12497
他們的核心思路是:
在量化之前,先對向量做一次隨機旋轉(Johnson-Lindenstrauss變換)。旋轉之后,向量每個坐標的分布變得可預測,就可以用更高效的方式做量化。
雖然想法看起來很簡潔,但背后的理論工作卻很扎實。
在24年9月,團隊又發表了擴展版論文,嚴格證明了這種方法達到了理論計算機頂級會議FOCS 2017給出的漸近最優誤差界。
因此,高健揚被邀請到FOCS的Workshop做報告。隨后,RaBitQ先后發表在數據庫領域頂會SIGMOD 2024和SIGMOD 2025上,代碼全部開源。
誰能想到,這居然給谷歌的研究者們提供了方便。
他們這次發表的TurboQuant,核心也是隨機旋轉+向量量化,這不就是RaBitQ在2024年5月就公開發表的核心架構嗎?
可以說,谷歌,這就是在赤裸裸地抄襲!
![]()
谷歌這篇論文,已經被稱贊為「徹底改變AI格局」了
一封郵件,三個質疑,全部「已讀不回」
有人問,是不是這次谷歌只是漏引了一篇論文?
了解事件詳情后就會發現,谷歌的行為,比這要嚴重得多,惡劣得多!
![]()
![]()
第一,谷歌剽竊了他們的核心方法,卻假裝沒看見。
谷歌在TurboQuant論文中,反復強調隨機旋轉是自己方法的關鍵步驟,但在描述RaBitQ時,只把它歸類為「grid-based PQ」(基于網格的乘積量化),完全跳過了RaBitQ中同樣核心的隨機旋轉步驟。
因此在讀者看來,RaBitQ仿佛是一個跟TurboQuant毫無關系的舊方法一樣。
然而,谷歌真的不知道RaBitQ用了隨機旋轉嗎?絕不可能!
審稿過程中,Reviewer Autm問了一個直球問題:「隨機旋轉是你們論文首創的嗎?」
TurboQuant作者在rebuttal中白紙黑字地回復:
The use of random rotation has been explored before (see references like Quarot, RabitQ, QJL, etc).
(隨機旋轉的使用此前已有探索,參見Quarot、RabitQ、QJL等工作。)
所以很顯然,谷歌承認是RaBitQ先用了隨機旋轉,他們并不是首創,然而在論文正文里,他們卻對此只字不提。
這個雞賊的做法,不止一位審稿人注意到了。
比如給出10分滿分(strong accept)的Reviewer WFrV就直接明示了這一點,建議谷歌作者在論文終稿里承認RaBitQ的地位。
RaBitQ and variants are similar to TurboQuant in that they all use random projection。
(RaBitQ及其變體與TurboQuant相似,都使用了隨機投影。)
I strongly encourage the authors to add these experiments in the final version of the paper.
(我強烈建議作者在終稿中加入這些實驗。)
結果,谷歌的終稿出來之后,不僅沒有加入討論,還把正文中對RaBitQ僅有的(還不完整的)描述,挪到了附錄里,這個做法簡直要把人氣笑了。
2026年3月,高健揚團隊正式致信TurboQuant全體作者要求糾正。
TurboQuant第一作者Amir Zandieh回了一句:
隨機旋轉和JL變換已經是領域里的標準技術了,我們不可能引用每一個用到它們的方法。
簡直讓人無語了。
第二,說別人的理論是「次優」,但證據呢?
TurboQuant論文中有這樣一句話:
While the paper's theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds.
翻譯過來:RaBitQ的理論保證是次優的,很可能是因為分析太粗糙了。
然而真實情況是,RaBitQ擴展版的Theorem 3.2已經嚴格證明,其誤差界匹配FOCS 2017給出的漸近最優界。
也正是因為這個事實,他們才被邀請到FOCS去做Workshop報告。
2025年5月,高健揚團隊通過郵件與TurboQuant二作Majid Daliri進行了多輪詳細技術討論,逐條解釋了為什么RaBitQ的理論保證是最優的。
Daliri在郵件中明確表示,已將討論內容告知全體共同作者。
然而,實際上他們什么都沒做。
華人學者辛辛苦苦花了兩年證明的最優性定理,被人一句「suboptimal, likely due to loose analysis」就否定了。
第三,綁住別人的手,再說自己跑得快。
TurboQuant論文報告RaBitQ的量化速度比TurboQuant慢了「數個數量級」。
然而這個計算方法,沒有任何公平可言。
Daliri在2025年5月的郵件中承認了,他們測試RaBitQ時用的是自己翻譯的Python版本(而非官方開源的高度優化的C++實現),并且關閉了多線程,在單核CPU上跑。而TurboQuant用的則是英偉達的A100 GPU。
但問題是,RaBitQ的官方代碼2024年5月就開源了,默認是多線程并行。
而且,Daliri在2025年1月的郵件中就已經表示自己成功跑通了RaBitQ的C++代碼。
他知道官方實現有多快。但最終論文里用來做對比的,仍然是他自己翻譯的、運行在單核CPU上的Python版本。
用Python單核CPU去跟A100 GPU對比,仿佛就是把對手的鞋帶綁在一起,再跟他賽跑,最后在論文中得出:我們快了好幾個數量級。
![]()
不僅如此,TurboQuant的論文還被發現漏洞百出!
3月26日,研究者Jonas Matthias Kübler在OpenReview上發布公開評論,對TurboQuant的實驗方法提出了多個具體質疑:
速度對比的baseline是FP32精度,但現實中沒有框架會用32位存KV緩存,這讓「8倍加速」的說法很不實在;
速度baseline在論文正文里寫的是PyTorch einsum,到了博客里又變成了JAX;
更耐人尋味的是,Llama模型2.5bit配置的LongBench分數,從arXiv版本的49.44變成了ICLR版本的49.74,差距縮小了50%,但論文沒有說明做了什么改動。
![]()
總之,如果回顧完整的時間線,就會發現,谷歌的論文作者根本不是粗心,不是疏忽,每一步都有人提醒,每一步都被選擇性忽略了。
先把蛋糕吃完,再討論蛋糕是不是你的。
數千萬人看到的敘事,是錯的
現在,一邊是中國博士后,兩年研究,兩篇頂會,代碼全部開源。另一邊是Google Research,一篇博客,數千萬曝光,存儲股跌停。
如果沒有人糾正,RaBitQ就會被記錄為一個「次優的、很慢的」老方法,TurboQuant就是「從零開始、全面超越」的新突破。
歷史就是這么被改寫的。
在Hacker News上,NeurIPS 2021論文DRIVE的作者也站出來了——同樣使用了隨機旋轉+偏差校正框架,同樣曾被Google邀請做內部報告,同樣沒有被TurboQuant引用。
這不是一兩個人的遭遇。
錯誤的學術敘事一旦廣泛傳播,糾正的成本會越來越高。
在數千萬曝光面前,這個聲音很小。
但是,必須有人發聲。
參考資料:
https://x.com/gaoj0017/status/2037532673812443214
https://www.linkedin.com/feed/update/urn:li:activity:7443322114301956096/?originTrackingId=Vc0dkeibHUvsvZ4FSE0Tdw%3D%3D
https://zhuanlan.zhihu.com/p/2020969476166808284?utm_medium=social&utm_psn=2020975962079118879&utm_source=wechat_timeline&wechatShare=1&s_r=0
https://openreview.net/forum?id=tO3ASKZlok
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.