- 克雷西 聽雨 發自 凹非寺
量子位 | 公眾號 QbitAI
DeepSeek,又有核心工程師流入江湖——
郭達雅,V2、V3、R1等一系列模型的核心作者,被曝離職。
這位被導師寄予厚望成為“中山大學雷軍”的技術天才,在學術與競賽領域有著近乎傳奇的履歷。
他自述在入學博士后的第三天便完成了畢業所需的論文發表要求,展現出驚人的科研效率。
他還多次在騰訊廣告算法大賽中蟬聯冠軍,并在ATEC科技精英賽和微信大數據挑戰賽中斬獲頭籌。被調侃還沒畢業就有著百萬獎金。
而且新時代的工程師,甚至還出現過綜藝里。
在真人秀《燃燒吧!天才程序員》中,他作為僅有的兩名SSS級“巨佬”選手,在60小時的極限挑戰中展現了頂尖的編碼實力……
消息傳到外網,也引發了很多網友的關注,有人表示,希望這不會給DeepSeek-V4帶來影響。
![]()
畢竟,郭達雅從博士畢業后入職DeepSeek開始,就參與了Coder、Math等專項模型,以及從V2、V3到R1的完整研發鏈條,還都是核心作者。
所以郭達雅,究竟是哪一種天才少年?
DeepSeek多款模型核心作者
郭達雅于2023年博士畢業后加入DeepSeek,專注代碼智能和大語言模型推理。
促使他加入DeepSeek的原因很簡單:有一位師姐在DeepSeek工作,和他聊起公司追求AGI的愿景,這與他的價值觀比較吻合。
- 當時,我的一位師姐在 DeepSeek工作,她找到了我,跟我聊了DeepSeek的愿景——追求AGI,推動人類社會的加速發展。這跟我的價值觀是相合的。
同時,DeepSeek有比較多的資源投入研發,領導層也希望打造一個有創新氛圍和自由的公司。我有這樣的熱情去做這件事,我也想追求這樣的工作環境。最終,我選擇加入了DeepSeek。
目前,郭達雅的個人主頁還沒有更新,仍然顯示為DeepSeek研究員。
![]()
DeepSeek的一系列模型,包括V2、V3和R1,還有Math、Coder、Prover和V2-Prover,郭達雅全都是核心貢獻者。
![]()
按時間順序梳理,第一條是2024年1月的代碼大模型DeepSeek-Coder。
這個項目推出了從1.3B到33B的一系列開源代碼模型,在多項基準上做到了當時的開源代碼模型SOTA。
![]()
第二項成果關于數學推理,也就是2024年2月的DeepSeek-Math。
它以DeepSeek-Coder-Base-v1.5 7B為基礎,針對數學能力進行了繼續訓練,額外使用了120B數學相關token。
更關鍵的是,DeepSeek-Math的論文中提出了GRPO這個新型強化學習方法,后來成為了R1推理的關鍵。
![]()
緊接著是形式化證明,2024年5月,DeepSeek發布了DeepSeek-Prover。
這個項目面向Lean 4定理證明,核心方法是大規模合成formal proof數據,并在此基礎上微調DeepSeek-Math 7B。
結果,模型在Lean 4 miniF2F上whole-proof generation準確率達到 46.3%(64 samples),累計到52%,高于GPT-4的23.0%;在FIMO基準上證明了148題中的5題,而GPT-4得分為0。
這項成果說明,DeepSeek的模型不只能完成一般數學推理,還延伸到了更硬核的形式化推理方向。
![]()
還有我們更熟悉的V2、V3和R1,在這個研發過程中,DeepSeek證明了不依賴人工標注的推理軌跡,僅通過純強化學習,也能把大模型的推理能力激發出來,并自然涌現出自反思、驗證、動態策略調整等行為模式。
DeepSeek-R1的相關論文,后來還登上了Nature封面,該論文披露,R1的訓練成本僅約29.4萬美元(折合人民幣約208萬)。
![]()
總之,任職期間,郭達雅并不只是參與單點項目,而是參與了貫穿DeepSeek一整段主線的研發過程
而在這一系列的成功背后,有他從中學時期便已經產生的對計算機、對編程的深厚興趣。
“希望他成為中山大學的雷軍”
郭達雅曾就讀于珠海一中,從中學時期便展現出對計算機科學的濃厚興趣。
在接受珠海一中的訪談時,郭達雅表示,自己選擇計算機專業是興趣使然,并且這種興趣正是產生于中學期間。
- 興趣是我選擇計算機專業并取得如今成就的重要因素,而這一興趣的萌芽正源自珠海一中。
回想高中時光,學校豐富的實踐活動和課程不僅拓寬了我的視野,也讓我在信息課上第一次接觸到計算機編程。
最初的我對編程一無所知,但很快便被其嚴謹的邏輯性和無限的創造力深深吸引。
通過編寫簡單的代碼,我不僅感受到算法的精妙,還體會到數學在實際應用中的強大作用。
這段經歷讓我對計算機科學產生了濃厚興趣,也讓我在高考結束后毫不猶豫地選擇了計算機專業。
2014年,郭達雅被中山大學計算機學院錄取,隨后留在中大繼續直博深造。
![]()
大四時,他入選中山大學與微軟亞洲研究院聯合培養博士生項目,師從印鑒教授和周明博士,研究方向是自然語言處理。周明則后來在大模型浪潮中,創辦了瀾舟科技。
京東探索研究院副院長、階躍星辰Tech Fellow段楠的博士生導師也是周明,兩人算是師出同門。
而郭達雅在中山大學對他進行的采訪中表示,自己在剛入學的第三天,就完成了中大博士畢業的論文發表要求。
讀博期間,郭達雅的實習是在聯培單位MSRA完成的。
其間,郭達雅完成了CodeBert以及GraphCodeBert的研究,分別發表在EMNLP 2020 Findings和ICLR 2021上。
CodeBert開發了一個雙模態預訓練模型,首次實現了自然語言(NL)和編程語言(PL)的雙模態預訓練,填補了此前沒有模型能同時處理NL和PL混合輸入的空白。
![]()
而GraphCodeBert則在此基礎上,首次將代碼的數據流結構納入預訓練,讓模型對代碼的理解更深入。
![]()
畢業時,郭達雅的博士論文《基于預訓練的程序理解與生成》,獲評2023年中山大學優秀博士學位論文。
這篇論文主要以程序理解與生成為研究課題,并針對該領域現有研究工作在數據與模型方面存在的問題,提出了基于代碼預訓練的方法和模型,目的是利用人工智能技術提高軟件開發的效率。
從會議到博士論文,再到DeepSeek期間的工作,郭達雅的工作幾乎是一直圍繞著Coding展開,這也增加了曝料中他離職后負責Coding這一說法的可信度。
DeepSeek-V3發布后,他的導師印鑒教授,還特別寄語,希望他能成為“中山大學的雷軍”
截至目前,郭達雅已在NeurIPS、ACL、EMNLP等國際頂級AI會議發表論文十余篇,谷歌學術引用量超1300次。
此外,在數據挖掘競賽方面,郭達雅也長期活躍于一線賽場:
2021、2022年,他連續兩年拿下螞蟻集團主辦的ATEC科技精英賽冠軍;
2022年微信大數據挑戰賽,3200支隊伍同臺競技,他帶隊奪冠,成功將30萬大獎收入囊中。
![]()
而郭達雅最具代表性的戰績,是在騰訊廣告算法大賽中連續奪冠
作為DYG戰隊核心成員,他在2019年獲得冠軍,并于2020年實現衛冕,利用BERT算法拿下50萬元大獎;2021年又成功奪冠。
也算是騰訊廣告算法大賽名人堂選手了。
One More Thing
有意思的是,學術和競賽全面開花的郭達雅,還有不太“科研”的一面——上綜藝
![]()
在以程序員為主題的綜藝真人秀《燃燒吧!天才程序員》中,郭達雅和另外15名選手一起展開了60小時的代碼極限挑戰。
節目組把選手分成了S、SS、SSS三個級別,SSS級的“巨佬”只有2名,郭達雅就是其中之一。
郭達雅一出場便引人矚目,“巨佬來了”“神一樣的存在”。
不僅強,而且頭發還挺茂密。
但現在,秦失其鹿,天下共逐之…
誰又能得到郭達雅呢?
[1]https://www.reddit.com/r/LocalLLaMA/comments/1rzu7rc/deepseek_core_researcher_daya_guo_rumored_to_have/
[2]https://guoday.github.io/
[3]https://mp.weixin.qq.com/s/bYztba9PwPHePhwufd4L7Q
[4]https://sai.sysu.edu.cn/node/545
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.