衡宇 發自 凹非寺
量子位 | 公眾號 QbitAI
又一個中國新模型被推到聚光燈下,刷屏國內外科技圈。
IQuest-Coder-V1模型系列,看起來真的很牛。
在最新版SWE-Bench Verified榜單中,40B參數版本的IQuest-Coder取得了81.4%的成績,這個成績甚至超過了Claude Opus-4.5和GPT-5.2(這倆模型沒有官方資料,但外界普遍猜測參數規模在千億-萬億級)。
Oh~Tiny Core, Titan Power。
![]()
好,看到這里我盲猜很多人肯定已經開始邊搖頭邊笑了。
畢竟這年頭,benchmark的權威猶在,但說服力似乎已經大不如前了。
那咱們就看看這個模型跑出來的case——
Prompt:編寫一個網頁來展示一個逼真的太陽系模擬。
然后你將得到:

可以自由切換各種視角,讓畫面暫停、放大,調整公轉速度也ok。
選中具體的行星,還會跳出相應的名字和簡單介紹。

目前,這套代碼大模型系列已經在GitHub和抱抱臉上開源。
有一個重點一定要劃!!!
這個模型團隊IQuest,和DeepSeek團隊一個路數,都出自中國的量化私募。
背后公司就是北京版幻方量化——九坤投資。
(兩家公司都是業內公認的量化私募頭部)
X、Reddit等平臺上,關于IQuest-Coder的消息和對中國量化公司殺入AI模型戰場的討論已經滿天飛了。
有網友一臉unbelievable地問出了令他詫異的問題:
- 中國量化公司到底吸納了些什么人才,才能把模型訓練成這樣啊???
![]()
Ok,一起來看看這套模型的詳細情況吧~
IQuest-Coder-V1系列
從定位上看,IQuest-Coder-V1是一套覆蓋多個參數規模與使用場景的家族版本,專注于代碼生成、代碼理解與軟件工程任務的模型系列。
參數有7B、14B和40B的,每個規模均提供Instruct和Thinking兩種版本。
其中,Instruct偏向指令跟隨與工程使用,更高效;Thinking強化復雜推理和多步問題拆解,響應時間更長。
![]()
特別提醒大家注意一下,40B參數規模的IQuest-Coder-V1額外提供了Loop版本,用于探索更高的參數利用效率。
與計算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache開銷顯著降低,而吞吐量大幅提升。
僅增加約5%的訓練成本,Loop架構下,40B模型達到數百億參數MoE模型的水平。
![]()
在架構設計上,IQuest-Coder-V1系列強調了“工程友好”和“長上下文可用性”。
官方在GitHub上給出的四點架構特性分別是:
- 分組查詢注意力(Grouped Query Attention,GQA)以實現高效推理
- 原生支持128K上下文長度
- 詞表大小:76800個token
- 循環變體采用了具有共享參數的循環Transformer設計,該設計在兩個迭代過程中保持一致。
首先說說GQA的引入。
通過減少KV頭數量來降低推理階段的顯存占用和計算壓力,對長上下文場景超級友好。
其次,模型原生支持128K上下文長度。這就讓模型有能力直接處理完整代碼倉庫、跨文件依賴以及大規模工程上下文。
第三,76800個token的詞表大小,更貼近真實代碼環境中頻繁出現的標識符、路徑名和符號組合。
最后,在Loop變體中,模型采用了具有跨兩次迭代共享參數的循環Transformer設計,用重復計算換取更高的參數利用率,在不線性擴大模型規模的前提下提升性能。
作者刻意指出,這和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更強調推理階段的穩定性。
這些特性組合在一起,有利于模型在真實軟件工程場景中跑得更好。
![]()
來看官方展示的更多case。
Prompt 1:構建一個粒子-文本動畫,滿足以下要求。
- 文本采樣:將給定文本(例如,IQuest)在 Canvas 上轉換為由數百個小粒子組成的點陣。
- 狀態:每個粒子都有一個當前位置和一個目標位置(形成文本)。
- 交互式物理效果:當鼠標靠近時相互排斥和散開;當鼠標移開時平滑地彈回。
- 視覺效果與緩動:隨機/漸變顏色,用于整體運動的緩動效果。

Prompt 2:構建一個實時像素沙盒游戲。
通過按鈕切換沙子、水、石頭和酸液;在畫布上涂畫可生成具有不同顏色的元素;大規模更新依然流暢;元素會自然下落并流動。

Prompt 3:構建一個完整的單文件HTML5 Canvas太空射擊游戲,具有復古霓虹美學和明顯的戰斗反饋。
- 視覺風格:黑色背景,高飽和度霓虹幾何形狀,街機感。
- 控制:WASD移動;兩種瞄準/炮塔模式(鼠標跟隨,或按R鍵旋轉炮塔)。
- 射擊:帶完整視覺效果的自動射擊太空飛船。
- 反饋:擊殺時,出現粒子爆炸效果;受到傷害時,屏幕會震動。
- 敵人:普通士兵/奇襲者/重型坦克,以及Boss戰。
- 進階:按P鍵能升級火力。
![]()
Prompt 4:基于鳥群算法的仿生鳥/魚群體模擬,擁有150個以上的自主Agent,有實時調節功能。
- 核心規則:分離(避免碰撞)、對齊(速度匹配)和內聚(群體中心)。
- 實時面板:調整分離/對齊/凝聚權重(0-3)、視覺半徑(20-150 像素)和最大速度。
- 交互:鼠標充當捕食者,使附近的智能體散開。
- 渲染:在深色背景下,以運動方向旋轉的霓虹三角形和發光軌跡。
- 工具:FPS 計數器和暫停/繼續(空格鍵)。

與眾不同的“代碼流多階段訓練”訓練策略
IQuest-Coder的訓練流程如下——
預訓練階段先用通用數據和大規模代碼數據打底,然后通過高質量代碼annealing強化基礎代碼表征。
中期訓練階段第一次明確引入reasoning、agent trajectory和長上下文代碼,并且分32K和128K兩個尺度逐步推進。
最終post-training階段,模型被明確分流成instruct路線和thinking路線,分別用不同目標函數和RL方式收斂。
![]()
官方強調,IQuest-Coder-V1系列采用了與傳統單一靜態源代碼訓練不同的訓練策略。
稱之為code-flow multi-stage training。
與大量代碼模型側重從靜態代碼片段中學習不同,這套方法強調從代碼的演化過程中學習。
團隊專門設計了基于項目生命周期的triplet數據構造方式,用 (R_old, Patch, R_new) 這樣的結構,讓模型看到穩定期代碼、變更內容以及變更后的結果。
而且刻意避開項目早期和后期,只取40%–80%生命周期區間。
這一步實際上把“軟件工程經驗”顯式編碼進了訓練數據里。
所以模型看到的并不只是某一時刻的完成態代碼,還包括修改前后的差異、提交歷史中的邏輯變化,以及真實工程中反復試錯和修正的痕跡。
也就是說模型被訓練得能夠捕捉軟件邏輯的動態演變。
![]()
不少網友猜測,這就是IQuest-Coder-V1在多個軟件工程類評測中表現突出的重要原因之一。
這套模型成績確實亮眼。
- SWE-Bench Verified:81.4%
- BigCodeBench:49.9%
- LiveCodeBench v6:81.1%
![]()
下面這張圖體現得更直觀一點,IQuest-Coder在八個代碼、Agentic相關榜單上都獨占鰲頭。
![]()
不過,GitHub上白紙黑字寫著,模型可以生成代碼,但不能執行,始終在沙盒環境中驗證輸出結果。
部署方面,官方信息顯示,不管是基礎版本還是Loop版本,都支持單卡H20推理。
其Int4版本可在單張消費級3090/4090 GPU上部署。
![]()
有網友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架構。
![]()
隨著關注度上升,質疑也同步出現。
![]()
九坤投資公司是誰?
好,最后我們來認識一下IQuest-Coder背后的公司,九坤投資(Ubiquant Holding Limited)。
公司成立于2012年,是中國較早一批專注量化投資和高頻交易的私募機構之一,目前管理規模在數百億元人民幣,和幻方同屬于公認的國內量化私募頭部公司。
九坤主要辦公地在北京,3周前開設了新加坡辦公室。
聯合創始人王琛,2000年考入清華大學,獲得數學物理學士學位和理論計算機博士學位,博士期間師從圖靈獎得主姚期智院士。
博士畢業后,王琛就職于美國頂級對沖基金Millennium,后創業擔任九坤投資聯合創始人、CEO。
聯合創始人姚齊聰,2002年考入北京大學數學系,獲得數學學士和金融數學碩士學位。
碩士畢業后進入Millennium,后與王琛共同創業,主要負責九坤投研體系搭建、量化策略開發和風險管理,被視為公司策略和風控體系的核心設計者之一。
九坤的投研與技術團隊人數超過百人,90%以上畢業于清華、北大、復旦、斯坦福等國內外知名高校,博士占比超過60%。
公開信息顯示,這家公司目前也傾向于從全球頂尖高校招募具有計算機、數學、物理、統計學等背景的應屆畢業生。
![]()
在AI領域,幻方更早憑DeepSeek站到臺前。
不過查詢有關資料發現,此前九坤也很注重AI技術這一塊。
目前,九坤的IT和算力建設位居國內量化機構前三,并建立了數據實驗室(DATA LAB)、人工智能實驗室(AI LAB)等多個前沿實驗室。
本次發布的IQuest-Coder就出自其發起設立的獨立研究平臺至知創新研究院。
倒也不全是為了把AI用在金融市場預測和交易決策啦——前段時間(2025年12月16日),九坤已經推出過通用推理模型URM。
該模型在ARC-AGI正確率為53.8%,當允許多次嘗試時,URM的成功率能達到85%以上;在更困難的ARC-AGI 2上也拿到了16.0%。
Paper最后附上了IQuest-Coder團隊的成員名單。
![]()
挺長的,就不一一介紹了。
不過我們發現這篇paper的核心作者層,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者陣容重合度非常高。
所以這里稍微展開介紹一下Core Contributor的幾位成員。
(注:IQuestLab團隊成員很多沒有公開個人檔案,我們這里放出可尋找到的公開資料)
Jian Yang,谷歌學術被引量超過1.6萬。
此前應該在Qwen 2.5和Qwen 3團隊待過很長一段時間,2025年起開始在九坤投資發表論文。
![]()
Zhengmao Ye,本科畢業于西南交通大學,在四川大學獲得計算機科學碩士學位。
此前,他曾在華為和商湯科技擔任過技術工作人員。
![]()
你沒看錯,8位Core Contributor就找到了2位的公開資料,真的盡力了.gif
另外,paper的通訊作者,是九坤人工智能實驗室首席研究員和負責人Bryan Dai。
![]()
Paper地址:
file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
參考資料:
[1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
[2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
[3]https://iquestlab.github.io/#/
[4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.