<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      「北京版幻方」開源SOTA代碼模型!40B參數(shù)掀翻Opus-4.5和GPT-5.2

      0
      分享至

      衡宇 發(fā)自 凹非寺
      量子位 | 公眾號 QbitAI

      又一個中國新模型被推到聚光燈下,刷屏國內(nèi)外科技圈。

      IQuest-Coder-V1模型系列,看起來真的很牛。

      在最新版SWE-Bench Verified榜單中,40B參數(shù)版本的IQuest-Coder取得了81.4%的成績,這個成績甚至超過了Claude Opus-4.5和GPT-5.2(這倆模型沒有官方資料,但外界普遍猜測參數(shù)規(guī)模在千億-萬億級)。

      Oh~Tiny Core, Titan Power。



      好,看到這里我盲猜很多人肯定已經(jīng)開始邊搖頭邊笑了。

      畢竟這年頭,benchmark的權(quán)威猶在,但說服力似乎已經(jīng)大不如前了。

      那咱們就看看這個模型跑出來的case——

      Prompt:編寫一個網(wǎng)頁來展示一個逼真的太陽系模擬。

      然后你將得到:



      可以自由切換各種視角,讓畫面暫停、放大,調(diào)整公轉(zhuǎn)速度也ok。

      選中具體的行星,還會跳出相應(yīng)的名字和簡單介紹。



      目前,這套代碼大模型系列已經(jīng)在GitHub和抱抱臉上開源

      有一個重點一定要劃!!!

      這個模型團(tuán)隊IQuest,和DeepSeek團(tuán)隊一個路數(shù),都出自中國的量化私募。

      背后公司就是北京版幻方量化——九坤投資

      (兩家公司都是業(yè)內(nèi)公認(rèn)的量化私募頭部)

      X、Reddit等平臺上,關(guān)于IQuest-Coder的消息和對中國量化公司殺入AI模型戰(zhàn)場的討論已經(jīng)滿天飛了。

      有網(wǎng)友一臉unbelievable地問出了令他詫異的問題:

      • 中國量化公司到底吸納了些什么人才,才能把模型訓(xùn)練成這樣啊???



      Ok,一起來看看這套模型的詳細(xì)情況吧~

      IQuest-Coder-V1系列

      從定位上看,IQuest-Coder-V1是一套覆蓋多個參數(shù)規(guī)模與使用場景的家族版本,專注于代碼生成、代碼理解與軟件工程任務(wù)的模型系列

      參數(shù)有7B、14B和40B的,每個規(guī)模均提供Instruct和Thinking兩種版本。

      其中,Instruct偏向指令跟隨與工程使用,更高效;Thinking強(qiáng)化復(fù)雜推理和多步問題拆解,響應(yīng)時間更長。



      特別提醒大家注意一下,40B參數(shù)規(guī)模的IQuest-Coder-V1額外提供了Loop版本,用于探索更高的參數(shù)利用效率。

      與計算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache開銷顯著降低,而吞吐量大幅提升。

      僅增加約5%的訓(xùn)練成本,Loop架構(gòu)下,40B模型達(dá)到數(shù)百億參數(shù)MoE模型的水平。



      在架構(gòu)設(shè)計上,IQuest-Coder-V1系列強(qiáng)調(diào)了“工程友好”和“長上下文可用性”。

      官方在GitHub上給出的四點架構(gòu)特性分別是:

      • 分組查詢注意力(Grouped Query Attention,GQA)以實現(xiàn)高效推理
      • 原生支持128K上下文長度
      • 詞表大小:76800個token
      • 循環(huán)變體采用了具有共享參數(shù)的循環(huán)Transformer設(shè)計,該設(shè)計在兩個迭代過程中保持一致。

      首先說說GQA的引入。

      通過減少KV頭數(shù)量來降低推理階段的顯存占用和計算壓力,對長上下文場景超級友好。

      其次,模型原生支持128K上下文長度。這就讓模型有能力直接處理完整代碼倉庫、跨文件依賴以及大規(guī)模工程上下文。

      第三,76800個token的詞表大小,更貼近真實代碼環(huán)境中頻繁出現(xiàn)的標(biāo)識符、路徑名和符號組合。

      最后,在Loop變體中,模型采用了具有跨兩次迭代共享參數(shù)的循環(huán)Transformer設(shè)計,用重復(fù)計算換取更高的參數(shù)利用率,在不線性擴(kuò)大模型規(guī)模的前提下提升性能。

      作者刻意指出,這和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更強(qiáng)調(diào)推理階段的穩(wěn)定性。

      這些特性組合在一起,有利于模型在真實軟件工程場景中跑得更好



      來看官方展示的更多case。

      Prompt 1:構(gòu)建一個粒子-文本動畫,滿足以下要求。

      • 文本采樣:將給定文本(例如,IQuest)在 Canvas 上轉(zhuǎn)換為由數(shù)百個小粒子組成的點陣。
      • 狀態(tài):每個粒子都有一個當(dāng)前位置和一個目標(biāo)位置(形成文本)。
      • 交互式物理效果:當(dāng)鼠標(biāo)靠近時相互排斥和散開;當(dāng)鼠標(biāo)移開時平滑地彈回。
      • 視覺效果與緩動:隨機(jī)/漸變顏色,用于整體運(yùn)動的緩動效果。



      Prompt 2:構(gòu)建一個實時像素沙盒游戲。

      通過按鈕切換沙子、水、石頭和酸液;在畫布上涂畫可生成具有不同顏色的元素;大規(guī)模更新依然流暢;元素會自然下落并流動。



      Prompt 3:構(gòu)建一個完整的單文件HTML5 Canvas太空射擊游戲,具有復(fù)古霓虹美學(xué)和明顯的戰(zhàn)斗反饋。

      • 視覺風(fēng)格:黑色背景,高飽和度霓虹幾何形狀,街機(jī)感。
      • 控制:WASD移動;兩種瞄準(zhǔn)/炮塔模式(鼠標(biāo)跟隨,或按R鍵旋轉(zhuǎn)炮塔)。
      • 射擊:帶完整視覺效果的自動射擊太空飛船。
      • 反饋:擊殺時,出現(xiàn)粒子爆炸效果;受到傷害時,屏幕會震動。
      • 敵人:普通士兵/奇襲者/重型坦克,以及Boss戰(zhàn)。
      • 進(jìn)階:按P鍵能升級火力。



      Prompt 4:基于鳥群算法的仿生鳥/魚群體模擬,擁有150個以上的自主Agent,有實時調(diào)節(jié)功能。

      • 核心規(guī)則:分離(避免碰撞)、對齊(速度匹配)和內(nèi)聚(群體中心)。
      • 實時面板:調(diào)整分離/對齊/凝聚權(quán)重(0-3)、視覺半徑(20-150 像素)和最大速度。
      • 交互:鼠標(biāo)充當(dāng)捕食者,使附近的智能體散開。
      • 渲染:在深色背景下,以運(yùn)動方向旋轉(zhuǎn)的霓虹三角形和發(fā)光軌跡。
      • 工具:FPS 計數(shù)器和暫停/繼續(xù)(空格鍵)。



      與眾不同的“代碼流多階段訓(xùn)練”訓(xùn)練策略

      IQuest-Coder的訓(xùn)練流程如下——

      預(yù)訓(xùn)練階段先用通用數(shù)據(jù)和大規(guī)模代碼數(shù)據(jù)打底,然后通過高質(zhì)量代碼annealing強(qiáng)化基礎(chǔ)代碼表征。

      中期訓(xùn)練階段第一次明確引入reasoning、agent trajectory和長上下文代碼,并且分32K和128K兩個尺度逐步推進(jìn)。

      最終post-training階段,模型被明確分流成instruct路線和thinking路線,分別用不同目標(biāo)函數(shù)和RL方式收斂。



      官方強(qiáng)調(diào),IQuest-Coder-V1系列采用了與傳統(tǒng)單一靜態(tài)源代碼訓(xùn)練不同的訓(xùn)練策略。

      稱之為code-flow multi-stage training

      與大量代碼模型側(cè)重從靜態(tài)代碼片段中學(xué)習(xí)不同,這套方法強(qiáng)調(diào)從代碼的演化過程中學(xué)習(xí)。

      團(tuán)隊專門設(shè)計了基于項目生命周期的triplet數(shù)據(jù)構(gòu)造方式,用 (R_old, Patch, R_new) 這樣的結(jié)構(gòu),讓模型看到穩(wěn)定期代碼、變更內(nèi)容以及變更后的結(jié)果。

      而且刻意避開項目早期和后期,只取40%–80%生命周期區(qū)間。

      這一步實際上把“軟件工程經(jīng)驗”顯式編碼進(jìn)了訓(xùn)練數(shù)據(jù)里

      所以模型看到的并不只是某一時刻的完成態(tài)代碼,還包括修改前后的差異、提交歷史中的邏輯變化,以及真實工程中反復(fù)試錯和修正的痕跡。

      也就是說模型被訓(xùn)練得能夠捕捉軟件邏輯的動態(tài)演變。



      不少網(wǎng)友猜測,這就是IQuest-Coder-V1在多個軟件工程類評測中表現(xiàn)突出的重要原因之一。

      這套模型成績確實亮眼。

      • SWE-Bench Verified:81.4%
      • BigCodeBench:49.9%
      • LiveCodeBench v6:81.1%



      下面這張圖體現(xiàn)得更直觀一點,IQuest-Coder在八個代碼、Agentic相關(guān)榜單上都獨(dú)占鰲頭。



      不過,GitHub上白紙黑字寫著,模型可以生成代碼,但不能執(zhí)行,始終在沙盒環(huán)境中驗證輸出結(jié)果。

      部署方面,官方信息顯示,不管是基礎(chǔ)版本還是Loop版本,都支持單卡H20推理。

      其Int4版本可在單張消費(fèi)級3090/4090 GPU上部署。



      有網(wǎng)友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架構(gòu)。



      隨著關(guān)注度上升,質(zhì)疑也同步出現(xiàn)。



      九坤投資公司是誰?

      好,最后我們來認(rèn)識一下IQuest-Coder背后的公司,九坤投資(Ubiquant Holding Limited)。

      公司成立于2012年,是中國較早一批專注量化投資和高頻交易的私募機(jī)構(gòu)之一,目前管理規(guī)模在數(shù)百億元人民幣,和幻方同屬于公認(rèn)的國內(nèi)量化私募頭部公司。

      九坤主要辦公地在北京,3周前開設(shè)了新加坡辦公室。

      聯(lián)合創(chuàng)始人王琛,2000年考入清華大學(xué),獲得數(shù)學(xué)物理學(xué)士學(xué)位和理論計算機(jī)博士學(xué)位,博士期間師從圖靈獎得主姚期智院士。

      博士畢業(yè)后,王琛就職于美國頂級對沖基金Millennium,后創(chuàng)業(yè)擔(dān)任九坤投資聯(lián)合創(chuàng)始人、CEO。

      聯(lián)合創(chuàng)始人姚齊聰,2002年考入北京大學(xué)數(shù)學(xué)系,獲得數(shù)學(xué)學(xué)士和金融數(shù)學(xué)碩士學(xué)位。

      碩士畢業(yè)后進(jìn)入Millennium,后與王琛共同創(chuàng)業(yè),主要負(fù)責(zé)九坤投研體系搭建、量化策略開發(fā)和風(fēng)險管理,被視為公司策略和風(fēng)控體系的核心設(shè)計者之一。

      九坤的投研與技術(shù)團(tuán)隊人數(shù)超過百人,90%以上畢業(yè)于清華、北大、復(fù)旦、斯坦福等國內(nèi)外知名高校,博士占比超過60%。

      公開信息顯示,這家公司目前也傾向于從全球頂尖高校招募具有計算機(jī)、數(shù)學(xué)、物理、統(tǒng)計學(xué)等背景的應(yīng)屆畢業(yè)生。



      在AI領(lǐng)域,幻方更早憑DeepSeek站到臺前。

      不過查詢有關(guān)資料發(fā)現(xiàn),此前九坤也很注重AI技術(shù)這一塊

      目前,九坤的IT和算力建設(shè)位居國內(nèi)量化機(jī)構(gòu)前三,并建立了數(shù)據(jù)實驗室(DATA LAB)、人工智能實驗室(AI LAB)等多個前沿實驗室。

      本次發(fā)布的IQuest-Coder就出自其發(fā)起設(shè)立的獨(dú)立研究平臺至知創(chuàng)新研究院。

      倒也不全是為了把AI用在金融市場預(yù)測和交易決策啦——前段時間(2025年12月16日),九坤已經(jīng)推出過通用推理模型URM。

      該模型在ARC-AGI正確率為53.8%,當(dāng)允許多次嘗試時,URM的成功率能達(dá)到85%以上;在更困難的ARC-AGI 2上也拿到了16.0%。

      Paper最后附上了IQuest-Coder團(tuán)隊的成員名單。



      挺長的,就不一一介紹了。

      不過我們發(fā)現(xiàn)這篇paper的核心作者層,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者陣容重合度非常高。

      所以這里稍微展開介紹一下Core Contributor的幾位成員。

      (注:IQuestLab團(tuán)隊成員很多沒有公開個人檔案,我們這里放出可尋找到的公開資料)

      Jian Yang,谷歌學(xué)術(shù)被引量超過1.6萬。

      此前應(yīng)該在Qwen 2.5和Qwen 3團(tuán)隊待過很長一段時間,2025年起開始在九坤投資發(fā)表論文。



      Zhengmao Ye,本科畢業(yè)于西南交通大學(xué),在四川大學(xué)獲得計算機(jī)科學(xué)碩士學(xué)位。

      此前,他曾在華為和商湯科技擔(dān)任過技術(shù)工作人員。



      你沒看錯,8位Core Contributor就找到了2位的公開資料,真的盡力了.gif

      另外,paper的通訊作者,是九坤人工智能實驗室首席研究員和負(fù)責(zé)人Bryan Dai



      Paper地址:
      file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
      參考資料:
      [1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
      [2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
      [3]https://iquestlab.github.io/#/
      [4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      醫(yī)院里你見過最離譜的事是啥?網(wǎng)友:這年頭啥稀奇事都有可能發(fā)生

      醫(yī)院里你見過最離譜的事是啥?網(wǎng)友:這年頭啥稀奇事都有可能發(fā)生

      帶你感受人間冷暖
      2025-12-31 00:20:05
      江一燕,官宣離婚!

      江一燕,官宣離婚!

      黎兜兜
      2025-11-05 21:50:24
      300萬打出3000萬效果!本賽季底薪高能的5名球員,一人比肩全明星

      300萬打出3000萬效果!本賽季底薪高能的5名球員,一人比肩全明星

      兵哥籃球故事
      2026-01-02 19:15:22
      不得不說這兩位阿姨真的很會打扮,既優(yōu)雅又有女人味

      不得不說這兩位阿姨真的很會打扮,既優(yōu)雅又有女人味

      牛彈琴123456
      2025-12-25 10:19:13
      離岸人民幣兌美元升破6.97,最高升至6.9678,創(chuàng)2023年5月以來新高

      離岸人民幣兌美元升破6.97,最高升至6.9678,創(chuàng)2023年5月以來新高

      每日經(jīng)濟(jì)新聞
      2026-01-02 09:16:04
      紅軍長征之后,留守蘇區(qū)的領(lǐng)導(dǎo)人大多是主席一派的人,這些人最終有著怎樣的結(jié)局?

      紅軍長征之后,留守蘇區(qū)的領(lǐng)導(dǎo)人大多是主席一派的人,這些人最終有著怎樣的結(jié)局?

      史海孤雁
      2025-12-30 21:15:34
      梅西當(dāng)選巴薩官方本世紀(jì)最佳10號!但這個定位太矮化球王了!

      梅西當(dāng)選巴薩官方本世紀(jì)最佳10號!但這個定位太矮化球王了!

      氧氣是個地鐵
      2026-01-02 21:31:38
      淚目了!大家斷崖式衰老都在多少歲?說出來讓我心里平衡下

      淚目了!大家斷崖式衰老都在多少歲?說出來讓我心里平衡下

      另子維愛讀史
      2025-12-29 18:05:03
      征信“更新”!多地網(wǎng)友曬貸款逾期記錄清零截圖

      征信“更新”!多地網(wǎng)友曬貸款逾期記錄清零截圖

      21世紀(jì)經(jīng)濟(jì)報道
      2026-01-02 10:31:41
      男子中1000萬彩票后失蹤6年,母親去女兒家探親,打開地窖崩潰

      男子中1000萬彩票后失蹤6年,母親去女兒家探親,打開地窖崩潰

      罪案洞察者
      2025-07-10 09:30:11
      太突然!知名男明星在家中去世!前一天還在發(fā)帖!家人為錢反目,一生未婚無兒女

      太突然!知名男明星在家中去世!前一天還在發(fā)帖!家人為錢反目,一生未婚無兒女

      澳洲紅領(lǐng)巾
      2025-12-31 13:29:52
      1200元節(jié)日補(bǔ)助確認(rèn)到賬!6類人春節(jié)前能領(lǐng)錢

      1200元節(jié)日補(bǔ)助確認(rèn)到賬!6類人春節(jié)前能領(lǐng)錢

      李博世財經(jīng)
      2026-01-01 17:04:41
      軍隊再強(qiáng)大,經(jīng)濟(jì)再富足,武器再尖端,沒有偉大領(lǐng)袖,全都白瞎

      軍隊再強(qiáng)大,經(jīng)濟(jì)再富足,武器再尖端,沒有偉大領(lǐng)袖,全都白瞎

      扶蘇聊歷史
      2025-12-25 16:04:10
      臺海炸雷!中美攤牌,這一天終于來了!

      臺海炸雷!中美攤牌,這一天終于來了!

      大嘴說天下
      2025-12-31 22:23:29
      美的空調(diào)2026年1月起將調(diào)整價格

      美的空調(diào)2026年1月起將調(diào)整價格

      家電圈
      2026-01-02 11:12:41
      夫妻性生活的“黃金時長”是多少?別再被電影騙了!

      夫妻性生活的“黃金時長”是多少?別再被電影騙了!

      精彩分享快樂
      2025-11-29 00:00:03
      不合群、耍陰招?被央視點名的王曼昱,"真實處境"被孫穎莎揭開

      不合群、耍陰招?被央視點名的王曼昱,"真實處境"被孫穎莎揭開

      閱識
      2025-10-29 16:36:13
      運(yùn)動抗癌被實錘?美國哈佛證實:最好的抗癌運(yùn)動,并不是走路

      運(yùn)動抗癌被實錘?美國哈佛證實:最好的抗癌運(yùn)動,并不是走路

      健康科普365
      2025-12-27 18:20:03
      DeepSeek:一場無解的陽謀,讓美國陷入兩難之境!

      DeepSeek:一場無解的陽謀,讓美國陷入兩難之境!

      遇見洞見
      2025-09-15 20:10:09
      南博秘密藏不住了!疑似大魚浮出水面,背景強(qiáng)大手眼通天......

      南博秘密藏不住了!疑似大魚浮出水面,背景強(qiáng)大手眼通天......

      行走的知識庫
      2025-12-28 14:48:50
      2026-01-03 03:04:49
      量子位 incentive-icons
      量子位
      追蹤人工智能動態(tài)
      11960文章數(shù) 176354關(guān)注度
      往期回顧 全部

      科技要聞

      新勢力年榜:零跑險勝華為,蔚來小鵬新高

      頭條要聞

      民調(diào)稱25%臺灣人愿上戰(zhàn)場 呂秀蓮:圍臺軍演后數(shù)據(jù)更低

      頭條要聞

      民調(diào)稱25%臺灣人愿上戰(zhàn)場 呂秀蓮:圍臺軍演后數(shù)據(jù)更低

      體育要聞

      快船似乎又行了

      娛樂要聞

      田亮一家新年全家福!森碟變清純少女

      財經(jīng)要聞

      車企2026開年大促 含16個品牌近70款

      汽車要聞

      方程豹全年銷量超23.4萬輛 同比暴增316.1%

      態(tài)度原創(chuàng)

      親子
      本地
      游戲
      數(shù)碼
      公開課

      親子要聞

      教育部下了硬指令,私立幼兒園老板們慌了,估計吃安眠藥都睡不著

      本地新聞

      即將過去的2025年,對重慶的影響竟然如此深遠(yuǎn)

      玩家流失95%!《師父》開發(fā)商新作狀況不佳

      數(shù)碼要聞

      烏克蘭前線士兵曝照:遭炮彈彈片擊穿的 MacBook Air 仍能開機(jī)工作

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 日韩高清日韩一区二区三区四区| 久久av无码精品人妻出轨| 亚洲第一av| 色偷偷88888欧美精品久久久| 日韩国产色色网| 精品国产人妻一区二区三区| 丝袜国产一区av在线观看| 美女黄网站视频免费视频| 色欲天天色| 亚洲人成色77777| 少妇人妻互换不带套| 午夜福利92国语| 亚洲AV一二三| 久热中文字幕在线精品观| 在线观看成人永久免费网站| 国产精品午夜福利在线观看| 疯狂做受xxxx高潮不断| 人妻小说区图片区| 亚洲日韩中文第一精品| 欧美亚洲另类制服卡通动漫| 伊人在线视频| 国产三级精品三级男人的天堂| 草草浮力影视CCYYCOM| 女人18毛片水真多| 亚洲成αv人片在线观看| 色情无码一区二区三区| 在线欧美中文字幕农村电影| 99re在线| 高清久久精品亚洲日韩Av| 亚洲精品av一区在线观看| 黑人VA| 小13箩利洗澡无码视频网站| 最新亚洲人成无码WWW| 久久精品国产久精国产一老狼| 国产精品国产三级国产a| 国产精品国产三级国产专区53| 免费人成年激情视频在线观看| 久久久精品人妻一区二区三区| 大学生久久香蕉国产线看观看| 浮妇高潮喷白浆视频| 国产一卡一卡|