阿里巴巴1月26日正式發(fā)布千問旗艦推理模型Qwen3-Max-Thinking,在多項(xiàng)權(quán)威評(píng)測(cè)中刷新全球紀(jì)錄,成為迄今最接近國(guó)際頂尖模型的國(guó)產(chǎn)AI大模型。這標(biāo)志著中國(guó)大模型從“追平”到“領(lǐng)跑"的關(guān)鍵突破。
據(jù)阿里云發(fā)布的信息,該模型總參數(shù)量超萬(wàn)億,預(yù)訓(xùn)練數(shù)據(jù)量達(dá)36T Tokens,是目前阿里規(guī)模最大、能力最強(qiáng)的千問推理模型。在涵蓋事實(shí)知識(shí)、復(fù)雜推理、指令遵循、人類偏好對(duì)齊、Agent能力等19項(xiàng)公認(rèn)基準(zhǔn)測(cè)試中,Qwen3-Max-Thinking整體性能可媲美GPT-5.2-Thinking、Claude Opus 4.5和Gemini 3 Pro等國(guó)際頂尖模型。
該模型采用全新的測(cè)試時(shí)擴(kuò)展機(jī)制,實(shí)現(xiàn)推理性能大幅提升的同時(shí)更具經(jīng)濟(jì)性。在啟用工具的HLE(Humanity's Last Exam)評(píng)測(cè)中,千問得分58.3,大幅超過GPT-5.2-Thinking的45.5和Gemini 3 Pro的45.8,錄得當(dāng)前所有模型的最高分。
阿里巴巴同日宣布,根據(jù)Hugging Face數(shù)據(jù),Qwen衍生模型數(shù)量突破20萬(wàn),成為全球首個(gè)達(dá)成此目標(biāo)的開源大模型。Qwen系列模型累計(jì)下載量突破10億次,被開發(fā)者日均下載110萬(wàn)次,穩(wěn)居全球開源大模型首位。
推理技術(shù)實(shí)現(xiàn)代際突破
Qwen3-Max-Thinking的核心創(chuàng)新在于測(cè)試時(shí)擴(kuò)展機(jī)制的應(yīng)用。阿里云表示,這種機(jī)制可對(duì)此前推理的結(jié)果進(jìn)行"經(jīng)驗(yàn)提取"式的提煉,并據(jù)此進(jìn)行多輪自我迭代,在相同的上下文中實(shí)現(xiàn)更高效的推理計(jì)算。
這一技術(shù)路徑區(qū)別于業(yè)界普遍采用的推理計(jì)算方式。阿里云指出,傳統(tǒng)方法只會(huì)簡(jiǎn)單增加并行推理路徑,重復(fù)推導(dǎo)已知結(jié)論的情況常見,導(dǎo)致冗余推理效率低下。而千問新模型通過"經(jīng)驗(yàn)提取"機(jī)制,可識(shí)別并剪枝冗余的邏輯路徑,確保算力被用于探索最有價(jià)值的分支。
該模型進(jìn)行了更大規(guī)模的強(qiáng)化學(xué)習(xí)后訓(xùn)練。阿里云數(shù)據(jù)顯示,在此前預(yù)覽版Qwen3-Max-Thinking斬獲數(shù)學(xué)推理AIME 25和HMMT 25國(guó)內(nèi)首個(gè)雙滿分的基礎(chǔ)上,通義團(tuán)隊(duì)進(jìn)一步提升了正式版性能,在多項(xiàng)基準(zhǔn)測(cè)試中刷新最佳表現(xiàn)紀(jì)錄。
在HLE這一被稱為"人類最后的測(cè)試"的評(píng)測(cè)中,千問得分58.3,較GPT-5.2-Thinking和Gemini 3 Pro分別高出12.8分和12.5分。在AI評(píng)測(cè)領(lǐng)域,超過10分的差距通常意味著代際級(jí)的領(lǐng)先。
![]()
原生Agent能力大幅增強(qiáng)
面向智能體時(shí)代,Qwen3-Max-Thinking大幅增強(qiáng)了自主調(diào)用工具的原生Agent能力。該模型可在對(duì)話過程中自主選用搜索、個(gè)性化記憶和代碼解釋器等核心工具功能,提供更符合用戶需求的智能回答。
阿里云介紹,這種能力源自通義團(tuán)隊(duì)專門設(shè)計(jì)的訓(xùn)練流程。在完成初步的工具使用微調(diào)后,團(tuán)隊(duì)對(duì)模型在大量多樣化任務(wù)上進(jìn)行了基于規(guī)則獎(jiǎng)勵(lì)與模型獎(jiǎng)勵(lì)的聯(lián)合強(qiáng)化學(xué)習(xí)訓(xùn)練,使Qwen3-Max-Thinking能夠更智能地結(jié)合工具進(jìn)行思考。
這一能力的提升帶來(lái)實(shí)際應(yīng)用價(jià)值的改變。模型不再是單純的"大腦",需要外掛工具導(dǎo)致指令遵循不穩(wěn)定,而是可以自主判斷何時(shí)搜索互聯(lián)網(wǎng)、何時(shí)編寫代碼、何時(shí)查閱知識(shí)庫(kù),并根據(jù)反饋動(dòng)態(tài)調(diào)整計(jì)劃。阿里云表示,這種機(jī)制大幅降低了模型幻覺,為企業(yè)級(jí)應(yīng)用提供了必要的可靠性保障。
目前,開發(fā)者可在QwenChat上免費(fèi)體驗(yàn)Qwen3-Max-Thinking模型,企業(yè)可通過阿里云百煉獲取新模型API服務(wù)。普通用戶可通過千問PC端和網(wǎng)頁(yè)端試用模型,千問APP也即將接入新模型。
開源生態(tài)確立全球領(lǐng)先地位
Qwen系列在開源生態(tài)的表現(xiàn)展現(xiàn)了中國(guó)大模型的全球影響力。根據(jù)Hugging Face數(shù)據(jù),基于Qwen的衍生模型數(shù)量突破20萬(wàn)個(gè),成為全球首個(gè)達(dá)成此目標(biāo)的開源家族。其累計(jì)下載量突破10億次,日均下載量達(dá)110萬(wàn)次。
這一數(shù)據(jù)意味著Qwen已完全超越此前被視為開源大模型默認(rèn)標(biāo)準(zhǔn)的Meta Llama系列。據(jù)此前報(bào)道,Meta內(nèi)部代號(hào)“牛油果”的秘密項(xiàng)目,在訓(xùn)練新模型時(shí)采用了“蒸餾”技術(shù)向包括Qwen在內(nèi)的多方開源模型學(xué)習(xí),在技術(shù)層面間接承認(rèn)了Qwen在特定能力上的領(lǐng)先。
Qwen的全球采用份額持續(xù)擴(kuò)大。阿里巴巴采用"全尺寸、全模態(tài)"策略,從0.5B到480B的全參數(shù)段覆蓋,以及對(duì)119種語(yǔ)言的支持,使其在東南亞、中東等新興市場(chǎng)迅速成為首選。
這一開源戰(zhàn)略正在轉(zhuǎn)化為實(shí)際的市場(chǎng)優(yōu)勢(shì)。千問APP上線首周下載量突破1000萬(wàn),兩個(gè)月月活突破1億。該應(yīng)用全面接入淘寶、支付寶、飛豬、高德等生態(tài),用戶可通過語(yǔ)音指令完成訂機(jī)票、叫外賣等全流程,將AI價(jià)值從信息層推向交易層。
全棧布局構(gòu)建競(jìng)爭(zhēng)護(hù)城河
阿里巴巴在AI領(lǐng)域的布局覆蓋算力、模型、應(yīng)用全棧。在底層算力方面,平頭哥研發(fā)的PPU在特定推理任務(wù)上的性能已與英偉達(dá)H20相當(dāng),配合倚天710服務(wù)器芯片,構(gòu)建了"一云多芯"的異構(gòu)算力體系。據(jù)市場(chǎng)消息,阿里巴巴已決定支持平頭哥未來(lái)獨(dú)立上市。
阿里云已構(gòu)建起中國(guó)最完整的AI基礎(chǔ)設(shè)施。據(jù)摩根士丹利預(yù)測(cè),阿里云收入將在三年內(nèi)翻倍,從2025財(cái)年的1180億元增長(zhǎng)至2028財(cái)年的2400億元。其目標(biāo)是在2026年拿下中國(guó)AI云市場(chǎng)增量的80%。
阿里CEO吳泳銘去年宣布,未來(lái)三年將投入超過3800億元用于建設(shè)云和AI硬件基礎(chǔ)設(shè)施。這一投入規(guī)模與谷歌、Meta和亞馬遜等美股科技巨頭的AI資本開支處于同一量級(jí),體現(xiàn)了阿里對(duì)AI長(zhǎng)期競(jìng)爭(zhēng)力的戰(zhàn)略判斷。
Qwen3-Max-Thinking的發(fā)布標(biāo)志著阿里巴巴在AI算法上的頂級(jí)實(shí)力得到驗(yàn)證,配合其在算力、應(yīng)用層面的全棧能力,為中國(guó)大模型從"追平"到"領(lǐng)跑"的轉(zhuǎn)變提供了關(guān)鍵案例。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.