![]()
新智元報道
編輯:元宇
【新智元導(dǎo)讀】別人還在卷單點(diǎn)能力,Agnes已經(jīng)把文本Agent、圖像、視頻和辦公自動化打包進(jìn)開發(fā)者工具箱:1美元「養(yǎng)龍蝦」,外加圖像、視頻、PPT一條龍,給出的不是零散的能力點(diǎn),而是一整套AI生產(chǎn)力。
近日,Agnes旗下核心模型矩陣正式上線Zenmux平臺(https://zenmux.ai/models?sort=newest),一口氣開放四款主力模型調(diào)用,覆蓋文本Agent與多模態(tài)生成兩大核心方向。
其中包括Claw系列的Agnes-1.5-Lite與Agnes-1.5-Pro,以及多模態(tài)方向的Agnes-Image-1.2與Agnes-Video-V1.2,直接把「文本+圖像+視頻」的整套能力打包上線。
更值得關(guān)注的是,上線首周模型調(diào)用量即快速攀升,已超過多家頭部模型公司同類產(chǎn)品表現(xiàn),顯示出強(qiáng)勁的市場接受度與開發(fā)者活躍度,成為近期開發(fā)者側(cè)增長最為迅猛的一組模型組合之一。
![]()
Agnes模型矩陣在Zenmux正式上線
在行業(yè)普遍進(jìn)入「性能+成本」雙重競爭階段的背景下,Agnes通過高性價比模型與完整工具鏈的組合,正在迅速打開開發(fā)者生態(tài)入口。
AgnesClaw
低至1美元的「養(yǎng)蝦」入門神器
在OpenClaw熱度持續(xù)攀升之際,Agnes將「Claw」接入自家App,AgnesClaw一鍵部署。
用戶通過訂閱會員(部分地區(qū)Starter新用戶最低可低至1美元/月)即可免費(fèi)部署并使用AgnesClaw,同時解鎖平臺全部高級功能,性價比極高。
AgnesClaw的入口前置到首頁,用戶一鍵部署完成后,在對話框中切換至AgnesClaw模式,即可體驗(yàn)「養(yǎng)龍蝦」,整體學(xué)習(xí)體驗(yàn)成本極低。
AgnesClaw目前支持與Telegram綁定,后續(xù)接入更多平臺,提供定時任務(wù)、長期記憶和skills庫,包括Agnes預(yù)置常用skills(如PPT生成、表格處理、圖像/視頻生成、AI搜索、深度研究等)和開源skills。
部分AI應(yīng)用由于底層模型能力的限制,可能存在無法安裝或流暢運(yùn)行特定skill組件的問題。
而Agnes官方表示,AgnesClaw憑借自研的「龍蝦」基座模型與強(qiáng)大的工具調(diào)用適配能力,幾乎可以無縫安裝并使用絕大多數(shù)熱門skills。
用戶可以利用它創(chuàng)建定時任務(wù)、處理文件并整理為結(jié)構(gòu)化文檔、實(shí)現(xiàn)辦公自動化等。
同時,AgnesClaw具備自我進(jìn)化能力,通過上下文理解和記憶能力,在使用過程中能更好地理解用戶習(xí)慣,從而更有效地協(xié)助完成任務(wù)。
![]()
一鍵部署AgnesClaw
AgnesClaw的最大亮點(diǎn)在于自研的「龍蝦」基座模型,這是賦予Agnes版本「龍蝦」具備更強(qiáng)的理解力和skill適配能力的核心。
Agnes為用戶高性價比「養(yǎng)龍蝦」,專門推出了兩款不同參數(shù)規(guī)模基于LLM優(yōu)化的Agent模型,分別是120B的Agnes-1.5-Pro模型和35B的Agnes-1.5-Lite模型。
![]()
PinchBench榜單中Agnes-1.5 系列模型在準(zhǔn)確性維度表現(xiàn)突出
AgnesClaw定位「下一代極速多模態(tài)混合專家模型」,架構(gòu)上融合了隱式MoE(Latent MoE)、Mamba-2狀態(tài)空間模型與原生多模態(tài)早融合技術(shù),旨在同時解決超長上下文、高頻工具調(diào)用、復(fù)雜Multi-Agent協(xié)作三大痛點(diǎn),打破傳統(tǒng)「規(guī)模-延遲-記憶」三元悖論。
根據(jù)全球權(quán)威「養(yǎng)蝦」AI評測榜單PinchBench,Agnes-1.5-Pro模型在準(zhǔn)確性維度表現(xiàn)突出,已躋身榜單前列,成為開發(fā)者「最佳養(yǎng)蝦模型」選擇之一。
![]()
![]()
PinchBench榜單
Agnes-Image-1.2
開源第一,閉源第二
本次發(fā)布中,Agnes 20B全新圖像編輯模型Agnes-Image-1.2的表現(xiàn)超出預(yù)期。
根據(jù)官方公布的測試數(shù)據(jù),該模型綜合評分達(dá)到4.25分(滿分5分),在閉源模型中僅次于NanoBananaPro的4.48分,超越了Seedream4.0和Seedream4.5,在開源模型中排名第一。
![]()
全新圖像模型綜合評分達(dá)到4.25分(滿分5分)
在單項(xiàng)指標(biāo)上,Agnes-Image-1.2模型在人像維度提升尤為顯著,針對人像場景的定向微調(diào)有效增強(qiáng)了面部細(xì)節(jié)保真、局部編輯可控性以及與背景的自然融合能力,Portrait從3.98提升至4.30(+0.32)。
同時,Extract(2.47→3.05,+0.58)與Viewpoint(2.82→3.17,+0.35)也有進(jìn)一步提升,表明模型在目標(biāo)區(qū)域分離與結(jié)構(gòu)/幾何穩(wěn)定性方面更可靠,有助于復(fù)雜編輯任務(wù)的一致性表現(xiàn)。
完整模型家族
覆蓋多模態(tài)全鏈路
除了Agnes-1.5-Pro與Agnes-1.5-Lite兩款模型和Agnes-Image-1.2圖像編輯模型,Agnes這次還亮出了更加完整的模型矩陣,包括搜索與研究模型、AI Slides模型、圖片與視頻生成模型。
在圖片和視頻生成領(lǐng)域,Agnes構(gòu)建了完整模型體系,包括圖像和視頻模型。除了之前介紹的Agnes-Image-1.2(20B)模型,Agnes另外還有一款19B的Agnes-Video-V1.2視頻生成模型。
據(jù)了解,Agnes-Video-V1.2可實(shí)現(xiàn)原生音畫同步生成,支持圖生視頻和特定風(fēng)格/角色的生成,可適配多種業(yè)務(wù)場景。
該模型采用雙流音視頻Transformer架構(gòu),能在同一模型中同時生成音頻與視頻,從而實(shí)現(xiàn)人物口型、動作與聲音天然同步。模型經(jīng)測試可在有限顯存環(huán)境下運(yùn)行,方便企業(yè)級規(guī)模化部署和個人開發(fā)者的本地實(shí)驗(yàn)。
在語言模型方面,Agnes針對自己的主推市場東南亞地區(qū),推出了8B參數(shù)的東南亞小語種模型Agnes-SeaLLM,目前已成為該地區(qū)小語種理解與生成任務(wù)SOTA模型。
![]()
東南亞小語種模型Agnes-SeaLLM
在信息處理和研究能力方面,Agnes發(fā)布了Agnes-Search(30B)模型和面向復(fù)雜研究任務(wù)的Agnes-DeepResearch(30B)模型。
前者在內(nèi)部測試中實(shí)現(xiàn)78.6%的推理成本下降,生成速度提升18.6%;后者測試引用準(zhǔn)確率為100%,基準(zhǔn)測試準(zhǔn)確率平均提升14.3%。
在辦公自動化場景中,Agnes-Slides(30B)模型可以將網(wǎng)頁或文檔內(nèi)容自動生成為PPT,通常1分鐘即可生成15—20頁演示文稿,平均生成成本低至約每頁幾美分。
模型后訓(xùn)練為主
RLAF框架減少人工依賴
在底層訓(xùn)練范式上,Agnes采用的是一整套連續(xù)演進(jìn)的技術(shù)路徑:從CPT(continuous pre-training,持續(xù)預(yù)訓(xùn)練)到PT(post-training,后訓(xùn)練),再到以自建RL(reinforcement learning)為核心的強(qiáng)化階段,使模型能力可以持續(xù)迭代,而非一次性收斂。
更關(guān)鍵的是,他們把「進(jìn)化」這件事,從模型層擴(kuò)展到了Agent層。
在AgnesClaw體系中,Agent不僅調(diào)用skills,還可以在任務(wù)執(zhí)行過程中通過反饋不斷優(yōu)化自身策略,實(shí)現(xiàn)智能體與skills的協(xié)同自進(jìn)化。
這意味著,系統(tǒng)能力不再完全依賴預(yù)訓(xùn)練,而是在真實(shí)使用中持續(xù)變強(qiáng)。
支撐這套體系的,是一支高度國際化的研究團(tuán)隊(duì)——成員來自斯坦福、伯克利、MIT、NUS、NTU,以及清華、浙大、南大、東大等頂尖高校,核心科研帶頭人包括來自微軟亞研院、英特爾研究院的首席科學(xué)家,以及高校教授與圖靈獎得主門下研究者。
他們提出了一套名為RLAF(Reinforcement Learning with Agentic Feedback)的帶智能反饋的新的強(qiáng)化學(xué)習(xí)框架,以減少對人工標(biāo)注的依賴。該框架包含兩個自研核心組件:
DSPO(Dynamic-filter Sequence-level Policy Optimization):動態(tài)過濾序列級策略優(yōu)化算法。
官方數(shù)據(jù)顯示,在同規(guī)模模型對比中,相比DeepSeek Search-R1 (GRPO,7B)實(shí)現(xiàn)34.1%的性能提升。
UV(Universal Verifier):通用驗(yàn)證器,用智能評估器替換人工標(biāo)注數(shù)據(jù)和人工定義的獎勵機(jī)制。
在RLAF框架中,多個AI Agent會對模型輸出進(jìn)行自動評估,從邏輯一致性、事實(shí)準(zhǔn)確性和任務(wù)完成度等多個維度生成反饋信號。
這種「AI訓(xùn)練AI」的方式,可以減少大量人工標(biāo)注,從而降低訓(xùn)練成本并提升效率。
隨著AI行業(yè)進(jìn)入新一輪競爭階段,成本效率正逐漸成為商業(yè)化成敗的關(guān)鍵因素。而此次登陸Zenmux(https://zenmux.ai/models?sort=newest),某種程度上也是Agnes一個關(guān)鍵分水嶺——
模型不再只是「榜單表現(xiàn)」,而是直接進(jìn)入開發(fā)者真實(shí)調(diào)用與對比的第一線。
從上線一周的調(diào)用表現(xiàn)來看,這套Claw+多模態(tài)組合已經(jīng)開始改寫一部分開發(fā)者的選擇。
當(dāng)越來越多模型走向平臺化分發(fā),真正能留下來的,或許不只是更強(qiáng)的參數(shù)規(guī)模,而是誰更便宜、誰更好用、誰更能被快速接入真實(shí)世界。
Agnes,顯然正在把答案往這個方向推。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.