![]()
機(jī)器之心發(fā)布
剛剛,世界模型初創(chuàng)公司 Feeling AI 正式發(fā)布并開(kāi)源MemBrain1.5和CodeBrain-1。這兩項(xiàng)在全球 Agentic 領(lǐng)域的頂尖工作同時(shí)開(kāi)源,將正式終結(jié) AI “無(wú)狀態(tài)” 的工具時(shí)代,為世界模型植入具備自主邏輯與層級(jí)化記憶的 “原生大腦”,開(kāi)啟人機(jī)深度協(xié)同的交互新范式。
- CodeBrain-1 開(kāi)源地址:https://github.com/feelingai-team/CodeBrain
- MemBrain1.5 開(kāi)源地址:https://github.com/feelingai-team/MemBrain
CodeBrain 如何為 Agent 換上 “編譯器之眼”?
CodeBrain 作為具備動(dòng)態(tài)規(guī)劃與策略調(diào)整能力的 “進(jìn)化大腦”,它通過(guò)優(yōu)化任務(wù)的執(zhí)行邏輯和錯(cuò)誤反饋機(jī)制,顯著提升了模型在真實(shí)終端環(huán)境下的操作成功率。在技術(shù)實(shí)現(xiàn)上專注打磨了兩個(gè)直接影響 “能否成功且高效地完成任務(wù)” 的環(huán)節(jié)。一則是 Useful Context Searching:只用 “真正有用” 的上下文,二則是 Validation Feedback:讓失敗真正變成信息。
春節(jié)前 CodeBrain-1 搭載 GPT-5.3-Codex 底座模型更是在衡量 Agent 真實(shí)工程能力全球權(quán)威基準(zhǔn) Terminal-Bench 2.0 榜單上一舉沖到 72.9% 并躋身全球排行榜前列,成為榜單前 10 中唯一的中國(guó)團(tuán)隊(duì)。
CodeBrain-1.5 持續(xù)領(lǐng)跑全球:性能更優(yōu)、成本腰斬
除了此次開(kāi)源的 CodeBrain-1,CodeBrain-1.5 以 81.3% 的成績(jī),持續(xù)領(lǐng)跑全球開(kāi)源和閉源隊(duì)列,在 Claude-Opus-4.6、MiniMax-M2.5、GLM-5、Qwen3.5 等 Terminus-2 Baseline 的基礎(chǔ)上均能大幅提升基座模型的成績(jī)和性能表現(xiàn)。
![]()
天下苦 Token 又費(fèi)又貴久矣!
值得一提的是,除了技術(shù)指標(biāo)的持續(xù)領(lǐng)先,CodeBrain 還大幅降低了開(kāi)發(fā)者和付費(fèi)用戶的使用成本。在 Terminal-Bench 2.0 的 89 全量任務(wù)測(cè)試中,使用 Claude-Opus-4.6 的 Token 成本為 $313.0,而在 CodeBrain 的加持下這一成本僅為 $112.9,直降 63.9%。這也證明了結(jié)構(gòu)化感知不僅是精度問(wèn)題,更是商業(yè)和生意問(wèn)題。
實(shí)踐中的弊端越來(lái)越明顯:缺乏編譯器級(jí)別的診斷
目前的頂尖 Agent(如 Claude Code、Cursor、OpenCode)缺乏結(jié)構(gòu)化的代碼智能,在處理小型文件時(shí)表現(xiàn)驚艷,但一旦進(jìn)入多語(yǔ)言、數(shù)百萬(wàn)行代碼的 Monorepo(大倉(cāng)庫(kù)),便會(huì)陷入 “情報(bào)困局”。它們通常依賴原始的文本搜索(grep)和文件讀取(cat)來(lái)理解代碼,目前沒(méi)有標(biāo)準(zhǔn)方式讓 Agent 在編輯循環(huán)中獲取編譯器級(jí)別的診斷、符號(hào)導(dǎo)航或影響分析。這種方式在工程實(shí)踐中的弊端已經(jīng)越來(lái)越明顯:
- 低效: 為了找一個(gè)函數(shù)定義,Agent 可能要執(zhí)行幾十次 ls 和 find
- 模糊: 簡(jiǎn)單的字符串匹配無(wú)法區(qū)分 “函數(shù)調(diào)用” 與 “注釋文本”
- 脆弱: 一旦環(huán)境配置微調(diào),Agent 就會(huì)因?yàn)檎也坏揭蕾嚩萑胨姥h(huán)
5 層架構(gòu):任何 Agent 均可調(diào)用的工業(yè)級(jí)邏輯大腦
Agent 的大腦在加速迭代中始終缺乏一套能看穿代碼邏輯的 “視覺(jué)神經(jīng)”。針對(duì)這一瓶頸,CodeBrain 給出了一套極具工程美學(xué)的解決方案。它不是一個(gè)簡(jiǎn)單的 Prompt 集合,而是一個(gè)分為 5 層、約 7,600 行代碼的Python 庫(kù) + MCP 服務(wù)器,將 LSP 語(yǔ)言服務(wù)器和 tree-sitter 語(yǔ)法封裝為 11 個(gè)面向意圖的工具,任何 Agent 均可調(diào)用,并賦予 Agent 架構(gòu)師級(jí)的邏輯直覺(jué)。其 5 層可堪為工業(yè)級(jí)架構(gòu)包含:
- 核心層:模型,配置,工作區(qū),工具鏈
- 引擎層: LSP 引擎 + 降級(jí)鏈,Tree-sitter 搜索
- 工具層: 8 個(gè)原子操作實(shí)現(xiàn)驗(yàn)證、導(dǎo)航和搜索
- 技能層:上下文診斷,影響分析,符號(hào)搜索
- MCP 服務(wù)器:一鍵可用,11 個(gè)面向意圖的工具
![]()
此外,在此次開(kāi)源的版本中還支持了多種供開(kāi)發(fā)者靈活使用的功能:
- 多語(yǔ)言支持: Python、Go、TypeScript/JavaScript、C/C++ 統(tǒng)一接口。
- 優(yōu)雅降級(jí)鏈:FallbackChain 在語(yǔ)言服務(wù)器不可用時(shí)自動(dòng)切換到 CLI 工具(pyright、go vet、tsc)。
- Monorepo 感知:自動(dòng)發(fā)現(xiàn)子項(xiàng)目并解析各自工具鏈(venv、go.mod、tsconfig、CMake)。
- 零框架耦合:純 Python,兼容任意 MCP 客戶端。
- 面向意圖的工具:將 20 個(gè)底層 LSP 操作整合為 LLM 實(shí)際需要的工具:validate、explore_symbol、search、check_impact、debug_trace、rename_symbol 等。
![]()
視頻鏈接:
https://mp.weixin.qq.com/s/-NYZl_zWbtsyFNmDH1FCUQ
開(kāi)發(fā)者直接在 Claude Code 調(diào)用工具和 MCP 演示
讓 Agent 從 “工程師助手” 變?yōu)?“可信賴的交付專家”
基于嚴(yán)謹(jǐn)?shù)募軜?gòu)設(shè)計(jì)和眾多靈巧的功能特性,CodeBrain 為 Agent 實(shí)打?qū)崕?lái)了頂尖工程師級(jí)別的能力升級(jí)和成本節(jié)省,讓 Agent 真正從 “聰明的工程師助手” 變?yōu)?“可信賴的交付專家”。
- 快速掌握項(xiàng)目結(jié)構(gòu):通過(guò) outline + list_subprojects,Agent 一次調(diào)用即可獲取代碼庫(kù)的文件層級(jí)、符號(hào)樹(shù)和子項(xiàng)目邊界,替代數(shù)十次 ls、cat、find 操作。
- 降低代碼搜索成本:基于 tree-sitter 的結(jié)構(gòu)化搜索(search)按語(yǔ)法角色查找符號(hào)(函數(shù)定義、類聲明、接口實(shí)現(xiàn)),而非簡(jiǎn)單字符串匹配;結(jié)合 PageRank 符號(hào)圖,Agent 優(yōu)先找到關(guān)鍵內(nèi)容,無(wú)需在 grep 噪音中篩選。
- 收緊編輯-驗(yàn)證循環(huán):validate 在編輯后立即提供編譯器級(jí)診斷(錯(cuò)誤、警告),附帶完整上下文(定義位置、引用、類型信息、修復(fù)建議);Agent 無(wú)需運(yùn)行完整構(gòu)建即可捕獲類型錯(cuò)誤、缺失導(dǎo)入和簽名不匹配。
- 使重構(gòu)更安全:check_impact + explore_symbol 在 Agent 提交更改前展示所有調(diào)用者、用途和下游破壞;rename_symbol 原子性地準(zhǔn)備全工作區(qū)的重命名編輯。
- 加速調(diào)試:debug_trace 解析 5 種語(yǔ)言(Python、JS/TS、Go、C/C++、Rust)的堆棧追蹤,用 LSP 上下文豐富每幀(類型信息、定義、引用計(jì)數(shù)),自動(dòng)定位根因 —— 省去 Agent 逐幀讀文件的過(guò)程。
- 跨環(huán)境可靠工作:優(yōu)雅降級(jí)意味著 Agent 始終獲得診斷能力 ——LSP 可用時(shí)使用完整功能,不可用時(shí)自動(dòng)切換到 CLI 回退(pyright、go vet、tsc)。check_health 報(bào)告各語(yǔ)言服務(wù)器狀態(tài)和修復(fù)步驟。
- 原生支持 Monorepo:自動(dòng)檢測(cè)子項(xiàng)目邊界(pyproject.toml、go.mod、tsconfig.json、CMakeLists.txt)并解析各自工具鏈 ——Agent 無(wú)需預(yù)先了解倉(cāng)庫(kù)布局。
- CodeBrain-1 開(kāi)源地址:https://github.com/feelingai-team/CodeBrai
MemBrain 如何重構(gòu) Agentic 原生記憶大腦?
在 OpenAI 和 Anthropic 持續(xù)推高上下文窗口的上限時(shí),MemBrain 的破局點(diǎn)在于用 Agentic 原生思路重構(gòu)整個(gè)記憶系統(tǒng)。MemBrain 在算法結(jié)構(gòu)的優(yōu)化中,讓記憶系統(tǒng)學(xué)會(huì) "主動(dòng)思考",針對(duì)長(zhǎng)時(shí)上下文進(jìn)行了深度的結(jié)構(gòu)化工程優(yōu)化,以及讓 Agentic Memory 主動(dòng)適配大模型原生能力,深度參與推理。
![]()
MemBrain 1.5 再次刷新多項(xiàng)主流測(cè)試 SOTA
MemBrain1.0 在 LoCoMo / LongMemEval / PersonaMem-v2 等多項(xiàng)主流記憶基準(zhǔn)評(píng)測(cè)中拿下全新 SOTA,反超 MemOS、Zep 和 EverMemOS 等記憶系統(tǒng)和全上下文模型;在 KnowMeBench Level III 兩個(gè)難度等級(jí)最高的評(píng)測(cè)中更是比現(xiàn)有評(píng)測(cè)結(jié)果大幅提升超 300%。
![]()
![]()
對(duì)比一個(gè)多月前的 1.0 版本,MemBrain 1.5 除了在各項(xiàng)主流基準(zhǔn)評(píng)測(cè)中的分?jǐn)?shù)均顯著提升外,團(tuán)隊(duì)還通過(guò)自適應(yīng)實(shí)體樹(shù)算法等創(chuàng)新,進(jìn)一步對(duì)記憶存儲(chǔ)、組織和檢索等策略進(jìn)行了優(yōu)化迭代。
純文本和圖結(jié)構(gòu)都無(wú)法解決 Agent 的記憶難題
“一切皆文件” 的純文本方案(如 OpenClaw)簡(jiǎn)單透明,格式上天然貼合 LLM 的閱讀習(xí)慣。LLM 可以自主設(shè)計(jì)目錄結(jié)構(gòu),文件路徑本身便構(gòu)成一種層次化的組織方式,記憶以自然語(yǔ)言形態(tài)存儲(chǔ),語(yǔ)義保真度高,表達(dá)靈活。但當(dāng)同一條信息與多個(gè)上下文相關(guān)時(shí),這些跨上下文的關(guān)聯(lián)并未被顯式建模 —— 它們散落在不同文件的自然語(yǔ)言段落中,系統(tǒng)層面沒(méi)有機(jī)制將它們結(jié)構(gòu)化地關(guān)聯(lián)起來(lái)。但代價(jià)是把太多決策交給了 LLM—— 哪些信息值得記、怎么組織、新舊矛盾怎么處理,全靠 LLM 即時(shí)判斷。記憶的存儲(chǔ)和索引完全依賴自然語(yǔ)言結(jié)構(gòu),變更難以溯源審計(jì);檢索主要靠 LLM 調(diào)用基礎(chǔ)工具逐個(gè)翻文件;記憶的管理和維護(hù)本身也需要大量 LLM 調(diào)用,token 消耗不經(jīng)濟(jì),響應(yīng)延遲隨記憶量增長(zhǎng)而惡化。
圖結(jié)構(gòu)方案(如 Graphiti)走向了另一側(cè)。它把知識(shí)拆成三元組存入時(shí)序知識(shí)圖譜,每條邊帶有時(shí)間有效窗口。工程基礎(chǔ)恰好補(bǔ)上了純文本方案的短板:結(jié)構(gòu)化程度高,溯源審計(jì)天然可做,embedding、BM25、圖遍歷等檢索手段都能方便集成,也支持流式處理和異步更新,查詢實(shí)時(shí)性好。但仍然存在一個(gè)根本性矛盾:當(dāng)下主流基座模型的架構(gòu)更適配線性或樹(shù)狀的信息排列,而圖結(jié)構(gòu)的檢索主要依賴圖算法完成,LLM 無(wú)法深度參與搜索過(guò)程本身,只能在后續(xù)的結(jié)果聚合和 "翻譯" 環(huán)節(jié)介入 —— 將三元組和實(shí)體摘要拼成可用的上下文。這個(gè)過(guò)程不可避免地伴隨語(yǔ)義損耗。
純文本方案保留了語(yǔ)義保真卻缺失顯式關(guān)聯(lián),圖結(jié)構(gòu)方案建立了顯式關(guān)聯(lián)卻犧牲語(yǔ)義保真 ——MemBrain 1.5 嘗試從記憶組織拓?fù)浞较蛏贤瑫r(shí)回應(yīng)這兩個(gè)問(wèn)題的一小步。
![]()
MemBrain1.5 持續(xù)進(jìn)化的記憶組織拓?fù)?/strong>
記憶的寫(xiě)入、組織、檢索與過(guò)期,每個(gè)環(huán)節(jié)都需匹配精密的工程約束:既不能簡(jiǎn)單地將其全盤(pán)拋給模型,也不該用僵化的工作流將模型徹底鎖死。MemBrain 1.5 新加入了自適應(yīng)實(shí)體樹(shù)算法,從記憶組織拓?fù)涑掷m(xù)優(yōu)化 Agent 原生記憶能力。核心思路是在記憶管理的設(shè)計(jì)中,一部分由預(yù)定義的結(jié)構(gòu)約束確定,一部分留給 Agent 去探索怎么用好。
以實(shí)體為中心,用自適應(yīng)語(yǔ)義樹(shù)在兩者之間建立橋梁。樹(shù)的葉節(jié)點(diǎn)是從對(duì)話中提取的原子事實(shí),中間層是由 Agent 按主題聚類生成的語(yǔ)義分支。樹(shù)的骨架 —— 層次路徑、深度限制、分支上限 —— 是先驗(yàn)的工程約束;樹(shù)的內(nèi)容 —— 怎么聚類、怎么摘要、新事實(shí)歸入哪個(gè)分支 —— 由專用 Agent 動(dòng)態(tài)決定。輸出天然按 “實(shí)體 → 主題 → 事實(shí)” 分層組織,LLM 直接閱讀即可。寫(xiě)入側(cè),多 Agent 流水線承擔(dān)事實(shí)抽取、實(shí)體消解、結(jié)構(gòu)更新;檢索側(cè),Agent 的參與程度隨問(wèn)題復(fù)雜度漸進(jìn)升級(jí)。先驗(yàn)的工程結(jié)構(gòu)承擔(dān) 80% 的重活,Agent 的智能聚焦在真正需要判斷的 20% 上,這無(wú)疑既可以提升效率又能降低成本。
一次性解決 3 個(gè)關(guān)鍵難題:通過(guò)算法層的設(shè)計(jì)和創(chuàng)新解決信息怎么存、怎么組織和怎么找。
- 怎么存:富語(yǔ)境的原子事實(shí)
傳統(tǒng)圖方案把知識(shí)拆成 (A, 關(guān)系,B) 三元組 —— 一句自然語(yǔ)言就能說(shuō)明白的事情,要拆成多條邊才能存進(jìn)圖里,既困難又有損,語(yǔ)境關(guān)聯(lián)在拆分中不可避免地?cái)嗔选?/p>
MemBrain 的原子事實(shí)走另一條路:每條事實(shí)本身就是一個(gè) "小子圖",自帶時(shí)序信息,同時(shí)通過(guò)別名關(guān)聯(lián)到多個(gè)實(shí)體,天然無(wú)需拆分,并以統(tǒng)一的格式規(guī)范保證結(jié)構(gòu)一致。別名指向?qū)嶓w本身,而實(shí)體的描述可以隨對(duì)話不斷演化 —— 因此每條事實(shí)本質(zhì)上是一個(gè)可渲染的模板:事實(shí)內(nèi)容穩(wěn)定不變,但其中關(guān)聯(lián)的實(shí)體信息始終跟隨最新?tīng)顟B(tài)。當(dāng)事實(shí)作為檢索結(jié)果返回時(shí),別名按需被動(dòng)態(tài)替換為規(guī)范名稱和最新描述,最終給到 LLM 的文本既精確又自然,無(wú)需額外的格式轉(zhuǎn)換,同時(shí)附帶了更豐富的上下文。
- 怎么組織:自適應(yīng)實(shí)體樹(shù)
這是 MemBrain 與圖方案最根本的結(jié)構(gòu)差異。當(dāng)一個(gè)實(shí)體在多條原子事實(shí)中反復(fù)出現(xiàn),它就具備了聚合價(jià)值 —— 我們?yōu)檫@樣的實(shí)體維護(hù)一棵語(yǔ)義樹(shù):根節(jié)點(diǎn)是實(shí)體,中間層是 Agent 自動(dòng)聚類的主題分支,葉節(jié)點(diǎn)是具體事實(shí)。樹(shù)的每條路徑本身就承載了連貫的語(yǔ)義信息,從實(shí)體到主題再到事實(shí),層層遞進(jìn)。
這棵樹(shù)支持在線增量維護(hù):事實(shí)較少時(shí)保持平坦結(jié)構(gòu),積累到閾值后由聚類 Agent 自動(dòng)升級(jí)為層次結(jié)構(gòu);新事實(shí)由分配 Agent 判斷歸入哪個(gè)分支,過(guò)載時(shí)自動(dòng)分裂,并定期異步聚合。維護(hù)復(fù)雜度隨數(shù)據(jù)量平緩增長(zhǎng),無(wú)需全量重建。同時(shí),樹(shù)結(jié)構(gòu)也提供了一條天然的檢索路徑 —— 沿主題分支向下導(dǎo)航,輸出按 "實(shí)體 → 主題 → 事實(shí)" 分層組織,給到 LLM 的是一份結(jié)構(gòu)清晰的簡(jiǎn)報(bào),而非一堆需要自行拼湊的線索。
- 怎么找:漸進(jìn)式檢索策略
大多數(shù)查詢走多路并行,一次出結(jié)果:全文檢索、向量檢索等傳統(tǒng)手段負(fù)責(zé)召回,MemBrain 獨(dú)有的樹(shù)檢索從主題分支提供全局視野,加上別名指針自動(dòng)帶入實(shí)體的上下文信息,無(wú)需額外調(diào)用 LLM 即可快速響應(yīng)。當(dāng)問(wèn)題需要跨主題聚合或推理時(shí),系統(tǒng)啟用多查詢擴(kuò)展,由 LLM 將問(wèn)題改寫(xiě)為多種互補(bǔ)形式分別檢索,拓寬召回面。而遇到涉及多個(gè)實(shí)體、多條時(shí)間線、單輪難以覆蓋的問(wèn)題,則開(kāi)啟Agentic 模式:第一輪檢索后由反思 Agent 分析信息缺口,判斷 "已經(jīng)找到了什么、還缺什么",再定向補(bǔ)檢。
Agent 的判斷力被精確地用在它最擅長(zhǎng)的地方 —— 判斷信息夠不夠、缺什么、怎么補(bǔ) —— 而不是去操心底層的索引和排序。
社區(qū)開(kāi)發(fā)者和普通用戶也可以輕松上手測(cè)評(píng)
開(kāi)源的內(nèi)容除了技術(shù) Report 和源代碼外,社區(qū)用戶和開(kāi)發(fā)者還可以直接通過(guò)一個(gè)前端 Demo 進(jìn)行體驗(yàn)。用戶只需在本地部署后配置自己的 LLM API KEY,即可在帶有系統(tǒng)提示詞的 AI 助手引導(dǎo)下,快速了解 MemBrain 的使用方法。
為方便用戶測(cè)試,在 Chat Demo 中用戶可以選擇已有人設(shè)信息的模版角色,也可以自己創(chuàng)建新角色并賦予角色個(gè)性化的人設(shè)信息,隨即展開(kāi)一段記憶能力超絕的聊天體驗(yàn)。
![]()
卓越的記憶能力為模型賦予了 “靈魂”。隨著 Memory 成為 Agentic AI 基礎(chǔ)設(shè)施層的核心標(biāo)配,我們正在見(jiàn)證 AI 從 “無(wú)狀態(tài)” 的單次調(diào)用,向 “有意識(shí)” 的長(zhǎng)程進(jìn)化跨越。MemBrain 這種原生層級(jí)化記憶系統(tǒng)的出現(xiàn),標(biāo)志著 Agentic AI 正從單一的模型能力演進(jìn)為深度的用戶體驗(yàn)升級(jí) —— 一個(gè)與用戶共同生長(zhǎng)、深度耦合的共生型 AI 時(shí)代已正式開(kāi)啟。
此外,針對(duì) Memory Database 可視化,團(tuán)隊(duì)還開(kāi)源了一個(gè) Benchmark Evaluation 的可視化工具,以便開(kāi)發(fā)者更清晰的了解算法執(zhí)行的情況。
![]()
![]()
Agentic Memory 實(shí)用的工程經(jīng)驗(yàn)與未來(lái)方向
此外,Feeling AI 還分享了一些實(shí)用的工程經(jīng)驗(yàn)與未來(lái)方向。
數(shù)據(jù)庫(kù)不應(yīng)該僅僅是存儲(chǔ)待檢索對(duì)象的容器,它是記憶系統(tǒng)最重要的基建。他們的開(kāi)發(fā)經(jīng)驗(yàn)是,把數(shù)據(jù)庫(kù)與記憶系統(tǒng)的耦合做得越緊密,收益越明顯。可溯源、可審計(jì)、可隔離、可同步 —— 這些能力讓實(shí)驗(yàn)和迭代的節(jié)奏快了很多:每一步操作都有跡可循、可以回滾,試錯(cuò)成本極低。當(dāng)基建足夠扎實(shí),Agent 在記憶管理中的每一次決策和結(jié)果都會(huì)自然地沉淀下來(lái),成為系統(tǒng)持續(xù)改進(jìn)的養(yǎng)分。
團(tuán)隊(duì)還提到,另一個(gè)值得關(guān)注的方向是檢索過(guò)程本身的信號(hào)價(jià)值。目前對(duì)記憶系統(tǒng)的評(píng)測(cè)普遍關(guān)注最終答案對(duì)不對(duì),但檢索路徑本身也在暴露記憶的組織方式與實(shí)際問(wèn)題分布之間的 "摩擦"。一個(gè)自然的想法是:在檢索過(guò)程中順便對(duì)所經(jīng)路徑上的記憶做輕量的動(dòng)態(tài)調(diào)整,讓記憶組織自發(fā)地向高頻問(wèn)題的分布靠攏 —— 每次調(diào)用不只是在 "取東西",也在順手理貨。真正的挑戰(zhàn)在工程側(cè):怎么保證增量更新的穩(wěn)定性,怎么把重組成本均攤到日常維護(hù)中異步消化,而不拖慢響應(yīng)。
- MemBrain1.5 開(kāi)源地址:https://github.com/feelingai-team/MemBrain
世界模型公司為什么也要做好 Agentic 大腦?
一個(gè)真正的 “世界模型”,不應(yīng)只是現(xiàn)實(shí)的鏡像,而應(yīng)是現(xiàn)實(shí)與 “智能大腦” 的有機(jī)合體。Feeling AI 認(rèn)為動(dòng)態(tài)交互是世界模型通向 AGI 的終極拼圖 —— 如何讓世界模型真正走向動(dòng)態(tài)世界的智能交互,而世界動(dòng)態(tài)交互的核心也正在從 “人” 變?yōu)?“人和 AI”,多模態(tài)融合是世界模型的原生框架。
缺乏認(rèn)知與推理能力的世界模型只是一個(gè) “沒(méi)有靈魂的空殼”。這就需要在世界模型的底層架構(gòu)中,為世界模型配上 “原生大腦”,并設(shè)計(jì)好 Agentic 原生的多模態(tài)交互協(xié)議接口,這直接關(guān)系到用戶交互的體驗(yàn)。其原創(chuàng)的跨模態(tài)分層架構(gòu)提出了三層核心能力 —— 負(fù)責(zé)理解、記憶與規(guī)劃的 InteractBrain,負(fù)責(zé)能力執(zhí)行的 InteractSkill,以及負(fù)責(zé)渲染呈現(xiàn)的 InteractRender,MemBrain 與 CodeBrain 都屬于 InteractBrain 部分,通過(guò)層級(jí)化記憶與代碼級(jí)理性的深度合成,精準(zhǔn)定位在復(fù)雜動(dòng)態(tài)交互場(chǎng)景下的深度理解與長(zhǎng)程規(guī)劃。
此外,F(xiàn)eeling AI 創(chuàng)始人戴勃在最新接受媒體專訪時(shí)還透露,團(tuán)隊(duì)在核心層 InteractSkill 部分也取得了重要進(jìn)展,正在訓(xùn)練一個(gè)全新架構(gòu)的動(dòng)力學(xué)世界模型,在 3D 原生的結(jié)構(gòu)下通過(guò)原創(chuàng)的 IKGT 算法(Interactable Kinetics Grounded Transformer),實(shí)現(xiàn)對(duì)人類運(yùn)動(dòng)交互的生成與狀態(tài)預(yù)測(cè),模型首次在 CPU 上跑出 300FPS 的響應(yīng)速率,且模型通過(guò)實(shí)時(shí)推理達(dá)到了 100% 的狀態(tài)重置和糾偏,魯棒性極強(qiáng)。
動(dòng)態(tài)交互底層模型能力的補(bǔ)齊,將與空間智能(李飛飛教授 World Labs)以及因果邏輯和常識(shí)智能(Yann LeCun AMI),共同加速世界模型底層基礎(chǔ)設(shè)施和核心能力的構(gòu)建。
中國(guó)團(tuán)隊(duì)持續(xù)在 Agentic 大腦和世界模型的底層能力比拼上,正以定義者的身份參與全球技術(shù)升級(jí)到工程和商業(yè)落地的閉環(huán)。從大語(yǔ)言模型到世界模型,從文字對(duì)話到多模態(tài)動(dòng)態(tài)交互,生成式 AI 也許正在經(jīng)歷一個(gè)必然的拐點(diǎn) —— 全新的范式將在 “人與 AI” 的深度協(xié)同中形成,而世界模型正引領(lǐng) AI 從 Next Token Prediction 走向更高維的 Next State Prediction。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.