鍇杰最近不聲不響整了個大的,Macaron AI成立了Mind Lab ,并且發布了兩個重要研究。
Mind Lab專注一個核心問題:讓AI從真實使用中不斷學習和進化,而不是訓練完就凍結。
成立之初他們就發布了三個研究成果,簡單解釋一下,具體可以看他們的論文。
第一,用10%的成本訓練超大模型:
訓練萬億參數的AI模型通常需要海量GPU,成本高到普通團隊玩不起。Mind Lab通過LoRA技術加混合并行系統,把成本降到原來的10%。
更關鍵的是,他們證明了在相同算力下,"大模型+小型調整"比"小模型+全量訓練"效果更好。因為大模型的基礎能力夠強,只需要微調就能適應新任務。
這套方案已經貢獻給NVIDIA和火山引擎的開源項目,在Kimi K2這樣的萬億參數模型上跑得又穩又快。
第二,AI終于有了真正的記憶:
現有AI的記憶方案要么反復總結(算力浪費大),要么存數據庫(理解會斷層)。Mind Lab提出"記憶擴散"——把整個對話歷史當作記憶本身,通過"智能遺忘"來管理。
就像人開車會自動忽略路邊廣告牌,只記住重要的東西。AI也學會了:重要的對話細節保留,不重要的壓縮或丟棄,始終把上下文控制在預算內。
這個方法在長期對話記憶基準測試Locomo上拿到93%準確率,目前最優。
Mind Lab 雖然剛成立,但是對于研發方向的判斷還是非常準確的,在做的事情可能代表AI發展的下一個階段。
過去十年AI靠"做大"突破,更大的模型、更多的數據。但部署到產品后發現,模型不會從用戶身上學習,每次都重復同樣的錯誤,這個瓶頸越來越明顯。
Mind Lab提出的"體驗型智能"其實是是讓AI從"工具"變成"伙伴"。工具每次用完就復位,伙伴會記住你的習慣、從錯誤中學習、隨時間越來越懂你,這也是他們當時做馬卡龍應用的時候想完成的。
研究和產品共享同一個循環,用真實用戶數據驅動算法迭代。這種"研究-產品共設計"的路子在AI領域還挺少見,但可能是讓前沿技術真正落地的關鍵。
詳情:macaron.im/mindlab
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.