![]()
曾主導設(shè)計 MiniMax-01,讓百萬級長文本只用 1/2700 算力。
作者丨鄭佳美
編輯丨馬曉寧
AI 科技評論獨家獲悉,MiniMax 高級研究總監(jiān)鐘怡然已離職,具體去向暫未公開。
據(jù)公開資料顯示,鐘怡然博士畢業(yè)于澳大利亞國立大學,師從李宏東教授與 Richard Hartley 院士。并曾在國際權(quán)威期刊及頂級學術(shù)會議上累計發(fā)表了 40 余篇研究論文,涵蓋 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等領(lǐng)域,且持有多項美國專利。
鐘怡然的科研成果在學術(shù)界與產(chǎn)業(yè)界都受到了廣泛關(guān)注,相關(guān)論文累計被引用近 2000 次。還曾獲的 2023 年 ICCV Workshop 最佳論文獎以和 2014 年 ICIP 最佳學生論文獎。
博士畢業(yè)后,鐘怡然于 2021 年加入商湯科技,擔任高級經(jīng)理,負責大語言模型、多輪對話及多模態(tài)融合方向的研究。隨后在 2022 年,以青年科學家的身份加入上海人工智能實驗室,擔任新架構(gòu)探索組的 PI,OpenNLPLab負責人,專注于高效的大語言模型和視聽語言多模態(tài)融合。
2023 年底,鐘怡然在 MiniMax 就大模型的高效架構(gòu)方向提出構(gòu)想,與研發(fā)團隊共同推進線性注意力機制在大規(guī)模語言模型中的應(yīng)用。
2024 年,團隊正式啟動MiniMax-01項目,由鐘怡然擔任項目負責人,全面主導模型的架構(gòu)設(shè)計與研發(fā)工作。經(jīng)過近一年的迭代與優(yōu)化,MiniMax 于 2025 年初正式發(fā)布基于 Lightning Attention 架構(gòu)的MiniMax-01模型。
該模型一經(jīng)推出便在業(yè)界引發(fā)廣泛關(guān)注,被普遍認為是一款具有突破性意義的大語言模型。MiniMax-01 在超長上下文處理能力方面表現(xiàn)尤為突出,采用團隊自主研發(fā)的Lightning Attention架構(gòu),通過線性或近線性注意力機制,大幅提升了模型在長序列輸入下的計算效率與可擴展性,有效突破了傳統(tǒng) Transformer 在復雜度上的性能瓶頸。
總體而言,業(yè)內(nèi)普遍認為 MiniMax-01 在大模型的架構(gòu)創(chuàng)新與效率優(yōu)化方面走出了一條獨特路徑,代表了“高效長上下文建模”方向的重要技術(shù)進展。
作為成就這一成果的核心人物之一,鐘怡然在項目中發(fā)揮了關(guān)鍵作用。他帶領(lǐng)團隊完成了從理論創(chuàng)新到工程落地的全過程,推動 Lightning Attention 成為業(yè)內(nèi)關(guān)注的焦點,為 MiniMax 的技術(shù)體系奠定了基礎(chǔ)。
對此 MiniMax 回應(yīng) AI 科技評論,“鐘怡然已于半年前離職,此前只參與 M1 部分研發(fā)工作,祝福他未來有更好發(fā)展。”
未經(jīng)「AI科技評論」授權(quán),嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!
公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標注來源并插入本公眾號名片。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.