![]()
![]()
文:圓桌實(shí)錄
排版:前沿在線 編輯部
OpenClaw 的爆火,從來不止是一個 Agent 產(chǎn)品的出圈,更是 AI 產(chǎn)業(yè)新舊時(shí)代的分水嶺。
在2026 中關(guān)村論壇 AI 開源圓桌現(xiàn)場,無問芯穹夏立雪直指行業(yè)核心拐點(diǎn):Agent 爆發(fā)讓 Token 需求累計(jì)暴漲十倍,AI 已正式告別訓(xùn)練時(shí)代,邁入推理新周期。
他提出的「可持續(xù) Token」命題,不僅定義了行業(yè)長跑的核心規(guī)則,更給出了中國 AI 角逐全球的全新路徑 ——打造世界級 Token 工廠,輸出「AI Made in China」。
以下是圓桌實(shí)錄。
![]()
圓桌時(shí)間:2026年3月27日
圓桌嘉賓:楊植麟月之暗面創(chuàng)始人、張鵬智譜華章CEO、夏立雪無問芯穹聯(lián)合創(chuàng)始人兼CEO、羅福莉小米MiMo大模型負(fù)責(zé)人、黃超香港大學(xué)助理教授&博士生導(dǎo)師、Nanobot團(tuán)隊(duì)負(fù)責(zé)人
楊植麟:很榮幸今天能邀請到各位重磅嘉賓,也覆蓋了不同的層面,從模型層到底層的算力層,再到上面的Agent層。很高興今天能跟大家一起來探討。最主要的關(guān)鍵詞是開源和Agent。
那我們先從第一個問題開始,這個問題是給所有人的:我們現(xiàn)在最流行的OpenClaw,大家自己日常使用OpenClaw或類似的產(chǎn)品,有什么覺得最有想象力或印象深刻的地方?從技術(shù)的角度來看,如何看待今天OpenClaw和相關(guān)Agent的演進(jìn)?從張鵬這邊開始。
張鵬:感謝植麟邀請,也感謝主辦方給這個機(jī)會跟大家交流。確實(shí)很早我就開始自己玩OpenClaw,當(dāng)時(shí)還不叫OpenClaw,最早叫Clawbot,折騰這些事情自己動手來搞,畢竟也是程序員出身,玩這些東西還是有一些自己的體驗(yàn)。
我覺得這個事情給大家?guī)淼?strong>最大的突破點(diǎn)或者說新鮮的點(diǎn),就在于可能這件事情不再是程序員或者極客們的專利,普通人也可以比較方便地使用頂尖模型的能力,尤其是在編程和智能體方面的能力。
所以我到現(xiàn)在為止,跟大家在交流的過程當(dāng)中,更愿意把OpenClaw稱作一個“腳手架”。它提供的是一種可能性,在模型的基礎(chǔ)之上搭起一個很牢固、很方便、但又很靈活的腳手架。大家可以按照自己的意愿去使用很多底層模型提供的新奇東西。
原來自己的一些想法受限于不會寫代碼,或者不會其他技能,今天終于可以通過很簡單的交流就可以完成。所以這個事情對我來說是一個非常大的沖擊,或者讓我重新認(rèn)識了這樣的一件事情。
夏立雪:其實(shí)我最開始用OpenClaw的時(shí)候是不太適應(yīng)的,因?yàn)槲伊?xí)慣于跟大模型聊天的這種交流方式,然后發(fā)現(xiàn)OpenClaw感覺好像反應(yīng)好慢這種感覺。但是后來我意識到一個問題,就是它和之前的聊天機(jī)器人有一個很大的不一樣,它其實(shí)應(yīng)該是一個能夠幫我完成一個大型任務(wù)的人。
所以我后面開始給它提交一些更復(fù)雜的任務(wù)的時(shí)候,我就發(fā)現(xiàn)其實(shí)它能夠做得很好。這件事情對我來說有一個很大的感觸,就是模型從最開始按照Token去聊天,到現(xiàn)在能夠變成一個Agent,變成一個龍蝦,能夠幫你去完成任務(wù),它對于我們整個AI的想象力空間已經(jīng)做了一個很大的提升。
但同時(shí),它對于整個系統(tǒng)的能力要求也變得很大,這也是為什么我一開始用OpenClaw會覺得有點(diǎn)卡的原因。
那我作為這樣基礎(chǔ)設(shè)施層的廠商,我看到的Claw對于整個AI后邊的大型系統(tǒng)和生態(tài)都帶來了更多的機(jī)遇和挑戰(zhàn)。因?yàn)槲覀儸F(xiàn)在所有能夠用到的資源,想要支撐起這樣一個快速增長的時(shí)代是不夠的。
就拿我們公司來說,從1月底開始,基本每兩周我們的Token量就翻一番,到現(xiàn)在基本上翻了十倍。上次見到這個速度,還是當(dāng)年3G手機(jī)流量的那種感覺。
所以我現(xiàn)在有種感覺,現(xiàn)在的Token用量就跟當(dāng)年每個月100兆手機(jī)流量那個時(shí)代。這種情況下,我們所有的資源是需要進(jìn)行更好的優(yōu)化、更好的整合,讓每一個人,不僅僅是AI領(lǐng)域的人,而是整個社會上每一個鮮活的人,都能夠把OpenClaw,把這樣的AI能力給用起來。所以我作為基礎(chǔ)設(shè)施的玩家,對這個時(shí)代是非常激動和感觸的,而且認(rèn)為這里邊有很多的優(yōu)化空間,仍然是我們應(yīng)該去探索、去嘗試的。
羅福莉:我自己是把OpenClaw當(dāng)做Agent框架的一個非常革命性和顛覆性的事件來看待的。雖然我知道我身邊所有在進(jìn)行深度Coding的人,可能他的第一選擇還是ClaudeCode,但是我相信只有用過OpenClaw的人,會獨(dú)特地感受到這個框架其實(shí)有很多在Agent框架上的設(shè)計(jì)是領(lǐng)先于ClaudeCode的,包括最近ClaudeCode有很多最新的更新,其實(shí)都是在向OpenClaw靠近。
我自己去使用OpenClaw的話,感覺這個框架給我?guī)砀嗍窍胂罅Φ碾S時(shí)隨地?cái)U(kuò)展。ClaudeCode可能最開始我只能在我的桌面上延展我的創(chuàng)意,但是在OpenClaw我可以隨時(shí)隨地延展我的創(chuàng)意。
后面我發(fā)現(xiàn),其實(shí)OpenClaw帶來的主要核心價(jià)值在于兩個:第一,它是開源的,這是整個社區(qū)去深入?yún)⑴c、去重視、改進(jìn)、投入到Agent框架這件事的一個重要前置條件。像OpenClaw、ClaudeCode這樣的Agent框架,我認(rèn)為它很大的價(jià)值在于把國內(nèi)可能沒有非常接近閉源模型、但水平還是在次閉源模型的賽道上的模型上限給拉得非常高。
在絕大部分場景,我們能發(fā)現(xiàn)它的任務(wù)完成度已經(jīng)非常接近Claude的最新模型,同時(shí)它又把下限保證得非常好,因?yàn)樗梢钥恳惶譎arness系統(tǒng),或者說 Skills體系等很多設(shè)計(jì),來保證任務(wù)的完成度和準(zhǔn)確率。
所以我覺得,OpenClaw從一個基座大模型的角度來說,它保證了基座大模型的下限,然后拉伸了它的上限。
此外,我認(rèn)為OpenClaw給整個社區(qū)帶來的價(jià)值,是它更多地點(diǎn)燃了大家的發(fā)現(xiàn):原來在大模型外這一層,更重要的Agent這一層,有非常多的想象力和空間可以做。這是我看到最近社區(qū)有更多除了研究員以外的人參與到AGI的變革當(dāng)中,也有更多人借助到更強(qiáng)的AGI框架、Harness或Scaffold等,去一定程度上替代自己的工作,釋放自己的時(shí)間,去做更有想象力的事情。
黃超:我感覺首先從交互模式上來講,OpenClaw這次會爆火的原因,第一個是給了大家一種更有“活人感”的感覺。因?yàn)槲覀冏鯝gent也有一兩年了,但之前包括Cursor、ClaudeCode這些Agent,給人感覺更強(qiáng)的是一種工具感。
我覺得OpenClaw第一次以IM軟件嵌入的方式,讓大家更有一種活人感,更接近自己想象中的個人賈維斯這樣的概念,所以我覺得這可能是交互模式上的突破。
另外一個,它帶給整個大家的啟發(fā),是它的AgentLoop這種非常簡單但高效的框架再次被證明。還有就是它讓我們重新思考:我們是否需要一個All In One、非常強(qiáng)大的智能體幫我們做很多事情,還是需要一個比較好的、類似輕量級操作系統(tǒng)或腳手架一樣的小管家。
它帶來的是可以通過一個小的OpenClaw,或者這樣一個龍蝦的操作系統(tǒng)生態(tài),讓整個社區(qū)大家更有玩起來的心態(tài),去撬動整個生態(tài)里所有的工具,包括隨著Skills或Harness,越來越多的人可以去設(shè)計(jì)面向OpenClaw這樣的系統(tǒng)里的應(yīng)用,去賦能各行各業(yè)。我覺得這天然就和整個開源生態(tài)結(jié)合得非常緊密,所以這兩點(diǎn)是我覺得是帶給我們最大的啟發(fā)。
楊植麟:順著剛剛一直在討論的OpenClaw,想問一下張鵬,看到最近智譜發(fā)布了新的GLM-5-Turbo模型,我理解它對Agent能力做了很大的增強(qiáng)。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有一個提價(jià)的策略,這反映了什么樣的市場信號?
張鵬:這是個很好的問題。前兩天我們確實(shí)緊急更新了一波,當(dāng)然這是在我們整個發(fā)展路標(biāo)當(dāng)中其中一個階段,我們提前把它放出來。這個事情最主要的目的,還是要主打從原來的簡單對話到“干活”。
剛才各位講的非常贊同,OpenClaw真的讓大家覺得大模型不再是簡單地聊天,真的能幫我干活。但這個“干活”背后隱含的能力需求是非常高的——它需要自己去長程地做任務(wù)規(guī)劃,不斷地重試,不斷地壓縮自己的上下文,Debug等等,還有可能涉及多模態(tài)信息的處理。
所以這對模型本身的能力的要求,跟傳統(tǒng)的面向?qū)υ挼臋C(jī)器人的通用泛用模型是有一些不一樣的。GLM-5-Turbo在這方面做了一些專門的加強(qiáng)。
尤其是你剛才提到的,比如讓它干活、長程的72小時(shí),如何能夠不停地自己去Loop,這里邊做了很多工作。另外大家也提到關(guān)于Token消耗量的問題。
你讓聰明的模型干這種復(fù)雜的任務(wù),Token的消耗量是非常巨大的,一般人可能體會不出來,但會看到自己的賬單上的錢在不停地往下掉。所以在這方面我們也做了一些優(yōu)化,在面臨復(fù)雜任務(wù)的時(shí)候,它可能會用更高效的推理效率去完成這些事情。
所以主要是在這幾個方面做了一些優(yōu)化,但本質(zhì)上的模型架構(gòu)還是一種多任務(wù)協(xié)同的通用模型架構(gòu),只是在能力上有一些偏向性的加強(qiáng)。
提價(jià)這個事情其實(shí)也很順暢地能跟大家解釋。剛才也提到了,我們現(xiàn)在不再是簡單地問一個問題它回答,背后有思考的鏈路是很長的,包括很多任務(wù)通過寫代碼的方式跟底層基礎(chǔ)設(shè)施打交道,還要Debug,隨時(shí)改正自己的錯誤。這個消耗量非常非常大,完成一個任務(wù)可能需要的Token量是原來回答一個簡單問題的十倍甚至百倍。
成本有一定提高,模型也變得更大,推理成本也相應(yīng)提高了,所以我們把它回歸到一個正常的商業(yè)價(jià)值上來,因?yàn)?strong>長期靠低價(jià)競爭也不利于整個行業(yè)的發(fā)展,這是我們的一個考量,也讓我們能夠持續(xù)地在商業(yè)化路徑上有一個良性的閉環(huán),不斷地優(yōu)化模型能力,持續(xù)給大家提供更好的模型和相應(yīng)的Token服務(wù)。
楊植麟:非常好的分享。因?yàn)楝F(xiàn)在有開源模型,推理算力也開始形成一個生態(tài),各種各樣的開源模型可以在各種各樣的推理算力上給用戶提供更多價(jià)值。
隨著Token量的爆發(fā),現(xiàn)在可能逐漸從訓(xùn)練時(shí)代進(jìn)入了推理時(shí)代。想請教一下立雪,從Infra的層面,推理時(shí)代對于無問芯穹來說意味著什么?
夏立雪:感謝植麟。確實(shí)我們是一個誕生在AI時(shí)代的基礎(chǔ)設(shè)施廠商,現(xiàn)在也為Kimi、為智譜,包括也在跟MiMo合作,讓大家能夠把我們這樣一個Token工廠更高效地用起來。
當(dāng)然我們也在跟很多高校、科研院所合作,所以我們一直在思考:AGI時(shí)代需要的基礎(chǔ)設(shè)施會是什么樣子?我們怎么一步步地去實(shí)現(xiàn)和推演它?
我們現(xiàn)在做好了充分準(zhǔn)備,也看到了短期、中期和長期不同階段需要解決的問題。當(dāng)前腳下的一個問題,就是剛剛大家聊到的,OpenClaw帶起來的整個Token量暴增,對我們的系統(tǒng)效率帶來了更大的優(yōu)化需求,包括價(jià)格的增長也是大家在這種需求下的一種解決方式。
我們一直以來都是從軟硬件打通的方式去做布局和解決的。我們接入了幾乎所有我們能看到的幾乎所有種類的計(jì)算芯片,把國內(nèi)十幾種芯片和幾十個不同的算力集群都統(tǒng)一連接起來,這樣我們能夠解決AI系統(tǒng)中算力資源緊缺的問題。
因?yàn)楫?dāng)資源不足的時(shí)候,最好的辦法就是第一把能用的資源都用起來,第二讓每一個算力都用在刀刃上,讓每一個資源都發(fā)揮出最大的轉(zhuǎn)化效率。
在這個時(shí)代,當(dāng)前腳下我們要解決的就是怎么進(jìn)一步打造一個更高效的Token工廠。這里我們做了很多優(yōu)化,包括讓模型和硬件上的各種顯存、各種基礎(chǔ)進(jìn)行最優(yōu)適配,也在看會不會在最新的模型結(jié)構(gòu)和硬件結(jié)構(gòu)下進(jìn)行更深度的化學(xué)反應(yīng)。
但解決腳下的效率問題,我們只是打造了一個標(biāo)準(zhǔn)化的Token工廠。面向Agent時(shí)代,我們認(rèn)為這還是不夠的。就像剛剛說的,Agent更像是一個人,我們可以交給它一個任務(wù)。
我其實(shí)很堅(jiān)定地認(rèn)為,當(dāng)前很多的云計(jì)算時(shí)代的基礎(chǔ)設(shè)施是為服務(wù)一個程序、服務(wù)一個人類工程師所設(shè)計(jì)的,而不是為AI設(shè)計(jì)的。
有點(diǎn)像我們做了一個基礎(chǔ)設(shè)施,上面有一個接口是為人類工程師做的,然后再在上面包一層去接入Agent。這種方式是用人的操作能力限制了Agent的發(fā)揮空間。
我舉一個例子,比如Agent能夠做到秒到毫秒級別去思考和發(fā)起任務(wù),而這件事情在我們之前的底層K8s等能力上其實(shí)沒有做好準(zhǔn)備,因?yàn)槿祟惏l(fā)起一個任務(wù)大概是分鐘級別的。
這樣的功能需要進(jìn)一步能力,我們稱之為Agentic Infra,就是我們需要打造一個更智慧化的Token工廠,這是無問芯穹現(xiàn)在正在做的事情。
從更長遠(yuǎn)的未來,真正AGI時(shí)代到來的時(shí)候,我們認(rèn)為連基礎(chǔ)設(shè)施都應(yīng)該是一個智能體。我們自己所打造的這套工廠本身也應(yīng)該是一個能夠自我進(jìn)化、自我迭代的,它能夠形成一個自主的組織。
相當(dāng)于它有一個CEO,這個CEO是一個Agent,它可能是一個Claw,在管理整個基礎(chǔ)設(shè)施,根據(jù)它的AI客戶的需求自己去提需求、迭代自己的基礎(chǔ)設(shè)施,這樣AI和AI之間才能更好地形成耦合。
所以我們也在做一些嘗試,比如讓Agent和Agent之間更好地通信,做Cache-to-Cache這樣的能力。
所以我們一直在思考,基礎(chǔ)設(shè)施和AI的發(fā)展不應(yīng)該是一個隔離的狀態(tài),接受一個需求我就去制作,而是應(yīng)該產(chǎn)生非常豐富的化學(xué)反應(yīng)。
這件事情才是我認(rèn)為真正的軟硬協(xié)同,做到算法和基礎(chǔ)設(shè)施的協(xié)同,這也是無問芯穹一直想實(shí)現(xiàn)的使命。
楊植麟:接下來想問問福莉,小米最近通過發(fā)布新的模型,包括開源背后的技術(shù),我覺得對社區(qū)做出了很大的貢獻(xiàn)。想問一下小米在做大模型方面,你覺得會有什么獨(dú)特的優(yōu)勢?
羅福莉:我們先拋開小米在做大模型方面有什么獨(dú)特優(yōu)勢這個話題,我更想談一下中國的做大模型的團(tuán)隊(duì)在做大模型上的優(yōu)勢,我覺得這個話題更具備更廣泛的價(jià)值。
大概在兩年前,我看到中國的基座大模型團(tuán)隊(duì)已經(jīng)開始了一個非常好的突破:我們在怎么在有限的算力,尤其是在一些NVLink互聯(lián)帶寬受限的算力的情況下,突破這些低端算力的限制,去做一些看似是為了效率妥協(xié)的模型結(jié)構(gòu)創(chuàng)新,像DeepSeek系列V2、V3的細(xì)粒度MoE和MLA等等。
但我們后面能看到,由這樣一些創(chuàng)新引發(fā)的是一個變革:我們怎么在算力一定的情況下,發(fā)揮一定算力的最高智能水平。我覺得這是由DeepSeek帶給所有國內(nèi)基座大模型團(tuán)隊(duì)的一個勇氣、一個信心。
雖然在今天,我們自己的國產(chǎn)芯片,尤其是推理芯片以及訓(xùn)練芯片,已經(jīng)不再受這個限制,但我們能看到在這樣的限制情況下,催生了我們對于更高的訓(xùn)練效率、更低的推理效率的模型結(jié)構(gòu)的全新探索。
就像最近的Hybrid Sparse或Linear Attention的結(jié)構(gòu),DSA、NSA,Kimi也有KSA,小米也有新的面向下一代結(jié)構(gòu)的Hybrid Sparse結(jié)構(gòu)。這是區(qū)別于MIMO V2這一代結(jié)構(gòu),我們面向Agent時(shí)代去思考的、如何在Agent時(shí)代做更好的模型結(jié)構(gòu)創(chuàng)新。
我為什么覺得結(jié)構(gòu)創(chuàng)新如此重要?因?yàn)槲覀儎倓偺接懙絆penClaw這個話題,OpenClaw大家如果真實(shí)地去用,會發(fā)現(xiàn)你越用越好用,越用越聰明。那么它的一個前提是你的推理Context。
Long-Context是我們談?wù)摿撕芫玫囊粋€話題,但其實(shí)現(xiàn)在真正能有一個模型在Long-Context的情況下表現(xiàn)非常好、性能強(qiáng)勁、推理成本非常低,很多模型不是做不到一兆或十兆的Context,而是因?yàn)樗ネ埔徽椎绞椎某杀咎F了、速度太慢了。
怎么能在一兆或十兆的Context下推理成本夠低、速度夠快,這樣才會有真正高生產(chǎn)力價(jià)值的任務(wù)交給這個模型,從而去激發(fā)只有在Long-Context情況下才能完成的高復(fù)雜度任務(wù)。可能我們才能在十兆甚至一百兆Context的情況下實(shí)現(xiàn)模型的自迭代。
所謂模型的自迭代,就是它可以在一個復(fù)雜環(huán)境中,依靠超長Context完成對自我的進(jìn)化,這個進(jìn)化有可能是對Agent框架本身的,也有可能是對模型參數(shù)本身的。因?yàn)槲覀冋J(rèn)為Long-Context本身其實(shí)就是對參數(shù)的一種進(jìn)化。
所以怎么實(shí)現(xiàn)一個Efficient Long Context 的架構(gòu),以及怎么在推理側(cè)做到Efficient Long Context ,它是一個全方位的競爭。
除了我剛剛提到的在預(yù)訓(xùn)練階段做好Efficient Long Context 的架構(gòu)——這個可能是我們一年前就在探索的問題——而當(dāng)今怎么做到Long-Context在真實(shí)的長程任務(wù)上的穩(wěn)定性和非常高的上限效果,就是我們現(xiàn)在在后訓(xùn)練階段去迭代的創(chuàng)新范式。
我們在想怎么去構(gòu)造更有效的學(xué)習(xí)算法,怎么采集到真實(shí)的、在一兆、十兆、一百兆上下文里邊都具有長距依賴的文本,結(jié)合復(fù)雜環(huán)境產(chǎn)生的Trajectory。這是我們現(xiàn)在在后訓(xùn)練階段正在經(jīng)歷的事情。
但我能看到更長期的事情是,由于大模型本身在飛速進(jìn)步,由于我們有Agent框架更好的加持,就像剛剛立雪說的,推理需求在過去一段時(shí)間內(nèi)已經(jīng)近十倍的增長,那么今年整個Token的增長會不會到一百倍?
這里邊我們又到了另外一個維度的競爭,這個競爭就是算力,或者說是推理芯片,甚至下到能源。所以我認(rèn)為,如果我們?nèi)ニ伎歼@個問題,我可能會從大家身上學(xué)到更多。
楊植麟:非常有深度的分享,接下來想問問黃超,你研發(fā)了不少有影響力的智能體項(xiàng)目,比如Nanobot?,在社區(qū)也擁有很多粉絲,想問問從智能體的Harness及應(yīng)用層面來看,接下來有哪些技術(shù)方向是你認(rèn)為比較重要、值得大家關(guān)注的?
黃超:謝謝植麟。如果我們把智能體的核心技術(shù)抽象出來,主要有規(guī)劃、記憶和Tool Use這幾個模塊,我就從這幾個方面聊聊我的看法。首先是規(guī)劃層面,當(dāng)下的問題在于,面對一些長程任務(wù)或非常復(fù)雜的上下文,比如500步甚至更長步數(shù)的任務(wù),很多模型的規(guī)劃能力表現(xiàn)不佳,本質(zhì)上是因?yàn)槟P筒痪邆溥@類復(fù)雜任務(wù)所需的隱性知識,尤其是在一些垂直領(lǐng)域。
所以未來,如何把各類復(fù)雜任務(wù)的知識固化到模型中,提升模型的規(guī)劃能力,會是一個重要的研究方向。
當(dāng)然,Skills和Harness在一定程度上也緩解了規(guī)劃環(huán)節(jié)的錯誤問題,因?yàn)樗鼈兡転槟P吞峁└哔|(zhì)量的技能模板,本質(zhì)上是引導(dǎo)模型完成一些高難度任務(wù),這是針對規(guī)劃層面的思考。
然后是記憶層面,記憶模塊一直存在一些痛點(diǎn),比如信息壓縮不準(zhǔn)確、檢索不精準(zhǔn)等,而當(dāng)模型處理長程任務(wù)、復(fù)雜場景時(shí),對記憶的需求會急劇增加,這也給記憶模塊帶來了巨大壓力。
目前各類的龍蝦們,基本都是采用Markdown這類類文件系統(tǒng)的記憶方式,通過文件共享等形式實(shí)現(xiàn)記憶交互。
我認(rèn)為未來記憶模塊會走向分層設(shè)計(jì),同時(shí)也需要讓記憶機(jī)制變得更通用。
說實(shí)話,當(dāng)下的記憶機(jī)制很難實(shí)現(xiàn)通用化,比如編碼、深度研究、多媒體等不同領(lǐng)域,數(shù)據(jù)模態(tài)的差異很大,如何為這些不同模態(tài)的內(nèi)容打造高效的記憶檢索引擎,其實(shí)一直是一個權(quán)衡取舍的過程,這也是記憶模塊長期需要解決的問題。
另外,OpenClaw大幅降低了智能體的創(chuàng)建門檻,未來每個人可能都不會只擁有一個智能體,比如Kimi也推出了Agent Swarms多智能體集群機(jī)制,未來每個人或許會擁有一群龍蝦。
一群龍蝦會帶來上下文的爆發(fā)式增長,這對模型和智能體架構(gòu)都是巨大的壓力,尤其是在復(fù)雜編碼、科研探索等場景中,目前行業(yè)還沒有一套成熟的機(jī)制能管理一群龍蝦帶來的海量上下文,我感覺特別是對于復(fù)雜的Coding科研發(fā)現(xiàn)這種,不管是模型還是Agent的一個架構(gòu),其實(shí)都是壓力挺大的。
最后是Tool Use層面,核心就是Skills體系。其實(shí)早期的MCP所存在的問題,現(xiàn)在的Skills體系依然存在,比如MCP當(dāng)時(shí)的能力質(zhì)量無保障、存在安全問題,而現(xiàn)在的Skills體系,雖然看似有很多技能Skill,但高質(zhì)量的Skill其實(shí)很少,低質(zhì)量的Skill會嚴(yán)重影響智能體的任務(wù)完成度。
另外,Skills體系還存在惡意注入的問題,所以在Tool Use層面,需要整個社區(qū)共同努力,去完善Skills體系,甚至探索如何讓技能模板在執(zhí)行過程中進(jìn)化出一些新的Skill,所以我覺得這可能是不管從Planning Memory還有Skill里面,我們覺得當(dāng)下Agent可能存在的一些痛點(diǎn)和未來可能會潛在的一些方向。
楊植麟:可以看到剛剛兩位嘉賓從不同的視角討論了一個問題,就是隨著任務(wù)復(fù)雜度的增加,上下文會暴漲。那可能從模型層面可以提升原生的上下文長度,從Agent Harness層面,像Planning、Memory,包括Multi-Agent Harness,實(shí)際上也能讓在特定的模型能力下支持更復(fù)雜的任務(wù)。
我覺得這兩個方向接下來也會有更多的化學(xué)反應(yīng),能夠提升完成任務(wù)的難度。最后我們來一個開放式的展望,想請各位用一個詞來描述一下接下來12個月大模型發(fā)展的趨勢,以及你的期望。那這次我們先從黃超這邊開始。
黃超:我感覺12個月在AI看起來應(yīng)該好遙遠(yuǎn),都不知道12個月之后會發(fā)展成什么樣。首先從我這邊的話,一個詞應(yīng)該叫“生態(tài)”吧。我覺得未來現(xiàn)在Claw讓大家這么活躍了,但是未來Agent真的是要去從真正的個人助手,特別是轉(zhuǎn)化為“打工人”,我覺得還是很重要的。因?yàn)楝F(xiàn)在可能大家很多時(shí)候玩Claw也是新鮮感,覺得好玩,但是我覺得未來可能真的得讓Claw們真的沉淀下來,真的成為大家的一個搬磚的工具,或者是成為真正的Coworker這樣的狀態(tài)。
所以我覺得這塊可能需要整個生態(tài)的努力,包括整個開源這塊其實(shí)就是一個很重要的,把所有的相關(guān)技術(shù)探索,包括模型的很多技術(shù)都開源出去之后,其實(shí)需要整個生態(tài)大家一起來共建。
不管是對于模型的迭代,還是對于Skills平臺的迭代,還有各種工具的迭代,我覺得這塊都需要去更好地面向Claw,去創(chuàng)造更好的生態(tài)。
從我自己感覺比較明顯的是,我覺得未來的很多軟件——現(xiàn)在有了Claw,大家又在考慮一個問題:未來軟件是不是還是會給人用的?我們相信可能未來大部分的軟件都不一定會是面向人類的,因?yàn)槿祟愂切枰狦UI,但可能是面向Agent原生的去使用的,我感覺一個比較有趣的,就是人只會去使用讓自己快樂的GUI,有可能會有這樣的一個感受。
我覺得現(xiàn)在整個生態(tài)又從不管是GUI還是MCP,又轉(zhuǎn)到了CLI這樣的模式。所以我覺得這就是需要一個整個生態(tài),需要生態(tài)去把不管是軟件系統(tǒng),還是我們的數(shù)據(jù),還是各種技術(shù),都把它變成Agent Native的模式,這樣可能才能讓整個Agent的發(fā)展更加豐富。
羅福莉:我覺得把這個問題縮小到一年非常有意義,因?yàn)槲矣X得五年從我心目中對于AGI定義而言,已經(jīng)實(shí)現(xiàn)了。如果說要用一個詞來描述接下來一年AGI歷程里邊最關(guān)鍵的一個事情的話,我認(rèn)為會是“自進(jìn)化”。雖然這個詞是一個有點(diǎn)玄幻的概念,過去一年大家也多次提到,但是我最近才對這個詞有了一個更深的體會,或者說具體自進(jìn)化這個事怎么做,會有一個更務(wù)實(shí)、更實(shí)操可行的方案。這里邊的原因是借助于很強(qiáng)大的模型,其實(shí)我們之前在Chat那個范式下根本沒有發(fā)揮出來預(yù)訓(xùn)練模型的上限,這個上限現(xiàn)在是被Agent框架激活到了,我們現(xiàn)在觸到了當(dāng)它執(zhí)行更長時(shí)間的任務(wù)的時(shí)候,我們發(fā)現(xiàn)這個模型它可以自己去學(xué)習(xí)和進(jìn)化。很簡單一個嘗試,就是說當(dāng)你在現(xiàn)有的Agent框架里邊給它疊加一個可以Verify的條件限制,然后再給它設(shè)置一個Loop,讓這個模型就不停下來持續(xù)去迭代優(yōu)化這個目標(biāo),我們就能發(fā)現(xiàn)這個模型會持續(xù)拿出更好的方案。
如果這樣的一種自進(jìn)化能持續(xù),現(xiàn)在國內(nèi)模型其實(shí)已經(jīng)能跑一兩天了,當(dāng)然跟任務(wù)的難度有關(guān)。我們發(fā)現(xiàn)它在一些科學(xué)研究上,比如說去探索一個更好的模型結(jié)構(gòu),因?yàn)槟P徒Y(jié)構(gòu)有評估標(biāo)準(zhǔn),比如說我們看更低的PPL,這是一個評估標(biāo)準(zhǔn)。
在這種很確定的任務(wù)上,我們發(fā)現(xiàn)它已經(jīng)能自主地優(yōu)化和執(zhí)行兩三天了。所以從我的角度上來看,我覺得自進(jìn)化是一個唯一可以創(chuàng)造新的東西的地方,它不是去替代我們現(xiàn)有的人的生產(chǎn)力,而是說它是像頂尖的科學(xué)家一樣去探索出來這個世界上沒有的東西。
一年前我會覺得這個時(shí)間歷程會拉到三到五年,但是在近期我會覺得這個時(shí)間歷程確實(shí)應(yīng)該縮小到最近一到兩年,可能我們就可以讓大模型疊加一個非常強(qiáng)的自進(jìn)化的Agent框架,實(shí)現(xiàn)對于科學(xué)研究的一個至少指數(shù)級的加速。
因?yàn)槲易罱呀?jīng)發(fā)現(xiàn),我們組內(nèi)做大模型研究的同學(xué),基本上他的Workflow是非常不確定的、是高度創(chuàng)造力的,我們發(fā)現(xiàn)借助Claude Code或非常頂尖的模型,基本上已經(jīng)能夠加速我們自己的研究效率近十倍了。所以我很期待這樣的一種范式輻射到更廣的學(xué)科和領(lǐng)域,我覺得自進(jìn)化是非常重要的。
夏立雪:我的關(guān)鍵詞叫“可持續(xù)Token”。因?yàn)槲乙部吹搅爽F(xiàn)在整個AI的發(fā)展還在一個長期持續(xù)的過程中,我們也希望它是能夠有長久的生命力的。
那我們作為基礎(chǔ)設(shè)施的角度看到很大的問題就是我們的資源終究是有限的。那我們現(xiàn)在作為一個Token工廠,能否給大家提供持續(xù)、穩(wěn)定、大規(guī)模能夠用起來的這些Token,讓我們頂尖的模型能夠真正繼續(xù)為更多的下游去服務(wù),是我們看到的一個很重要的問題。
所以我們現(xiàn)在需要把整個視角放寬到剛剛說到的整個生態(tài),從最早的能源到算力,然后再轉(zhuǎn)化到Token,最終再轉(zhuǎn)換成GDP這樣的一個鏈路,能夠去進(jìn)行一個持續(xù)的經(jīng)濟(jì)化的迭代。
包括我們其實(shí)不止在把國內(nèi)的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能夠進(jìn)行打通和整合。
我也認(rèn)為這個可持續(xù)其實(shí)也是想把我們中國特色的Token經(jīng)濟(jì)學(xué)給做起來。因?yàn)樵谥暗臅r(shí)代我們叫Made in China,我們能夠把中國的制造業(yè)成本優(yōu)勢變成好的商品輸出到全球。
我們現(xiàn)在想做的就是有點(diǎn)像AI Made in China,就是我們能夠把中國的這些能源上的優(yōu)勢,通過這些Token工廠,可持續(xù)地轉(zhuǎn)化為優(yōu)質(zhì)的Token輸出到全球,成為一個世界的Token工廠,這是我想要在今年看到的、中國給世界的人工智能帶來的價(jià)值。
張鵬:大家都可能都在仰望星空,我就落地一點(diǎn)。我覺得關(guān)鍵詞讓我說未來12個月面臨的最大的問題可能就是“算力”。
因?yàn)閯偛乓舱f了,所有的技術(shù),包括智能體框架,讓很多人有很好的創(chuàng)造力、效率提升十倍,但前提條件就是大家能夠用得起來,你不能因?yàn)樗懔Σ粔颍粋€問題提出去讓它思考半天也不給我答案,這個肯定是不行的。
也是因?yàn)檫@樣的一些原因,可能甚至連我們的研究進(jìn)展,包括很多想要做的事情其實(shí)都受阻了。
前兩年我記得有句老話叫“沒卡沒感情,談卡傷感情”,我覺得今天又到了這個地步了,但情況又不一樣了,就是剛才講的可能我們又到了推理的階段,轉(zhuǎn)向推理階段是因?yàn)樾枨笳娴脑诒l(fā),十倍、百倍的爆發(fā),剛才你也說過去十倍,其實(shí)需求是一百倍,那還有很大量的需求沒有滿足,怎么辦?我們大家可能一起來想想辦法。
楊植麟:感謝各位的精彩分享,謝謝大家。
![]()
前沿動態(tài)前沿大會
前沿人物
點(diǎn)「在看」,給前前加雞腿
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.