當我們把 Agent 掛在嘴邊的時候,有沒有想過這個概念其實早在1995年的教科書里就被定義過了?當我們急于讓 AI 掌握更多技能時,有沒有意識到人類大腦在面對過多選項時會瞬間崩潰——而 AI 可能也逃不過類似的命運?
這期節目,Indigo 與來自 UBC Trusted and Efficient AI(TEA)Lab 的李霄霄教授在溫哥華面對面深聊。霄霄教授的研究背景橫跨耶魯、普林斯頓、UBC 和 Vector Institute,他從神經科學轉向 AI 系統研究的經歷,恰好讓他擁有了一個獨特的雙重視角:用人類認知的局限去理解 AI 的瓶頸,再用解決人類局限的方法去提升 AI 的能力。這場對話涵蓋了 Agent 的定義與演進、單智能體與多智能體的效率之爭、AI 安全與失敗容忍、認知萎縮的隱憂,以及教育在 AI 時代的根本轉型——信息密度極高,值得細讀。
從耶魯到 UBC一位 AI 研究者的12年" Type="ordered" SerialNumber="01"-->
- 加拿大在這一輪 AI 革命中的學術貢獻被嚴重低估,從 Hinton 到 Sutton,從深度學習到強化學習,研究的火種很多都點燃在加拿大的大學里。
霄霄教授的學術軌跡頗具代表性。他在耶魯大學的博士研究聚焦于神經科學、神經影像與人工智能的交叉領域,2020年畢業后前往普林斯頓大學做博士后,研究方向轉向機器學習系統、分布式運算以及 AI 的安全與隱私問題。2021年,他加入 UBC(英屬哥倫比亞大學),領導 Trusted and Efficient AI Lab——簡稱 TEA Lab。去年他評上了副教授,同時也在 Geoffrey Hinton 創辦的 Vector Institute 擔任研究員,學術休假期間還在谷歌做訪問研究員。算下來,他做 AI 研究已經整整12年了。
TEA Lab的名字就透露了它的核心使命:不管底層 AI 技術如何迭代,提高 AI 的可靠性和效率永遠是一個值得深耕的課題。在Pre-GPT 時代,團隊關注的是卷積神經網絡在圖像分類、語言翻譯等任務中的效率和安全性問題;到了大模型時代,這些問題非但沒有消失,反而變得更加緊迫和復雜。
Indigo 特別提到了一個經常被忽視的事實:這一輪 AI 爆發的學術根基在很大程度上來自加拿大。多倫多大學的 Hinton 教授是深度學習之父,阿爾伯塔大學有寫出 The Bitter Lesson 的 Richard S. Sutton,他也在與 Google 的 Gemini 團隊緊密合作,蒙特利爾的 McGill 大學也貢獻了大量 AI 人才。正如 Indigo 所說——加拿大負責做研究,美國負責創業賺錢。霄霄教授笑著回應,UBC 這邊的 AI 研究者確實比較年輕,但假以時日,希望也能涌現出幾位大佬。
- Agent 并不是一個新概念,它的學術定義早在30年前就已經明確;真正區分 Chatbot、Workflow 和 Agent 的核心,在于自主規劃(Planning)能力。
2025年,Agent 成了科技圈最火的詞。從 Manus 到各種開源產品,似乎一夜之間所有的 AI 應用都貼上了 Agent 的標簽。但霄霄教授提醒我們,從學術角度來看,Agent 早就不是什么新概念了。
![]()
他引用了 Peter Norvig 和 Stuart Russell 在1995年出版的經典教科書《Artificial Intelligence: A Modern Approach》中的定義:Agent 是一個可以感知環境、根據環境自主決策、以最大化目標的系統。這個定義與后來Richard Sutton在 Alberta Plan 中提到的「感知環境、自我進化」一脈相承。在大模型出現之前,這就是學術界公認的 Agent 定義。
不過,目前市場上對 Agent 的理解要寬泛得多。一些簡單的對話鏈路或者工作流(Workflow),也被貼上了 Agent 的標簽。霄霄教授引用了 Anthropic 對 Workflow 和 Agent 的一個非常清晰的區分:Workflow 是大模型和工具在既定路線下進行交互的系統;而 Agent 則具備自主 Planning 和進化的能力,不僅能使用工具,甚至能創造工具
這個區分至關重要。Indigo 從個人使用體驗出發,直言在 Planning 能力方面,Anthropic 的 Claude 是他用過的最好的。Claude 不只是能理解你在說什么,還能抓住你的想法,做出合適的計劃,高效地執行,遇到問題還會自我反省、退回來修改計劃。用 Indigo 的話說,它已經有了「一點點元認知能力」——知道自己在干什么。霄霄教授也觀察到了同樣的現象,他分析這可能是因為 Anthropic 從一開始就在做 Agent 的基礎建設。當然,其他模型也有各自的長處:Gemini 速度極快,OpenAI 的 Codex 寫代碼能力提升顯著,國內的千問、Kimi、MiniMax 等也都在快速追趕。
但核心問題始終不變:真正讓 Agent 成為 Agent 的,是自主規劃能力——能夠根據用戶的目標,自主地拆解任務、分配資源、執行并自我糾正。
- 人類認知有明確的局限——工作記憶容量有限、注意力有限、技能容量有限;而 AI 雖然在很多方面比人類強大,卻也展現出類似的瓶頸。通過研究人類認知局限的解決方案,可以反過來提升 AI 的能力
這是整場對話中最令人意外的一段。霄霄教授從認知心理學出發,提出了一個深刻的類比框架:人類認知的局限,或許可以幫助我們理解 AI 為什么也會「犯傻」
他提到了一個經典的認知科學理論——人類的認知能力是有限的。對于自然界中的復雜系統來說,人類大腦所具備的理性能力,遠遠不足以解決那些需要窮舉所有可能性的問題。最直觀的例子就是下國際象棋:理論上存在一個最優解,但人類大概只能往前看3到5步,而無法計算每一步的最終勝率。
更有趣的是 Hick's Law 實驗。研究者給受試者一個燈陣列,讓他們在燈亮的時候按對應的按鈕。當燈的數量越來越多時,人的反應時間急劇增長,準確率也大幅下降。這揭示了人類大腦一個核心的物理限制:工作記憶(Working Memory)的容量是有限的,當任務超過這個容量時,整個認知系統就會瞬間崩潰。
![]()
那 AI 呢?Indigo 的直覺反應是:AI 不會有這個問題啊,加算力就好了,開1000個實例同時干活。霄霄教授對此給出了一個 Yes and No 的回答。他的研究發現,當你給一個 AI Agent 配備越來越多的 Skill 時,它的表現并不會無限提升——大概在20到30個 Skill 的時候,它能達到最佳性能;再往上加,性能就會飽和,甚至下降。
這個發現意味著,AI 雖然在很多維度上超越了人類的認知限制(比如 Transformer 的多頭注意力機制可以同時關注所有信息),但它也有自己的物理瓶頸——上下文窗口就是它的「工作記憶」,當 Context 變得非常長的時候,AI 也會 Lost in the Middle
Indigo 在這里做了一個精彩的類比:人類大腦的注意力是有限的,一次只能關注幾件事;Transformer 雖然用多頭注意力同時關注所有事情,但上下文就是它的物理限制——就像內存永遠有物理上限一樣
- 雖然我們習慣用人類認知來類比 AI,但硅基智能和碳基智能在底層原理上完全不同——AI 可以被設計、可以快速復制、可以通過暴力堆疊算力突破單體限制。
霄霄教授在這里做了一個重要的糾偏。雖然用人類認知來理解 AI 是一種有用的研究方法,但他強調不能把這種類比推到極端——硅基智能和碳基智能的底層原理就是不同的。
人類大腦使用神經電信號傳遞信息,經過數百萬年的自然選擇進化而來;AI 的核心是 Transformer 架構下的生成網絡,用數學運算模擬智能。人類大腦在能量效率上遠超 AI——看兩個例子就能理解一個概念,而 AI 需要海量數據訓練。人類的泛化學習能力也更強,這種「潛移默化」的學習方式是 AI 目前還在追趕的。
但硅基智能有一些碳基智能完全不具備的優勢。第一,它可以被設計——人類可以主動給 AI 附加外界能力,把它打造成一個極其強大的系統,而人類目前無法被這樣設計。第二,它可以快速復制——只要有足夠的算力和能源,你可以瞬間生產出成千上萬個完全相同的智能體。第三,它可以自我進化——Self-Evolving 算法讓 AI 有了自主迭代的能力。
![]()
Indigo 做了一個生動的總結:在地球上,一個新的智慧物種已經誕生了,它進化的速度遠超碳基生物。雖然單體能量效率不如人腦,但硅基智能可以無限「插電」,通過暴力堆疊算力和快速復制,產生完全不同形式的智能。這個事實雖然聽起來有點讓人不安,但確實是我們必須面對的新現實。
- 在串行任務中,單個 Agent 加上適當的 Skill 往往比多 Agent 協作更高效,因為溝通成本和錯誤累積是多 Agent 系統的主要瓶頸;但復雜任務中的角色分離和并行處理仍然需要多 Agent 架構。
這是霄霄教授近期最引人注目的一項研究「When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail[1]」。他的團隊發現,在特定類型的任務中——尤其是那些可以串行處理的任務——給一個 Agent 賦予多種技能,往往比讓多個 Agent 協作更快、更好。
![]()
為什么?原因其實和人類組織面臨的問題如出一轍。當你和其他人合作完成一件事時,溝通本身就會產生信息損失。如果一個人在自己的能力范圍內就能完成這件事,省去溝通環節反而效率更高。霄霄教授用做菜來打比方:如果一個人既會切菜又會炒菜,那他一個人做一道菜可能比兩個人流水線配合更快,因為單人操作時上下文是連續的,他可以靈活優化自己的工作流。
多 Agent 協作還有兩個額外的代價。第一是 Token 成本——Agent 之間的每一次溝通都需要消耗算力和 Token。第二是錯誤累積——在串聯的架構中,只要有一個 Agent 出錯,這個錯誤就會傳導到所有下游的 Agent 上面去。
但這并不意味著多 Agent 架構沒有價值。霄霄教授嚴謹地指出,他的研究聚焦的是特定類型的串行任務,并不覆蓋所有場景。在兩種情況下,多 Agent 協作仍然是必要的。
![]()
第一種是任務本身需要角色分離。比如 Anthropic 最近發布的 Agent Team 演示中,16個 Agent 分工合作完成了一個 C 編譯器,并用它重新編譯了 Linux 內核。在這種復雜的軟件工程任務中,寫代碼的人和審核代碼的人必須是分開的——就像一個人不能既當裁判又當選手。因為單個 Agent 的記憶空間無法隔離,它無法在同一個上下文中既是生產者又是審核者。
第二種是任務可以被有效地并行分片。Indigo 分享了自己使用 Claude Code 的經驗:當他給 AI 下達一個編碼轉碼任務時,AI 會自己判斷是否要啟動 Sub Agent,把任務分成五片讓五個 Agent 同時處理。更聰明的是,AI 會動態決定什么時候分包、什么時候自己做——就像一個出色的人類調度指揮。
- 當前的多 Agent 架構過度模仿了人類的組織層級,但 AI 可能會發展出完全不同的協作模式——像鳥群或蟻群那樣,無需 Leader 也能高效運作。
這段討論特別有啟發性。Indigo 首先拋出了一個觀察:人類組織是一個極度冗余和低效的系統,因為人要休息、有情緒、有自尊心(EGO),這些都會在組織協作中產生巨大的摩擦。所以人類社會發展出了高層、中層、執行層這樣的分層管理結構。
但對 AI 來說,這套邏輯可能完全不適用。霄霄教授提出了一個更具前瞻性的視角:他對當前 AI Agent 過度模仿人類組織架構持保留態度。AI 的思考路徑可能和人類完全不同,它的組織方式也未必需要照搬人類的層級分工。
他提出了一個特別有畫面感的替代模型:Swarm Learning——就像鳥群飛行一樣。鳥群沒有 Leader,單只鳥的智能也非常有限,但一群鳥在一起飛的時候,卻能形成極其高效的組織形態。螞蟻也是如此:單個螞蟻很傻,也沒有指揮官,但蟻群通過簡單的職能分工(搬食物、喂養蟻后、守衛)和某種涌現的默契,就能表現出驚人的集體智能。
![]()
也許未來的多 Agent 系統不需要一個中央調度員,而是通過某種去中心化的協作機制,各個 Agent 自發地形成高效的組織。更有意思的是,霄霄教授認為這種 AI 原生的組織方式反過來可能啟發人類——我們或許可以從 AI 的組織架構中學到如何讓人類團隊更高效
- 不同場景對 AI 錯誤的容忍度天差地別,醫療和法律需要極高的準確性,而 AI 的輸出設計——尤其是 Confidence Score 和高亮提示機制——可以成為安全保障的關鍵手段。
Indigo 和霄霄教授深入討論了一個現實問題:我們應該在多大程度上信任 AI 的輸出?
霄霄教授提到了醫療領域的一個設計思路,非常值得其他行業借鑒。在將 AI 應用于醫療輔助診斷時,系統會自動高亮那些 AI 有可能答錯的關鍵詞,把它們鏈接到相關的醫學文獻和 Clinical Guideline,強制要求醫生在核實之后才能進入下一步分析。這不是簡單地告訴用戶「AI 可能會出錯」,而是在產品設計層面嵌入了一套驗證機制。
核心概念是 Confidence Score(置信度評分)。AI 本質上是概率模型,它的每一個輸出都有一個對應的置信度。如果某個詞或判斷的置信度只有0.2(滿分1.0),那它就應該被高亮出來,提醒用戶需要人工審查。這種「AI 輸出設計」的思路,不只適用于醫療,在科研、法律等任何需要高準確性的專業領域都有重要價值。
- 過度依賴 AI 會導致人類認知能力的退化,就像長期穿戴外骨骼會讓肌肉萎縮一樣。教育的根本使命需要從「教技能」轉向「教意義和目標感」。
Anthropic 最近發布了一份研究報告,顯示長期使用 Claude Code 的開發者,編程能力都出現了不同程度的退化。霄霄教授對此深以為然,認為這是一個非常嚴重的問題——過度依賴 AI 會讓大腦產生惰性。
Indigo 用了一個特別精彩的比喻:外骨骼。想象你想鍛煉肌肉去舉重,但現在有了高科技外骨骼,穿上它舉重輕輕松松。問題是,你完成了舉重動作,卻沒有鍛煉到一塊肌肉。長此以往,你的肌肉一定會萎縮。他還拿自己舉例:用了 Tesla 的 FSD 自動駕駛之后,他發現自己開車技術明顯退步了,所以每周七天中有一天堅持自己開車——就是為了保持基本的駕駛能力。
這個外骨骼隱喻延伸到了教育問題上。Indigo 提出了一個尖銳的追問:當 AI 可以幫你完成幾乎所有技能型工作時,你坐在電腦前面,面對 AI,卻不知道該問什么——這是因為你沒有目標
![]()
教育的歷史揭示了問題的根源。從200多年前的工業化時代開始,教育的核心一直是「教技能」——訓練士兵聽口令、走正步,訓練工人操作機器,訓練白領使用軟件。目標很明確:學會一項技能,然后去工作。但當 AI 可以即拿即用地提供這些 Skill 時,傳統的技能教育就失去了意義。
霄霄教授和 Indigo 一致認為,未來教育需要一個根本性的轉向:從「教技能」轉向「教意義」。過去的教育從來沒有教你怎么去尋找意義、制定自己的目標。當越來越多的「牛馬工作」被 AI 取代,當能給你下目標的老板也不再需要你的時候,你必須能夠自己形成目標。
大學教育仍然有意義,但它的價值不再是傳授知識(AI 早就能做到了),而是鍛煉兩種核心思維能力:Critical Thinking(對問題和答案的審視能力)和邏輯思考能力。那些我們曾經認為「無用」的專業——哲學、理論物理、藝術——在 AI 時代可能反而變得更加重要,因為它們培養的恰恰是通識性的認知框架和跨領域的創造力
- AI 目前主要在提升人類的效率,但它更深遠的意義可能在于拓展人類的邊界。只有拓展了邊界,經濟的「餅」才能做大,而不只是內卷。
霄霄教授在接近尾聲時提出了一個讓人眼前一亮的框架:AI 的發展有兩個方向——提升效率和拓展邊界。
提升效率是顯而易見的:AI 能更快、更好地完成人類本來就會做的事情。但這條路有個問題——如果經濟的總量(餅)沒有變大,效率高的只是把效率低的吃掉了,最終是一場零和游戲。
![]()
拓展邊界才是讓餅變大的關鍵。霄霄教授用飛機來類比:飛機不是讓馬車跑得更快,而是讓人類能夠飛上天——這是一種全新的維度拓展。歷史上每一次讓人類在空間中移動效率質變的發明(蒸汽機、鐵路、飛機),都帶來了全新的產業和職業。而 AI 這一輪革命,就像喬布斯當年說電腦是「大腦的自行車」一樣——AI 是真正的智力加速器,它可能讓人類的認知和創造力進入一個全新的維度。
Indigo 把這個邏輯延伸得更遠:如果 AI 解放了大量的重復性勞動,人們有更多時間投入到創作和探索中,我們可能會迎來一個新的文藝復興時代。當然,這中間有一段很現實的過渡期——人必須先滿足溫飽,才能追尋意義。
- 軟件工程中的90-90法則同樣適用于 AI 發展——90% 的功能花了90% 的時間完成,但剩下10% 的功能也需要90% 的時間,當前對 AI 進展的樂觀情緒可能過于超前。
在對話的最后,霄霄教授貢獻了一個非常清醒的收尾。他引用了軟件工程中著名的90-90法則(Ninety-Ninety Rule):90%的代碼花了90%的時間完成,但剩下10%的代碼也需要花90%的時間。這意味著,我們可能只完成了 AI 發展中比較「容易」的部分,剩下那最后的10%甚至0.1%,難度可能遠超想象。
他用自動駕駛的發展歷程來佐證這個觀點——幾年前大家都覺得全自動駕駛馬上就要實現了,但從 L2到 L5的跨越遠比預想中困難。AI 的其他領域很可能也遵循同樣的規律。
這個清醒的提醒為整場充滿興奮和想象力的對話畫上了一個恰到好處的句號。未來又好又不好——這種模糊的狀態,恰恰就是客觀的現實。
![]()
當 Indigo 興奮地描述 AI 的調度能力時,霄霄教授會用 Swarm Learning 來提醒我們:不必假設 AI 的組織方式一定要模仿人類。當霄霄教授用認知心理學的框架分析 AI 的局限時,Indigo 又會指出硅基智能可以通過暴力堆疊算力來突破很多人類面臨的物理限制。
更深層次的思考在于:如果 AI 真的可以拓展人類的邊界而不僅僅是提升效率,那這場革命的意義就遠遠超過了我們目前關注的那些「誰會失業」「哪個模型更好」的短期問題。教育需要教的不再是技能,而是目標感和意義感——這個觀點聽起來理想主義,但在 AI 正以指數速度進化的當下,它可能是最務實的建議。