最近看了飛天閃客的視頻,他用一種非常接地氣的方式,把那些聽起來高大上的 AI 名詞拆解開了。如果你也被 LLM、Agent、MCP、RAG 搞暈了,看這一篇就夠了。
我們先來一波祛魅:
1. Skill并沒有那么高大上,它只是固定了Prompt,換了個地方存儲而已,算不上什么新技術。
2. 最近爆火的OpenClaw,它只是能自主干活,還沒有所謂的技術大幅突破,核心還是依賴Agent、Skill等舊概念。
3. Agent聽起來很科幻,本質就是個“傳話筒”,專門處理大模型不會、不需要智能就能完成的活兒。
4. Function Calling和MCP看似高深,其實就是“約定”——一個約定Agent和大模型怎么聊,一個約定Agent和工具怎么連。
5. 所有AI新概念,說到底都是圍繞Prompt做文章,要么幫著加上下文,要么幫著減少和大模型的溝通次數。
6. MCP和Workflow都比較雞肋,MCP未來會被內化到Agent主程序,Workflow既不如編程框架適配程序員,也不如Skill適配普通人,遲早會被淘汰。
1. 基礎概念:大模型與對話
LLM(大語言模型):本質上是只會做“文字接龍”的超級員工。
Prompt(提示詞):你給員工下達的任務指令。
Context(上下文):溝通時的背景信息。
Memory(記憶):因為大模型記不住之前的對話,所以每次溝通前,把之前的聊天歷史全塞進 Context 里,偽裝成它有記憶。
2. 進階能力:Agent 與檢索
Agent(智能體):給大模型配一個“代理程序”。大模型負責思考,程序負責跑腿(上網、查資料、操作軟件)。
RAG(檢索增強生成):相當于給大模型一本參考書。通過向量數據庫把相關的本地文檔找出來,塞進上下文,解決大模型胡說八道的問題。
3. 連接協議:它們是怎么“溝通”的?
這是最容易混淆的部分,博主給出了非常清晰的定義:
Function Calling(函數調用):
【模型 ? Agent】 之間的約定。讓模型按固定格式(如 JSON)說話,方便程序解析。
MCP(模型上下文協議):
【Agent ? 工具服務】之間的約定。像是一套標準接口文檔,規定 Agent 怎么去調用各種外部工具。
4. 任務流:從“剛性”到“柔性”
為了完成復雜任務,行業內有幾種不同的實現方式,它們的區別在于穩定性與靈活性的平衡:
模式 實現方式 特點 LangChain 純代碼編程 最穩定。流程硬編碼,但缺乏靈活性。 Workflow 低代碼拖拽 較穩定。圖形化操作,適合簡單的固定流程。 Skill(技能) 文檔 + 腳本 平衡點。把提示詞和腳本固化下來,按需加載。 Pure Agent 純自主思考 最柔性。流程自己定,但最不可控,且費 Token。
什么是 Skill? > 飛天閃客認為 Skill 本質上是一個 Prompt 加載器。它把原本要寫在提示詞里的復雜要求和工具說明,換個地方存成了 .md 文件,需要時才讀取。
四、OpenClaw又是啥
OpenClaw(ClawdBot) 本質是基于前面提到的Agent、Skill、Memory等核心名詞,打造的“可直接落地、高易用性”的通用Agent產品,近期因“能自主干活”在GitHub爆火。
五、博主最后總結了一個看透所有新概念的統一視角:
本質都是“塞”: 所有的 Search、RAG、Skill,本質上都是在幫我們自動往 Prompt 里面增加上下文信息。
Agent 是“智能”的對立面: 一個流程中,所有能用固定程序(不需要動腦子)解決的部分,就是 Agent 發揮作用的地方。
趨勢是“便利”: 未來的趨勢不是去深究這些技術名詞,而是會出現一個“超級 Agent”,把這些亂七八糟的配置全部內化掉。
小閑認為:
這恰恰體現了 AI 已經發展到了一個階段。大模型基本上已經沒有太多的技術突破,只能往應用層發展。那應用層怎么讓普通人快速去了解?這是所有 AI 公司都在思考的問題。雖然說現在skill已經是簡化了一定程序,Openclaw 也打出了個人助手的名頭,但是對普通人來說依然有差距。我安裝 Openclaw 都安裝了好幾個小時,什么時候這之間的鴻溝能夠補齊,才是 AI 真正刺激需求的開始。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.