![]()
一個開發者想查比特幣實時區塊高度,傳統路徑是寫爬蟲、接API、處理認證。他用了10分鐘,49個現成工具直接喂給AI。這背后是一套叫MCP的新協議,正在把AI從"離線學霸"變成"在線操盤手"。
USB for AI:MCP是什么
AI模型很聰明,但有個致命短板:知識截止。問Claude現在比特幣挖到第幾個區塊,它會禮貌拒絕——"我沒有實時數據訪問權限"。
Model Context Protocol(模型上下文協議,簡稱MCP)就是來解決這個的。這是Anthropic去年推出的開放標準,讓AI能調用外部工具。打個比方:如果AI是智能手機,MCP就是USB-C接口——統一、即插即用,任何設備(數據端)連任何手機(AI端)。
MCP服務器封裝具體能力,比如"查當前區塊高度";MCP客戶端(Claude Desktop或自定義腳本)負責調用;AI模型自己決定該用哪個工具。
關鍵設計是"關注點分離"。比特幣邏輯鎖在服務器里,AI推理留在客戶端,兩邊講同一套協議。開發者不用重寫模型,也不用為每個AI平臺單獨適配。
目前MCP生態已經長出幾百個服務器:GitHub、Slack、Postgres、Figma……比特幣只是其中一個垂直場景。但加密貨幣對實時性要求極高,成了檢驗這套架構的試金石。
三層架構:10分鐘搭起來的流水線
這個開發者的方案用了三個組件,兩條命令,一個配置文件。
最底層是bitcoin-mcp,一個開源的比特幣MCP服務器。安裝只要一行:pip install bitcoin-mcp。它內置49個工具,覆蓋區塊、交易、內存池、手續費估算、挖礦統計——全部對接免費的Satoshi API,無需API key,無需本地跑節點。
啟動命令:bitcoin-mcp --transport sse --port 8000。這會在本地8000端口跑起一個服務器,用SSE(Server-Sent Events)協議通信。
中間層是agentgateway,一個輕量級代理。為什么需要代理?原文提到幾個場景:統一認證、負載均衡、協議轉換。對普通開發者來說,最實在的好處是拿到一個干凈的HTTP端點,任何MCP客戶端都能連。
配置寫成YAML:
binds: - port: 3000 listeners: - routes: - policies: cors: allowOrigins: ["*"] backends: - mcp: targets: - name: bitcoin-mcp sse: url: http://localhost:8000/sse
啟動:./agentgateway -f config-sse.yaml。現在3000端口是統一入口,背后自動轉發到8000端口的比特幣服務。
最上層是客戶端。開發者用MCP Inspector測試:npx @modelcontextprotocol/inspector。連上localhost:3000,就能看到49個工具列表,逐個調用驗證。
整個流程跑通,確實只要10分鐘。對比傳統方案:讀API文檔、寫封裝代碼、處理錯誤重試、維護文檔同步……通常以天計。
49個工具全景:AI能查什么
bitcoin-mcp的工具集覆蓋了比特幣網絡的核心維度。按功能可以分成幾類:
鏈上基礎數據:當前區塊高度、最新區塊哈希、區塊詳情、交易詳情、地址余額。這些是任何比特幣應用的基礎設施。
內存池(Mempool)狀態:待確認交易數、內存池大小、手續費估算。對交易所和用戶來說,這是決定"現在該付多少礦工費"的關鍵輸入。
網絡與挖礦:全網算力、難度調整、挖礦收益估算。礦工和分析師用來判斷網絡健康度。
市場與衍生指標:部分工具對接了價格數據源,可以查實時行情。
所有工具返回結構化數據,AI模型可以直接消化。比如用戶問"現在發送一筆普通交易大概要多少手續費",AI會調用get_fee_estimates,拿到按優先級分檔的satoshi/byte報價,再翻譯成人類語言。
更復雜的場景:用戶問"最近內存池為什么堵了"。AI可以串行調用多個工具——先查內存池大小,再查最近區塊的出塊間隔,再對比歷史同期數據——形成連貫的分析。
agentgateway的隱藏價值
![]()
這個代理層的設計值得細品。表面看是多了一層轉發,實際是解耦了"能力提供"和"消費方式"。
比如團隊內部有多個MCP服務器:一個查比特幣、一個查以太坊、一個連內部數據庫。沒有代理的話,每個客戶端要配一堆地址。有了agentgateway,統一走3000端口,后端路由由配置文件管。
再比如認證。MCP協議本身不規定怎么鑒權,各服務器自己實現容易亂。agentgateway可以在入口層統一加JWT校驗、速率限制、審計日志——企業級部署的剛需。
原文沒展開但暗示了的場景:協議轉換。MCP目前主要用SSE(HTTP長連接),但有些客戶端可能只支持stdio(標準輸入輸出)或WebSocket。代理層可以做協議適配,讓老舊客戶端也能接入新服務。
這有點像微服務架構里的API Gateway,但專為AI工具調用優化。輕量、無狀態、配置驅動,符合現代基礎設施的審美。
開發者體驗的細節
整個方案最打動人的是"零摩擦"。bitcoin-mcp默認連Satoshi API,不需要注冊、不需要信用卡、不需要擔心額度。這對想快速驗證想法的開發者極其友好。
當然生產環境會換自己的節點或付費API。但原型階段能省掉所有前置成本,10分鐘看到結果,決策周期從"周"壓縮到"小時"。
配置文件的CORS設置是allowOrigins: ["*"],開發環境全開。上線前肯定要收緊,但這也體現了設計哲學:先跑起來,再逐步加固。
MCP Inspector是官方調試工具,可視化展示可用工具、參數schema、調用結果。比curl測試直觀得多,也降低了非后端開發者的接入門檻。
一個細節:MCP協議要求服務器暴露工具的描述信息(description)。AI模型靠這些描述理解每個工具是干嘛的,從而決定調用哪個。好的描述直接影響AI的決策質量——這成了MCP服務器開發者的新功課。
從比特幣到通用AI架構
這個案例的特殊性在于,比特幣是"硬實時"數據源——每10分鐘出一個塊,內存池每秒都在變。AI如果只能查靜態數據,在這個場景下幾乎沒用。
但同樣的架構可以套到任何實時系統:股票行情、IoT傳感器、物流追蹤、社交媒體趨勢。MCP正在標準化"AI如何連接世界"這個問題。
目前的主要玩家:Anthropic推協議,OpenAI的Function Calling是競品但封閉,社區涌現各種開源實現。agentgateway這類代理工具的出現,說明生態開始分層——協議層、代理層、應用層各自長出新物種。
對開發者來說,好消息是選擇變多了。壞消息是,得跟上節奏,不然工具鏈可能快速過時。
局限與待解問題
原文沒回避的坑:MCP還是早期標準,工具質量參差不齊。有的服務器文檔不全,有的返回格式不統一,AI解析時會懵。
安全性是另一個話題。AI模型自己決定調用哪個工具,如果描述寫得有歧義,或者被惡意注入,可能觸發非預期操作。MCP協議有權限設計,但實際落地還在摸索。
性能方面,每個工具調用都是一次網絡往返。復雜查詢串十幾個工具,延遲會累積。agentgateway能做緩存和批處理優化,但這塊還沒成標準。
最后,依賴外部API意味著單點故障。Satoshi API免費但無SLA,生產環境得準備降級方案。
10分鐘背后的趨勢
這個開發者的10分鐘體驗,本質是"協議紅利"的釋放。MCP把原本要寫的膠水代碼變成了配置,把雙邊協商變成了即插即用。
類比來看,早年做網站要配服務器、裝數據庫、寫CGI腳本。后來有了LAMP棧、有了PaaS、有了Serverless,每次抽象都釋放一波創造力。MCP在做的事,是把AI應用的基礎設施層標準化。
比特幣場景是個漂亮的POC(概念驗證)。它證明了:即使是對實時性、準確性要求極高的金融數據,AI也能通過標準協議安全接入,而不需要每個項目重新造輪子。
下一步會是什么?可能是更復雜的工具鏈——AI不僅能查數據,還能執行交易、調用合約、管理錢包。MCP的權限模型和審計機制,將在那個階段接受真正考驗。
那位開發者在文末留了個問題:如果你的AI代理能實時感知鏈上狀態,它會怎么改變你的交易策略?或者說,當AI的"認知延遲"從天數降到毫秒,整個市場的博弈格局會不會重寫?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.