一個Python插件,讓5個AI模型在同一個系統里各司其職——這不是概念驗證,是西蒙·威利森(Simon Willison)3月25日放出的datasette-llm 0.1a1。
數據清洗用GPT-5.4-nano,SQL糾錯換Sonnet 4.6。過去這種切換要寫死代碼,現在一行配置搞定。威利森在發布帖里打了個比方:「就像給每個AI任務配了專屬插座,管理員只看面板就知道哪條線插在哪。」
插件架構的「翻譯層」邏輯
datasette-llm的核心是個中間層。其他插件調用時不再直接指定模型,而是聲明用途(purpose),比如enrichment或query-assistance。系統根據配置表自動路由。
威利森埋了個鉤子叫register_llm_purposes()。插件開發者注冊自己的用途字符串后,后續工具能一次性拉取全量列表——這對想做可視化配置面板的人來說,省掉了一半的臟活。
一個細節:用途字符串是明文約定的,沒有強制校驗。威利森選擇相信開發者不會把enrichment拼成enrichmant——或者說,拼錯了就讓它默默失敗,這是Python社區的典型做派。
為什么現在才做
datasette本身是個探索SQLite數據庫的工具,去年開始密集接入LLM。問題是每個插件各自為政:A插件硬編碼了GPT-4,B插件死磕Claude,用戶想統一換模型得改多處配置。
0.1a1的版本號說明這仍是早期測試。但威利森的發布時間值得玩味——就在GPT-5.4系列模型泄露后的第4天。他顯然在等一個足夠混亂的模型生態,來證明「抽象層」的必要性。
付費訂閱的反向操作
發布帖底部掛著威利森的贊助鏈接:每月10美元,獲得「當月最重要的LLM進展精選郵件」。他的slogan是「Pay me to send you less」——花錢讓我少發點。
這個冷笑話和他做插件的思路一致:信息過載時代,篩選比堆砌值錢。datasette-llm干的也是這事,只不過對象是模型調用而非郵件。
0.1a1的文檔里沒提多租戶場景。如果你的團隊有10個數據集,每個想配不同的模型組合——這個配置面板,威利森留給了社區補完。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.