<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      大模型本地部署,全能選手LM-Studio,你可能只用了一半

      0
      分享至

      關于本地部署大模型和 Ollama 的話題,我之前寫過不少:

      為了寫,我又重新玩了一下 LM Studio —— 這個本地大模型的"全能選手"


      LM Studio 主界面

      說實話,我之前對 LM Studio 的印象還停留在"點一下就能跑模型的桌面APP"。但在 0.4 版本之后,它已經進化成了一個完整的本地 AI 開發平臺,很多隱藏用法很多同學可能都不知道。

      簡介

      LM Studio 是一款支持在本地運行 AI 大模型的工具,支持 Mac、Linux 和 Windows 全平臺。和 Ollama 不同,LM Studio 自帶一個漂亮的圖形界面,入門門檻極低——下載、搜索模型、點擊運行,三步搞定。


      LM Studio 主界面

      目前支持的主流模型相當多:gpt-oss、Qwen3、Gemma 3、DeepSeek 等等,基本上 Hugging Face 上熱門的 GGUF 和 MLX 模型都能跑。

      但今天我不想聊桌面端怎么點點點,那些是給新手看的。我想重點聊聊 LM Studio 那些真正硬核、但被大多數人忽視的用法。

      0.4 版本:全面進化

      1 月,LM Studio 發布了 0.4.0 大版本更新,這不是一個小修小補的版本,而是一次架構級的重構。

      核心變化有四個:


      llmster 無頭部署模式

      1. llmster:無 GUI 的守護進程

      這是 0.4 最炸裂的更新。LM Studio 把 GUI 和核心推理引擎拆開了,推出了llmster—— 一個可以脫離桌面界面獨立運行的守護進程

      什么意思?就是你現在可以把 LM Studio 的核心部署到任何沒有圖形界面的機器上:云服務器、GPU 算力機、CI/CD 流水線、甚至 Google Colab。

      安裝一行命令搞定:

      # Linux / Mac
      curl -fsSL https://lmstudio.ai/install.sh | bash


      # Windows
      irm https://lmstudio.ai/install.ps1 | iex

      啟動也很簡單:

      lms daemon up         # 啟動守護進程
      lms get # 下載模型
      lms server start # 啟動本地 API 服務器
      lms chat # 打開交互式聊天

      這意味著什么?意味著你家里那臺 4090 機器可以當 API 服務器用了,不需要開桌面、不需要一直盯著屏幕。llmster+lmsCLI,就是一套完整的無頭部署方案。

      2. 并行請求 + 連續批處理

      之前 LM Studio 同時只能處理一個請求,后面的排隊

      0.4 之后,基于 llama.cpp 2.0 的連續批處理實現,支持同一模型的多個并發推理請求

      加載模型時有兩個新選項:

      • Max Concurrent Predictions:設置最大并發請求數(默認 4)

      • Unified KV Cache:統一 KV 緩存,硬件資源不會按請求硬分區,幾乎不增加內存開銷

      對于需要對外提供 API 服務的場景,這個能力直接讓 LM Studio 從"玩具"變成了"生產工具"

      3. 全新的有狀態 REST API:/v1/chat

      這個端點和傳統的 Chat Completions 不一樣。/v1/chat有狀態的:你發一條消息,會拿到一個response_id,下次請求把previous_response_id帶上就能繼續對話。

      這樣的好處是:

      • 每次請求體很小,不用來回傳整個聊天記錄

      • 方便構建多步驟工作流

      • 響應自帶 token 統計和速度數據(tokens in/out、首 token 時間等)

      • 還能通過 permission keys 訪問本地 MCP 工具

      4. UI 大刷新

      聊天導出(PDF/Markdown/純文本)、分屏視圖、Developer Mode、應用內文檔——這些都是錦上添花,但確實讓整個用戶體驗上了一個臺階。


      聊天導出功能 核心:LM Studio 不為人知的開發者用法

      好,下面進入今天的重頭戲

      大部分人只把 LM Studio 當個聊天工具,但它其實提供了一整套開發者生態

      用法一:OpenAI 兼容 API —— 不改代碼,換個 URL 就行

      這是我覺得最實用的功能之一

      LM Studio 提供了完整的 OpenAI 兼容端點:

      端點

      功能

      /v1/models

      列出可用模型

      /v1/responses

      Responses API(Codex 也用這個)

      /v1/chat/completions

      傳統的 Chat Completions

      /v1/embeddings

      文本嵌入

      /v1/completions

      文本補全

      啥意思呢?你現在用 OpenAI SDK 跑的代碼,只需要改一行 base_url,就能切到本地模型

      Python 示例:

      from openai import OpenAI

      client = OpenAI(
      base_url="http://localhost:1234/v1"
      )

      response = client.chat.completions.create(
      model="use the model identifier from LM Studio here",
      messages=[{"role": "user", "content": "Say this is a test!"}],
      temperature=0.7
      )

      TypeScript 示例:

      import OpenAI from 'openai';


      const client = new OpenAI({
      baseUrl: "http://localhost:1234/v1"
      });

      cURL 也一樣:

      curl http://localhost:1234/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
      "model": "openai/gpt-oss-20b",
      "messages": [{"role": "user", "content": "Hello!"}],
      "temperature": 0.7
      }'

      這對開發者來說太友好了

      你寫好的 Agent、RAG 應用、AI 工作流,測試階段完全可以用本地模型跑,零成本。上線時再切回 OpenAI 或 DeepSeek 的 API

      甚至連 OpenAI 的 Codex 都支持直接對接 LM Studio

      用法二:Anthropic 兼容 API —— Claude Code 也能白嫖

      這個就更騷了。從 0.4.1 開始,LM Studio 還提供了Anthropic 兼容的/v1/messages端點

      什么意思?Claude Code 不需要用 Anthropic 的 API Key 了,直接指向 LM Studio 就行!

      三步搞定:

      第一步:啟動 LM Studio 的本地服務器

      lms server start --port 1234

      第二步:設置環境變量

      export ANTHROPIC_BASE_URL=http://localhost:1234
      export ANTHROPIC_AUTH_TOKEN=lmstudio

      第三步:運行 Claude Code

      claude --model openai/gpt-oss-20b
      Claude Code 配合 LM Studio 使用

      就這么簡單。你用本地的 GGUF 或 MLX 模型,就能驅動 Claude Code

      建議上下文窗口設到 25K tokens 以上,因為 Claude Code 消耗上下文比較猛

      如果你在 VS Code 里用 Claude Code,也可以直接在設置里配:

      "claudeCode.environmentVariables": [
      {
      "name": "ANTHROPIC_BASE_URL",
      "value": "http://localhost:1234"
      },
      {
      "name": "ANTHROPIC_AUTH_TOKEN",
      "value": "lmstudio"
      }
      ]

      支持的功能也很完整:Messages API、SSE 流式傳輸、Tool Use 都能用

      用 Anthropic 的 Python SDK 也可以直接對接:

      from anthropic import Anthropic

      client = Anthropic(
      base_url="http://localhost:1234",
      api_key="lmstudio",
      )

      message = client.messages.create(
      max_tokens=1024,
      messages=[
      {"role": "user", "content": "Hello from LM Studio"}
      ],
      model="ibm/granite-4-micro",
      )
      print(message.content)

      同時兼容 OpenAI 和 Anthropic 兩大 API,這在本地部署工具里幾乎是獨一份

      用法三:CLI 工具lms—— 命令行控的福音

      LM Studio 自帶命令行工具lms,從 0.2.22 版本就有了。但到了 0.4,CLI 的體驗完全煥然一新

      安裝很簡單,會隨 LM Studio 桌面端或llmster一起安裝

      npx lmstudio install-cli

      常用命令速查:

      lms status          # 檢查 LM Studio 狀態
      lms server start # 啟動 API 服務器
      lms server stop # 停止 API 服務器
      lms ls # 列出已下載模型
      lms ls --json # JSON 格式輸出(適合腳本處理)
      lms ps # 查看當前加載的模型
      lms load # 加載模型
      lms load -y # 最大 GPU 加速加載,跳過確認
      lms unload --all # 卸載所有模型
      lms get # 下載模型
      lms chat # 交互式聊天(新!)
      lms create # 創建 SDK 項目
      lms log stream # 實時查看日志
      lms runtime survey # 打印 GPU 信息
      lms runtime update llama.cpp # 更新推理引擎

      重點說下lms chat,0.4 新增的命令。

      直接在終端里開聊,支持斜杠命令、思考過程高亮、粘貼大段內容。可用的斜杠命令:/model/download/system-prompt/help/exit

      對于喜歡 Terminal 的同學來說,完全不需要打開圖形界面就能完成下載模型 → 加載模型 → 聊天 → 調試 的全部流程。

      用法四:原生 SDK —— TypeScript 和 Python 都安排了

      除了兼容 OpenAI/Anthropic 的 API,LM Studio 還提供了自己的原生 SDK

      TypeScript SDK

      npm install @lmstudio/sdk

      import { LMStudioClient } from "@lmstudio/sdk";


      const client = new LMStudioClient();
      const model = await client.llm.model("openai/gpt-oss-20b");
      const result = await model.respond("Who are you, and what can you do?");
      console.info(result.content);

      Python SDK

      pip install lmstudio

      import lmstudio as lms


      with lms.Client() as client:
      model = client.llm.model("openai/gpt-oss-20b")
      result = model.respond("Who are you, and what can you do?")
      print(result)

      原生 SDK 的好處是能力更全面:除了聊天和文本生成,還支持 Tool Calling、MCP 支持、結構化輸出(JSON Schema)、Embedding 和 Tokenization、模型管理(加載、下載、列表)等高級功能

      LM Studio 的 REST API

      lms server start --port 1234

      curl http://localhost:1234/api/v1/chat \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $LM_API_TOKEN" \
      -d '{
      "model": "openai/gpt-oss-20b",
      "input": "Who are you, and what can you do?"
      }'
      用法五:LM Link —— 遠程加載你的模型

      這是 LM Studio 最新推出的功能,目前還在 Preview 階段,但思路很超前


      LM Link 設備連接示意

      LM Link 的核心思想:你可能有好幾臺機器(家里的 GPU 機器、公司顯卡、云服務器),LM Link 讓你在任何一臺設備上,像使用本地模型一樣使用遠程設備上的模型。

      • 基于Tailscale的 mesh VPN,端到端加密,不暴露公網端口

      • 聊天數據保留在本地,重活累活交給遠端的 GPU

      • 連你的localhost:1234接口都通用——也就是說 Codex、Claude Code、OpenCode 這些工具也能通過 LM Link 使用遠程模型

      價格方面,免費版支持 2 個用戶、每人 5 臺設備(總共 10 臺),家用和工作都可以

      這個功能對多機用戶太香了

      比如你家里放一臺 4090 算力機,上班時用 MacBook 通過 LM Link 無縫調用家里的模型

      說實話,如果你只是想快速跑個模型聊天,Ollama 的ollama run確實更簡單。但如果你有以下需求,LM Studio 更合適:

      • 需要同時兼容 OpenAI 和 Anthropic 兩套 API

      • 多臺機器之間共享模型資源

      • 需要有狀態的 REST API + MCP 工具調用

      • 想用原生 SDK 做開發

      總結

      LM Studio 在 0.4 之后,已經不是一個簡單的"本地聊天工具"了。它是一個完整的本地 AI 推理平臺:

      • 桌面端給新手用,CLI + llmster 給開發者用

      • OpenAI + Anthropic 雙兼容,幾乎所有 AI 開發工具都能無縫對接

      • LM Link 打通多設備,遠程模型像本地一樣用

      • 有狀態 API + MCP + SDK,想怎么玩就怎么玩

      制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      國運來了擋不住!我國發現世界最大"超巨型金礦床"、價值6000億

      國運來了擋不住!我國發現世界最大"超巨型金礦床"、價值6000億

      愛競彩的小周
      2026-04-02 12:32:25
      收到中方賀電,金正恩很高興,回電感謝并做出重要決定。

      收到中方賀電,金正恩很高興,回電感謝并做出重要決定。

      張嘴說財經
      2026-04-01 22:24:17
      太突然!他倆宣布離婚

      太突然!他倆宣布離婚

      廣州生活美食圈
      2026-04-01 19:01:31
      今麥郎董事長回應“手打掛面的‘手打’是商標”:該商標已用了20年,4月2日凌晨起停產相關產品

      今麥郎董事長回應“手打掛面的‘手打’是商標”:該商標已用了20年,4月2日凌晨起停產相關產品

      封面新聞
      2026-04-02 05:07:12
      中方奉陪到底!沒等來日本道歉,高市卻掀桌了,突然亮出獠牙!

      中方奉陪到底!沒等來日本道歉,高市卻掀桌了,突然亮出獠牙!

      娛樂的宅急便
      2026-04-01 14:42:42
      福建福州振興鄉村集團有限公司董事長陳志武接受審查調查

      福建福州振興鄉村集團有限公司董事長陳志武接受審查調查

      界面新聞
      2026-04-02 08:36:22
      66歲陳永貴,退休后對秘書發脾氣,李先念下令:不許再給他送文件

      66歲陳永貴,退休后對秘書發脾氣,李先念下令:不許再給他送文件

      簡史檔案館
      2026-04-02 11:05:03
      特朗普剛表態認輸,不到24小時,美債遭遇大規模拋售,美國失算了

      特朗普剛表態認輸,不到24小時,美債遭遇大規模拋售,美國失算了

      深析古今
      2026-04-01 21:52:44
      金價徹底爆了!

      金價徹底爆了!

      新浪財經
      2026-04-02 10:04:40
      現在教育最大的問題是:大多數學生根本就不想學習。

      現在教育最大的問題是:大多數學生根本就不想學習。

      李老師講最真教育
      2026-04-01 22:07:16
      山西柳林一飯店發現3人死亡 疑似煤氣中毒

      山西柳林一飯店發現3人死亡 疑似煤氣中毒

      新京報
      2026-04-02 12:21:11
      李榮浩抄襲案逆轉? 網揪「時間軸證據」質疑說謊:版權公司根本沒倒

      李榮浩抄襲案逆轉? 網揪「時間軸證據」質疑說謊:版權公司根本沒倒

      ETtoday星光云
      2026-04-02 16:50:10
      女生主動起來有多黏人?網友:這些女的太開放了

      女生主動起來有多黏人?網友:這些女的太開放了

      帶你感受人間冷暖
      2026-01-27 00:20:06
      鄭麗文強援已到!美國竄訪團抵臺當天,北京出手,大陸來撐腰了

      鄭麗文強援已到!美國竄訪團抵臺當天,北京出手,大陸來撐腰了

      混沌錄
      2026-04-01 20:37:15
      不能錯過!4月2日下午14:00比賽!中央5套CCTV5、CCTV5+直播表

      不能錯過!4月2日下午14:00比賽!中央5套CCTV5、CCTV5+直播表

      皮皮觀天下
      2026-04-02 13:52:19
      社交潛規則:沒有人有義務透過你邋遢的外表,去發現你優秀的內在

      社交潛規則:沒有人有義務透過你邋遢的外表,去發現你優秀的內在

      清風拂心
      2026-03-18 10:08:19
      香港演員施明去世,終年74歲,曾出演《倚天屠龍記》紫衫龍王,精通武術曾做史泰龍保鏢

      香港演員施明去世,終年74歲,曾出演《倚天屠龍記》紫衫龍王,精通武術曾做史泰龍保鏢

      大象新聞
      2026-03-31 14:49:05
      天氣轉暖,醫生提醒冠心病患者:寧可多看看電視,也別隨意做5事

      天氣轉暖,醫生提醒冠心病患者:寧可多看看電視,也別隨意做5事

      岐黃傳人孫大夫
      2026-03-30 23:30:03
      這面相太好了,妥妥旺夫相,膀大腰圓氣血足,穿著干凈舒服!

      這面相太好了,妥妥旺夫相,膀大腰圓氣血足,穿著干凈舒服!

      可樂談情感
      2026-03-29 15:16:24
      晚飯七分飽被推翻了?醫生調查:過了56歲,吃飯盡量要做到這5點

      晚飯七分飽被推翻了?醫生調查:過了56歲,吃飯盡量要做到這5點

      蜉蝣說
      2026-02-03 15:00:19
      2026-04-02 17:28:49
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3302文章數 11122關注度
      往期回顧 全部

      科技要聞

      三年虧20億,最新估值58億,Xreal沖刺港股

      頭條要聞

      外媒稱伊朗已向中國尋求安全保障 外交部回應

      頭條要聞

      外媒稱伊朗已向中國尋求安全保障 外交部回應

      體育要聞

      這六個字,代表了邵佳一的新國足

      娛樂要聞

      宋寧峰帶女兒出軌,張婉婷找董璇哭訴

      財經要聞

      電商售械三水光針 機構倒貨or假貨猖獗?

      汽車要聞

      三電可靠 用料下本 百萬公里的蔚來ES6 拆開看

      態度原創

      房產
      教育
      藝術
      親子
      軍事航空

      房產要聞

      大反轉!海口今年首宗重磅江景地塊,拍賣突然終止!

      教育要聞

      天府新區調整劃片后,利好不止這個片區

      藝術要聞

      故人西辭黃鶴樓,煙花三月下揚州

      親子要聞

      輔酶q10備孕怎么吃?高齡備孕吃什么提高卵泡數量?

      軍事要聞

      伊朗自殺無人機突進 逼退林肯號航母

      無障礙瀏覽 進入關懷版