大家好,我是 Ai 學(xué)習(xí)的老章。
繼續(xù)講講本號(hào)老朋友——Ollama:
就像之前介紹的,最近的 Ollama 上線了越來(lái)越多的云端大模型
比如最近大火的頂級(jí)大模型 Google 的 Gemini 3 Pro:
![]()
官方特別說(shuō)明:云端模型僅在 Ollama 的云平臺(tái)上可用,運(yùn)行時(shí)會(huì)明確顯示正在連接到 Ollama 的云平臺(tái)。這是與 Google 合作,使用 Google Cloud 提供的服務(wù)。
還有云端運(yùn)行我之前特別喜歡、強(qiáng)烈推薦過(guò)的國(guó)產(chǎn)大模型 Kimi K2 Thinking:
![]()
相關(guān)閱讀:
截止發(fā)文,它支持的云端??頂級(jí)大模型還有:GLM-4.6、MiniMax-M2、DeepSeek-V3.1:671B 等等
Ollama 的初衷是讓 AI 能夠像普通軟件一樣本地運(yùn)行,很多人特別喜愛(ài)它的純粹:
隱私:本地運(yùn)行意味著數(shù)據(jù)永遠(yuǎn)不出家門(mén),絕對(duì)安全
免費(fèi):只要有顯卡,電費(fèi)就是唯一的成本
極客精神:掌控一切的感覺(jué)
看到 Ollama 開(kāi)始搞云端,大家難免擔(dān)心
![]()
我倒覺(jué)得此舉甚好,畢竟本地部署大模型這事兒是有天花板的,本身就很小眾且問(wèn)題多多:
?硬件門(mén)檻高- 大模型需要昂貴的 GPU(70B+ 模型可能需要 48GB+ VRAM) ?性能受限- 推理速度取決于本地硬件 ?準(zhǔn)確性問(wèn)題- 量化后的小模型可能不如云端大模型準(zhǔn)確 ?維護(hù)成本- 需要自己管理環(huán)境、更新模型
對(duì)于絕大多數(shù)用戶,要在本地運(yùn)行這些 SOTA(State of the Art) 級(jí)別的超大模型,硬件成本是天文數(shù)字,絕大多數(shù)人沒(méi)有本地運(yùn)行大模型的硬件:
而極簡(jiǎn)的 Ollama App 直接云端模型就很省事
?零硬件要求- 任何設(shè)備都能用 ?頂級(jí)模型- 可以使用 671B 這種超大模型 ?即開(kāi)即用- 無(wú)需配置環(huán)境 ?性能穩(wěn)定- 數(shù)據(jù)中心級(jí)別的算力
我的觀點(diǎn)是:Ollama 這一步走得非常對(duì)。
Ollama 從第一天起,核心價(jià)值就不是"本地",而是"標(biāo)準(zhǔn)化"。
它把千奇百怪的模型運(yùn)行方式,統(tǒng)一成了一個(gè)優(yōu)雅的ollama run和一套標(biāo)準(zhǔn)的 API。現(xiàn)在,它把這個(gè)標(biāo)準(zhǔn)延伸到了云端:
統(tǒng)一模型格式:就像 Docker 統(tǒng)一了應(yīng)用打包格式,Ollama 用 Modelfile 統(tǒng)一了模型打包格式。你不需要關(guān)心模型是 GGUF 還是 SafeTensors,不需要關(guān)心量化方式,
ollama pull就完事了。統(tǒng)一運(yùn)行接口:無(wú)論是 Llama、Mistral、Gemma 還是 Qwen,都是同一套 API。開(kāi)發(fā)者不需要為每個(gè)模型學(xué)習(xí)不同的調(diào)用方式。
統(tǒng)一開(kāi)發(fā)體驗(yàn):從命令行到 API,從本地到云端,體驗(yàn)一致。這才是 Ollama 的護(hù)城河。
如果 Ollama 只做本地,它的用戶永遠(yuǎn)局限在"有錢(qián)買(mǎi)顯卡的極客圈"。Ollama 如果只守著"本地"這一畝三分地,就意味著它的用戶永遠(yuǎn)無(wú)法通過(guò)這個(gè)熟悉的工具體驗(yàn)最頂尖的模型能力。這反而是一種限制。
更何況 Ollama 也沒(méi)做"二選一",而是"既要又要",它做的是Local + Cloud。
日常輕量任務(wù)(寫(xiě)代碼片段、整理筆記、處理隱私數(shù)據(jù)):用本地模型,快、免費(fèi)、安全
攻堅(jiān)重型任務(wù)(復(fù)雜推理、長(zhǎng)文本分析、追求極致效果):一鍵切換到云端大模型
最牛的地方在于,你不需要換工具,不需要改代碼,甚至不需要換 API。
這種無(wú)縫切換的體驗(yàn),才是 Ollama 的殺手锏。
從公司戰(zhàn)略角度看,云端服務(wù)提供了一個(gè)清晰的商業(yè)模式:
免費(fèi)用戶:用本地模型或云端免費(fèi)額度
付費(fèi)用戶:需要大模型算力的企業(yè)和開(kāi)發(fā)者
讓愿意付費(fèi)的人付費(fèi),讓免費(fèi)用戶繼續(xù)免費(fèi)。
這不是"變了",而是"成熟了"。
老章薦書(shū)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.