![]()
新智元報道
編輯:艾倫
【新智元導讀】摩爾線程 AI 算力本(MTT AIBOOK)是專為 AI 學習與開發者打造的個人智算平臺。它搭載自研智能 SoC 芯片「長江」,提供 50TOPS 異構 AI 算力,支持混合精度計算。運行基于 Linux 內核的 MT AIOS 操作系統,具備多系統兼容能力,并預置完整 AI 開發環境與工具鏈。產品內置智能體「小麥」及豐富 AI 應用,提供開箱即用的一站式 AI 體驗。「本地寫代碼 + 小規模調試」→「云端一鍵調用大規模算力訓練」→「模型回傳本地部署」的閉環體驗,才是 MTT AIBOOK 真正的殺手锏。
最近電腦圈什么最火?那必須是「AI PC」。
甚至可以說,現在是個筆記本廠商,不在發布會上提兩句「AI」,出門都不好意思跟人打招呼。
但是咱們有一說一,市面上絕大多數所謂的「AI PC」,其實還是那個熟悉的配方:裝個 Windows,塞個稍微強點的 NPU,然后告訴你「嘿,我們可以離線跑個美顏濾鏡哦」。這就很沒勁。
對于咱們這種動不動就要跑個模型、調個參,或者想在本地搓個 AI 應用的開發者(或者準開發者)來說,這種「AI PC」就像是給法拉利裝了個自行車的輔助輪——看著挺花哨,真跑起來還是得靠那兩條用久了發燙的 x86「腿」。
直到前段時間,我們終于拿到了摩爾線程發售的 MTT AIBOOK。

這玩意兒挺奇怪,因為它居然不預裝 Windows(但它也能跑),而是預裝了一個基于 Linux 的MT AIOS。
![]()
官方管它叫「個人智算平臺」,說它是專門為 AI 開發者、學生黨準備的「第一站」。

起初我們也就是抱著「試試看國產 GPU 到底能不能打」的心態,把它當成備用機扔進了背包。
結果沒想到,一周下來,這臺本子居然成了我桌面上開機率最高的設備。
甚至有點,回不去的感覺。
今天,咱們就拋開那些花里胡哨的詞藻,實打實地聊聊:這臺塞進了國產「長江」SoC 芯片的 MTT AIBOOK,到底是噱頭,還是真家伙?
「偽裝」成筆記本的 Linux 開發站
拿到真機的第一眼,這臺 AIBOOK 居然有點「反差萌」。
按照常理,主打「硬核開發」的本子,通常都長得像塊磚,恨不得把散熱孔開到屏幕上。
但 MTT AIBOOK 拿在手里,居然有點輕薄本的意思。
全金屬機身,0.15mm 的 CNC 切割工藝,摸上去那種冷峻的磨砂感,「果味」十足。
![]()
A 面沒有任何花哨的 RGB 燈帶,甚至 Logo 都做得非常克制。
![]()
這種「謙遜」的設計語言,我個人是非常吃的。
畢竟對于開發者來說,我們不需要電腦在咖啡館里像迪廳球一樣閃瞎別人的眼,我們需要的是它在跑代碼的時候別掉鏈子。
掀開屏幕,一塊14 英寸的 2.8K OLED 屏映入眼簾。
120Hz 高刷,100% DCI-P3 色域。
![]()
有一說一,這塊屏幕的素質用來跑終端代碼屬于是「暴殄天物」,但用來回看剛生成的 AI 繪圖,那個色彩表現力確實頂。
但真正的「硬菜」,在開機之后。
按下電源鍵,沒有熟悉的「田字格」Logo,而是直接進入了MTAIOS的桌面。
![]()
懂行的朋友都知道,Linux 才是 AI 開發的「快樂老家」。
無論是 PyTorch 這些框架,還是各種開源的大模型,在 Linux 下的兼容性和效率永遠是第一梯隊。
以前我們在 Windows 上做開發,要么得忍受 WSL(Windows Subsystem for Linux)偶爾的各種怪異 Bug,要么就得自己折騰雙系統,把引導分區搞炸那是家常便飯。
MTT AIBOOK 的邏輯非常簡單粗暴:既然大家都要用 Linux,那我直接給你原生 Linux。
不僅如此,它還解決了開發者最大的噩夢——環境配置。
如果你是計算機專業的學生,或者剛入行的 AI「煉丹師」,你一定經歷過這種絕望:
為了跑通一個 GitHub 上的開源項目,你花了兩天時間裝 CUDA、配 cuDNN、換 Python 版本、解決各種依賴沖突……最后代碼還沒跑,人已經麻了。這就是傳說中的「環境配置火葬場」。
而這臺 AIBOOK,出廠就預置了 MUSA(Meta-computing Unified System Architecture) 全套開發環境。
Python、VS Code、Jupyter Notebook、PyTorch……這些吃飯的家伙什兒,開箱即用。
![]()
這就好比你去買房,以前是毛坯房,你得自己刷墻鋪地磚;
現在摩爾線程直接給了你一套精裝房,拎包入住,你只需要關心「我要寫什么代碼」,而不是「為什么 pip install 又報錯了」。
實測一: 在國產 GPU 上
「搓」圖(ComfyUI 篇)
光說不練假把式。
既然官方號稱這臺機器有 50 TOPS 的異構 AI 算力,那我們必須得給它上點強度。
我們選擇了目前 AI 繪畫圈最硬核、最能體現算力調度的工具——ComfyUI。
熟悉 AI 繪畫的朋友都知道,ComfyUI 這玩意兒雖然功能強大(節點式工作流簡直是極客浪漫),但它的安裝門檻極其勸退。
而且,它默認是深度綁定英偉達顯卡和 CUDA 生態的。
在一臺國產GPU的筆記本上跑 ComfyUI?這聽起來就像是在 PS4 上跑 Xbox 的《光環》一樣離譜。
但實測下來的過程,居然順滑得讓我有點懷疑人生。
部署:從「火葬場」到「拖拽式」
按照官方給的【初級】教程,整個部署過程不僅不需要我重新編譯 PyTorch,甚至都不需要我對著終端敲那行看著就頭疼的:
git clone摩爾線程顯然是做了大量的底層適配工作。
他們提供了一個「特制版」的壓縮包,里面已經把適配國產架構的 Torch 庫和加速接口都打包好了。
操作步驟簡單到令人難以置信:
下載 AIBOOK 專版的 ComfyUI 壓縮包。
解壓。
打開終端,敲一行:
python main.py --gpu-only --force-fp16完了。

真的,就這么簡單。當看到終端里跳出 Starting server 的字樣,瀏覽器自動彈出熟悉的節點界面時,我承認我有點感動。
這不僅僅是省事,這代表了摩爾線程的工程師在底層做了大量的「臟活累活」,把異構計算的天然屏障給抹平了。
實戰:SDXL Lightning 的「秒出」體驗
為了測試性能,我沒有用那種幾十 MB 的小模型,而是直接上了SDXL Lightning—— 這可是目前文生圖領域的高質量代表。
我加載了一個官方提供的 .json 工作流文件。
如果是沒接觸過 ComfyUI 的小白,可能會被滿屏的連線嚇到。
但在 AIBOOK 上,這種節點化的操作反而顯得非常直觀:
左邊是Checkpoints 加載器,我選好了下載好的
sdxl_lightning_4step.safetensors。中間是CLIP 文本編碼器,這里就是輸入提示詞的地方。
右邊是KSampler(采樣器)和VAE 解碼。
![]()
我試著輸入了一段簡潔的提示詞:
Anime style, 1 girl with long pink hair, cherry blossom background,
studio ghibli aesthetic, soft lighting, intricate details Masterpiece,
best quality, 4k
然后,深吸一口氣,點擊運行。
此時,我能明顯聽到機身內部的雙渦輪風扇開始介入,聲音有點像飛機起飛前的滑行聲——這聲音對極客來說,就是「算力正在燃燒」的悅耳音符。
屏幕上的綠色進度條在各個節點之間快速跳動。
K采樣器上的進度條僅僅走了幾秒鐘,一張可愛的小女孩圖片就出現在了最右側的預覽框里。

在這個過程中,所有的計算都在本地。
這意味著什么?
意味著我不需要把我的提示詞(可能包含一些私人的創意)上傳到云端;
意味著即使我現在拔掉網線,我依然可以坐在公園的長椅上,利用這顆「長江」SoC,源源不斷地生成我的創意。
實測二:云端聯動
硬核訓練 CIFAR-10(AutoDL 篇)
當然,肯定有硬核老哥會說:「你這也就是跑個推理,只有 50 TOPS 算力,我想訓練個大模型豈不是要等到天荒地老?」
這就問到點子上了。
筆記本畢竟是筆記本,受限于功耗和體積,它不可能塞進一張數據中心級別的計算卡。
但 MTT AIBOOK 的聰明之處在于,它從來沒想過單打獨斗。
它有一個核心理念叫——「端云一體」。
為了體驗這個功能,我按照【高級】教程,嘗試了一次經典的深度學習實戰:CIFAR-10 圖像分類訓練。
什么是 CIFAR-10?
簡單科普下,CIFAR-10 是 CV(計算機視覺)界的「Hello World」級數據集,包含 60000 張 32x32 的彩色圖片,分成了飛機、汽車、鳥、貓等 10 個類別。
![]()
我們要做的,就是從零開始構建一個卷積神經網絡(CNN),教電腦學會認圖。
無縫接入 AutoDL
這次,我沒有在本地死磕,而是利用 AIBOOK 預置的工具,直接連接到了 AutoDL 算力平臺。
這里必須提一句,摩爾線程和 AutoDL 有深度合作,甚至在專區里你可以直接租用到搭載摩爾線程全功能 GPU 的云端實例。
![]()
操作體驗極其絲滑:
我在 AIBOOK 的本地終端里寫好了代碼,然后通過 SSH 連接到云端實例。
這時候,神奇的事情發生了。
我在本地 Linux 環境下寫的代碼,幾乎不需要任何修改,就可以直接在云端的摩爾線程 GPU 上運行。
見證「MUSA」的魔力
在終端里,我先輸入了一行檢查指令:
python check_musa.py屏幕返回:
設備 0:MTT S4000
顯存:47.9 GB
這是國產顯卡在 PyTorch 框架下發出的「我在」的聲音。
![]()
接著,開始訓練:
python train_cifar10.py --model simple_resnet --epochs 10終端里的進度條開始飛快滾動:

隨著訓練輪數(Epoch)的增加,準確率肉眼可見地提升。
![]()
![]()
重點是,整個過程中,我使用的是標準的 PyTorch 語法,沒有去寫什么晦澀難懂的專有算子。
這就是 MUSA 架構最大的護城河——兼容性。它讓開發者可以幾乎無痛地從 CUDA 生態遷移過來。
這種「本地寫代碼 + 小規模調試」→「云端一鍵調用大規模算力訓練」→「模型回傳本地部署」的閉環體驗,才是 MTT AIBOOK 真正的殺手锏。
它不再是一個孤立的硬件,而是一個通往龐大算力海洋的入口。
誰說 Linux 不能辦公?
「雙面特工」的自我修養
測到這兒,肯定有朋友要問了:
「這電腦好是好,但我總不能天天寫代碼吧?我要是用飛書開個會,或者想打把《空洞騎士》放松一下,難道還要再買臺電腦?」
這就是 MTT AIBOOK 最機智的地方。
它雖然是 Linux 核心,但它非常清楚現階段打工人的痛點。
所以,它搞出了一個「一本三用」的方案:
Host OS:原生的 MT AIOS(Linux),用來干正經事,寫代碼、跑模型。
安卓容器:直接在桌面運行安卓 App。我試了下,不僅能刷小紅書,甚至能通過應用匯下載各種手游。摸魚神器 get ?。
Windows虛擬機:這才是絕殺。
![]()
這臺機器利用了 KVM 虛擬化技術,支持運行一個完整的 Windows 11。
注意,這不是像 Parallels Desktop 那種簡單的模擬,它是支持 GPU 虛擬化的。
實際場景是這樣的:
我在 Linux 下剛剛訓練完一個模型,把它封裝成了一個 .exe 的應用。
但我不知道這玩意兒在客戶的 Windows 電腦上能不能跑。
這時候,我不需要到處借電腦,直接在 Dock 欄進入虛擬機,幾秒鐘后,一個全屏的 Windows 界面就出來了。
![]()
我在里面測試軟件、寫個 PPT、甚至打開 Steam 玩了一會兒游戲,確認無誤后,三指一劃,又回到了 Linux 繼續改代碼。

開發在 Linux,辦公/測試/娛樂在 Windows/安卓。

這種「精神分裂」般的使用體驗,在習慣之后,竟然覺得意外的合理。
它完美解決了開發者「既要又要」的貪婪需求。
「第一站」的意義
用了這一周,我一直在思考一個問題:
在 2026 年,我們到底需要一臺什么樣的 AI 電腦?
是算力強到能當暖氣片?還是薄到能切菜?
摩爾線程用 MTT AIBOOK 給出的答案是:我們需要一個能讓更多人低門檻進入AI世界的工具。
說實話,這臺電腦絕非完美。
它的生態相比于沉淀了幾十年的 Wintel 聯盟還有差距,它的軟件庫可能還不如 Ubuntu 社區那么浩如煙海。
但它做對了一件至關重要的事情——它把「國產算力」這四個字,從遙遠的數據中心機房,搬到了每一個普通學生、普通開發者的書桌上。
對于摩爾線程來說,這不僅僅是在賣硬件,這是在「播種」。
他們希望未來的開發者,人生的第一行 AI 代碼,是在 MUSA 架構上敲下的;
他們希望未來的 AI 應用,是原生生長在國產算力平臺上的。
這臺 MTT AIBOOK,就像是一張通往未來 AI 時代的「入場券」。
它不是目前市面上性能最狂暴的筆記本,但它是目前最懂中國開發者痛點的「個人智算平臺」。
如果AI的星星之火需要干柴,那這臺筆記本,就是那塊最順手的打火石。
推薦用戶 :計算機專業學生、AI 算法工程師、Linux 發燒友等。
參考資料:
讓AI開發更簡單!摩爾線程發布AI算力本MTT AIBOOK
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.