前面咱們分別對零刻 GTi15 Ultra的性能和做工細節都做了評述,但是看到很多朋友對于這款迷你主機在生產力場景下的提升還是有一些疑問,今天咱們就專門對這款主機進行AI和語音交互方面的詳細體驗。
![]()
零刻GTi15 Ultra這次得益于搭載的英特爾Core 9 285HX處理器和AI降噪麥克風,讓產品使用場景有了很大提升,比如創意辦公、內容創作等方面。都知道英特爾Core Ultra系列處理都是采用了全新的Meteor Lake架構以及CPU+GPU+NPU的設計方案,帶來了近幾十年來最大的革新,尤其是AI算力上有了極大提升,比如Ultra 9 285H算力達到了99TOPS:
GPU: 77 TOPs (主要圖形和 AI 負載)
NPU: 13 TOPs (持續性低功耗 AI 任務)
CPU: 9 TOPs (輕量級和即時 AI 響應)
![]()
首先使用魯大師進行AI專項跑分測試,可以看到在顯卡AI性能得分為64794,其中超分辨率達到了32800、人臉識別為137166、物體識別為97875、閱讀理解為147033、背景虛化為17639。
![]()
同時,使用魯大師的處理器AI性能測試得分為25843,其中超分辨率為31889、人臉識別為21905、物體識別為35466、閱讀理解為66353,背景虛化為7013。
![]()
接下來使用UL Procyon量化基準測試,UL Procyon是UL Solutions推出的專業基準測試套件,專為行業、企業及專業用戶設計,提供標準化性能評估工具?,其核心功能包括:AI性能測試、生產力與電池測試、硬件適配與成本、性能對比案例。該套件通過標準化流程和實際應用場景,為專業用戶提供可靠的硬件性能參考?。
![]()
![]()
UL Procyon AI文本生成基準測試,主要用于評估硬件設備在本地大語言模型(LLM)文本生成任務中的性能表現。零刻 GTi15 Ultra在PHI 3.5模型中得分為933分,在MISTRAL 7B模型中得分為853分,在LLAMA 3.1模型中得分為834,在LLAMA 2得分為855分。
![]()
AI Image Generation Benchmark(文生圖),利用幾種不同的Stable Diffusion圖像生成模型,來評估中、高端獨立GPU、NPU的人工智能推理性能,是當前主流的AI圖像生成性能測試工具之一。
![]()
這個測試中可以看到Stable Diffusion 1.5 (FP16)、Stable Diffusion 1.5 (INT8)、Stable Diffusion XL (FP16)三個測試項目中,得分分別為1703、243和135。
![]()
由于三個項目的難度依次遞增,所以消耗時間在逐步增加。比如Stable Diffusion 1.5 (FP16)項目是通過創建8幅分辨率為512 X 512的圖像,匯總效率并打分;而Stable Diffusion XL (FP16)則是通過創建16幅分辨率為1024×1024的圖像,每批次1幅,進行匯總效率打分。在三個項目的消耗時長、圖像生成速度以及平均UNET速度,結果如下:
![]()
既然AI功能這么強大,使用零刻GTi15 Ultra搭建本地AI大模型就非常合適了:既不用擔心數據上傳到第三方服務器被泄露的問題,又能完全在離線狀態下就能完成日常聊天、代碼生成、頭腦風暴等項目,關鍵是現在Docker一鍵部署真的簡單,不需要配置環境、安裝各種依賴庫、改參數配置。
![]()
使用Ollama的話安裝開源大模型如deepseekk-r1,一行命令搞定:ollama run deepseek-r1,就簡單多了。
![]()
就像在手機上裝個應用這么簡單,下載、環境配置這些都由Ollama幫我們處理好了。喜歡使用哪個模型只需要在Ollama網站,選擇對應的Model模塊即可。
![]()
比如使用deepseek-r1模型,會搜出來1.5b、7b、8b、14b、32b、70b等很多版本,這個就根據自己的電腦配置選擇即可,一般來說電腦內存在16G就選14b,當然參數越大,越吃配置,運算的效果也越好。
![]()
出現success就表示成功了,如果失敗請多試幾次,可能是由于網絡原因。
![]()
我們也可以在命令行中輸入,ollama list 查看是否成功下載了模型,出現下圖的列表內容表明下載成功。
![]()
啟動成功后,就可以輸入我們想問的問題,模型首先會進行深度思考(也就是think標簽包含的地方),思考結束后會反饋我們問題的結果。
![]()
在DeepSeek本地大模型之中,我測試了8b和14b兩個版本,分別用“你好”、“你是誰”、“寫一個貪吃蛇代碼”三個問題進行提問,來測試回答問題的長短和用時。
![]()
從下面提供的數據可以看出,零刻GTi15 Ultra在兩個模型下同樣問題響應時間、token數和用時差距還是很大的,尤其是“你是誰”這個問題下,14b比8b模型明顯token數量增加,答案也更加復雜。
![]()
使用14b模型對比在線的ds-r1,同樣問題生成速度確實慢了不少,思考時間明顯稍長一些,但是貴在本地模型安全性更好,而且永久免費,這也滿足了用戶約90%+以上的需求。
![]()
注意:選擇蒸餾模型的大小,需要結合自己的電腦實際情況來選擇,這會關系到,模型回答的速度以及效果問題。
如果說CMD窗口看起來不習慣,可以使用零刻預裝的Ai BOX工具,它不僅能借助本地模型運行,還能通過API接入其它的大模型,通過內置的多個智能體,讓用戶能夠低成本的就能體驗高效AI創作。
![]()
通過調用相應的AI模型,就能快速的滿足我們的創作需求,這個相對于前面的命令窗模式更直觀,對于普通用戶更加的友好。
![]()
Ai BOX除了支持本地模型外,還能通過模型管理中的API來使用其它在線模型。
![]()
甚至還支持自己添加知識庫,通過知識庫內容的不斷填充來訓練自己的大模型,就非常適合內容創作者或者文職辦公的實際場景中去應用。
![]()
同樣,我也使用繪世軟件對零刻GTi15 Ultra文生圖能力進行了測試,輸入簡單的提示詞,使用DPM++2M采樣方法以及Automatic調度,只需要20步數的迭代,1分50秒就能生成一張512x512的高清圖。
![]()
![]()
提示詞越復雜、迭代次數越多、圖片越大,生成的圖片用時也就越長,當然圖像的質量也越高。雖然零刻GTi15 Ultra是核顯迷你主機,但是足可以滿足日常我們對于AI創作的需求了。
![]()
使用Stable Diffusion生成圖片時,對CPU和內存的性能要求較高,基本占用都在70%以上,零刻GTi15 Ultra跑起來還是比較輕松的,并且非常穩定。這種高度自定義的AI圖,對于越來越注重原創度的創作者來說,很大的規避了版權帶來的潛在風險。
![]()
零刻GTi系列除了有著強大的性能和AI算力之外,還內置了AI降噪芯片B1,并針對豆包等工具做了深度的適配,能有效的避免環境音的干擾,準確分辨用戶的語音指令,讓軟件使用更得心應手。
![]()
基于深度神經網絡(Deep NeuralNetworks,DNN)的語音增強和回聲消除算法,以及波洛斯4麥克風陣列技術,讓電腦收音效果變得更加的“聰明和輕松”。
而且,這種DNN模型經過逐步的訓練之后,讓拾音更加的準確和清晰,能夠精準的對噪音進行過濾,只保留純凈的人聲。
![]()
“豆包”這個AI工具功能還是非常強大的,尤其是支持語音指令和交互,不管是查資料、定制攻略、內容創作還是編程學習等,都能通過對話式交流搞定。但是由于使用環境的不確定性,如果麥克風拾音不夠準確,就讓效率大打折扣,下面使用不同噪音場景模擬對話,看看GTi15 Ultra的AI降噪麥克風準確率到底如何。
![]()

實測中,在環境噪聲為40dB左右(電扇、空調聲音),豆包都能準確識別口令;使用手機模擬環境噪聲在60dB左右(比如正常交談),豆包的識別率也非常準確;當使用手機模擬火車、鬧市背景聲約70dB左右,豆包識別也是沒有問題,這個AI降噪麥克風效果確實不錯,在復雜的工作和生活場景中能夠大大提高使用效率。
![]()
零刻 GTi15 Ultra的AI降噪麥克風還有一個好處就是,平時玩游戲開黑只需要一個耳機或者直接啥也不用也行,組隊隊友也都反饋麥克風人聲清晰,沒有過多雜亂的環境聲,就非常的方便。
![]()
關于零刻GTi15 Ultra迷你主機的AI實際體驗到此也就結束了,通過上面較為全面的體驗可以看出,基于強大的Core Ultra 9 285H處理器的算力以及MIC智能拾音降噪麥克風陣列,不管是本地AI部署還是云端AI任務,整體表現確實很強,尤其是對于部分要求較高的用戶來說,更能應對各種復雜的嚴苛創作需求。
![]()
并且,零刻GTi15 Ultra再次打破了人們對迷你主機的認知,強大的算力也賦予了它“戰未來”的能力。再加上靈活的外接顯卡塢拓展,更是極大的擴展了迷你主機的使用場景,不管是AI本地部署、在線會議、游戲娛樂、編程學習,還是多媒體內容創作,它統統都能滿足!
有興趣的小伙伴可以關注我,下一期為大家帶來“主機+擴展塢”的玩法體驗,一起見證這臺性能小怪獸是如何化身游戲大殺器的!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.