<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      96GB顯存AI深度體驗(yàn),Intel Arc Pro B60專業(yè)顯卡攪局者

      0
      分享至

      引言:跨越三十年的獨(dú)顯遠(yuǎn)征

      在半導(dǎo)體發(fā)展的長(zhǎng)河中,英特爾對(duì)獨(dú)立顯卡的執(zhí)念可以追溯到上世紀(jì) 90 年代。從最初本打算切入 RISC 市場(chǎng)的 i860 但是最終作為圖形工作站加速器,從 1998 年曇花一現(xiàn)的 i740,再到后來(lái)試圖通過(guò)多核心通用架構(gòu)重塑圖形領(lǐng)域的 Larrabee 項(xiàng)目,英特爾經(jīng)歷了無(wú)數(shù)次的探索與蟄伏。



      直到 2018 年,代號(hào) Arctic Sound 的現(xiàn)代獨(dú)立 GPU 計(jì)劃正式啟動(dòng),才真正開(kāi)啟了 Xe 架構(gòu)的紀(jì)元。

      經(jīng)過(guò)第一代 Alchemist(代號(hào) DG2/Xe1) 的“破冰”嘗試,英特爾在視頻編解碼和基礎(chǔ)光柵化領(lǐng)域站穩(wěn)了腳跟。而今天,我們迎來(lái)了代號(hào)為 Battlemage(代號(hào) Xe2) 的第二代圖形架構(gòu)。如果說(shuō) Xe1 是英特爾獨(dú)顯的“初試啼聲”,那么 Arc Pro B60 所承載的 Xe2 架構(gòu),則是其在圖形效能、AI 推理和專業(yè)工作流領(lǐng)域真正走向成熟的標(biāo)志。



      Xe2 (Battlemage) 微架構(gòu)深度剖析——精算的藝術(shù)

      Xe2 架構(gòu)并非簡(jiǎn)單的規(guī)模擴(kuò)大,而是從指令分發(fā)、矢量執(zhí)行、光線追蹤到幾何剔除機(jī)制的全面重構(gòu)。



      XVE 矢量的革新:從 SIMD8 到原生 SIMD16

      在 Xe1 架構(gòu)中,英特爾的矢量引擎(XVE)主要基于 SIMD8 構(gòu)建。雖然支持 co-issue(并行發(fā)射),但在處理高負(fù)載渲染任務(wù)時(shí),硬件利用率仍有提升空間。 Xe2 架構(gòu) 實(shí)現(xiàn)了底層執(zhí)行邏輯的飛躍:它將計(jì)算資源重新劃分為原生的 SIMD16 指令寬度。這意味著單個(gè)指令可以同時(shí)處理 16 個(gè)數(shù)據(jù)元素,不僅提高了硬件的吞吐能力,更改進(jìn)了工作分發(fā)(Work Distribution)的均衡性。

      Xe2 的 “3 路并行發(fā)射”(3-way co-issue) 機(jī)制讓內(nèi)核能在一個(gè)時(shí)鐘周期內(nèi)同時(shí)處理:

      ? 1 路浮點(diǎn)指令(FP)

      ? 1 路整數(shù)或擴(kuò)展數(shù)學(xué)指令(INT/EM)

      ? 1 路 XMX AI 矩陣指令

      這種設(shè)計(jì)讓 Xe2 在處理現(xiàn)代混合渲染負(fù)載(即同時(shí)涉及數(shù)學(xué)模擬、光柵化和 AI 增強(qiáng))時(shí),單核 IP 效能相較 Xe1 提升了 1.2x 至 12.5x 之多。



      指揮權(quán)的移交:硬件原生 Execute Indirect

      這是 Xe2 架構(gòu)最具前瞻性的改進(jìn)。在傳統(tǒng) D3D11 或早期 D3D12 環(huán)境中,每一個(gè)繪制調(diào)用(Draw Call)或者說(shuō)繪制任務(wù)都必須由 CPU 循環(huán)發(fā)出。如果場(chǎng)景中有成千上萬(wàn)個(gè)物體,CPU 就會(huì)遇到極高的 CPU Overhead(遞交開(kāi)銷)。

      Xe2 架構(gòu)通過(guò)硬件原生支持 Execute Indirect(間接執(zhí)行) 徹底改變了這一點(diǎn)。

      間接執(zhí)行實(shí)現(xiàn)原理并不復(fù)雜,它允許 GPU 從名為 IAB(Indirect Argument Buffer)的顯存緩沖區(qū)中直接讀取繪制或分發(fā)參數(shù),無(wú)需 CPU 事無(wú)巨細(xì)地參與指令生成。

      異步 GPU 剔除 (Asynch Culling):配合異步計(jì)算,GPU 可以在正式繪制前自行判斷哪些三角形是不可見(jiàn)的(視錐體外、背面或被遮擋),并生成精簡(jiǎn)后的索引緩沖區(qū)。

      帶來(lái)的好處:這種“工作負(fù)載延遲決定(Defer the Workload)”的模式,對(duì)于擁有 100 到 200 個(gè)動(dòng)態(tài)角色的復(fù)雜場(chǎng)景,能節(jié)省大量的冗余計(jì)算,將每一份算力都精準(zhǔn)花在最終的屏幕像素上。

      光線追蹤單元 (RTU) “線程排序”

      光線追蹤最大的敵人是“不確定性”——當(dāng)光線撞擊不同物體反彈后,計(jì)算任務(wù)會(huì)變得極度碎片化,導(dǎo)致 GPU 的 SIMD 利用率直線下降。

      Xe2 架構(gòu)在第二代 RTU(光線追蹤單元) 中引入了線程排序單元(TSU),能達(dá)到類似 NVIDIA SER 的效果。

      TSU 能夠自動(dòng)對(duì)發(fā)散的光線線程進(jìn)行重新排列,將命中相似材質(zhì)、執(zhí)行相似代碼的線程湊在一起重新發(fā)射。配合每周期兩次三角形求交和 18 次包圍盒求交的高性能,Xe2 在專業(yè)可視化應(yīng)用中的光線追蹤效率得到了質(zhì)的提升。

      Xe2 RTU 的 BVH Cache 也提升到了 16KiB,是上一代的兩倍。



      Battlemage Arc Pro :用盡顯存紅利!

      Intel 在 2024 年 12 月 3 日正式發(fā)布 Arc B 系列游戲顯卡,型號(hào)包括 B580、B570,憑借可以和 RTX 4060 一較高下的表現(xiàn),產(chǎn)品成熟度已經(jīng)獲得了不少好評(píng),特別是光線追蹤性能較同級(jí)的 AMD 顯卡領(lǐng)先不少,成為入門級(jí)性能顯卡的有力競(jìng)爭(zhēng)者。

      而 Arc Pro B 系列工作站顯卡則是 2025 年發(fā)布,目前有兩款產(chǎn)品,分別是主要面向圖形工作站的 Arc Pro B50 和兼顧 AI 推理的 Arc Pro B60。

      其中 Arc Pro B60 的 Intel 官方規(guī)格是單 GPU 版本,但是由于 Intel并不打算自己賣卡,所以大家看到的 Arc Pro B60 都是第三方廠家推出的,而且相對(duì)于單 GPU 版本,Intel 更鼓勵(lì)廠商推出雙 GPU 版本。



      銘瑄 Arc Pro B60 DUAL 48 GB實(shí)測(cè)

      我們這次借到的就是兩片雙 GPU 版本的銘瑄 Arc Pro B60 DUAL 48 GB,屬于目前 Battlemage 家族里的最強(qiáng)檔,主要面向圖形、推理和邊緣工作站市場(chǎng)。

      銘瑄這款 Arc Pro B60 DUAL 由兩個(gè) B60 GPU 組成,每個(gè) GPU 擁有 20 個(gè) Xe2 內(nèi)核(對(duì)應(yīng) NVIDIA SM)、160 個(gè) XMX AI 引擎(對(duì)應(yīng) NVIDIA Tensor Core,Arc Pro B60 INT8 張量性能可達(dá)到 197 PFLOPS)、20 個(gè)光線追蹤單元(RTU),擁有 192-bit 內(nèi)存總線(每個(gè) GPU 有 24GB 顯存,合計(jì) 48GB 顯存),集成了兩個(gè) MFX 視頻編解碼器,PCIE 規(guī)格為 PCIE Gen5*8。



      為了便于在對(duì)流環(huán)境相對(duì)較差的多卡工作站里安裝,銘瑄 Arc Pro B60 采用了雙槽散熱器+鼓風(fēng)機(jī)主動(dòng)散熱方式,卡體長(zhǎng)度尺寸為 300mm。

      銘瑄標(biāo)注的單卡(雙 GPU) TBP 值為 400 瓦,雙卡(4 GPU)的話可以部署 Deepseek-R1 Llama 70B FP8 量化版模型,能支持超長(zhǎng)上下文。



      顯示輸出方面提供了兩個(gè) DP 2.1 UHBR20 和兩個(gè) HDMI 2.1a,可以滿足工作站顯示輸出需求,單根線纜就能提供 8K60Hz HDR 顯示輸出或者同時(shí)驅(qū)動(dòng)三臺(tái) 4K60 HDR 顯示器。



      如果只是作為計(jì)算、渲染用途的話,銘瑄 Arc Pro B60 也支持無(wú)頭模式(不連接顯示器),可以在純文本啟動(dòng)的 Linux 系統(tǒng)里提供純粹的強(qiáng)大計(jì)算性能。



      測(cè)試之前,有必要介紹一下測(cè)試平臺(tái)。這次下血本用上了旗艦配置的ThinkStation P7工作站,這套方案由聯(lián)想與阿斯頓馬丁聯(lián)合設(shè)計(jì),工作站本身可以支持3張雙槽位渦輪風(fēng)扇顯卡,因此裝下兩張銘瑄Intel Arc Pro B60 Dual毫無(wú)問(wèn)題。只需要將末端的限位扣提起,裝入顯卡后再將限位扣壓緊,顯卡即可完成。





      為了釋放4個(gè)Intel Arc Pro B60 GPU全部性能,我們使用了一塊Intel Xeon W9-3495X搭配W790芯片組主板。



      慣例先給大家數(shù)個(gè)框框。



      得益于英特爾至強(qiáng)Sapphire Rapids CPU本身強(qiáng)大的擴(kuò)展能力,我們將8個(gè)內(nèi)存通道插滿,單條64GB DDR5-5600,8條共計(jì)512GB內(nèi)存。再配合兩塊三星2TB SSD和一塊HDD,這套測(cè)試平臺(tái)時(shí)至今日已經(jīng)悄咪咪的往20萬(wàn)元的價(jià)格奔赴了。

      來(lái)看看壯觀的內(nèi)存條。





      最后是在Windows 11環(huán)境下,安裝驅(qū)動(dòng)后,4個(gè)Arc Pro B60 GPU被正確識(shí)別。有意思的是,雖然在BIOS中開(kāi)啟了Resizable BAR,但是在Windows驅(qū)動(dòng)中會(huì)有2個(gè)GPU的Resizable BAR被識(shí)別沒(méi)有被開(kāi)啟,但在Ubuntu中沒(méi)有這個(gè)問(wèn)題,因此不影響后續(xù)我們?cè)赨buntu中進(jìn)行的測(cè)試。





      流暢的開(kāi)箱即用

      軟件安裝

      在軟件支持方面,Intel 目前提供了 LLM-Scaler 和 LLM-Scaler Omni,LLM-Scaler是英特爾提供的vLLM Serfving鏡像版本,和開(kāi)源的vLLM Serving是統(tǒng)一的,是Intel針對(duì)生成式AI推理的性能優(yōu)化解決方案。LLM-Scaler Omni是支持多模態(tài)模型的推理框架,也是LLM-Scaler發(fā)布的另一個(gè)Docker鏡像。







      LLM-Scaler 可以用于文本生成、圖形生成、視頻生成等應(yīng)用,支持包括 vLLM、ComfyUI、SGLang Diffusion、Xinference 等常見(jiàn)的開(kāi)源推理框架項(xiàng)目,確保 Intel Arc Pro B60 跑上述應(yīng)用的時(shí)候提供最佳性能。



      對(duì)于大部分 Intel Arc Pro 用戶來(lái)說(shuō),最簡(jiǎn)單的方式就是使用容器來(lái)跑 vLLM。

      首先是從 Intel RDC 網(wǎng)站上下載離線安裝器:https://cdrdv2.intel.com/v1/dl/getContent/871223/871005?filename=multi-arc-bmg-offline-installer-25.45.5.4.tar.xz

      然后解開(kāi)安裝包,用 root 權(quán)限執(zhí)行里面的 installer.sh。

      完成安裝,重啟,之后可以嘗試執(zhí)行 scripts/evaluation/platform_basic_evaluation.sh 來(lái)做初步的評(píng)估,確認(rèn)完成軟件安裝。

      之后我們可以嘗試運(yùn)行一下下面這條 xpu-smi 指令作進(jìn)一步確認(rèn):



      大家可以看到,這條 xpu-smi 指令測(cè)試出來(lái)的 Arc Pro B60 單 GPU FP32 性能是 12.1 TFLOPS、內(nèi)存帶寬是 440 GB/s、4K H.265 解碼性能是 160 fps、PCIE 總線帶寬未 27.5 GB/s、壓力測(cè)試下的功耗值未 129 瓦。

      vLLM輕松駕馭

      接下來(lái)就是執(zhí)行 docker pull intel/llm-scaler-vllm:1.2,用于下載 LLM-scaler 對(duì)應(yīng)的 vllm 1.2 版容器。

      然后用下面的命令啟動(dòng)容器:

      sudo docker run -td \

      --privileged \

      --net=host \

      --device=/dev/dri \

      --name=lsv-container \

      -v /home/intel/LLM:/llm/models/ \

      -e no_proxy=localhost,127.0.0.1 \

      -e http_proxy=$http_proxy \

      -e https_proxy=$https_proxy \

      --shm-size="32g" \

      --entrypoint /bin/bash \

      intel/llm-scaler-vllm:1.2

      容器啟動(dòng)后,可以 exit 退出,之后再進(jìn)入的話可以用下面的命令重新進(jìn)入容器:

      docker exec -it lsv-container bash

      進(jìn)入容器后,我們的所有操作其實(shí)都和使用 CUDA 做 LLM 推理沒(méi)什么差別了。

      例如用下面的指令啟動(dòng) vLLM 服務(wù):

      VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 \

      VLLM_WORKER_MULTIPROC_METHOD=spawn \

      vllm serve \

      --model /llm/models/DeepSeek-R1-Distill-Qwen-7B \

      --served-model-name DeepSeek-R1-Distill-Qwen-7B \

      --dtype=float16 \

      --enforce-eager \

      --port 8000 \

      --host 0.0.0.0 \

      --trust-remote-code \

      --disable-sliding-window \

      --gpu-memory-util=0.9 \

      --no-enable-prefix-caching \

      --max-num-batched-tokens=8192 \

      --disable-log-requests \

      --max-model-len=8192 \

      --block-size 64 \

      --quantization fp8 \

      -tp=1 \

      2>&1 | tee /llm/vllm.log > /proc/1/fd/1 &

      啟動(dòng) vLLM 服務(wù)后,我們可以用下面的指令來(lái)做一個(gè)初步的測(cè)試:

      vllm bench serve \

      --model /llm/models/DeepSeek-R1-Distill-Qwen-7B \

      --dataset-name random \

      --served-model-name DeepSeek-R1-Distill-Qwen-7B \

      --random-input-len=1024 \

      --random-output-len=512 \

      --ignore-eos \

      --num-prompt 10 \

      --trust_remote_code \

      --request-rate inf \

      --backend vllm \

      --port=8000

      這段代碼的意思就是使用輸入 1024 token、輸出 512 token 等條件進(jìn)行 Deepseek R1 蒸餾版 Qwen 7B 模型的推理性能測(cè)試。

      當(dāng)然,這個(gè)指令是比較粗糙未完全優(yōu)化的,它只啟用了 1 個(gè) GPU、10 個(gè)提示詞請(qǐng)求,我們可以通過(guò)添加 -tp 4、增大 num-prompt 到 100 以及設(shè)置 fp8 量化等參數(shù)進(jìn)行 4 GPU 以及更大提示詞請(qǐng)求規(guī)模的測(cè)試。

      vLLM 多 GPU 性能實(shí)測(cè):DeepSeek-R1-Distill-Qwen-7B

      我們使用上面的指令作為模板,使用大量不同的參數(shù)、推理模型進(jìn)行了測(cè)試,得出了銘瑄 Intel Arc Pro B60 DUAL 48GB 在單卡、雙卡、四卡時(shí)的性能。









      測(cè)試是啟用了 fp8 量化,不過(guò)因?yàn)?Battlemage 缺乏硬件 fp8 支持,因此我們?cè)谶@里實(shí)際上是用 fp16 進(jìn)行計(jì)算,fp8 量化此時(shí)的好處主要是節(jié)省內(nèi)存、帶寬上。

      從測(cè)試結(jié)果來(lái)看,

      1、吞吐量(throughput)隨 np 增長(zhǎng)的趨勢(shì)如下:

      batch size 8192:

      吞吐量增長(zhǎng)更快,尤其在 tp=4 時(shí),np=100 達(dá)到 2363.62。

      batch size 4096:

      吞吐量也隨 np 增長(zhǎng),但整體數(shù)值略低,np=100 時(shí)為 2421.69,但增長(zhǎng)曲線在 tp=4 時(shí)趨于平緩。

      2、平均完成時(shí)間(mean_ttf)隨 np 增長(zhǎng)的趨勢(shì)

      batch size 8192:

      平均完成時(shí)間增長(zhǎng)更快,np=100 時(shí)達(dá)到 4703.63(tp=4)。

      batch size 4096:

      平均完成時(shí)間也增長(zhǎng),但整體略低,np=100 時(shí)為 4730.36(tp=4)。

      這說(shuō)明 batch size 越大,單位時(shí)間內(nèi)處理的數(shù)據(jù)越多,但也可能導(dǎo)致單次任務(wù)耗時(shí)更長(zhǎng)。

      根據(jù)測(cè)試結(jié)果,我們認(rèn)為對(duì)于這臺(tái)系統(tǒng)來(lái)說(shuō),如果需要高吞吐環(huán)境的話,可以設(shè)置 batchsize=8192,TP=4,如果是希望更好的服務(wù)響應(yīng),可以考慮設(shè)置為 batchsize=4096 和 TP=2。如果希望均衡性能,最好是 batchsize=4096 和 TP=4。

      vLLM 多 GPU 性能實(shí)測(cè):GPT-oss-120b





      gpt-oss-120b 是 openai 最新的開(kāi)源語(yǔ)言模型,官方提供的版本是使用了 mxfp4 量化的,我們?cè)谶@里也使用 mxfp4,不過(guò)同樣因?yàn)?Battlemage 缺乏 fp4 硬件支持,因此這里的計(jì)算也是 fp16 實(shí)現(xiàn)的,不過(guò)模型占用的空間和帶寬都因?yàn)?mxfp4 的緣故會(huì)比較低。

      我們這里選擇了 batchsize=512 和 batchsize=8192 來(lái)展示,可以看到即使是啟用了 8192 token 的最大長(zhǎng)度,在 number_prompt=20 時(shí)(20 個(gè)并發(fā)請(qǐng)求)的性能和 512 token 的時(shí)候相當(dāng)(平均每個(gè)請(qǐng)求能獲得 15 token 的吞吐),之后也有 50% 以上的性能,考慮到這臺(tái)系統(tǒng)的配置,這個(gè)性能也是很不錯(cuò)了。

      增加 number_prompt 后的吞吐性能在 80 個(gè)后開(kāi)始下降,這意味著對(duì)于 4 GPU B60 來(lái)說(shuō),運(yùn)行 gpt-oss-120b 合理 np 值應(yīng)該在 80 左右。



      火力全開(kāi):ComfyUI Wan 2.2 多 GPU 文生視頻

      Intel 也為 LLM-Scaler-Omni 提供了容器鏡像,使用下面的指令就能拖拽下載:

      docker pull intel/llm-scaler-omni:0.1.0-b5

      創(chuàng)建容器:

      sudo docker run -itd \

      --privileged \

      --net=host \

      --device=/dev/dri \

      -e no_proxy=localhost,127.0.0.1 \

      --name=comfyui \

      -v $MODEL_DIR:/llm/models/ \

      -v $COMFYUI_MODEL_DIR:/llm/ComfyUI/models \

      --shm-size="64g" \

      --entrypoint=/bin/bash \

      intel/llm-scaler-omni:0.1.0-b5

      之后進(jìn)入容器就是:

      docker exec -it comfyui bash

      執(zhí)行下面的命令就能啟動(dòng)容器內(nèi)的 ComfyUI:

      cd /llm/ComfyUI

      python main.py --listen 0.0.0.0 --port 8188

      之后就能在本地瀏覽器里執(zhí)行 127.0.0.1:8188 啟動(dòng) ComfyUI,你也可以透過(guò) SSH、SSH+FRP 等方式遠(yuǎn)程訪問(wèn)。

      我們的系統(tǒng)里安裝了兩片銘瑄 Arc Pro B60 DUAL,合共 4 個(gè) B60 GPU 和 96GB 顯存,ComfyUI 默認(rèn)并不支持多 GPU 任務(wù)任務(wù)分派,需要額外的節(jié)點(diǎn)來(lái)實(shí)現(xiàn),例如 LLM-Scaler-Omni 容器內(nèi)自帶 Wan 2.2 工作流節(jié)點(diǎn)里的 Raylight,就能支持多 GPU 并行計(jì)算加速,在 4 GPU 的時(shí)候能提高大約 25% 的性能。

      下圖就是使用 Raylight 節(jié)點(diǎn)時(shí)候多 GPU 同時(shí)啟用的狀態(tài)圖。



      由于需要透過(guò) PCIE 5.0 X8 總線的 32GB/s 帶寬交換數(shù)據(jù),所以在雙 GPU 的時(shí)候效率較低,性能會(huì)不如單 GPU,但是因?yàn)榉植际匠鼗?,所以能裝進(jìn)的模型權(quán)重還是要比單卡大。

      實(shí)測(cè)結(jié)果如下:





      在單 GPU 模式下,銘瑄 Arc Pro B60 DUAL 48GB 的耗時(shí)是 50.9 秒,雙 GPU 模式下是 57.4 秒,增加了大約 13%,在四 GPU 模式下時(shí)間縮短到了 41.1 秒,縮短了大約 19%。

      SPECViewperf v15

      Viewperf 是行業(yè)最重要的圖形工作站性能基準(zhǔn)測(cè)試套件之一,包括 NVIDIA、AMD、Intel 等廠商都會(huì)在其官方文檔、發(fā)布會(huì)上應(yīng)用 SPECViewperf 測(cè)試成績(jī),在企業(yè)采購(gòu)中,該測(cè)試往往作為重要的決策依據(jù)。







      Viewperf v15 是 SPEC.org 2015 年發(fā)布的最新版工作站圖形基準(zhǔn)測(cè)試套件,包含了 Vulkan、D3D12、OpenGL 等多種 API 的工作站圖形負(fù)載軌跡,新增了多個(gè)項(xiàng)目,例如 Blender、Unreal 游戲引擎、Enscape 建筑可視化實(shí)時(shí)光線追蹤,傳統(tǒng)的 3ds Max、CATIA、Creo、Maya、SolidWorks 等工作站應(yīng)用圖形軌跡也得到了更新。



      測(cè)試使用的視口分辨率是 1920x1080,測(cè)試結(jié)果如上,數(shù)值就是各個(gè)項(xiàng)目的幾何平均幀率,測(cè)試過(guò)程非常流暢、穩(wěn)定,未看到明顯的渲染瑕疵。

      底層測(cè)試:海量的Cache/內(nèi)存帶寬!

      我用 Neme 的 Vulkan 底層測(cè)試工具進(jìn)行了一些測(cè)試,包括時(shí)延、吞吐等,首先看看訪存時(shí)延:



      我在這里使用了 AD107(RTX 4060)作為對(duì)比。

      從測(cè)試結(jié)果看,Battlemage-G21(Arc Pro B60) 的 L1 Cache/SLM(Intel Xe 微架構(gòu)里的術(shù)語(yǔ),等效于 CUDA 里的 Shared Memory 或者 OpenCL 里的 Local Memory) 是在 256 KiB 處發(fā)生顯著躍升,符合其 L1 Cache 大小為 256 KiB 大小的公開(kāi)規(guī)格。

      L2 Cache 階段在 16 MiB 處發(fā)生明顯躍升,略早于官方規(guī)格里的 18MiB。

      AD107 在 L1 Cache 階段擁有更快的時(shí)延,但是在 L2 Cache 階段則更慢,而且 L2 Cache 發(fā)生躍升的位置(20 MiB)也只是在宣稱(48 MiB)的 L2 Cache 一半不到,在進(jìn)入訪存階段后,B60 的訪存時(shí)延開(kāi)銷要比對(duì)手高很多。

      除了內(nèi)存帶寬遠(yuǎn)高于 AD107 外,Battlemage-G21 實(shí)測(cè) 28 GB/s 的 PCIE 總線帶寬也遠(yuǎn)高于 AD107 的 13.2 GiB/s,在涉及 PCIE 總線的數(shù)據(jù)交換時(shí) Arc Pro B60 的表現(xiàn)會(huì)更出色。



      Arc Pro B60 擁有高很多的Cache/內(nèi)存帶寬,這得益于它擁有 192-bit 內(nèi)存總線,實(shí)測(cè)單 GPU 模式下內(nèi)存帶寬達(dá)到了 422 GB/s,而對(duì)手 RTX 4060(GPU 內(nèi)核代號(hào) AD107,NVIDIA 采用 AD107 的專業(yè)卡為 RTX 2000 Ada Generation)只有 128-bit 內(nèi)存總線,實(shí)測(cè)內(nèi)存帶寬是 248GB/s。

      在浮點(diǎn)性能方面,Arc Pro B60 在 Vullan 下實(shí)測(cè) fp32 fma 指令性能為 12.3 TFLOPS,F(xiàn)P64 是 757.7 GFLOPS,作為對(duì)比 RTX 4060 是 15.8 TFLOPS 和 265 GFLOPS,Arc Pro B60 因?yàn)榫邆涓鼜?qiáng)的內(nèi)存帶寬,在性能平衡上一般會(huì)更好。



      寫在最后:攪局者

      回看這幾天的深度測(cè)試,Arc Pro B60 給我最深的感觸是:Intel 獨(dú)立顯卡已經(jīng)脫離了“跑分好看”的初期階段,真正開(kāi)始在專業(yè)工作流和 AI 大模型領(lǐng)域展現(xiàn)出攪局者的硬實(shí)力。

      基于 Battlemage (Xe2) 架構(gòu)的銘瑄 Arc Pro B60 DUAL,在 48GB 海量顯存和全新底層邏輯的加持下,為開(kāi)發(fā)者和專業(yè)用戶提供了一個(gè)極具性價(jià)比的“非綠”選項(xiàng)。



      以下是我們對(duì)這款測(cè)試對(duì)象的深度復(fù)盤:

      1. 最大優(yōu)勢(shì):參數(shù)給得足夠“慷慨”

      ? 同級(jí)別配置下顯存帶寬與位寬的降維打擊。在同級(jí)別定位中,對(duì)手(例如 RTX 2000 Ada Generation)往往在顯存位寬上顯得吝嗇,而 B60 憑借 192-bit 內(nèi)存總線,實(shí)測(cè)內(nèi)存帶寬高達(dá) 422 GB/s,幾乎是競(jìng)品 AD107(RTX 4060)的兩倍。這種大帶寬在處理大模型推理和高分辨率渲染時(shí),能夠提供更穩(wěn)健的性能下限。



      ? PCIe 5.0 的超前部署:實(shí)測(cè) 28 GB/s 的 PCIe 總線帶寬遠(yuǎn)超對(duì)手,這在頻繁進(jìn)行多卡數(shù)據(jù)交換或大規(guī)模紋理加載時(shí),優(yōu)勢(shì)極其明顯。

      ? 軟件生態(tài)的“拎包入住”:相比于 RoCM 依賴包的“散裝”現(xiàn)狀,Intel 提供的 LLM-Scaler 解決方案更加整體化。通過(guò)容器化部署 vLLM,開(kāi)發(fā)者可以幾乎零成本地從 CUDA 遷移到 Xe 架構(gòu)上,實(shí)現(xiàn)了真正的“開(kāi)箱即用”。



      2. 現(xiàn)存不足:細(xì)節(jié)之處仍有遺憾

      ? 硬件級(jí)低精度計(jì)算缺失: Battlemage 架構(gòu)在指令集上非常先進(jìn),但它的 XMX內(nèi)核缺乏硬件級(jí)的 FP8 和 FP4 支持。雖然能通過(guò) FP16 模擬實(shí)現(xiàn) DeepSeek-R1 或 GPT-oss-120b 的運(yùn)行,但在追求極致算力的場(chǎng)景下,模擬計(jì)算依然難以完全發(fā)揮架構(gòu)潛力。

      ? 訪存時(shí)延開(kāi)銷較高:底層測(cè)試顯示,B60 在進(jìn)入顯存訪存階段后的時(shí)延明顯高于對(duì)手,這反映出其底層內(nèi)存控制器的調(diào)教仍有精進(jìn)空間。

      ? 多卡互聯(lián)的物理瓶頸:由于 B60 不支持物理 Xe-Link 接口,多 GPU 協(xié)同只能依賴 PCIe 總線。在運(yùn)行如 Raylight 這種分布式切分模型時(shí),數(shù)據(jù)同步的開(kāi)銷限制了多卡擴(kuò)展的效率。



      展望:Intel 獨(dú)顯的“成熟期”將至

      Arc Pro B60 的表現(xiàn)證明了 Xe2 架構(gòu)在 SIMD16 原生指令寬度和“硬件原生間接執(zhí)行”等設(shè)計(jì)上的前瞻性。它不僅在 SPECViewperf 傳統(tǒng)的專業(yè)制圖測(cè)試中表現(xiàn)穩(wěn)健,更在 DeepSeek 等 AI 浪潮中找到了自己的生態(tài)位。

      對(duì)于工作站用戶來(lái)說(shuō),B60 的出現(xiàn)最大的意義在于提供了一個(gè)成熟的選擇。 隨著未來(lái)驅(qū)動(dòng)程序的進(jìn)一步迭代,以及如果能在后續(xù)型號(hào)中補(bǔ)齊硬件級(jí) FP8 加速,英特爾極有可能在專業(yè)計(jì)算市場(chǎng)實(shí)現(xiàn)真正的“跨越式遠(yuǎn)征”。

      隨著Arc Pro B60陸續(xù)登陸授權(quán)經(jīng)銷電商平臺(tái),如果你需要一個(gè)大顯存、高帶寬且軟件支持直觀的 AI 推理或圖形渲染平臺(tái),銘瑄、藍(lán)戟推出的這款 48GB “雙芯怪獸”無(wú)疑是目前市場(chǎng)上最值得關(guān)注的變數(shù)。



      本文感謝原 PCPOP/顯卡之家主筆Edison Chen的鼎力支持,在平臺(tái)搭建和測(cè)試過(guò)程中,筆者受益匪淺,如有興趣,請(qǐng)?jiān)L問(wèn)Edison Chen的知乎主頁(yè):

      https://www.zhihu.com/people/edison-chan-24

      聲明:個(gè)人原創(chuàng),僅供參考

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      拳王鄒市明自爆破產(chǎn),不止賠光2億,其妻子參加婚禮耍酒瘋

      拳王鄒市明自爆破產(chǎn),不止賠光2億,其妻子參加婚禮耍酒瘋

      說(shuō)歷史的老牢
      2026-01-20 14:17:37
      判了,無(wú)期!斂財(cái)3.8億,偽裝了7年的勵(lì)志網(wǎng)紅,最終還是露餡了

      判了,無(wú)期!斂財(cái)3.8億,偽裝了7年的勵(lì)志網(wǎng)紅,最終還是露餡了

      蜉蝣說(shuō)
      2025-10-21 09:19:12
      藍(lán)色光標(biāo)上演絕地反擊的一幕!AI應(yīng)用是今年最值得關(guān)注的板塊

      藍(lán)色光標(biāo)上演絕地反擊的一幕!AI應(yīng)用是今年最值得關(guān)注的板塊

      侃故事的阿慶
      2026-02-12 20:01:30
      DeepSeek變冷淡了

      DeepSeek變冷淡了

      經(jīng)濟(jì)觀察報(bào)
      2026-02-12 12:54:32
      廣東隊(duì)開(kāi)始放假,年輕球員二沙島加練,朱芳雨挑選國(guó)內(nèi)中鋒

      廣東隊(duì)開(kāi)始放假,年輕球員二沙島加練,朱芳雨挑選國(guó)內(nèi)中鋒

      孤影來(lái)客
      2026-02-12 21:30:31
      22歲女大忘寫作業(yè),發(fā)給教授的郵件萌了:作業(yè)求延期,我在打冬奧會(huì)...

      22歲女大忘寫作業(yè),發(fā)給教授的郵件萌了:作業(yè)求延期,我在打冬奧會(huì)...

      英國(guó)那些事兒
      2026-02-11 16:03:17
      近段時(shí)間狀態(tài)下滑非常明顯!快船鋒線新秀再這樣要跌出輪換陣容了

      近段時(shí)間狀態(tài)下滑非常明顯!快船鋒線新秀再這樣要跌出輪換陣容了

      稻谷與小麥
      2026-02-12 22:47:26
      集體大漲!剛剛,利好突襲!芯片,大消息

      集體大漲!剛剛,利好突襲!芯片,大消息

      數(shù)據(jù)寶
      2026-02-12 19:20:34
      英媒爆料,去年底圍臺(tái)軍演,殲16三次對(duì)F16動(dòng)了殺心

      英媒爆料,去年底圍臺(tái)軍演,殲16三次對(duì)F16動(dòng)了殺心

      軍武吐槽君
      2026-02-10 23:02:37
      放到爛!價(jià)格暴跌都沒(méi)人買,廣州人天天吃到厭…

      放到爛!價(jià)格暴跌都沒(méi)人買,廣州人天天吃到厭…

      廣州生活美食圈
      2026-02-12 16:18:44
      王毅外長(zhǎng)親自坐鎮(zhèn),臺(tái)當(dāng)局也派人到場(chǎng),看見(jiàn)大陸4個(gè)字,認(rèn)清現(xiàn)實(shí)

      王毅外長(zhǎng)親自坐鎮(zhèn),臺(tái)當(dāng)局也派人到場(chǎng),看見(jiàn)大陸4個(gè)字,認(rèn)清現(xiàn)實(shí)

      東極妙嚴(yán)
      2026-02-11 20:48:25
      9死27傷!加拿大校園槍擊慘案震動(dòng)全國(guó)!18歲變性槍手弒親后屠校

      9死27傷!加拿大校園槍擊慘案震動(dòng)全國(guó)!18歲變性槍手弒親后屠校

      北國(guó)向錫安
      2026-02-12 07:28:02
      50歲吉雪萍近況曝光!女兒去世已6年,三個(gè)兒子跟隨富商老公生活

      50歲吉雪萍近況曝光!女兒去世已6年,三個(gè)兒子跟隨富商老公生活

      科學(xué)發(fā)掘
      2026-02-09 06:49:34
      中央定調(diào)!多省火速跟進(jìn),原拆原建不再普惠,老破小迎來(lái)嚴(yán)格篩選

      中央定調(diào)!多省火速跟進(jìn),原拆原建不再普惠,老破小迎來(lái)嚴(yán)格篩選

      萬(wàn)物知識(shí)圈
      2026-02-12 07:37:41
      比氫彈更可怕!僅需一枚就能讓美國(guó)從地球消失?聯(lián)合國(guó)曾緊急叫停

      比氫彈更可怕!僅需一枚就能讓美國(guó)從地球消失?聯(lián)合國(guó)曾緊急叫停

      嫹筆牂牂
      2026-02-09 22:05:32
      教育部正式官宣,2026中考改革落地。不考偏題怪題、不搞超綱。

      教育部正式官宣,2026中考改革落地。不考偏題怪題、不搞超綱。

      南權(quán)先生
      2026-02-12 15:35:53
      2月12日冬奧會(huì)獎(jiǎng)牌榜:中國(guó)力壓韓國(guó),沖擊首金, 寧忠?guī)r創(chuàng)歷史!

      2月12日冬奧會(huì)獎(jiǎng)牌榜:中國(guó)力壓韓國(guó),沖擊首金, 寧忠?guī)r創(chuàng)歷史!

      皮皮觀天下
      2026-02-12 13:38:57
      官方:2026足協(xié)杯決賽將在蘇州奧體中心體育場(chǎng)舉行

      官方:2026足協(xié)杯決賽將在蘇州奧體中心體育場(chǎng)舉行

      懂球帝
      2026-02-12 17:07:02
      今明兩天北京持續(xù)回暖,周末迎大風(fēng)降溫

      今明兩天北京持續(xù)回暖,周末迎大風(fēng)降溫

      北青網(wǎng)-北京青年報(bào)
      2026-02-12 13:04:09
      十年前,桑蘭能成功索要18億美金的賠償,如今想要二胎卻很困難?

      十年前,桑蘭能成功索要18億美金的賠償,如今想要二胎卻很困難?

      北有南梔
      2026-02-07 18:05:03
      2026-02-12 23:08:49
      愛(ài)極物 incentive-icons
      愛(ài)極物
      關(guān)注數(shù)碼新科技~!
      340文章數(shù) 35關(guān)注度
      往期回顧 全部

      數(shù)碼要聞

      華碩無(wú)畏Pro 14 2026開(kāi)啟預(yù)約:第三代Ultra 7 +1100尼特OLED屏

      頭條要聞

      安徽一學(xué)校宿舍挑梁開(kāi)裂 部分挑梁甚至已經(jīng)鋼筋裸露

      頭條要聞

      安徽一學(xué)校宿舍挑梁開(kāi)裂 部分挑梁甚至已經(jīng)鋼筋裸露

      體育要聞

      31歲首次參加冬奧,10年前她是個(gè)水管工

      娛樂(lè)要聞

      《驚蟄無(wú)聲》違規(guī)搶占排片遭影院控訴

      財(cái)經(jīng)要聞

      “影子萬(wàn)科”如何掘金萬(wàn)科?

      科技要聞

      10倍速的一夜:三大模型春節(jié)前的暗戰(zhàn)

      汽車要聞

      開(kāi)212 T01柴油版去穿越 連牧馬人都跟不上

      態(tài)度原創(chuàng)

      健康
      手機(jī)
      本地
      公開(kāi)課
      軍事航空

      轉(zhuǎn)頭就暈的耳石癥,能開(kāi)車上班嗎?

      手機(jī)要聞

      機(jī)構(gòu):1月中國(guó)智能手機(jī)銷量同比下滑23%

      本地新聞

      下一站是嘉禾望崗,請(qǐng)各位乘客做好哭泣準(zhǔn)備

      公開(kāi)課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      美國(guó)新交付F35隱身戰(zhàn)機(jī)沒(méi)雷達(dá)

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版