全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進行了優化,助力 Mistral AI 實現云到邊緣分布式智能愿景。
Mistral AI 近日發布了開源多語言、多模態模型 Mistral 3 系列,并且針對 NVIDIA 超級計算和邊緣平臺進行了優化。
![]()
- Mistral Large 3 是專家混合 (MoE) 模型,無需為每個 token 激活全部神經元,可以僅調用模型中影響最大的部分,既可在無浪費的前提下實現高效擴展,又可確保準確性不受損,使企業級 AI 不僅成為可能,而且更具實用性。
憑借 41B 活躍參數、675B 總參數及 256K 上下文窗口,Mistral Large 3 實現了可擴展、高效且具有自適應性的企業級 AI 工作負載。通過整合 NVIDIA Grace Blackwell 機架級擴展系統與 Mistral AI 的 MoE 架構,企業可借助先進的并行計算與硬件優化技術,高效部署并擴展大型 AI 模型。
該模型采用精細化 MoE 架構,通過調用 NVIDIA NVLink 的協同內存域及寬專家并行的優化技術,充分發揮大規模專家并行的性能優勢。這些優勢與保持準確性的低精度 NVFP4 及 NVIDIA Dynamo 分離推理優化技術相疊加,確保大規模訓練與推理達到極佳性能。
- Mistral AI 不僅推動了前沿大語言模型技術的發展,還發布了九款小語言模型,助力開發者在任意環境中運行 AI。為了實現云端到邊緣的高效運算,NVIDIA 針對 Mistral 3 系列模型優化了包括 NVIDIA TensorRT LLM、SGLang 和 vLLM 在內的推理框架。
以上為摘要內容,點擊鏈接閱讀完整內容:NVIDIA 攜手 Mistral AI 共同加速開放模型新系列的落地 | NVIDIA 英偉達博客
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.