![]()
云與 AI 原生技術會議匯集 NVIDIA AI 軟件堆棧的最新技術與實戰案例:深入了解全棧平臺如何加速開發,聚焦大模型強化學習、多模態應用、推理加速、分布式訓練等核心場景,呈現中國云與互聯網行業和 NVIDIA 技術專家打造的標桿實踐,覆蓋電商、社交、零售、科技等多領域的 AI 落地經驗。
演講將圍繞大語言模型 (LLM) 訓練與推理兩大主題,其中 LLM 訓練主題匯聚字節跳動、阿里巴巴、騰訊、火山引擎、美團、快手、京東、階躍星辰等行業標桿,從 verl 強化學習框架到 Megatron-Core 并行方案,解鎖工業級 LLM 訓練的前沿技術,助力 AI 原生創新。立即添加日程,獲取頭部企業的訓練實戰干貨!
推薦演講
基于 verl 進行大模型
強化學習的最佳實踐
會議代碼:S81829
會議時間:3 月 16 日上午 10:00 - 10:50(北京時間)
演講嘉賓:
Yan Bai | NVIDIA 加速計算專家
巫錫斌 | 字節跳動 LLM Infra 工程師
會議內容:
verl 是目前最受歡迎的大模型 (LLM) 強化學習框架。在本次分享中,我們將深入探討 verl 的架構設計,介紹我們在提升推理和訓練性能方面所做的工作,以及如何進行端到端的 Agentic RL(智能體強化學習)訓練。
多模態大模型訓練的性能優化
會議代碼:S81883
會議時間:3 月 16 日下午 16:00 - 16:50(北京時間)
演講嘉賓:
許士芳 | NVIDIA 加速計算專家
朱亦博 | 階躍星辰 首席技術官
會議內容:
與大語言模型相比,多模態大模型(MLLM)能夠處理文本、圖像和音頻等多種類型的數據,更接近人類對世界的感知方式。然而,不同模態之間的數據和模型結構存在差異,這使得傳統的模型訓練方式難以高效地訓練多模態大模型。DistTrain 通過解耦編碼器、主干網絡和生成器的訓練并行策略,實現了更高的訓練效率。NVIDIA 與 Stepfun 合作,在開源框架 Megatron-LM 上實現了 DistTrain 方案,使社區能夠更輕松且高效地訓練多模態模型。
基于 Megatron-Core 的
動態自適應并行訓練方案
會議代碼:S82347
會議時間:3 月 18 日上午 11:00 - 11:50(北京時間)
演講嘉賓:
李昆倫 | NVIDIA 加速計算專家
吳國昊 | 快手科技 高級深度學習工程師
會議內容:
介紹基于 Megatron-Core 的動態自適應并行訓練方案,該方案通過運行時自適應技術解決長尾序列訓練中計算與內存的嚴重失配問題。其直接應對當前大規模視頻模型訓練中極端樣本帶來的效率瓶頸,已在數千 GPU 集群上驗證能顯著提升訓練速度與資源利用率,是推動下一代多模態基礎模型高效訓練的關鍵技術。
GTC 2026 線上注冊參會攻略
點擊鏈接查看 GTC 2026 注冊教程,提前完成線上注冊,并將您感興趣的會議添加進日程:
GTC2026 | 一圖解鎖線上注冊參會全攻略,贏 NVIDIA 定制好禮!「鏈接」
點擊鏈接,了解云與 AI 原生技術會議詳情:云與 AI 原生技術會議 | NVIDIA GTC 2026
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.