成立僅三個月的xLLM社區(qū)將于12月6日在北京舉辦主題為 “共建開源 AI Infra 生態(tài)” 的線下Meetup。在AI Infra技術架構中,xLLM扮演著至關重要的角色——它如同操作系統(tǒng),位于底層硬件芯片與上層大模型應用之間,是連接算力與模型的"中樞神經(jīng)"。此次活動不僅將揭開xLLM社區(qū)的神秘面紗,更將深度分享其技術愿景、核心規(guī)劃、階段性成果以及蓬勃發(fā)展的生態(tài)全景,為業(yè)界呈現(xiàn)下一代大模型推理引擎的突破性力量。
xLLM:超越單一場景的下一代推理引擎框架
過去,AI Infra基礎設施的核心技術長期依賴國外開源框架(如vLLM、SGLang、TensorRT-LLM等)。隨著xLLM等推理引擎的開源,將大大加速國產(chǎn)全棧AI Infra生態(tài)建設。
區(qū)別于當前行業(yè)廣泛采用的vLLM(主要聚焦大語言模型與多模態(tài)場景),xLLM定位為更強大的推理引擎框架。其設計之初便著眼于支持多元化、復雜化的生成式AI場景,核心能力覆蓋:大語言模型 (LLM)、多模態(tài)理解與生成、生成式推薦系統(tǒng)、文生圖 (Text-to-Image)和文生視頻 (Text-to-Video) 等前沿領域。本次Meetup將首次系統(tǒng)闡述xLLM如何通過其創(chuàng)新架構,為這些豐富場景提供統(tǒng)一、高效、可擴展的推理支持,以及未來的技術演進規(guī)劃。此外,北京航空航天大學教授楊海龍也將詳細介紹面向超智融合時代的全棧式性能工程探索。據(jù)悉,該成果已應用于11.11京東大促等核心零售業(yè)務場景,助力業(yè)務效率提升5倍以上,機器成本降低90% ,有力保障了關鍵業(yè)務在洪峰流量下的平穩(wěn)流暢運行。
開放生態(tài):模型與硬件的交響曲
此次活動將首次全景式展示xLLM框架背后的核心技術。目前,xLLM框架集成了業(yè)界領先的開源KV Cache存儲解決方案——Mooncake。本次meetup上,清華大學副教授,Mooncake發(fā)起人章明星將揭秘Mooncake如何為大規(guī)模、低延遲的推理任務提供關鍵的存儲加速。
此外,還特別邀請到北京智源人工智能研究院研發(fā)經(jīng)理門春雷,分享在計算單元與算子優(yōu)化、特別是編譯優(yōu)化方面的前沿經(jīng)驗,探討如何榨干硬件潛力,實現(xiàn)推理速度的飛躍。
成立之初,xLLM秉持開放理念,致力于構建繁榮生態(tài)。在模型層, xLLM推理框架具備強大的模型接入能力,可靈活對接多種主流大模型。目前,xLLM已在GitHub等平臺開源,全球開發(fā)者都可以下載使用。
硬件層方面,xLLM框架設計兼顧通用性與適配性,為未來更廣泛的硬件支持奠定基礎。本次Meetup將重點介紹與國產(chǎn)算力領跑者昇騰在統(tǒng)一內(nèi)存池化方案上的應用實踐,展示其在高性能、低成本推理上的潛力。未來,還會和清華、北大、中科大、北航、硬件廠商等產(chǎn)學研生態(tài)伙伴一起,推動AI技術生態(tài)的協(xié)同創(chuàng)新和行業(yè)智能化升級。
誠邀參與,共繪全景
xLLM社區(qū)是一個專注于打造下一代高性能、通用化大模型推理引擎的開源技術社區(qū)。成立三個月以來,匯聚了眾多來自頂尖科技公司與研究機構的開發(fā)者與專家,致力于突破大模型落地應用在性能、成本、場景多樣性上的瓶頸,推動AI技術的普惠化發(fā)展。
此次Meetup,是一次技術實力的集中展示,更是一張面向未來的“大模型推理全景圖”的繪制起點。我們誠摯邀請關注大模型技術發(fā)展、AI基礎設施、高性能計算、推薦系統(tǒng)以及國產(chǎn)化AI解決方案的開發(fā)者、研究者、企業(yè)技術決策者與行業(yè)伙伴蒞臨現(xiàn)場,共同探討交流。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.