<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      vLLM 硬核四連發(fā)!

      0
      分享至

      大家好,我是 Ai 學(xué)習(xí)的老章

      關(guān)于 vLLM,我之前寫過不少:

      今天再來(lái)聊聊 vLLM 在 2026 年 3 月密集發(fā)布的四個(gè)重大更新——Semantic Router v0.2 AthenaNVIDIA Nemotron 3 Super 上線P-EAGLE 并行推測(cè)解碼、以及Model Runner V2 架構(gòu)大重構(gòu)。這一波更新可以說是從底層引擎到上層編排全面開花,讓 vLLM 在 2026 年站穩(wěn)了大模型推理基座的位置。

      一、Semantic Router v0.2 Athena:從路由器到系統(tǒng)大腦

      第一個(gè)登場(chǎng)的是vLLM Semantic Router v0.2 Athena(雅典娜)。

      如果你對(duì) Semantic Router 還不熟悉,簡(jiǎn)單說就是——它不是一個(gè)模型,它是幫你決定"這個(gè)請(qǐng)求該交給哪個(gè)模型處理"的智能路由層。

      從 v0.1 Iris 到 v0.2 Athena,這次升級(jí)幅度相當(dāng)大。

      下圖是 Athena 的整體架構(gòu)概覽,可以看到從信號(hào)提取到?jīng)Q策路由再到模型選擇的完整流程:


      Athena 整體架構(gòu) 1. 模型棧全面換血

      Athena 把底層基座換成了新的多語(yǔ)言長(zhǎng)上下文模型mmbert-embed-32k-2d-matryoshka,支持 1800 多種語(yǔ)言、32K 上下文。在它之上構(gòu)建了一整套分類器家族mom-multilingual-class,覆蓋意圖分類、越獄檢測(cè)、PII 檢測(cè)、事實(shí)核查和反饋檢測(cè)。

      下圖展示了新的跨模態(tài)嵌入模型 multi-modal-embed-small,能把文本、圖片、音頻統(tǒng)一映射到同一個(gè) 384 維語(yǔ)義空間:


      跨模態(tài)嵌入模型

      性能提升立竿見影——在 AMD MI300X 上做了一組端到端測(cè)試:

      請(qǐng)求大小

      ONNX+GPU 平均延遲

      ONNX+CPU 平均延遲

      Candle+CPU 平均延遲

      ~500 tokens

      22 ms

      853 ms

      1053 ms

      ~2000 tokens

      31 ms

      1814 ms

      1805 ms

      ~8000 tokens

      128 ms

      4796 ms

      1830 ms

      ONNX+GPU 比 CPU 方案快了 40 倍,這不是理論測(cè)試,是走完 Envoy→ext_proc→SR 的真實(shí)路由鏈路。

      下圖是 Athena v0.2 的模型棧全景,可以直觀看到新舊基座的替換:


      Athena 模型棧全景 2. ClawOS:讓路由器變成 AI 操作系統(tǒng)

      這是 Athena 最大膽的嘗試。ClawOS 把 Semantic Router 變成了一個(gè)可以編排多個(gè) OpenClaw 智能體團(tuán)隊(duì)的操作層。你可以通過自然語(yǔ)言對(duì)話來(lái)創(chuàng)建團(tuán)隊(duì)、分配 Worker、實(shí)時(shí)協(xié)調(diào)——有點(diǎn)像給 AI 智能體搞了個(gè)"操作系統(tǒng)"。

      下圖是 ClawOS Dashboard 的多智能體編排界面——可以看到團(tuán)隊(duì)管理、Worker 分配和實(shí)時(shí)聊天協(xié)作的完整界面:


      ClawOS 多智能體編排界面

      雖然還是實(shí)驗(yàn)性質(zhì),但方向很清晰:**未來(lái)的 AI 推理不只是"選模型",而是"管團(tuán)隊(duì)"**。

      3. 零配置上手 + Dashboard 驅(qū)動(dòng)

      以前搞 Semantic Router 得先寫一堆 YAML 配置。現(xiàn)在一行命令搞定:

      curl -fsSL https://vllm-semantic-router.com/install.sh | bash

      裝完自動(dòng)啟動(dòng) Dashboard,進(jìn)去配一下模型就能用。下圖是全新的 Dashboard 首次啟動(dòng)引導(dǎo)界面:


      Dashboard 首次啟動(dòng)引導(dǎo)

      Dashboard 現(xiàn)在不光能配置路由,還能可視化拓?fù)洹⒒胤怕酚蓻Q策、做評(píng)估測(cè)試。真正成了"系統(tǒng)大腦":


      Dashboard 系統(tǒng)大腦 4. AMD ROCm Yes!

      AMD 用戶終于不是二等角色了

      Athena 把 ROCm 做成了正式支持的部署路徑:

      vllm-sr serve --platform amd

      下圖展示了 AMD ROCm 端到端部署路徑,包括 GPU 直通、ONNX 加速和 CK Flash Attention 支持:


      AMD ROCm 部署架構(gòu)

      老章說:Semantic Router 的野心越來(lái)越大了。從 v0.1 的"請(qǐng)求路由"到 v0.2 的"系統(tǒng)大腦",vLLM 開始不只做推理引擎,而是做上層編排。對(duì)于需要跑多個(gè)模型的生產(chǎn)環(huán)境來(lái)說,這東西值得關(guān)注。
      二、NVIDIA Nemotron 3 Super:為多智能體而生的 MoE 模型

      NVIDIA 和 vLLM 聯(lián)手推出了Nemotron 3 Super的官方支持。先來(lái)看一組驚人的數(shù)字:

      • 總參數(shù):1200 億

      • 激活參數(shù):僅 120 億(MoE 架構(gòu),Latent MoE 讓 4 個(gè)專家的推理成本等于 1 個(gè))

      • 上下文窗口:100 萬(wàn) token

      • 支持 GPU:B200、H100、DGX Spark、RTX 6000

      下圖是 Artificial Analysis 的評(píng)測(cè)對(duì)比,Nemotron 3 Super 在同級(jí)別開源模型中智能水平和開放度都領(lǐng)先:


      Nemotron 3 Super Artificial Analysis 對(duì)比 為什么說它是"為多智能體而生"?

      多智能體系統(tǒng)有兩個(gè)老大難問題:

      1. 上下文爆炸:多個(gè)智能體之間不停傳遞歷史記錄、工具輸出和推理步驟,token 越滾越大。Nemotron 3 Super 用 100 萬(wàn) token 上下文窗口直接暴力解決——?dú)v史全裝得下,目標(biāo)漂移大幅減少。

      2. 推理稅:每個(gè)子任務(wù)都用大模型會(huì)又慢又貴。MoE 架構(gòu)只激活 120 億參數(shù),吞吐量比前代提升最高 5 倍,NVFP4 精度在 Blackwell 上比 H100 的 FP8 還快 4 倍,且精度幾乎無(wú)損。

      下圖展示了 Nemotron 3 Super 在效率和精度兩個(gè)維度上的領(lǐng)先位置:


      Nemotron 3 Super 效率 vs 精度 快速上手

      安裝 vLLM 后一條命令就能部署:

      pip install vllm==0.17.1


      # BF16 精度,4 卡 H100 配置
      vllm serve nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-BF16 \
      --kv-cache-dtype fp8 \
      --tensor-parallel-size 4 \
      --trust-remote-code \
      --served-model-name nemotron \
      --enable-auto-tool-choice \
      --tool-call-parser qwen3_coder \
      --reasoning-parser nemotron_v3

      然后用標(biāo)準(zhǔn) OpenAI SDK 就能調(diào)用:

      from openai import OpenAI
      client = OpenAI(base_url="http://127.0.0.1:5000/v1", api_key="null")


      resp = client.chat.completions.create(
      model="nemotron",
      messages=[
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Give me 3 bullet points about vLLM"}
      ],
      temperature=0.7,
      max_tokens=256,
      )
      print("Reasoning:", resp.choices[0].message.reasoning_content,
      "\nContent:", resp.choices[0].message.content)

      值得注意的是,Nemotron 3 Super 還支持Thinking Budget,可以精細(xì)控制推理時(shí)的 token 開銷——不是所有任務(wù)都需要深度思考,簡(jiǎn)單任務(wù)省著點(diǎn)用。

      老章說:Nemotron 3 Super 的定位很精準(zhǔn)——不追求最強(qiáng)單點(diǎn)能力,而是在"效率×精度"的帕累托前沿找到最優(yōu)解。120B 總參數(shù)只激活 12B,配合百萬(wàn) token 上下文,就是為多智能體工作流量身定制的。如果你在搞 Agent 編排、Tool-Calling Pipeline,這個(gè)模型值得認(rèn)真評(píng)估。
      三、P-EAGLE:推測(cè)解碼再提速,一次前向搞定所有草稿 token

      推測(cè)解碼(Speculative Decoding)是目前加速大模型推理最有效的技術(shù)方向之一。EAGLE 系列是這個(gè)領(lǐng)域的 SOTA 方法,vLLM 也一直在深度集成。但 EAGLE 有一個(gè)繞不開的瓶頸——草稿生成是自回歸的。你想預(yù)測(cè) K 個(gè) token,就得跑 K 次前向傳播。當(dāng)你想預(yù)測(cè)得更多的時(shí)候,草稿模型本身的延遲反而成了新的瓶頸。

      先看效果——下圖是 P-EAGLE 在 NVIDIA B200 上 SPEED-BENCH 的性能對(duì)比,一眼就能看出差距:


      P-EAGLE SPEED-BENCH 性能對(duì)比

      P-EAGLE 的解決方案非常直接:把自回歸草稿生成改成并行生成——一次前向傳播,輸出全部 K 個(gè)草稿 token

      怎么做到的?

      下圖是 P-EAGLE 的架構(gòu)原理圖,左側(cè)是傳統(tǒng) EAGLE 的自回歸方式,右側(cè)是 P-EAGLE 的并行方式:


      P-EAGLE 架構(gòu)原理

      P-EAGLE 在預(yù)填充階段和普通 EAGLE 一樣,捕獲目標(biāo)模型的隱藏狀態(tài)。關(guān)鍵在第二步——草稿生成階段:

      • 對(duì)于下一個(gè) token(NTP),輸入和標(biāo)準(zhǔn) EAGLE 完全一樣

      • 對(duì)于第 2 到第 K 個(gè)位置(MTP),輸入的 token embedding 和隱藏狀態(tài)還不存在,怎么辦?P-EAGLE 引入了兩個(gè)可學(xué)習(xí)參數(shù):共享的 mask token embedding 和共享的隱藏狀態(tài)h_shared,作為占位符

      所有位置一起通過 N 層 Transformer,一次性輸出所有草稿 token。

      長(zhǎng)序列訓(xùn)練的挑戰(zhàn)

      訓(xùn)練 P-EAGLE 面臨的最大挑戰(zhàn)是內(nèi)存。下圖展示了 GPT-OSS 120B 在 UltraChat 數(shù)據(jù)集上的序列長(zhǎng)度分布——中位數(shù) 3891 token,P90 達(dá)到 10800 token:


      序列長(zhǎng)度分布

      訓(xùn)練 K 個(gè)并行組在長(zhǎng)度為 N 的序列上,會(huì)產(chǎn)生 N×K 個(gè)位置。N=8192、K=8 時(shí),一個(gè)訓(xùn)練樣本就有 65536 個(gè)位置,注意力矩陣要 8GB。P-EAGLE 通過序列分區(qū)算法解決了這個(gè)問題。

      實(shí)測(cè)效果

      三組基準(zhǔn)測(cè)試的詳細(xì)結(jié)果如下:

      MT-Bench 上不同并發(fā)下的吞吐量對(duì)比,P-EAGLE 在所有并發(fā)度上都領(lǐng)先:


      MT-Bench 吞吐量對(duì)比

      HumanEval 代碼合成任務(wù),P-EAGLE 的優(yōu)勢(shì)在高并發(fā)時(shí)依然明顯:


      HumanEval 吞吐量對(duì)比

      SPEED-Bench 長(zhǎng)文本代碼生成任務(wù),P-EAGLE 在 c=1 時(shí)加速比高達(dá) 1.69x:


      Speed-Bench 吞吐量對(duì)比

      一個(gè)很有意思的發(fā)現(xiàn):P-EAGLE 在 K=7 時(shí)達(dá)到峰值性能,而 EAGLE-3 在 K=3 時(shí)就封頂了。因?yàn)椴⑿猩刹还?K 多大,前向傳播次數(shù)都是 1 次——越深的推測(cè),P-EAGLE 的優(yōu)勢(shì)越大。

      接受長(zhǎng)度(AL)的對(duì)比更能說明問題。在 K=7 時(shí):

      • HumanEval:P-EAGLE3.94vs EAGLE-3 3.03(高 30%)

      • SPEED-Bench:3.38vs 2.59(高 31%)

      • MT-Bench:3.70vs 3.27(高 13%)

      使用方法

      只需要兩步:

      1. 下載(或訓(xùn)練)并行版草稿頭,HuggingFace 上已有 GPT-OSS 120B、GPT-OSS 20B、Qwen3-Coder 30B 的預(yù)訓(xùn)練版本

      2. 加一個(gè)配置參數(shù):

      vllm serve openai/gpt-oss-20b \
      --speculative-config '{"method": "eagle3", "model": "amazon/gpt-oss-20b-p-eagle", "num_speculative_tokens": 5, "parallel_drafting": true}'

      就這么簡(jiǎn)單,"parallel_drafting": true一行搞定。

      老章說:P-EAGLE 的思路很優(yōu)雅——既然草稿模型的序列生成是瓶頸,那就不序列生成了。用可學(xué)習(xí)占位符+并行 Transformer 一次搞定。代價(jià)是需要重新訓(xùn)練草稿頭,但 Amazon 已經(jīng)放出了多個(gè)預(yù)訓(xùn)練版本。對(duì)于生產(chǎn)環(huán)境中追求極致延遲的場(chǎng)景,這個(gè)升級(jí)非常值得嘗試。
      四、Model Runner V2:vLLM 核心引擎的徹底重構(gòu)

      如果前面三個(gè)更新是"在 vLLM 之上做加法",那 Model Runner V2(MRV2)就是對(duì) vLLM 核心引擎的徹底重寫

      這是自去年 vLLM V1 發(fā)布以來(lái)最大的架構(gòu)升級(jí)。官方毫不客氣地說:V1 的 model runner 積累了大量技術(shù)債,持久化狀態(tài)和模型輸入耦合、異步調(diào)度是后來(lái)打的補(bǔ)丁、CPU 端做了太多本該 GPU 干的活、代碼變得越來(lái)越難維護(hù)。

      MRV2 圍繞三個(gè)核心原則重建:模塊化、GPU 原生、異步優(yōu)先

      1. 更好的持久化批處理 + GPU 原生輸入準(zhǔn)備

      V1 直接把持久化狀態(tài)當(dāng)作模型輸入,導(dǎo)致布局約束和復(fù)雜的狀態(tài)管理。下圖展示了 V1 中請(qǐng)求順序與 Block Table 布局緊耦合的問題:


      V1 持久化批處理設(shè)計(jì)

      MRV2解耦了持久化請(qǐng)求狀態(tài)和每步輸入張量——每個(gè)活躍請(qǐng)求在固定大小的狀態(tài)表中有穩(wěn)定的行,每步按當(dāng)前順序從中提取輸入。下圖可以清晰看到新設(shè)計(jì)如何通過 gather 操作生成正確排序的輸入:


      MRV2 持久化批處理設(shè)計(jì)

      更關(guān)鍵的是,輸入準(zhǔn)備移到了 GPU 上,用 Triton Kernel 完成。input_idspositionsquery_start_locseq_lens這些張量現(xiàn)在直接在 GPU 上構(gòu)建,不再走 CPU。

      2. 異步優(yōu)先設(shè)計(jì)

      V1 的異步調(diào)度是"后來(lái)加上去的",MRV2 把它作為核心設(shè)計(jì)約束——目標(biāo)是 CPU 和 GPU 之間零同步。

      下圖是標(biāo)準(zhǔn)的異步調(diào)度時(shí)序,CPU 在 step N+1 做準(zhǔn)備的同時(shí) GPU 執(zhí)行 step N:


      異步調(diào)度時(shí)序

      最直接的好處:異步調(diào)度和推測(cè)解碼終于可以干凈地共存了。下圖展示了 MRV2 如何通過 GPU 端輸入準(zhǔn)備直接消費(fèi)拒絕采樣結(jié)果,消除所有同步點(diǎn):


      MRV2 推測(cè)解碼異步優(yōu)化 3. Triton 原生采樣器

      MRV2 重寫了采樣邏輯:

      • Gumbel-Max 采樣核,避免顯式 softmax 計(jì)算

      • 更高效的 top-k logprobs,先找 top-k logits 再算 logprobs

      • 更節(jié)省內(nèi)存的 prompt logprobs,支持單個(gè) prompt 內(nèi)的分塊處理

      • 更好的推測(cè)解碼兼容性

      4. 更強(qiáng)的模塊化

      V1 的gpu_model_runner.py已經(jīng)膨脹到6700 行。MRV2 引入了ModelState抽象接口:

      class ModelState(ABC):
      def add_request(self, ...):
      def remove_request(self, ...):
      def get_mm_embeddings(self, ...):
      def prepare_inputs(self, ...):
      def prepare_attn(self, ...):
      def prepare_dummy_inputs(self, ...):
      ...

      把模型特定邏輯(多模態(tài)嵌入、額外輸入、注意力元數(shù)據(jù))和通用執(zhí)行路徑分離。最大的文件現(xiàn)在控制在1300 行以內(nèi)

      這對(duì) DeepSeek、Qwen、Kimi 等不同模型系列的開發(fā)者來(lái)說太重要了——你只需要關(guān)心自己模型的ModelState,不用讀幾千行無(wú)關(guān)代碼。

      性能實(shí)測(cè)

      用小模型 Qwen3-0.6B 在 GB200 上跑(故意用小模型放大 CPU 開銷的影響),吞吐量直接從 16K 飆到 25K:


      MRV2 吞吐量提升 56.2%

      推測(cè)解碼場(chǎng)景:4 卡 GB200 + GLM-4.7-FP8 + MTP=1,TPOT 降低 6.3%:


      MRV2 TPOT 對(duì)比

      提升來(lái)自零同步設(shè)計(jì)——推測(cè)解碼啟用后 CPU-GPU 同步點(diǎn)完全消除。

      現(xiàn)在就能試

      export VLLM_USE_V2_MODEL_RUNNER=1
      # 然后正常使用 vLLM,無(wú)需改任何代碼

      不過需要注意,MRV2 目前還是實(shí)驗(yàn)性質(zhì),v0.18.0 中有幾項(xiàng)功能暫不支持:線性注意力模型(Qwen3.5、Nemotron 3 Super)、Eagle/Eagle3/MTP 之外的推測(cè)解碼方法、LoRA 等。

      老章說:MRV2 是一次"傷筋動(dòng)骨"的重構(gòu),但方向完全正確。把輸入準(zhǔn)備搬到 GPU、實(shí)現(xiàn)零同步異步調(diào)度、引入 ModelState 解耦——這些改進(jìn)不是"錦上添花",而是為未來(lái)異構(gòu)模型+推測(cè)解碼+多模態(tài)并存的復(fù)雜場(chǎng)景打地基。56% 的吞吐提升只是開始,隨著更多特性遷移到 MRV2,收益還會(huì)繼續(xù)釋放。
      總結(jié):vLLM 2026 年 3 月全景

      更新

      發(fā)布日期

      一句話概括

      Semantic Router v0.2 Athena

      3月10日

      從路由器進(jìn)化成多模型編排的系統(tǒng)大腦

      Nemotron 3 Super

      3月11日

      120B 總參/12B 激活,為多智能體量身打造的 MoE 模型

      P-EAGLE

      3月13日

      一次前向搞定所有草稿 token,推測(cè)解碼不再有序列瓶頸

      Model Runner V2

      3月24日

      vLLM 核心引擎徹底重構(gòu),GPU 原生+零同步+強(qiáng)模塊化

      這四連發(fā)放在一起看,vLLM 的戰(zhàn)略意圖非常清晰:

      • 底層——MRV2 重建引擎地基,為更復(fù)雜的推理需求做準(zhǔn)備

      • 加速——P-EAGLE 在推測(cè)解碼這個(gè)關(guān)鍵優(yōu)化方向上再突破天花板

      • 模型——Nemotron 3 Super 補(bǔ)全高效 MoE 模型的生態(tài)位

      • 上層——Semantic Router Athena 開始做多模型編排和智能體調(diào)度

      從"推理引擎"到"推理平臺(tái)",vLLM 正在完成一次從工具到生態(tài)的躍遷。

      • Semantic Router v0.2 Athena:https://vllm.ai/blog/v0.2-vllm-sr-athena-release

      • Nemotron 3 Super:https://vllm.ai/blog/nemotron-3-super

      • P-EAGLE:https://vllm.ai/blog/p-eagle

      • Model Runner V2:https://vllm.ai/blog/mrv2

      • vLLM 官網(wǎng):https://vllm.ai

      • Semantic Router GitHub:https://github.com/vllm-project/semantic-router

      制作不易,如果這篇文章覺得對(duì)你有用,可否點(diǎn)個(gè)關(guān)注。給我個(gè)三連擊:點(diǎn)贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個(gè),謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      烏軍日斃6名俄指揮官,川普威脅不幫忙就散伙,歐洲各國(guó)集體硬剛

      烏軍日斃6名俄指揮官,川普威脅不幫忙就散伙,歐洲各國(guó)集體硬剛

      史政先鋒
      2026-04-02 15:03:54
      山東泰安一小學(xué)要求6:40前到校、遲到罰站,教體局先稱“不可能”后改口:已統(tǒng)一要求7點(diǎn)30分到校,將加強(qiáng)家校溝通,保障學(xué)生休息時(shí)間

      山東泰安一小學(xué)要求6:40前到校、遲到罰站,教體局先稱“不可能”后改口:已統(tǒng)一要求7點(diǎn)30分到校,將加強(qiáng)家校溝通,保障學(xué)生休息時(shí)間

      大風(fēng)新聞
      2026-04-02 16:03:10
      丈夫:你把工資拿娘家,兒子用啥?妻子:侄子都養(yǎng)了,兒子也能養(yǎng)

      丈夫:你把工資拿娘家,兒子用啥?妻子:侄子都養(yǎng)了,兒子也能養(yǎng)

      惟來(lái)
      2026-04-01 15:37:23
      天津市市場(chǎng)監(jiān)管委原黨組副書記、副主任劉惠杰被雙開

      天津市市場(chǎng)監(jiān)管委原黨組副書記、副主任劉惠杰被雙開

      界面新聞
      2026-04-02 16:03:04
      “生娃率”持續(xù)走低,廈門教授給出建議:不生孩子就下調(diào)養(yǎng)老金

      “生娃率”持續(xù)走低,廈門教授給出建議:不生孩子就下調(diào)養(yǎng)老金

      大果小果媽媽
      2026-04-02 13:16:39
      韓國(guó)三大電視臺(tái)之一SBS報(bào)道:韓國(guó)食堂大漲價(jià),大學(xué)生吐槽吃不起飯

      韓國(guó)三大電視臺(tái)之一SBS報(bào)道:韓國(guó)食堂大漲價(jià),大學(xué)生吐槽吃不起飯

      可達(dá)鴨面面觀
      2026-04-02 08:56:54
      “世界級(jí)文旅項(xiàng)目”,爛尾了

      “世界級(jí)文旅項(xiàng)目”,爛尾了

      中國(guó)新聞周刊
      2026-04-02 15:17:57
      CCTV直播!國(guó)乒4人出局!孫穎莎或爆冷!王曼昱王藝迪戰(zhàn)張本伊藤 世界杯4月2日賽程

      CCTV直播!國(guó)乒4人出局!孫穎莎或爆冷!王曼昱王藝迪戰(zhàn)張本伊藤 世界杯4月2日賽程

      好乒乓
      2026-04-02 12:14:02
      張雪師父發(fā)聲:奪冠后兩人通話泣不成聲;曾數(shù)十次借錢給張雪,建議他造車:是你成為世界冠軍的唯一可能

      張雪師父發(fā)聲:奪冠后兩人通話泣不成聲;曾數(shù)十次借錢給張雪,建議他造車:是你成為世界冠軍的唯一可能

      大風(fēng)新聞
      2026-04-02 14:31:06
      剛剛過去的一個(gè)小時(shí) 以色列遭開戰(zhàn)以來(lái)最大規(guī)模導(dǎo)彈襲擊

      剛剛過去的一個(gè)小時(shí) 以色列遭開戰(zhàn)以來(lái)最大規(guī)模導(dǎo)彈襲擊

      財(cái)聯(lián)社
      2026-04-01 23:28:03
      又一行業(yè)巨頭暴雷,拖欠數(shù)億貨款,創(chuàng)始人失聯(lián)甩鍋,百姓被坑慘了

      又一行業(yè)巨頭暴雷,拖欠數(shù)億貨款,創(chuàng)始人失聯(lián)甩鍋,百姓被坑慘了

      卷史
      2026-04-02 14:17:39
      又要打,又想跑,美國(guó)陷入泥潭

      又要打,又想跑,美國(guó)陷入泥潭

      南風(fēng)窗
      2026-04-02 14:01:50
      加餐換自動(dòng)鉛筆后續(xù):寶媽強(qiáng)勢(shì)追責(zé),同學(xué)賠償?shù)狼福绞教舷⒘?>
    </a>
        <h3>
      <a href=阿纂看事
      2026-04-02 13:47:58
      誠(chéng)狗封影帝!合作女同事全體出席!

      誠(chéng)狗封影帝!合作女同事全體出席!

      貴圈真亂
      2026-04-02 12:35:00
      陳光標(biāo)回應(yīng)“張雪收下1300萬(wàn)勞斯萊斯贈(zèng)車要賣掉給嫣然醫(yī)院捐款”:車是贈(zèng)與你個(gè)人使用,如果你想當(dāng)二手車賣掉去轉(zhuǎn)捐贈(zèng),這是誤會(huì)我的初心

      陳光標(biāo)回應(yīng)“張雪收下1300萬(wàn)勞斯萊斯贈(zèng)車要賣掉給嫣然醫(yī)院捐款”:車是贈(zèng)與你個(gè)人使用,如果你想當(dāng)二手車賣掉去轉(zhuǎn)捐贈(zèng),這是誤會(huì)我的初心

      大風(fēng)新聞
      2026-04-02 12:28:03
      4月2日世界杯:王藝迪1-4遭逆轉(zhuǎn)止步16強(qiáng)壓力陡增

      4月2日世界杯:王藝迪1-4遭逆轉(zhuǎn)止步16強(qiáng)壓力陡增

      吳锎旅行ing
      2026-04-02 12:33:13
      憤怒拉滿!2.5億散戶被AI收割:幻方量化賺350億,公平在哪?

      憤怒拉滿!2.5億散戶被AI收割:幻方量化賺350億,公平在哪?

      魔都姐姐雜談
      2026-04-02 12:31:30
      法國(guó)車手瓦倫丁:因年齡被歐美車隊(duì)淘汰,和張雪聯(lián)手拿冠軍狠打臉

      法國(guó)車手瓦倫丁:因年齡被歐美車隊(duì)淘汰,和張雪聯(lián)手拿冠軍狠打臉

      白面書誏
      2026-04-01 16:23:50
      張雪回應(yīng)陳光標(biāo)贈(zèng)1300萬(wàn)元的勞斯萊斯:那我收了,順便招募二手車商上門8折收車,把錢捐贈(zèng)給嫣然天使,"我們就委屈點(diǎn),還用面包車接客戶"

      張雪回應(yīng)陳光標(biāo)贈(zèng)1300萬(wàn)元的勞斯萊斯:那我收了,順便招募二手車商上門8折收車,把錢捐贈(zèng)給嫣然天使,"我們就委屈點(diǎn),還用面包車接客戶"

      大風(fēng)新聞
      2026-04-02 11:25:35
      騰訊凈利潤(rùn)2200億員工只有11萬(wàn) 京東員工90萬(wàn)凈利潤(rùn)只有200億

      騰訊凈利潤(rùn)2200億員工只有11萬(wàn) 京東員工90萬(wàn)凈利潤(rùn)只有200億

      可達(dá)鴨面面觀
      2026-04-02 11:31:39
      2026-04-02 17:36:49
      Ai學(xué)習(xí)的老章 incentive-icons
      Ai學(xué)習(xí)的老章
      Ai學(xué)習(xí)的老章
      3303文章數(shù) 11122關(guān)注度
      往期回顧 全部

      科技要聞

      三年虧20億,最新估值58億,Xreal沖刺港股

      頭條要聞

      外媒稱伊朗已向中國(guó)尋求安全保障 外交部回應(yīng)

      頭條要聞

      外媒稱伊朗已向中國(guó)尋求安全保障 外交部回應(yīng)

      體育要聞

      這六個(gè)字,代表了邵佳一的新國(guó)足

      娛樂要聞

      宋寧峰帶女兒出軌,張婉婷找董璇哭訴

      財(cái)經(jīng)要聞

      電商售械三水光針 機(jī)構(gòu)倒貨or假貨猖獗?

      汽車要聞

      三電可靠 用料下本 百萬(wàn)公里的蔚來(lái)ES6 拆開看

      態(tài)度原創(chuàng)

      時(shí)尚
      健康
      親子
      數(shù)碼
      軍事航空

      女人有沒有品位看看穿搭就知道,這些造型值得借鑒,溫柔高級(jí)

      干細(xì)胞抗衰4大誤區(qū),90%的人都中招

      親子要聞

      輔酶q10備孕怎么吃?高齡備孕吃什么提高卵泡數(shù)量?

      數(shù)碼要聞

      中國(guó)芯片廠商占領(lǐng)本土近半市場(chǎng) NVIDIA領(lǐng)先優(yōu)勢(shì)大幅縮減

      軍事要聞

      伊朗自殺無(wú)人機(jī)突進(jìn) 逼退林肯號(hào)航母

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版