<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      英偉達豪擲200億美金押注的新賽道,中國的解題人是個華為老兵

      0
      分享至

      AI 快用不起了。大模型機構密集發出“漲價信號”。

      在國內,智譜 4 月 8 日隨 GLM-5.1 新模型發布同時宣布漲價 10% ——這是它 2026 年內第三次漲價,CEO 張鵬的解釋很直白:“公司存在算力約束和瓶頸。”一周后,大洋彼岸的 Anthropic 出手: Claude 企業版原本 $200 /人/月的包月套餐,改成 $20 座位費+按實際算力消耗另行計費,重度 Claude Code 用戶的賬單可能翻倍甚至三倍。

      張鵬說的“算力約束”,不是算力不夠,而是GPU 的架構撐不住 Agent 時代的推理。當 AI Agent 開始 24 小時不睡覺地跑,舊算力基礎設施的瓶頸開始暴露。這個瓶頸不在算法,也不在算力規模,而是在更底層的芯片架構—— 2025 年底,英偉達以 200 億美元拿下了美國公司 Groq 的技術授權和核心團隊,在復雜的交易背后,他們瞄準的是一種叫LPU(Language Processing Unit)的 AI 推理新架構。

      對技術路線的判斷迅速成為行業共識。來看國內,2026 年 4 月,國內第一家 LPU 芯片創業公司元川微完成數億元天使輪系列融資。創始人是有 22 年華為芯片經驗的老兵楊濱。投資機構陣容豪華,包括東方嘉富、元禾原點、峰瑞資本等知名機構。其中,元禾原點——十年前的天使輪投出了寒武紀——這樣闡釋它的邏輯:“十年前,我們開啟了對 AI 時代算力基礎設施的體系化投資布局,今天選擇投資元川微作為 Agent 時代推理芯片落子?!?/p>

      十年前投寒武紀,十年后投元川微。兩個截然不同的時代——但這不是一時興起的賭注。

      太長不看版(本文要回答的問題)
      ? 用不起 AI 、Token(詞元)太貴的根源在芯片。 GPU 是吞吐量優先的設計,但大模型推理是逐 Token 自回歸生成—— GPU 的并行優勢發揮不出來, HBM 帶寬成了物理瓶頸。
      ? 行業瞄準了一種叫LPU(Language Processing Unit)的新架構:拋棄 HBM,用片上大 SRAM(帶寬約是 HBM 的 7 倍)+ 確定性數據流 + 靜態調度,將推理速度做到 GPU 的 5~10 倍。
      ? 中國第一家 LPU 公司是元川微。創始人楊濱有22 年華為無線基帶經驗,2024 年夏天就判定 LPU 是推理的正確答案。2025 年9 月成立,2026 年 4 月完成數億元天使輪融資。
      ? 元川微 LPU+ 是更適應中國大模型生態的推理芯片。 Groq 2016 年為 CNN 設計,而元川微 LPU+ 原生支持大語言模型、MoE 混合專家、多模態——這些都是 Groq 當年沒遇到過的問題。
      ? Agent 時代的算力定價邏輯正在變——市場從買“峰值算力”(Tflops)轉向買“完成任務的綜合成本”(能力 × 時間 × QoS)。LPU 的架構優勢,正在變成定價權。

      要理解為什么 LPU 會在這個時點爆發,得從一個剛剛發生不到三周的故事說起。

      全世界消耗 Token 最多的人

      2026 年 3 月底,Anthropic 不小心把 Claude Code 的源碼漏在了 npm 包里——一個粗心的 “ .npmignore ”疏忽,讓 51 萬行源代碼公開流出。整個開發者社區沸騰,Anthropic 緊急通過 DMCA 下架了數千個搬運倉庫。

      但有一個人做了件反直覺的事。Sigrid Jin——被《華爾街日報》報道的 Claude Code 全球頭號 重度用戶,一個韓裔加拿大開發者,曾在過去一年單槍匹馬燒掉了 250 億 Token(按 Claude API 定價折算超過百萬美元)——他完全不碰泄露的源碼,用自己調教一年多的 AI 代理框架 oh-my-codex,幾小時內從零用 Python “凈室重寫”了一遍。他把成果發到 GitHub,取名 Claw Code,24 小時內星標破 10 萬,成為 GitHub 歷史上增長最快的開源項目。

      事后他說:“這是用 250 億個 Token 燒出來的直覺。”

      “榜一大哥”當然是個極端個例。但當一個人的推理賬單超過百萬美元,當 Claw Code 這類 AI Agent 重度任務開始變成日常工具,一個系統性的問題就浮出了水面:AI 推理的底層成本結構,撐不住正在到來的 Agent 時代。

      英偉達200億美元押注的賽道,,一家中國公司元川微殺了進來

      用 LPU 解決推理瓶頸這件事,其實兩年前就有人看到了——只是當時幾乎沒人相信。

      隨著大模型能力的突破性進展,到了 2024 年,專用 AI 芯片賽道已經熱鬧了好幾年—— Google 的 TPU 、各種 NPU 、Cerebras 的 wafer-scale 、Etched 的 ASIC ——沒人知道哪條路線會贏。LPU 方案也是其中之一,它是美國公司 Groq 從 2016 年開始研發的,一種完全不同于 GPU / CPU 的非馮·諾依曼架構,用片上 SRAM 和確定性數據流徹底拋棄了 GPU 的內存層級。

      2024 年 2 月,Groq 憑借一段 viral demo 短暫出圈——獨立基準測試上達到 241 tokens /秒的輸出速度,是第二名的兩倍以上,但熱度僅限技術圈。緊接著 3 月,黃仁勛在英偉達 GTC 上就公開回應 Groq 這類專用芯片:“有其適用場景,但將難以從軟件領域的創新速度中獲益”——英偉達當時對 LPU 的態度是明確的輕視。投資圈對 LPU 也沒有達成共識:Groq 到 2024 年 8 月的 Series D,估值才 28 億美元。

      一年半后,英偉達以 200 億美元購買它的技術和團隊那一幕,在當時幾乎不可想象。

      就在這樣的氛圍里,2024 年夏天,楊濱憑借多年積累,在業內率先做出了自己的判斷。他做了 22 年芯片,2012 年回國后帶華為無線基帶部門,把團隊從 200 多人帶到近千人,將華為在這個領域做到全球領先。彼時他和一群同事在反復推演一件事:如果推理的真正需求和訓練完全不同,那么硬件就不應該“既做訓練又做推理”。到 2024 年下半年,他們定下了技術方向:做自研的 LPU 。

      但定下方向不等于立刻下場。2024 年下半年到 2025 年初,楊濱和團隊有過一段難熬的“等、等、等”——產業共識還集中在訓練、在“卷”大模型研發,訓練霸主 GPU 難撼動,推理又尚未到轉折點。方向看得清,但時機不到。

      轉折發生在 2025 年春節。那一周,DeepSeek R1 以“開源 + 低成本 + 高性能”橫空出世——推理性能對標 OpenAI o1,而它的底座模型 V3 以 671B 總參數、每 token 僅激活 37B 的 MoE 架構,只用了約 600 萬美元就完成訓練。楊濱回憶:“激動得有點讓自己覺得是不是在做夢,因此連夜看了 DeepSeek 的論文,才緩過來。”

      他看到的是 AI 推理真正被打開的那一刻—— DeepSeek 證明了高性能推理可以低成本,而一旦推理成本降下來,Agent 時代的算力需求就會真正爆發。等待的焦慮消失了,元川微正式決定下場。

      2025 年 9 月,楊濱創辦了元川微。三個月后,英偉達宣布與 Groq 的復雜交易——他的判斷被行業霸主天價蓋章確認。又過了四個月,他們也獲得了文章開頭那輪數億元融資。

      GPU 做推理,到底慢在哪?

      楊濱和元川微押注“ LPU 是推理的正確答案”,在 2026 年春天,這個判斷已經拿到了全球頭部資本和英偉達的雙重背書。那么,LPU 究竟憑什么比 GPU 快?

      首先,GPU 的設計理念是吞吐量優先,擅長把一大塊數據切成幾千份同時計算。但大模型推理是逐 Token 自回歸生成——模型要逐層計算每一個 Token ,每層都要完成注意力機制( Attention )和前饋神經網絡( FFN )兩步運算,其中注意力機制在尋找詞的上下文聯系,而 FFN 則是模型的“知識庫”,記錄著大模型里的參數權重,每一個 token 生成都要經過大模型的參數矩陣的運算。這個過程天然是串行的, GPU 的并行優勢在這里發揮不出來。

      這就導致內存帶寬成了新瓶頸。推理需要頻繁從外部 HBM 讀取模型參數。每次讀取都有不確定的延遲,且 HBM 帶寬有限——即使相比傳統 GPU 顯存,HBM 已經有了數倍乃至數十倍的容量和速度,但仍然不夠快。當模型有幾百億參數,每個 Token 都要反復讀取時,等待時間遠超計算時間。

      更關鍵的是,Attention 和 FFN 對內存的需求完全不同。Attention 需要反復讀取 KV 緩存,GPU 的大容量 HBM 可以派上用場。但 FFN 需要逐層高速翻閱權重矩陣—— HBM 的帶寬成了瓶頸。這不是英偉達的工程能力問題,而是物理極限:HBM 可以做到 288GB ,但帶寬只能到 22TB/s 。

      在人類探索計算機架構的歷史長河里,其實已經早已有了另一種更快速的存儲器,在等待著被選中去挑戰大模型的推理,這就是被稱作“ SRAM (靜態隨機存取存儲器)”的一類小容量、超高速存儲器,它的典型容量雖然只有幾十 KB 到幾百 MB ,但可以做到上百 TB/s 帶寬,被大量集成在各類處理器芯片中,作為距離計算核心最近的緩存,提高計算速度。

      所以英偉達做了一個聰明的選擇:不跟物理定律較勁,進行分工。

      它把 FFN 計算交給 Groq LPU ——一種全 SRAM 架構的芯片,用 150TB/s的極致帶寬進行處理;GPU 則專注做 Attention ,發揮 HBM 的大容量優勢。兩顆芯片在解碼時交替配合,每層傳遞少量中間激活值,跑完所有層生成一個 Token 。這種架構叫 AFD(Attention-FFN Decoupling),是英偉達基于系統效率和商業策略做出的路線選擇。

      需要強調的是,LPU 架構本身完全具備端到端推理能力,并非只能做協處理器。Groq LPU 在獨立部署時已經證明了端到端推理的商業價值——從云訂閱到算力中心,它跑的是完整的模型推理任務。這也進一步印證了推理解決方案的多樣化趨勢—— LPU 既可以與 GPU 協同作戰,也可以獨立部署,最終的衡量標準只有一個:在具體場景下,Token 的綜合成本是否有優勢。


      AFD 解碼原理丨NVIDIA官網

      這就是英偉達斥巨資獲得 Groq 技術授權并引入其核心團隊的底層邏輯,LPU 成為被算力巨頭正式驗證的下一代推理基礎設施。

      一顆 LPU 的誕生

      我們知道了用 SRAM 作為更高速的緩存可以提高 FFN 的推理效率,但 LPU 架構的復雜性遠不止于“換個閃存芯片”這樣簡單。實際上,LPU 架構有三個核心 DNA ,只有同時具備它們,才是真正的 LPU 。

      第一,片上大 SRAM 作為主存。傳統 GPU 依賴外部 HBM ,LPU 將數百 MB 的 SRAM 直接集成在芯片上,作為模型參數權重的主存儲。 SRAM 訪問延遲納秒級且完全可預測。例如 Groq 第三代 LPU 單芯片搭載 512MB SRAM ,帶寬 150TB/s ,約是 HBM4 的 7 倍。

      第二,確定性數據流。LPU 內部數據搬移采用 ASIC 化硬件流水,數據在芯片內如流水線般自動流轉,每個時鐘周期的數據路徑在編譯時即已確定。

      第三,靜態調度。這是最核心也最難實現的一點。傳統芯片運行時需要動態決策,而 LPU 在編譯階段就完成全部資源分配和時序排定,運行時零動態開銷——沒有緩存未命中,沒有調度延遲,沒有仲裁等待。 Groq 明確將這種設計概括為“ static scheduling and deterministic execution ”。一句話理解:LPU 像幫你把整部電影剪輯好,按幀播放。

      需要特別區分的是:LPU 并非純 ASIC。 它只在數據搬移層面全部進行了 ASIC 化,算法處理層仍保留可編程性和指令集,支持模型演進迭代,是一種“可編程的 ASIC 化架構”。又比如市面上有些 NPU 芯片僅將數據流做了局部 ASIC 化就宣稱是 LPU,但真正的 LPU 必須同時具備上述三個核心基因,缺一不可。

      正是憑借這些架構優勢,Groq LPU 在所參與的第一個公開基準測試 Anyscale 的 LLMPerf 中,就交出了一份亮眼的成績單。

      Groq LPU 在 Llama 2 70B 模型上取得了 185 tokens/s 的輸出吞吐量,相比榜單上其他 GPU 方案實現了 3 到 18 倍的領先優勢;同時首字響應時間 (TTFT) 穩定在 0.22 秒,且變化范圍最小。這意味著 LPU 不僅在端到端推理速度上顯著領先,更重要的是——每一次響應都同樣快速、可預測。


      70B參數模型下各推理服務商的輸出吞吐量對比(tokens/s)


      70B參數模型下各推理服務商的首字響應時間(TTFT)對比(秒)

      對于實時 Agent 應用而言,延遲的確定性和可預測性比峰值性能更為關鍵——而 LPU 的靜態調度與確定性數據流架構,確保了每一次交互都同樣快速、穩定。特別是對于金融高頻交易與風控、自動駕駛、交互式 AI Agent 與實時智能體等應用,LPU 的確定性執行與快速響應能力至關重要。

      基于這一優勢,Groq 一舉進入全球算力基礎設施的核心版圖。

      不過,Groq 的勝利,也是一場帶有時代烙印的勝利。站在推理架構顛覆性變化的拐點上客觀看—— Groq LPU 架構有其時代局限,而它的勝利,也正源于此。

      為什么這么說? Groq LPU 設計于 2016 年,主要是針對 CNN 這類“計算密集型、內存訪問規律”的模型優化的。而今天的大模型是“內存密集型、訪問模式動態”的新物種。這也意味著,它在成為 GPU 的最佳搭檔時可以實現極致的算力分工,但獨立部署時卻并不經濟。

      為 CNN 設計的 LPU 只是推理芯片的序章,真正為大模型而生的 LPU ,成了元川微等新一代 LPU 的突破點,在這場架構變革中,中國已經有人站上了起跑線。

      LPU 的價值密碼:極難做,極稀缺

      算力格局的演變方向已經清晰:通用 GPU 不會消失,但在 Agent 時代需求最大的實時推理場景中,LPU 正在成為不可或缺的搭檔。一個值得追問的問題是:英偉達花 200 億美元拿下的技術,國內一線基金數億元押注——LPU憑什么這么貴?

      答案藏在兩個詞里:極難做,極稀缺。

      先說極難做。三個 DNA 每個都是反常識的硬骨頭:

      ? 大 SRAM 要求極致設計密度——同等算力下芯片面積必須壓縮到 GPU 的 1/2~1/3 ,才能“省”出片上空間;

      ? 確定性數據流意味著數據搬移邏輯全部硬件固化,沒有軟件兜底的后路;

      ? 靜態調度把全部復雜性推給編譯器,必須在編譯階段排定每一拍時序,沒有運行時糾錯的機會。

      元川微創始人兼 CEO 楊濱給果殼排了個序,難度從大到小看,是“編譯器 > 確定性數據流 > 高密度 SRAM”。他補了一句:“Devils are always in detail ——我們經常說踩完了所有的坑,就是專家了?!?/p>

      為什么是這個順序?楊濱的解釋是:“ LPU 架構是典型的'軟件定義硬件'——數據流是第一公民,數據流的管理完全由編譯工具完成?!?/strong>

      編譯器最難,因為 GPU 有運行時兜底,LPU 沒有。GPU 編譯階段有疏漏,硬件可以在執行時動態補救;LPU 把一切前置到編譯期——編譯器必須在編譯階段同時建模算法、硬件、數據流的協同,排定每一拍時鐘周期里數據在芯片的位置、路徑和時序。Groq 從 2016 年做 LPU 到 2024 年讓編譯器達到商用級別,整整八年。

      確定性數據流的難處是“沒有軟件兜底”——數據搬移全部 ASIC 化,意味著數據在芯片里的物理路徑焊死在硬件上。架構設計階段必須把模型算法的數據流完全吃透,一處設計疏漏,就沒法在后期修復。

      高密度 SRAM 考驗的是物理實現能力。楊濱給了一個反常識的比喻——“我們的 SRAM 是免費的。LPU 的算力密度是 GPU/NPU 的 2~3 倍,同等算力只要 1/2~1/3 的芯片面積,省下的位置正好用來放 SRAM。”這句話看似簡單,背后是 PPA(性能/功耗/面積)三者同時做到極致——業內很少有團隊能達到。

      再看稀缺性。能做 LPU 的團隊全球屈指可數。Groq 來自谷歌 TPU,元川微則擁有華為無線通信基帶基因——數據流架構第一次大規模商用正是在無線通信基帶處理領域,這其實與 LPU 在工程學上高度相通,二者在架構設計、互連、存儲、編譯器等領域的經驗可以共享。

      技術基因相通之外,元川微的“ +”代表的是針對 LLM/Agent 時代重新做的架構創新。LPU+ 與 Groq LPU 的底層基因一致——ASIC 化數據流、離線編譯、確定性執行——但 Groq 2016 年設計 LPU 時 Transformer 還沒出現,它主要針對的是 CNN(卷積神經網絡),那時的模型對內存訪問、帶寬和數據流模式都和今天完全不同。元川微在這之上做了三層創新:

      ? 原生支持大語言模型:Groq 的 LLM 能力是后期打補丁適配的,LPU+ 從一開始就按 Transformer 的算法結構反推硬件;

      ? 架構層支持 MoE(混合專家模型):MoE 的路由特性對片上調度提出新要求,這是 Groq 原版架構沒有原生考慮的;

      ? 多模態與長上下文優化:圖像、語音、視頻的數據搬移模式與純文本不同,需要架構層面的解法。

      楊濱對果殼說:“Groq 在 2016 年設計時完全沒有遇到過這些問題——這些都是我們要解決的。”也正是這種極難與極稀缺,支撐了 LPU 的價值。而 LPU 能否從“技術稀缺品”變成“算力必需品”,商業化落地將是下一場大考。

      LPU 能讓 Token 更便宜,怎么還能讓它更有價值?

      Groq 已經為這條賽道畫出了一張商業路線圖:其 GroqCloud 平臺已吸引超過 200 萬注冊開發者,采用類似 ChatGPT 的付費訂閱模式。核心客戶包括 Meta、中東某國家的推理算力中心,以及挪威一個部署數萬張 LPU 卡的算力中心。2025 年營收約 5 億美元。

      英偉達的下場,進一步把 LPU 推向了算力基礎設施的核心位置。GTC 2026 上,英偉達正式推出 Groq 3 LPU 和 LPX 機架,將其定位為 Vera Rubin GPU 的“推理協處理器”,通過 Dynamo 軟件編排形成雙引擎協同。英偉達官方給出的數據是:每兆瓦功耗的推理吞吐量最高可提升 35 倍,萬億參數模型的收益機會最高可提升 10 倍。

      但有意思的是,楊濱對這套 AFD 協同方案的看法并不完全追隨英偉達。他告訴果殼:“英偉達在 GTC 上展示的方案,我們判斷是一個暫時方案,后續會繼續演進。推理是一個應用驅動的市場,未來系統解決方案也會多種多樣——最終的衡量標準是:一個場景下的 token 成本是否有優勢?!?/strong>

      這種獨立判斷的底氣,來自元川微自己押注的另一條路——產業股東即早期客戶。

      智微智能和星宸科技兩家 A 股上市公司,既是元川微天使輪的投資方,也是其早期合作客戶。華創證券研報顯示,星宸科技在 2025 年參與元川微天使輪第一批融資后,近期追加投資 3000 萬元,持股比例從 3.3% 提升至 6.6%,未來將與元川微共建端邊側 AI 整體解決方案能力,加速產業協同落地。財通證券在其 LPU 專題研報中,將智微智能和星宸科技列為 LPU 產業鏈核心受益標的。

      為什么產業股東愿意又投錢又買貨?楊濱的回答是:Agent 時代的算力定價邏輯正在變。

      他說:“現在的商業模式賣的是'計算能力',但未來定價模式本質是完成一個任務的成本——算力的能力、算力的時間,還有算力的 QoS(服務質量)。對 Agent 來說,'時間就是效率'、'QoS 就是服務水準'。誰能把時延 + 確定性 + 成本做到最優,誰就擁有溢價能力?!?/strong>

      這是 LPU 相比 GPU 的根本差異點。GPU 賣的是峰值算力(Tflops),LPU 賣的是“完成一次 Agent 任務的綜合成本”。當整個市場從“買馬力”轉向“買里程”,LPU 的架構優勢就從技術指標變成了定價權。

      目前,元川微已完成自研 LPU+ 架構的 FPGA 驗證,所有性能指標均達到設計預期。下一步是推進第一代 LPU+ 推理芯片的研發——編譯器將在芯片回片前通過仿真器提前驗證和優化,以達到商用標準;同時積極拓展云廠商、算力中心等新客戶。

      從架構驗證到產品落地,元川微正在加速跑完最關鍵的一程。



      參考文獻

      [1]Claw Code Project https://claw-code.codes/

      [2]The Trillion Dollar Race to Automate Our Entire Lives, the *Wall Street Journal* https://www.wsj.com/tech/ai/claude-code-cursor-codex-vibe-coding-52750531

      [3]Inside NVIDIA Groq 3 LPX: The Low-Latency Inference Accelerator for the NVIDIA Vera Rubin Platform https://developer.nvidia.com/blog/inside-nvidia-groq-3-lpx-the-low-latency-inference-accelerator-for-the-nvidia-vera-rubin-platform/

      [4]Inference Speed Is the Key To Unleashing AI’s Potential, Groq https://cdn.sanity.io/files/chol0sk5/production/85f04a42fb0711b6009a024da43689667efadd9a.pdf

      [5]元川微完成數億元天使輪系列融資,自研首個國產LPU架構,領航 AI 實時推理 https://mp.weixin.qq.com/s/kuaAt8jrWsH52nWmalkcrA

      作者:張慧娟

      編輯:普通醬、姬十三

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      演訓結束,中國艦隊離開西太!日本徹底傻眼了,反華竟反到大動脈

      演訓結束,中國艦隊離開西太!日本徹底傻眼了,反華竟反到大動脈

      夢想的現實
      2026-04-24 21:57:28
      送走董璇又迎來張婉婷,倒霉的高云翔,終究逃不過“女人坑”

      送走董璇又迎來張婉婷,倒霉的高云翔,終究逃不過“女人坑”

      悅君兮君不知
      2026-04-24 19:59:28
      笑不活了!女孩把雞畫得圓肥被判不合格,家長把雞的照片發給老師

      笑不活了!女孩把雞畫得圓肥被判不合格,家長把雞的照片發給老師

      火山詩話
      2026-04-21 09:46:21
      奧納納:我和喀麥隆隊沒矛盾,只和那個用足協公報私仇的人有矛盾

      奧納納:我和喀麥隆隊沒矛盾,只和那個用足協公報私仇的人有矛盾

      懂球帝
      2026-04-24 18:58:32
      4月26日至29日南方地區將有強降雨過程 警惕次生災害

      4月26日至29日南方地區將有強降雨過程 警惕次生災害

      中國氣象局
      2026-04-24 20:31:14
      中信銀行兩度出擊,向汕頭前首富追債80億

      中信銀行兩度出擊,向汕頭前首富追債80億

      湘財Plus
      2026-04-24 13:55:50
      你們都是什么時候對男女之事開竅的?網友:果然還是攔不住有心人

      你們都是什么時候對男女之事開竅的?網友:果然還是攔不住有心人

      夜深愛雜談
      2026-02-21 21:37:02
      廣東91-93不敵福建 球員評價:4人優秀,8人低迷

      廣東91-93不敵福建 球員評價:4人優秀,8人低迷

      籃球資訊達人
      2026-04-24 21:36:08
      足壇奇聞!姆巴佩擇偶成謎,為何偏愛年長女性?

      足壇奇聞!姆巴佩擇偶成謎,為何偏愛年長女性?

      羅氏八卦
      2026-04-24 18:00:03
      島內最新民調,事關兩岸統一,蔣萬安鄭麗文支持率有驚人變化?

      島內最新民調,事關兩岸統一,蔣萬安鄭麗文支持率有驚人變化?

      DS北風
      2026-04-23 15:56:17
      手握20多個冠軍,嫁外國名將帶夫定居廣州,如今是中山大學副教授

      手握20多個冠軍,嫁外國名將帶夫定居廣州,如今是中山大學副教授

      以茶帶書
      2026-04-16 14:50:51
      僅獲6.3分 姆巴佩單刀踢飛+傷退 復出后皇馬僅1勝 賽季0冠成定局

      僅獲6.3分 姆巴佩單刀踢飛+傷退 復出后皇馬僅1勝 賽季0冠成定局

      我愛英超
      2026-04-25 06:18:49
      爆料瘋傳!中南醫院“王護士長”被扒,她到底有沒有問題?

      爆料瘋傳!中南醫院“王護士長”被扒,她到底有沒有問題?

      千言娛樂記
      2026-04-22 13:31:23
      報喜!中信證券一季度凈利潤102.16億元,“牛散”付小銅持有8400多萬股,比某些指數基金還多

      報喜!中信證券一季度凈利潤102.16億元,“牛散”付小銅持有8400多萬股,比某些指數基金還多

      每日經濟新聞
      2026-04-24 22:36:32
      德拿下越南380億高鐵項目,最終沿用中國標準,對華依賴根深蒂固

      德拿下越南380億高鐵項目,最終沿用中國標準,對華依賴根深蒂固

      混沌錄
      2026-04-24 20:29:19
      眼紅啊!從年薪20萬到125萬,一上海交大碩士特斯拉6年收入345萬

      眼紅?。哪晷?0萬到125萬,一上海交大碩士特斯拉6年收入345萬

      火山詩話
      2026-04-23 07:11:53
      炸裂!女子剛分手就獻身異性,男友尾隨當場抓獲,情夫赤裸一臉懵

      炸裂!女子剛分手就獻身異性,男友尾隨當場抓獲,情夫赤裸一臉懵

      李晚書
      2026-04-21 16:43:59
      刺殺老蔣失敗,殺手投奔延安,毛主席:你絕對不能留在這里

      刺殺老蔣失敗,殺手投奔延安,毛主席:你絕對不能留在這里

      抽象派大師
      2026-04-24 12:06:13
      廣東省14批次食品不合格:通過淘寶閃購、拼多多等平臺銷售

      廣東省14批次食品不合格:通過淘寶閃購、拼多多等平臺銷售

      每日質量報道網
      2026-04-24 22:28:17
      太給面子了!美菲聯合軍演,解放軍在南海集結“滅國艦隊”!

      太給面子了!美菲聯合軍演,解放軍在南海集結“滅國艦隊”!

      阿龍聊軍事
      2026-04-24 21:05:04
      2026-04-25 07:27:00
      果殼 incentive-icons
      果殼
      科技有意思
      27562文章數 4149261關注度
      往期回顧 全部

      科技要聞

      DeepSeek V4牽手華為,價格依然"屠夫級"

      頭條要聞

      航班提前起飛10分鐘 大學生把海航告了

      頭條要聞

      航班提前起飛10分鐘 大學生把海航告了

      體育要聞

      上海男籃23連勝+主場全勝 姚明之后最強一季

      娛樂要聞

      停工16個月!趙露思證實接拍新劇

      財經要聞

      LG財閥內斗:百億美元商業帝國爭奪戰

      汽車要聞

      零跑Lafa5 Ultra北京車展上市:11.88-12.48萬

      態度原創

      教育
      手機
      旅游
      時尚
      軍事航空

      教育要聞

      教室火鍋”被人民日報點贊,卻被家長瘋狂舉報

      手機要聞

      續航大戰!紅米、vivo、榮耀手機,電池都往一萬毫安時以上堆

      旅游要聞

      朔州崇福寺:金代遺構,塞北千年佛殿

      今日熱點:愛奇藝回應暫停頁面廣告爭議;經紀公司否認THEBOYZ解約成功……

      軍事要聞

      美伊陷入互相封鎖僵局

      無障礙瀏覽 進入關懷版
      主站蜘蛛池模板: 亚洲午夜无码久久久久蜜臀av| 免费3?P视频久久| 日本一卡2卡3卡4卡无卡免费 | 亚洲乱人伦| 人妻少妇久久久久久97人妻 | 边添小泬边狠狠躁视频| 亚州精品熟女在线| 久久XXX| 亚洲中文久久久精品无码| 日韩视频在线免费观看| 卡一卡二卡三精品| aaa午夜级特黄日本大片| 少妇熟女视频一区二区三区| 国产菊爆视频在线观看| 色综合天天综合网国产成人网| www.99| 国产无套视频在线观看香蕉| 精品国产女同疯狂摩擦2| 午夜免费国产体验区免费的| 国产成人AV在线| 亚洲av中文久久精品国内 | 华坪县| 国产精品久久国产精品99 gif| 在线无码| 亚州精品无码| 亚洲二级片| 亚洲综合一二三| 黑人精品| 好男人社区影视在线WWW| 国产精品户外野外| 中文在线无码高潮潮喷在线播放| 亚洲欧美成人aⅴ在线| 国产一区二区在线视频观看| 成人性生交大片免费卡看| 成在人线a免费观看影院| 色一情一区二区三区四区| 壤塘县| 久久久综合香蕉尹人综合网 | 国产一区二区三区免费主播| 国产麻豆精品手机在线观看| 蜜芽久久人人超碰爱香蕉|