<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      從 “更大更強” 到 “更小更強”:密度法則和智能的分布式未來

      0
      分享至



      “2023 年初,有巨頭說全世界只會有幾個大模型,這就像 1943 年,IBM 董事長曾說全球不需要超過 5 臺主機。”

      文丨程曼祺

      今年 11 月,清華大學、開源組織 OpenBMB 與面壁智能的聯合研究登上《自然·機器學習》封面——Densing Laws of LLMS(《大模型的密度法則》:每 3.5 個月,模型的能力密度翻一倍。



      此圖描述了 2023 年 4 月之后,主要開源模型的能力密度的變化。能力密度是衡量單位參數 / 算力下,模型能力的指標。目前版本的密度法則總結了預訓練大語言模型的密度變化,o1、R1 等后訓練強化學習對能力密度的提升尚未體現在指標里。



      ChatGPT 出現之后(圖中 2023 年 1 月的時間線),能力密度上升的斜率變陡。

      過去幾年,大模型演進的明線是 “規模法則”(Scaling Law)帶來的能力躍遷。大模型在編程、生圖、設計等能力上,達到甚至超越了人類水平。另一方面,模型性能競賽也帶來巨大的資源消耗,連 OpenAI 也因資源不足出現分歧。

      密度法則,就是關注如何用更少計算和數據資源,更高效地得到更多智能。對密度目標的追求,會加速手機、汽車、機器人等端側智能發展,促進分布式智能和每個人的 “專屬大模型”。

      本期《晚點聊》,我們和密度法則的研究者,清華大學計算機系副教授、面壁智能首席科學家劉知遠,以及清華博士后、面壁智能 MiniCPM 系列文本模型負責人肖朝軍討論了:

      - 密度法則的背景和核心洞察;

      - 提升模型能力密度的具體方法;

      - 強化學習還沒有出現 Scaling Law,由此引起的兩個探索方向;

      - 自主學習與分布式端側智能的未來。

      2023 年全國端側算力(主要是手機)是數據中心算力的 12 倍。過去幾十年的信息化,本質上是一個分布式算力和分布式信息的結構。

      劉知遠認為,智能未來也會分布式存在。這個過程中,密度法則指引的效率提升尤為重要。

      2023 年初有巨頭說 “全球只需要幾個大模型”,這和 1943 年 IBM 董事長說 “世界只需要五臺計算機” 如出一轍。

      但未來的智能大概率是分布式存在的,每個人都有一個屬于自己的智能體。如果模型具備自主學習能力,那么終端上的模型就能基于用戶的個人數據持續成長,最終形成一個 “個人大模型”,成為你最懂你的那個助手。

      大模型時代的 “摩爾定律”

      晚點:最近趕上中美新模型密集發布,尤其 Gemini 3 熱度很高;從這些新進展里,你們看到了哪些亮點?

      肖朝軍:我感受到兩個明顯趨勢。第一,所有大模型都在強化 “智能體” 能力,直觀表現是,每次模型發布后,大家都會測代碼任務,模型在 agent 任務上的表現顯著提升。

      第二,從 Nano Banana Pro 中可以看到,Google 的多模態模型的文字生成準確度非常高,這在此前的 diffusion(擴散)模型里很難看到,只在 OpenAI 的 GPT-4o 中有一點苗頭。這讓我看到一種新的 Scaling 方向:過去我們一直說更多數據、更大模型、更強能力,但多模態數據一直沒有真正帶來 “智能躍遷”,而現在這種 “統一的自回歸式” 的視覺-語言生成可能帶來突破。當然,Gemini 3 的模型細節未公開,還不能完全判斷,現在的能力更多來自產品優化,還是架構上的真正整合,可能要再看看后續版本。

      劉知遠:現在幾乎每周的進展,都相當于我讀研時一年的進展,總結下來有兩條主線:

      一是能力變強,它對應 “規模法則”:從 2018 年預訓練模型出現后,每隔幾年模型能力就會跳一次:

      - 2022 年底 ChatGPT 通過指令微調(instruction tuning)讓模型 “聽懂人話”;

      - 2024 年底到 2025 年初,大規模強化學習后訓練讓模型具備更深的思考能力。

      模型正變得更通用,甚至開始接近或超越人類在某些領域的能力。

      第二是能效更高,我們這次提出的 “密度法則”,本質上就是對 “如何讓能力與成本之比不斷提高” 的定量描述。任何想真正改變世界的技術,都必須追求更高效率,大模型也會在能力 + 成本兩個方向上同時進化。

      晚點:一般大家更關注的是能力變強,在第二條主線 “能效更高” 上,近期有哪些進展?

      肖朝軍:核心的 AI Lab 也都在追求效率提升。在開源側,Qwen 3、DeepSeek V3.2、Llama 3,以及面壁自己的 MiniCPM 系列都在做 MoE(混合專家系統)、 Sparse Attention(稀疏注意力)、Efficient Attention(更有效率的注意力機制)等架構優化。在閉源側,OpenAI 推出了 Mini 系列;Google 也在 Gemini 3 之前發布了 Gemini Diffusion,宣稱它的文本生成速度比其他模型快了很多很多倍,

      所以無論開源還是閉源,大家都在追求 “效率”,因為資源永遠不夠——連 OpenAI 都是如此,甚至會因此有重大分歧,比如 Ilya 離職時提到的 “資源不足”。

      劉知遠:規模法則和密度法則就像大模型演進的明線和暗線,之前信息革命也是如此:明線是,設備越來越小,大型機→小型機→個人電腦→手機→其它智能終端;暗線是芯片行業的高效進化,也就是摩爾定律。我們提出密度法則,就是想尋找大模型時代的 “摩爾定律”。

      晚點:模型的訓練和推理效率越來越高,這不是不言自明的嗎?為什么要特別來做這個研究?

      劉知遠:我們是在 2023 年底開始著手這個研究的。回到那一年,包括后面的 2024 年,全球主導的話語體系都是規模法則,一些國際機構甚至宣稱:只有擁有十萬張 GPU 的組織才有資格訓練大模型。

      這種敘事下,很多人,包括政策決策層也會誤以為規模法則是唯一的第一性原理,這有誤導性。密度法則就是希望糾正行業敘事,讓大家看到效率同樣是主線。

      當時,大部分團隊的目標都是復現 ChatGPT。國內一線團隊大概在 2023 年 9~10 月完成了復現,80B 級別的模型就能做到 ChatGPT 的效果。

      接下來一個自然的選擇是追 GPT-4,我們測算,這需要把模型做到 140B 左右,訓練成本得上千萬元。但以當時的節奏,24 年上半年,國內至少會有五家團隊做到 GPT-4 水平,那我們怎么收回投入?

      所以我們把重點轉向了 “模型風洞”——系統性評估架構、數據、訓練策略對效率的提升。它帶來的第一個成果,是 2024 年 1 月的 MiniCPM-1:以 2.4B 參數做到了當時 LLaMA-2-13B、Mistral-7B 的效果。2.4B 是手機可跑的規模,這讓我們意識到,技術創新可以大幅提升模型的效率,也因此我們開始堅定投入 “端側大模型”。

      我們也在追問:這種效率躍遷背后有沒有更底層的規律?受摩爾定律啟發,我們提出了 “知識密度”,并在 2024 年圍繞訓練各環節的創新如何提升能力密度做了系統研究。至少在面壁內部,“密度法則” 已是一個明確的目標指引。

      晚點:從 2023 年秋天之后,面壁就一直追求高效的大模型,但為什么并沒有形成 25 年 1 月 DeepSeek R1 那樣的影響力?

      劉知遠: 公眾關注的是誰家模型能力更強,那往往意味著訓練幾千億、上萬億參數的超大模型。但大部分公司還是要考慮商業后果。AGI 在未來五到十年一定會到來,你當然可以像互聯網時代的 Google 一樣,在云端做公開服務,但 AGI 也會發生在端側。既然端側有這么大的潛力,而關注它的人又不多,我們提前布局,反而更適合初創公司的稟賦和節奏。最近看到一句話很好:“別人得到的,不一定是你失去的。”

      提升能力密度的四個環節,強化學習還未出現 Scaling Law

      晚點:密度法則的核心洞察是什么?

      肖朝軍:核心觀點不是我們觀察到的模型能力密度 “每 3.5 個月翻倍” 這個數字本身,而是提出一個目標:我們應追求單位計算帶來的智能最大化,而不是盲目追求模型規模。

      規模法則與密度法則也并不對立。前者是 “算力與能力之間的對應關系”;后者是 “單位算力到智能的轉化率”,是追求更高的斜率。

      晚點:有哪些提升模型能力密度的具體方法?

      劉知遠:分四個部分——模型架構、數據、學習算法、軟硬一體的協同優化。密度法則提出后,我們正在嘗試定量描述這些維度的影響,已經有一些經驗性結果。

      肖朝軍:第一就是模型架構。Transformer 核心就兩塊:FFN(Feed-Forward Network,前饋網絡) 和 attention(注意力機制)。

      現在基本的共識是,FNN 要做稀疏化的 MoE 架構——就是把 FNN 這塊很大的 “稠密矩陣變換” 切成很多 “專家”,每次前向計算只激活其中一小部分專家,這比激活全局的算力消耗更少,效率更高。DeepSeek 的一個重要貢獻,就是證明了 MoE 在大規模模型上也能有很好的效果。

      而在注意力機制上,今年開源、閉源都在做各種效率改進:比如 Gemini 系列里滑動窗口注意力 + 稠密注意力的混合架構,Qwen3-Next 和 Kimi Linear 用了 DeltaNet(一種線性注意力)混合稠密注意力的架構,還有 DeepSeek 近期發布的 DSA 等等。這些改進都是為了順應大模型從 “短模型” 變成 “長模型” 的趨勢,而這又來自 Agent 化和深思考的需求,Agent 既需要長輸入,也需要長輸出。

      長文本未來一定會面向深思考和 Agent 場景,它會有更多長輸出。而現在面向長輸出的線性注意力的驗證是遠遠不夠的。

      所以,MiniMax 為什么從 M1 的 lightning attention(注:lighting attention 采用了線性注意力混合 full attention 的架構),到現在 M2 全部用 full attention?我猜測一個很重要的原因是,M2 想主打 agent,但是直接用 lighting attention 在一些更復雜的 agent 任務上有性能缺失。

      晚點:年初我們聊注意力改進時,你就提到過 Agent 任務下,要更多關注長輸出。這在現在也不是共識嗎?

      肖朝軍:我觀察到,大家還是習慣把長文本等同于長輸入,而思維鏈和多步推理其實對長輸出有更多需求。比如一個 agent 規劃了 5 個步驟:你不能做到第五步時忘掉第一步,然后再倒回去重做,模型需要記住自己之前輸出了什么。這是長文本的新挑戰。

      我們今年 6 月開源的 InfLLM 2,就有針對這個問題的改進。核心變化是做了 “原生稀疏”:在預訓練階段就引入稀疏注意力變,而不是像第一版那樣在推理階段才做。這帶來兩個好處:一是訓練明顯加速;二是稀疏度顯著降低——InfLLM 1 在推理階段,大概有 50% 的注意力開銷(相比 full attention 的 50%),而 InfLLM 2 在訓練階段的稀疏度只有不到 5%,即在 128K 上下文長度下,只需要關注 4–6K token。

      我們這個算子也同時支持長輸出。在 Agent 和深度思考場景,這個方法都比較實用。

      晚點:架構之后,在數據維度,業界在如何提高模型的能力密度?

      肖朝軍:數據上,接下來兩個點非常關鍵:一是合成數據,二是更高質量的數據清洗與治理。現在幾乎所有頂級團隊都在投入這兩件事,因為它們直接決定模型能力的上限,也決定下一階段能否繼續把密度做上去。

      劉知遠:我們內部其實有一套分層的 pipeline(流程),從 L0 到 L4,對應不同的處理階段。

      L0 收集,通過抓取、采買獲得原料;

      L1 過濾,清理掉重復數據和垃圾數據;

      L2 精選,進一步挑出我們認定的高質量數據;

      L3 合成,不只是對現有數據加工,而是生成這個世界上原本不存在的內容,比如改寫、擴寫、任務化等;

      L4 驗證,通過形式化或人工方式,確認這一層的數據達到了高質量。

      比如最近我們用這套 pipeline ,精煉了很有名的預訓練數據集 FineWeb,得到一個容量不到原始數據 1/10 的版本,叫 Ultra-FineWeb。結果用 Ultra-FineWeb 訓練出的模型效果反而比直接用 FineWeb 更好,訓練成本自然也能降到十分之一,這只是預訓練階段的數據治理帶來的效果。

      后訓練同樣如此——無論是 SFT(監督微調)還是強化學習,數據的合成質量都強烈影響模型的能力上限和效率。比如交大劉鵬飛老師最近做的 “Less is More” 系列,就是用更少、更精的數據獲得更強效果的例子。

      我們接下來也會開源這套比較完整的數據治理體系,包括數據樣例和整個 pipeline 的結構。一個更根本的問題是:達到某個能力水平的 “最小的數據集” 究竟長什么樣?這個問題也能幫我們追問智能的本質。

      晚點:接下來是算法的改進,今年的重點明顯轉向了 RL。

      肖朝軍:是的,但強化學習做到現在,仍然沒有出現清晰的 scaling law。

      預訓練的 scaling law 非常清晰:幾十萬億 tokens、幾十萬步訓練,有穩定的 scaling law 可循。而現在做 RL,大多數團隊也就訓到幾千步;OpenAI o1 的技術報告里,一些任務不到一萬步就停了,效果不錯,但離跑通 RL scaling 還差得很遠。換句話說,如何讓強化學習持續穩定地訓下去?這仍是整個行業在探索的方向。

      晚點:你說 “RL 還沒有 scaling”,具體是指什么?

      肖朝軍:行業說 “RL 的 scaling” 主要指兩塊:環境能否擴展,reward(激勵)是否可驗證。

      前 OpenAI 研究員 Jason Wei 認為,RL 關鍵在于構建一個 “unhackable environment”——一個模型不能投機取巧,能持續學習的環境。但 Ilya 則認為這種環境幾乎不存在,人類學習本身也不是在這樣的環境里完成的,這也關系到我們如何定義下一階段的 AGI。

      在 reward 上,目前真正可驗證的 reward 基本只有數學和代碼。但代碼領域的 RL 目前主要是在競賽題上很強,真正的軟件開發要復雜得多,reward 很難構建,這是 RL scaling 的核心瓶頸。

      不過 RL 至少已經證明:只要有足夠的數據和反饋,它能在任何任務上做到人類前 0.1% 甚至 0.01% 的水平。很多團隊已經實現數學競賽、編程競賽的國際金牌水平。所以完全可以想象,未來一個公司如果能在某個垂直場景積累足夠的數據,就能用 RL 打造出該領域的 “超級專家模型”。

      晚點:現在就有 RL to B 的趨勢——針對某個真實商業環境去做強化學習,比如 Thinking Machines Lab 可能在探索這個方向。

      肖朝軍:所以我們之前叫 prompt engineering,現在是 reward engineering 或 environment engineering,這都是 RL 帶來的新產物。

      不過只到這一步,還不是我們真正想要的 AGI。因為人類的學習非常高效,在一個新任務下,只需要少量反饋、少量嘗試就能學會。現在 RL 離這種學習效率還有巨大差距。

      接下來可能有兩條路:

      一是繼續把 RL 做 scaling:不停擴大環境規模、增加可驗證的 reward,看能不能像預訓練那樣,隨著規模擴展自然出現更強的泛化能力。

      我們正在研究更高效的 RL scaling 框架,讓模型在 RL 訓練時把算力吃滿,把訓練步數拉到足夠大,比如做到幾萬步,讓模型真正經歷更長的思考。

      更往前走是開放域的強化學習——不僅是數學、代碼,而是像 “寫一篇論文什么算好”“計劃一個復雜任務什么算完成” 這種 reward。這個方向還沒有成熟范式,大家都還在摸索開放域的 reward 怎么定義,怎么穩定訓練?

      二是尋找更高效的新的學習方式:提高 sample efficiency(樣本效率)——讓模型能更像人那樣,在少量反饋下就能學會新任務,而不是依賴大量人工標注和大量環境交互。

      晚點:我們不能構造一個很復雜的、包含多種激勵的環境嗎?人所處的真實環境就是如此,我們面臨的任務很多樣,在不同情境和場景里,我們也會自己切換目標和激勵。

      肖朝軍:這很難。人能在現實世界中高效學習,是因為我們能從各種微弱而連續的信號里獲得反饋。比如聊天時,我見你表情變嚴肅,自然會意識到可能哪里不太對——這是一種細膩的反饋。

      但在強化學習里,反饋必須被離散成 “+1 或 -1” 這種形式化的 reward。如何把現實世界這種豐富、連續、多維的反饋壓縮成一個 reward?本身就極其困難。

      這對應到 Ilya 說的 value function(價值函數)——要給模型一個描述 “什么是好、什么是壞” 的價值函數。但構造這樣的 value function 和構造一個完整的世界模型一樣難。

      甚至這是一個 “雞生蛋、蛋生雞” 的悖論:如果我真能對世界建模得那么好,能有一個足夠強的 reward model 去評估所有行為,那這個 reward model 本身就已經是 AGI 級別的難度了。相當于你先有一個 AGI,才能用它去訓練 AGI。

      從大模型上車、上手機,到隨身攜帶的 “個人 NAS”

      晚點:密度法則在業界的更多反饋和影響是什么?

      劉知遠:DeepSeek-3 發布后,“成本、能效” 已經變成全行業核心詞。其中一個有意思的現象是,很多具身智能(embodied AI)領域的朋友特別喜歡引用我們的研究成果,因為端側設備對延遲與能耗極度敏感。

      在《自然·機器學習子刊》的這篇論文之前,我們還有一篇發在《自然通訊》上的論文,是關于 MiniCPM-V(注:指論文 Efficient GPT-4V level multimodal large language model for deployment on edge devices),其中有張經典的圖,就是描述密度法則結合硬件演進,能讓端側設備承載原來云端服務器上跑的模型才有的能力;具身智能團隊最關心的就是,端側的大腦什么時候可行。



      達到 GPT-4V 水平的模型參數規模隨時間增長迅速縮減,而端側算力快速增強,當芯片電路密度(摩爾定律)和模型能力密度(密度法則)兩條曲線交匯,端側設備將能運行以往只能在云端運行的大模型。

      晚點: 你們看到的具體時間表是?

      劉知遠:結合模型能力密度的提升速度,和全球一線芯片廠的制程路線圖,推估端側芯片的算力、緩存等規格,我們預測:2030 年左右,端側可部署 60B+ 參數的模型,激活大小可到達 8B+。這是基于現在發展的線性推測,未來也可能有非線性突破。5 年內,端側很可能能承載 GPT-4?GPT-5 能力的模型。

      晚點:不同終端設備的進展速度是怎樣的?目前來看,車、手機、電腦應該是第一批,也是各家布局端側 AI 的公司的重點。

      劉知遠:對,今年車端模型量產速度非常快,車的空間大,本身對算力、功耗的限制相對小。我們已經在和長安馬自達、吉利的一些車型合作,明年會有 6 款以上車型接入我們的模型。

      晚點:現在大語言模型和多模態模型在車上具體能做什么?相比之前的語音助手,新增體驗是什么?

      劉知遠:主要是智能座艙的多模態交互,包括感知車內、車外環境,對坐在不同位置的多乘客的識別和理解等等。不同車企的功能定義其實差別挺大的,有的高端座艙的功能點會超過 100 個。

      晚點:之前的 AI 技術在用到車等終端時需要做定制開發,這關系到這種服務的商業效率和規模化能力,大模型現在要去適配這么多功能點,需要做哪些額外的開發?

      劉知遠:主要是做一些微調,我們自己來做。我們本身很強調標準化,有一套 SFT 工具鏈和數據合成規范,所以效率挺高的。

      晚點:那么接下來在手機,乃至眼鏡這種更小的硬件上,AI 和端側模型會怎么發展?

      劉知遠:我們認為 2027 年是關鍵節點,這時可以做到,在手機上實現大規模的強化學習。這就意味著,每個人能用自己的數據來給這個模型提供學習環境,讓它能逐漸成為個人的 “專屬大模型助理”。而眼鏡,它不需要自己跑大模型,它更像是手機的外設。

      或者說,未來的入口不也不是手機,而是一個隨身的個人計算終端,類似能隨身攜帶的的家庭 NAS(一種計算與存儲服務器);眼鏡、耳機、手表或各種新的傳感設備,會通過各種方式獲得數據,再給到個人計算終端,支持模型持續學習。

      智能會分布式存在,AGI 的雛形是 “AI 造 AI”

      晚點:目前的密度法則是描述現有預訓練范式的效率提升,現在業界也都在討論,預訓練 +RL 后訓練之后,下一個大的方法改進是什么?你們會重點探索哪個方向?

      肖朝軍:我認為是自主學習(self-learning),也可以說是自我進化、持續學習,現在的名詞很多。背景還是我們前面聊到的——強化學習已能在單一任務上做到很強,但它還不夠泛化。

      未來的模型,首先應該是一個很好的學習者:它放在你的終端或其它設備上,可以根據你的需求持續學習你擅長或需要的任務。就像帶一個實習生——你教它寫代碼、寫稿或做研究,它會逐漸掌握這些能力。

      而目前的預訓練和強化學習都做不到這一點,因此才會出現世界模型,想給模型提供一個足夠好的反饋環境;才會強化學習之父 Rich Sutton 說當前大模型無法通向 AGI 。核心還是,海量數據驅動的這種學習方式可能會阻礙更高效地習得新技能。

      接下來,是有了自我學習能力的模型之間的協作。比如有的人培養出了 AI Researcher 專家模型,有的培養出了 Infra 專家模型,他們怎么合作,讓模型發展得更快。

      再往后,最高階的就是創造能力,比如真的像愛因斯坦等科學家那樣,不僅在人已經定義好的符號里學習,也有能力創造新的符號間的關系,乃至新的符號系統。

      所以總結一下,就是自主學習→能自主學習的 AI 之間的協作→創新。

      劉知遠:這是明線,背后也有一條暗線,是智能在設備上的分布方式。

      按中國信通院的統計,2023 年全國端側算力,主要是手機的加總,是數據中心算力的 12 倍。云上算力看起來很大,但架不住全國十幾億臺設備同時在跑。所以過去幾十年的信息化,本質上是一個分布式算力和分布式信息的結構。

      我認為智能化也會如此。2023 年初有巨頭說 “全球只需要幾個大模型”,這和 1943 年 IBM 董事長說 “世界只需要五臺計算機” 如出一轍。但未來的智能大概率是分布式存在的,每個人都有一個屬于自己的智能體。

      如果模型具備自主學習能力,那么終端上的模型就能基于用戶的個人數據持續成長,最終形成一個 “個人大模型”,成為你最懂你的那個助手。云端則會存在一系列 “專家大模型”:懂外賣的美團模型、懂出行的是滴滴模型、懂內容的是抖音模型……

      端側和云端模型的協同工作,就會形成 “智能體的互聯網”。在這個分布式智能體系里,密度法則會非常關鍵,它能讓端側模型能以極低成本運行,用戶幾乎無感,讓智能屬于每個人。

      晚點:未來一年:你們最想觀察、驗證的問題是什么?

      肖朝軍:強化學習到底能走多遠?自主學習以什么形式存在?還有,最早出現的 “AGI 形態” 會是什么樣?這其實是這樣一個問題:自主學習、協作和創造這些能力,會先落在一個什么樣的模型或產品形態上?

      我的直覺是,AGI 的形態可能不是面向用戶的 to C 產品,而是面向生產的 to B 系統。比如說,你讓它 “做一個自動駕駛模型”,它就能生產數據、構建環境、訓練模型、優化架構,最終把模型在目標算力上部署起來。也就是說,最早的 AGI 不需要什么都會,而是先會 “自己生產 AI”。

      劉知遠: 從歷史來看,第一次工業革命的標志是 “機器生產機器”。智能時代的本質也是 “AI 造 AI”。自主學習,就是最早的 “AI 造 AI” 的雛形:模型能在環境中自己成長。我非常期待明年或后年出現真正具備這種能力的系統。

      題圖來源:《黑衣人》(用 Nano Banana Pro 增強了吊墜中的銀河)

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      好言難勸該死的鬼?中國大量游客滯留日本機場,地震暴雪欲哭無淚

      好言難勸該死的鬼?中國大量游客滯留日本機場,地震暴雪欲哭無淚

      奇思妙想草葉君
      2025-12-12 00:41:34
      江門一加油站“低俗營銷”被叫停!律師:已涉嫌違反廣告法

      江門一加油站“低俗營銷”被叫停!律師:已涉嫌違反廣告法

      揚子晚報
      2025-12-12 10:15:27
      為什么校園問題越來越多?社會壓力 → 家庭失衡 → 情緒傳導 → 學校爆發

      為什么校園問題越來越多?社會壓力 → 家庭失衡 → 情緒傳導 → 學校爆發

      知識圈
      2025-12-11 18:45:23
      布朗30分綠軍遭雄鹿逆轉結束5連勝 小波特賽季首次三雙庫茲馬31分

      布朗30分綠軍遭雄鹿逆轉結束5連勝 小波特賽季首次三雙庫茲馬31分

      醉臥浮生
      2025-12-12 11:25:50
      其實吧,大明跟你一點關系都沒有,尤其如果你不姓朱的話

      其實吧,大明跟你一點關系都沒有,尤其如果你不姓朱的話

      熊太行
      2025-12-12 00:08:15
      小楊哥停播一年多,小楊嫂大變樣,從清純臉變歐美臉,差點認不出

      小楊哥停播一年多,小楊嫂大變樣,從清純臉變歐美臉,差點認不出

      娛說瑜悅
      2025-12-11 19:14:01
      搭上末班車!中國冰壺男隊9-4日本隊,鎖定冬奧會最后參賽席位

      搭上末班車!中國冰壺男隊9-4日本隊,鎖定冬奧會最后參賽席位

      全景體育V
      2025-12-12 09:40:52
      8個小時對決,紅旗12導彈苦戰F-16戰機:柬軍5千發火箭彈絕地反擊

      8個小時對決,紅旗12導彈苦戰F-16戰機:柬軍5千發火箭彈絕地反擊

      古史青云啊
      2025-12-11 14:25:26
      87歲范曾宣布喜獲獨子引網友熱議,專家:年齡只是影響男性“生育力”的因素之一

      87歲范曾宣布喜獲獨子引網友熱議,專家:年齡只是影響男性“生育力”的因素之一

      揚子晚報
      2025-12-11 22:44:47
      范曾87歲生子,打破了中國男性最高齡生育紀錄

      范曾87歲生子,打破了中國男性最高齡生育紀錄

      深度財線
      2025-12-11 15:52:54
      涉案金額高達9.7億元,深大通集團實控人姜劍妻子郝斌被遣返,被抓時已打算飛往美國

      涉案金額高達9.7億元,深大通集團實控人姜劍妻子郝斌被遣返,被抓時已打算飛往美國

      每日經濟新聞
      2025-12-12 00:25:11
      郭沫若行草《蜀道奇》將拍賣 女兒郭庶英稱作品系遺失要求返還

      郭沫若行草《蜀道奇》將拍賣 女兒郭庶英稱作品系遺失要求返還

      封面新聞
      2025-12-11 12:41:03
      一炮“送走”柬埔寨副司令,泰軍三軍壓境,不把洪森打服誓不罷休

      一炮“送走”柬埔寨副司令,泰軍三軍壓境,不把洪森打服誓不罷休

      大國知識局
      2025-12-10 22:21:12
      警惕!中國和俄羅斯飛機才走,美國和日本就一起.....

      警惕!中國和俄羅斯飛機才走,美國和日本就一起.....

      喀秋莎大世界
      2025-12-11 22:15:35
      芬蘭小姐歧視中國人后續來了!冠軍頭銜被取消,直播換人大快人心

      芬蘭小姐歧視中國人后續來了!冠軍頭銜被取消,直播換人大快人心

      萌神木木
      2025-12-11 20:34:19
      剛剛,越南給所有外國老板吃下定心丸:你來賺錢,不查你家底!

      剛剛,越南給所有外國老板吃下定心丸:你來賺錢,不查你家底!

      越南語學習平臺
      2025-12-11 10:16:41
      印媒:梅西印度行見面會門票約7.82萬元人民幣,時長15分鐘

      印媒:梅西印度行見面會門票約7.82萬元人民幣,時長15分鐘

      懂球帝
      2025-12-12 11:15:16
      建行回應轉賬備注狗狗幣被鎖

      建行回應轉賬備注狗狗幣被鎖

      新浪財經
      2025-12-11 14:19:32
      2026央視春晚主題官宣僅1天,三大惡心情況發生了,陳佩斯沒說錯

      2026央視春晚主題官宣僅1天,三大惡心情況發生了,陳佩斯沒說錯

      冷紫葉
      2025-12-11 18:40:37
      35歲男籃傳奇人物:退役后秒轉型,身家超千萬,空姐妻子是大美女

      35歲男籃傳奇人物:退役后秒轉型,身家超千萬,空姐妻子是大美女

      攬星河的筆記
      2025-12-11 12:38:08
      2025-12-12 12:11:00
      晚點LatePost
      晚點LatePost
      晚一點,好一點。商業的真相總是在晚點。《晚點LatePost》官方賬號
      2971文章數 21859關注度
      往期回顧 全部

      科技要聞

      凌晨突發!GPT-5.2上線,首批實測感受來了

      頭條要聞

      曾因監獄疫情防控不力被免職 解維俊5年多后又被查

      頭條要聞

      曾因監獄疫情防控不力被免職 解維俊5年多后又被查

      體育要聞

      15輪2分,他們怎么成了英超最爛球隊?

      娛樂要聞

      濮存昕外孫女演短劇遭吐槽

      財經要聞

      美國要組建C5,全世界大吃一驚

      汽車要聞

      插混四驅法拉利?849 Testarossa國內發布516.8萬起

      態度原創

      本地
      親子
      藝術
      公開課
      軍事航空

      本地新聞

      云游安徽|阜陽三朝風骨,傳承千年墨香

      親子要聞

      今天陳老師來家里做客,紅背心一整天像打了雞血一樣……

      藝術要聞

      嶺南畫派畫雪

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      澤連斯基:烏領土問題應由烏人民決定

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲人妻一区二区精品| 日本道久久| 欧美奶涨边摸边做爰视频| 99久久婷婷国产综合精品| 亚洲熟女乱综合一区二区| 登封市| 国产三级精品三级在线观看| 亚洲精品99| 无尺码精品产品日韩| 久久精品国产99精品国产2021| 久艹视频在线观看| 美女胸18下看禁止免费视频| 久久精品国产热久久精品国产亚洲| 在线无码中文字幕一区| 日韩人妻无码专区一本二| 亚洲中文字| 日韩亚洲欧美中文高清| 日本丰满熟妇videossex一| 亚洲AV秘?片一区二区三区水牛| 久久国产欧美日韩精品图片| 毛葺葺老太做受视频| 依依成人综合网| 成在人线av无码免费高潮水老板| 亚洲精品成人区在线观看| 无码国模国产在线观看| 国产在线资源| 国产欧美va欧美va在线| 成人网站在线进入爽爽爽| 亚洲精品久久久久久久久久吃药| 国产最新网址| 五月。。激情綜合老漢色| 人妻精品久久久久中文字幕69| 中文字幕日韩精品亚洲一区| 一区二区三区网址| www.91自拍| 五月婷婷五月天| 国产又色又爽又黄的网站免费| 亚洲人成色77777在线观看| 超碰99在线| 青青AV| 欧美亚洲一区二区三区在线|