<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      CALM自編碼器:用連續向量替代離散token,生成效率提升4倍

      0
      分享至

      過去這些年語言模型的效率優化基本圍繞著兩條主線展開:參數規模和注意力機制的復雜度。但有個更根本的問題一直被忽視,那就是自回歸生成本身的代價。這種逐token生成的模式讓模型具備了強大的通用性,同時也帶來了難以回避的計算開銷。

      現在有一種思路值得關注:不去替換現有的優化手段,而是在上層加一個潛在空間的映射層,直接削減前向傳播的次數。

      每次讓GPT-5寫封郵件模型都得一個token一個token地往外蹦字。每個token意味著一次完整的前向計算,要把數十億參數全過一遍。生成1000個token的回復那就是1000次前向傳播,整個神經網絡要走1000遍,計算資源和延遲就這樣一點點累積起來。自回歸架構就是這么設計的現在這個機制正變成AI系統效率的最大瓶頸。

      找到比token更高層次的表示形式,對降低延遲、提升吞吐量都有直接作用。換句話說,用更少的資源干同樣的活兒。

      token本身已經是詞匯表規模和表達能力之間比較精妙的平衡了,想在這個基礎上再優化并不簡單。

      詞匯表示的粒度選擇

      主流語言模型的詞匯表通常在3萬到25萬個token之間。每個token對應一個學習出來的嵌入向量,存在查找表里,和transformer的層一起訓練。模型就是靠拼接這些子詞片段來還原文本。

      看看其他方案就知道為什么這個設計能勝出了。

      如果往上走用完整的詞或短語來表示,詞匯表會膨脹到無法控制。詞級分詞得為每種語言的每個詞形都建條目,短語級更不用說,光是兩個詞的組合就能把查找表撐爆。

      往下走又會碰到另一個極端,字符級模型處理英文ASCII只要95個條目左右,內存占用看起來很好。但問題是要把所有語言知識塞進這么小的嵌入空間(這事兒本身就夠嗆),更要命的是生成變成了逐字符進行。本來就貴的自回歸循環直接翻4到5倍。

      子詞token正好卡在中間這個位置。語義信息足夠豐富,詞匯表又不會大到裝不下。transformer普及這么多年,分詞方式基本沒變過,原因就在這兒。

      得換個角度,不是去替換token,而是在token之上再搭一層。

      Continuous Autoregressive Language Models(CALM)做的就是這個思路。整個框架包含好幾個模塊,這篇文章先聚焦基礎部分:把token序列壓縮成密集向量的自編碼器。



      自編碼器的作用

      在講CALM架構之前,得先理解自編碼器為什么重要,最直觀的例子是圖像生成。

      傳統自編碼器的基本原理

      自編碼器的設計目標很明確:把輸入數據壓縮成緊湊的表示,然后從這個表示里把原始數據重建回來。

      編碼器負責壓縮,解碼器負責還原。

      自編碼器在擴散模型里才真正展現了威力

      玩過Stable Diffusion或Midjourney就知道自編碼器是怎么工作的,這些系統不是在原始的高維空間里一個像素一個像素地生成圖像。



      傳統自編碼器創建潛在空間 z,用作解碼器重建輸入的先驗知識,公式摘自原始 CALM 論文。

      實際流程是先用自編碼器把圖像壓縮到更小的潛在空間。擴散過程完全在這個壓縮后的空間里進行,根據文本提示不斷調整,把噪聲逐步變成有意義的潛在表示。最后一步才是解碼器把潛在向量展開成完整圖像。

      不過傳統自編碼器有個硬傷:單純為了重建而訓練的自編碼器,會把每個輸入映射到潛在空間里一個特定的點。解碼器記住了如何反向操作。

      聽上去挺高效但實際上系統很脆弱,稍微偏離那些記住的點——生成模型必然會產生這種偏移——解碼器就會輸出一堆亂碼。



      學習到的脆弱空間可能與學習目標完美對齊,但這可以被解釋為過擬合。學習到的空間過于嚴格,無法很好地泛化,這意味著缺乏泛化性性。

      變分自編碼器帶來的改進

      變分自編碼器的做法是把目標放松。編碼器輸出的不是精確的點,而是一個分布用均值和方差來定義。

      訓練目標里加入了Kullback-Leibler散度這一項,輕輕地把這些分布往標準高斯分布推,潛在空間就變得平滑了。



      KL 組件懲罰編碼器的高斯后驗 pE(z ∣x)(由其均值和方差參數化)與固定先驗 N(0,I ) 之間的散度,從而鼓勵每個輸入的潛在表示遵循該先驗分布,公式摘自原始 CALM 論文。

      不強制編碼器把輸入精確映射到某個點,允許它定義一小片區域——一個帶均值和方差的概率分布。從這個區域里隨機采樣,解碼出來的結果應該大致相同。



      KL 散度目標,當使用較小的權重時,允許我們學習相對于目標目標的一些方差。在這種情況下藍色光暈是紅色表示的目標函數所允許的邊距,所有這些共同代表變分自編碼器的允許區域。

      在重建損失里加上這個KL散度項(權重通常設得比較小),相當于告訴模型:「重建要準確,但在潛在空間里放哪兒不用太較真。」



      變分自編碼器學習目標的表示,beta 作為平衡 KL 散度貢獻的小超參數,允許對潛在空間采樣的空間約束較少。公式摘自原始 CALM 論文。

      得到的流形更平滑,相鄰的點編碼的輸出也相似。解碼器學會處理變化而不是期待完美輸入,這種泛化性正是另一個模型預測這些潛在向量時需要的特性。

      解碼器對噪聲的容忍度變高了。潛在空間里的小擾動只會讓輸出產生小變化,不會導致徹底崩潰。

      這種平滑性讓擴散模型可以在潛在空間里游走,大概率能落在有意義的圖像上。

      提升語義帶寬的自編碼器方案

      前面講的自編碼器都針對圖像,跟文本沒什么關系,那為什么對CALM重要?

      在不拋棄子詞token的前提下提升語義帶寬,辦法是用變分自編碼器把k個連續token壓縮成一個密集向量。

      編碼器把token序列壓成一個潛在向量,解碼器再把它還原成原始token。語言模型一次前向傳播就能生成一個代表k個token的向量,不用每次只蹦一個token了。

      所以繞道擴散模型這一圈是值得的。泛化性在這里同樣關鍵,語言模型預測潛在向量時肯定會帶入誤差。

      脆弱的自編碼器會把那些稍有偏差的向量解碼成完全錯誤的token序列。變分自編碼器憑借平滑的潛在流形,照樣能把它們解碼成正確的token。



      CALM 中提出的自編碼器的完整架構,正如我們所看到的,編碼器(紅色)和解碼器(綠色)是鏡像,一個用于生成潛在空間,另一個用于解碼它。從這個意義上說,這個自編碼器是創新的,因為它學習表示比token更高的語義單元,學習自己的token嵌入(藍色)。圖片由作者創建。

      為不同任務定制的嵌入

      編碼器第一件事是把token轉成能處理的數字。跟普通語言模型一樣,需要學習嵌入——一張把每個token映射到密集向量的查找表。

      k個token嵌入各自通過一個前饋網絡,然后拼接起來經過線性層壓縮成最終的潛在向量z,解碼器按相反方向做鏡像操作。

      為什么要從頭學新嵌入,不直接借用現成語言模型的?

      每個模型需要為自己的任務學嵌入,不同任務需要不同的嵌入:

      語言模型的嵌入是為下一個token預測服務的——捕捉哪些token傾向跟在哪些token后面這類模式。自編碼器的嵌入是為序列壓縮和重建服務的——捕捉哪些token傾向于在一個塊里同時出現這類模式。

      三重泛化性機制

      讓自編碼器在下游生成任務里足夠泛化,訓練時還需要疊加幾種技術。

      第一層是變分目標本身,損失函數里加的那個小KL散度項讓潛在空間變平滑,前面已經說過了。

      第二層是對潛在向量做dropout,訓練時z里大約15%的維度會被清零再去解碼。這逼著解碼器學冗余表示——不能指望某個維度一定存在,得把信息分散到整個向量里。

      第三層是對輸入token做dropout。每個訓練序列里約15%的token會被遮掉。本質上就是把掩碼語言建模用在自編碼器上:模型得根據上下文推斷缺失的token,潛在表示最終編碼的是語義含義不只是token索引的壓縮查表。

      維度坍縮的隱患

      即便做了這些還有一種失效模式要處理:潛在表示坍縮。

      損失函數里的KL散度項會懲罰偏離標準高斯先驗的維度。有些維度發現直接變成先驗更省事——坍縮到零均值單位方差——不用編碼任何信息。CALM的自編碼器里,放任不管的話128個維度里有71個會坍縮。

      維度坍縮時,好幾個維度會降到某個特定值,對優化目標來說挺方便。

      這造成兩個問題,都源于損失函數里的兩項(原始自編碼器損失和KL散度損失)計算時用同一個均值:

      第一,潛在空間信息貧乏,得到的是稀疏嵌入而非密集嵌入。模型發現少數幾個維度就能承載所需信息,其他維度多余。第二,坍縮的維度給解碼器注入純噪聲,因為它們只是從沒有信號的高斯分布采樣。解碼器拿不到真實的token。

      解決辦法是KL裁剪,不讓每個維度的KL損失降到零,設個下限(這里是0.5)。任何維度的KL貢獻低于這個閾值,損失就鉗制在最小值。

      現在想降低總損失,唯一的辦法是讓每個維度都編碼點有用的東西。



      當維度崩潰時,大多數坐標收斂到相同的值(這里是零),因此只有少數維度攜帶信息,其余的向解碼器添加噪聲。

      這樣一來全部128個維度都保持活躍,都在傳遞信息。解碼器接收到的是密集、有意義的信號,而不是被噪聲稀釋的稀疏信號。

      面向語言建模的潛在空間

      到這一步,有了個能把k個token壓縮成密集、泛化潛在向量的自編碼器,重建準確率超過99.9%(token級別)。潛在空間平滑,所有維度都攜帶信號,解碼器能優雅地處理帶噪輸入。

      這是CALM的基礎,接下來是訓練一個完全在潛在空間操作的語言模型——預測下一個向量而非下一個token。每個預測的向量經過凍結的自編碼器解碼器,生成k個實際token。

      但生成式語言模型依賴在有限詞匯表上計算概率。連續向量沒有詞匯表——只有個無限維空間,似然變得無從計算。也就是說

      整套訓練和評估框架得從頭重新設計。

      似然計算的困境

      訓練自編碼器、從文本塊預計算潛在空間,這只是第一步。讓語言模型適應這種增強的語義帶寬,需要徹底改造建模框架:

      無似然訓練:標準的最大似然(token交叉熵)算不出來了。目標損失得完全重新構思。

      無似然評估:沒有token概率就沒法算困惑度。得用新指標衡量語言模型在潛在空間里的學習效果。

      無似然采樣:溫度控制沒法重新縮放logits,拿不到每個token的概率分布了不像下一個token預測那樣。得開發新的采樣方法來處理文本生成。

      工程實現的考量

      CALM的自編碼器從根本上改變了LLM技術棧里的語義表示,對訓練和部署都有實際影響。

      專用嵌入層自編碼器學自己的token嵌入——任務性質(聯合k-token壓縮/重建)跟自回歸的下一token預測不同,優化的是「批量共現」模式而非「逐步遞進」的幾何關系。

      離線訓練開銷變分目標、KL裁剪、潛在/輸入dropout,再加上全語料編碼——預訓練/微調/對齊之上又多了一大塊一次性計算成本,好在推理階段不涉及。

      后期集成比較適合作為完整LLM生命周期后的附加層,凍結解碼器實現「下一潛在向量」生成,用前期成本換延遲/吞吐量的大幅改善。

      正交優化跟高效注意力機制/量化是互補關系,從結構上削減每個輸出的前向傳播次數。

      無似然訓練:從離散到連續的范式轉換

      有了自編碼器下一步是訓練能在潛在空間操作的語言模型。但傳統的最大似然估計(交叉熵損失)在這里完全失效了:沒有有限詞匯表,就算不出softmax,也就沒法得到顯式的概率分布。

      下一向量預測

      自編碼器建立了K個token和單個連續向量之間的雙向映射。現在可以把語言建模從「預測下一個token」重新定義為「預測下一個向量」。

      給定T個token的序列X= (x?, ..., x?),先分成L = T/K個不重疊的塊,編碼器把原始序列轉換成更緊湊的連續向量序列:

      Z= (z?, z?, ..., z_L),其中 z_i = f_enc(x_(i-1)K+1, ..., x_iK)

      自回歸目標變成預測序列中的下一個向量:p(Z) = ∏ p(z_i | z_

      問題在于z_i 存在于無限的實數空間??中。softmax在這個不可數集合上不適用,顯式概率密度 p(z_i | z_

      生成頭的設計約束

      處理連續數據的生成模型(VAE、GAN、擴散模型)已經研究得很充分了,圖像和音頻合成領域都在用。最近有個趨勢是把這些方法跟自回歸模型結合:Transformer主干預測條件隱藏狀態,后續的生成模型在每一步產生連續輸出。

      CALM采用了這個架構,但有個硬性約束:計算效率。擴散模型或流匹配需要迭代采樣——生成一個向量要幾十甚至上百次網絡評估,這直接抵消了減少自回歸步驟帶來的加速。所以CALM需要的是能高質量單步生成的生成頭。

      這個組件被設計成輕量級的「生成頭」。形式上,它是個隨機函數,接收Transformer的隱藏狀態 h_i-1 ∈ ??,從條件分布中抽取樣本 z_i ∈ ??:

      h_i-1 = Transformer(z_1:i-1),z_i ~ p(· | h_i-1)

      能量損失:嚴格適當評分規則

      訓練目標借鑒了嚴格適當評分規則(strictly proper scoring rules)的理論。評分規則 S(P, y) 給預測分布P在觀察到結果y時打分,分數越高越好。預測分布P相對于真實分布Q的質量用期望得分衡量:S(P, Q) = _y~Q [S(P, y)]

      如果期望得分在P = Q時達到最大,這個評分規則就是「適當的」(proper):

      S(P, Q) ≤ S(Q, Q) 對所有分布P成立

      如果等號僅在P = Q時成立,就是「嚴格適當的」(strictly proper)。這保證了評分規則不會激勵模型預測有偏或扭曲的分布。

      用嚴格適當評分規則作為訓練目標,最大化期望得分就等價于讓模型的預測分布逼近真實分布。這其實是最大似然估計的直接推廣,負對數似然就是對數得分的特例。雖然連續域的似然算不出來,評分規則理論提供了豐富的替代方案。

      訓練目標采用能量得分(Energy Score),一個在多種生成任務中都表現不錯的嚴格適當評分規則。能量得分完全不需要似然,而是通過樣本距離來衡量預測和觀測的對齊程度。對于預測分布P和真實觀測y

      S(P,y) = x',x''~P [‖x' - x''‖^α] - 2x~P [‖x -y‖^α]

      第一項鼓勵多樣性,懲罰產生塌陷或過度自信預測(所有樣本都相同)的模型。第二項鼓勵保真度,驅動模型的預測接近真實觀測。這里的α通常設為1,對于α ∈ (0, 2),得分都是嚴格適當的。

      雖然期望無法精確計算,可以構造無偏的蒙特卡洛估計器作為實際的損失函數「能量損失」。在每一步i,從生成頭抽取N個候選樣本 {z?i,1, ..., z?i,N}。另外自編碼器不是把token塊映射到固定點,而是映射到條件高斯后驗 z_i ~ q(· | x_(i-1)K+1:iK)。依賴單個樣本 z_i 作為真值會給能量損失帶來高方差。為了緩解這個問題并穩定訓練從這個后驗抽取M個目標樣本 {z_i,1, ..., z_i,M}。

      這樣就得到了最終的能量損失:

      ?energy = Σi (2/NM Σn Σm ‖z_i,m - z?i,n‖ - 1/N(N-1) Σn≠k ‖z?i,n - z?i,k‖)

      實踐中設N = 8,M = 100。模型樣本數N直接影響訓練成本,因為每個樣本都需要評估一次生成頭,所以用小N保持訓練效率。從已知高斯后驗抽取目標向量的開銷幾乎可以忽略,所以用大M來降低損失的方差。

      這個無似然訓練目標的關鍵優勢是靈活性:只要求能從生成頭抽樣,對內部架構的約束很少,允許簡單高效的設計。

      能量Transformer架構

      生成頭的輸入有兩部分:Transformer主干輸出的隱藏狀態h_i-1(提供條件上下文),和隨機噪聲向量ε∈ ???????(提供采樣所需的隨機性)。ε的每個維度從均勻分布 U[-0.5, 0.5] 獨立采樣。隱藏狀態和噪聲向量都通過獨立的線性層投影到生成頭的內部維度,這個維度設為跟Transformer的隱藏維度d相同。

      生成頭的核心是L個殘差MLP塊的堆疊,逐步把初始噪聲表示 ε? =ε精煉成最終的輸出向量。每個MLP塊先通過兩個線性層把當前表示 ε_l 和隱藏狀態融合,然后是中間維度為d的SwiGLU層。殘差連接把塊的輸入加到輸出上。最后用一個線性層把表示投影到目標維度l,產生輸出向量 z_i。

      單個MLP塊包含約6d2個參數。塊的數量設為Transformer層數的四分之一,整個生成頭只占總模型參數的10%左右,計算開銷很小。

      離散token輸入的必要性

      對于模型輸如:一般做法是把上一步預測的潛在向量 z_i-1 用線性投影嵌入到Transformer的隱藏維度d。但實驗發現用這些潛在向量作為Transformer的輸入會導致性能明顯下降,模型難以從這么緊湊的輸入表示中解包語義信息。

      解決辦法是把模型的自回歸過程基于離散token空間。訓練時,每步的輸入由上一步的K個token構成。為了保持效率用輕量級的輸入壓縮模塊——兩層MLP——把K個嵌入映射成單個輸入表示。推理流程如下:

      輸入處理:在步驟i,前面生成的K個token被嵌入并壓縮成單個輸入表示送入Transformer。

      連續預測:Transformer輸出隱藏狀態 h_i-1,能量生成頭用它預測下一個連續向量 z_i。

      離散反饋循環:預測的向量 z_i 立即通過凍結的預訓練自編碼器解碼器 g_dec重建下一個K個離散token。

      這個設計保證了模型始終在語義豐富的離散空間進行條件化同時在潛在空間完成高效的預測。

      BrierLM:無似然評估指標

      還有一個問題就是困惑度(Perplexity)無法用了,需要新的評估指標。CALM提出BrierLM,基于布賴爾得分(Brier score)評分規則,現在廣泛用于評估神經網絡的校準性。

      對于預測分布P和真實結果y,布賴爾得分定義為:

      Brier(P, y) = 2P(y) - Σ_x P(x)2

      跟只衡量準確性的原始似然P(y)不同,布賴爾得分包含額外項 Σ_x P(x)2 來量化預測不確定性。這個結構平衡了兩個競爭目標,最終獎勵良好校準的預測。期望布賴爾得分可以分解為:

      y~Q [Brier(P, y)] = -Σx (P(x) - Q(x))2 + Σ_x Q(x)2

      第一項是平方誤差,在P = Q時最小化。第二項是數據方差,是常數。所以期望布賴爾得分僅在P = Q時唯一最大化,確保了它是嚴格適當的。

      BrierLM的優勢是可以僅通過從模型抽樣來無偏估計不需要顯式概率,對于傳統自回歸模型可以從最終的softmax分布抽樣來應用BrierLM估計器,實現跟無似然框架的直接公平比較。

      實驗驗證顯示,在訓練傳統自回歸模型的整個過程中BrierLM和交叉熵高度一致,呈現近乎線性的關系,皮爾遜相關系數-0.966,斯皮爾曼等級相關-0.991。這種強單調對齊確認BrierLM是可靠的語言建模能力度量,建立了它作為困惑度的可信無似然替代品的地位。

      實驗結果與性能分析

      實驗在標準語言建模基準上驗證CALM框架,展現了更優的性能-計算權衡。當K = 4時(一個向量代表4個token),CALM達到了與強離散基線相當的性能,但計算成本顯著更低。

      隨著K增加所需計算量按比例減少,并且性能只有輕微下降。這確認了語義帶寬是優化語言模型性能-計算比的高效縮放軸。在K = 1時CALM的性能落后于離散模型,說明當前設計還有很大改進空間。

      對比了三種生成頭:基于能量的方法、擴散和流匹配。擴散模型表現不好,流匹配初期收斂更快,但基于能量的頭達到了更高的性能上限。能量頭單步生成其他兩種方法依賴迭代采樣,這讓能量頭成為以效率為目標的框架的明確選擇。

      371M參數的CALM-M模型達到了與281M參數離散基線相當的BrierLM分數,但FLOPs更少。CALM建立了新的、更高效的語言建模性能-計算前沿。增加每個自回歸步驟的語義帶寬,允許CALM在參數數量上顯著更大的同時,訓練和推理所需的FLOPs更少。

      這些發現確立了下一向量預測作為通向超高效語言模型的強大且可擴展路徑。語義帶寬這個新的設計軸,跟KV緩存、量化一樣,可能成為LLM的標配優化方向。

      論文:

      https://avoid.overfit.cn/post/0c9c3766205f44e5bc74fcf9328468ec

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      歐爾班宣布反制措施:在我們耗盡石油之前,烏克蘭人將先耗盡資金

      歐爾班宣布反制措施:在我們耗盡石油之前,烏克蘭人將先耗盡資金

      陳恧侃故事
      2026-03-07 11:31:12
      現場直擊:伊朗防空系統攔截美以目標

      現場直擊:伊朗防空系統攔截美以目標

      新華社
      2026-03-06 10:54:01
      鄭爽分享美國近況,穿搭不輸當紅明星,自曝做醫美網友直呼認不出

      鄭爽分享美國近況,穿搭不輸當紅明星,自曝做醫美網友直呼認不出

      萌神木木
      2026-03-06 17:33:33
      河南女孩六年前為救父親性命,稱誰給40萬就嫁給誰,如今過得如何

      河南女孩六年前為救父親性命,稱誰給40萬就嫁給誰,如今過得如何

      牛鍋巴小釩
      2026-03-06 19:45:04
      致敬西虹市首富?切爾西眾人開球前將球圍在中間,解說員啞然失笑

      致敬西虹市首富?切爾西眾人開球前將球圍在中間,解說員啞然失笑

      懂球帝
      2026-03-07 13:08:08
      廣西女子發現罕見青竹鯉,時不時側身蹭水底,網友:魚生天花板!

      廣西女子發現罕見青竹鯉,時不時側身蹭水底,網友:魚生天花板!

      貍貓之一的動物圈
      2026-03-06 09:38:48
      小學生實名投訴極氪 建議取消讓她寫作業的小桌板!極氪回應

      小學生實名投訴極氪 建議取消讓她寫作業的小桌板!極氪回應

      快科技
      2026-03-06 23:12:33
      王震堅決反對中顧委副主任排名,薄一波:我是常務,就這么定了

      王震堅決反對中顧委副主任排名,薄一波:我是常務,就這么定了

      芊芊子吟
      2026-03-06 09:45:07
      莫雷加德全家抵達重慶:對這座城市印象深刻,會請樊振東推薦美食

      莫雷加德全家抵達重慶:對這座城市印象深刻,會請樊振東推薦美食

      乒談
      2026-03-07 00:19:01
      中國女籃72-66再勝巴西,不是張子宇王思雨,她17+7成新核

      中國女籃72-66再勝巴西,不是張子宇王思雨,她17+7成新核

      林子說事
      2026-03-07 08:15:14
      速度滑冰世錦賽:寧忠巖收獲短距離全能、男子1000米兩項季軍

      速度滑冰世錦賽:寧忠巖收獲短距離全能、男子1000米兩項季軍

      懂球帝
      2026-03-07 07:21:57
      高市早苗被逼到絕路:派也死,不派也死

      高市早苗被逼到絕路:派也死,不派也死

      鯨探所長
      2026-03-07 12:02:36
      霍爾木茲海峽船只遭襲4死3重傷!兩萬海員被困,伊朗稱不會關閉海峽,但與以美有關船只不得通行;普京與伊總統通話:通過多種渠道保持聯系

      霍爾木茲海峽船只遭襲4死3重傷!兩萬海員被困,伊朗稱不會關閉海峽,但與以美有關船只不得通行;普京與伊總統通話:通過多種渠道保持聯系

      大風新聞
      2026-03-07 10:05:06
      霍震霆也沒想到,46歲的霍啟剛,會在兩會上憑一個舉動給霍家長臉

      霍震霆也沒想到,46歲的霍啟剛,會在兩會上憑一個舉動給霍家長臉

      攬星河的筆記
      2026-03-06 23:55:22
      結束了!整整27年生涯!曝冠軍主帥最后一舞

      結束了!整整27年生涯!曝冠軍主帥最后一舞

      籃球實戰寶典
      2026-03-06 18:57:43
      晴好周末,出游安排起來 | 天氣早知道

      晴好周末,出游安排起來 | 天氣早知道

      上觀新聞
      2026-03-07 11:57:06
      針對“不敢休、不讓休”怪圈,國家出手了!

      針對“不敢休、不讓休”怪圈,國家出手了!

      國是直通車
      2026-03-07 09:12:15
      村里紅白事從不回,男子母親離世,鄰居等著看笑話,結果長了見識

      村里紅白事從不回,男子母親離世,鄰居等著看笑話,結果長了見識

      子芫伴你成長
      2026-02-23 12:21:40
      重回國乒?塵埃落定,劉國梁發聲,崗位曝光,布局國乒男隊發展

      重回國乒?塵埃落定,劉國梁發聲,崗位曝光,布局國乒男隊發展

      卿子書
      2026-03-06 09:25:27
      比賽還沒開打,上海申花先迎來兩個壞消息,新賽季斬獲開門紅懸了

      比賽還沒開打,上海申花先迎來兩個壞消息,新賽季斬獲開門紅懸了

      零度眼看球
      2026-03-07 08:58:12
      2026-03-07 13:40:49
      deephub incentive-icons
      deephub
      CV NLP和數據挖掘知識
      1940文章數 1456關注度
      往期回顧 全部

      科技要聞

      OpenClaw爆火,六位"養蝦人"自述與AI共生

      頭條要聞

      特朗普突然放話"先解決伊朗后解決古巴" 梅西聽懵了

      頭條要聞

      特朗普突然放話"先解決伊朗后解決古巴" 梅西聽懵了

      體育要聞

      塔圖姆歸來:凱爾特人的春之綠

      娛樂要聞

      周杰倫田馥甄的“JH戀” 被扒得底朝天

      財經要聞

      針對"不敢休、不讓休"怪圈 國家出手了

      汽車要聞

      逃離ICU,上汽通用“止血”企穩

      態度原創

      旅游
      手機
      親子
      健康
      公開課

      旅游要聞

      文旅部部長:7名外國游客到上海旅游,買了40箱貨;“成為中國人”成了熱詞

      手機要聞

      歐加驍龍8系小平板4月來襲,Find X9系列配件已備好!

      親子要聞

      六個月寶寶查出散光,原因竟是父母長期身旁玩手機,媽媽懵了:我一直以為他閉著眼就沒事

      轉頭就暈的耳石癥,能開車上班嗎?

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版