![]()
這項由亞馬遜FAR(前沿AI與機器人)部門領導的研究發表于2026年2月,論文編號為arXiv:2602.09024v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。
在人工智能圖像生成領域,一直存在著兩大技術流派的激烈競爭。就像烹飪界的中西餐之爭一樣,一種是"連續派"(類似西餐的精確測量),另一種是"離散派"(類似中餐的適量調味)。長期以來,連續派憑借其精細的處理方式占據主導地位,而離散派總是被認為質量不夠好。然而,亞馬遜的研究團隊通過深入調查發現,這種差距的真正原因并非技術路線本身的優劣,而是資源分配的不均。
研究團隊提出了一個全新的解決方案——BAR(masked Bit AutoRegressive modeling,掩碼比特自回歸建模)框架。這套系統就像一個聰明的畫家,不是一口氣畫完整張圖,而是先畫出輪廓,再逐步填充細節。更重要的是,它用一種全新的"比特預測"方法,讓計算機能夠處理超大規模的圖像詞匯庫,同時保持極高的生成速度和質量。
傳統的圖像生成就像用固定大小的顏料盒畫畫,顏色種類有限,畫出來的圖自然不夠豐富。而BAR系統相當于給AI提供了一個可以無限擴容的調色盤,不僅顏色更多,調色過程還更加高效。實驗結果顯示,BAR在ImageNet-256數據集上創下了新的記錄,生成圖像的質量評分達到0.99分,超越了所有現有的連續和離散方法。
一、傳統認知的顛覆:離散不等于低質量
長期以來,AI圖像生成領域存在一個根深蒂固的觀念:離散方法天生不如連續方法。這就好比人們一直認為數字相機永遠比不上膠片相機一樣。連續方法像膠片相機,能捕捉到細膩的色彩過渡和光影變化。而離散方法像早期的數字相機,圖像看起來總是有些生硬和不自然。
但是,亞馬遜研究團隊決定徹底搞清楚這種差距的真正原因。他們沒有急著改進算法,而是先做了一項基礎性的比較研究。研究團隊創造性地提出了"比特預算"這個統一標準來衡量兩種方法。這就像用同樣的預算去比較不同品牌汽車的性能一樣,只有在公平的條件下,才能得出客觀的結論。
比特預算的計算方式很直觀。對于離散方法,如果圖像被分成16×16個小塊,每個小塊用16384種可能的代碼表示,那么總的比特預算就是256×14=3584比特(因為16384≈2^14)。對于連續方法,如果每個小塊用16個浮點數表示,每個浮點數占16比特,那么總預算是256×16×16=65536比特。
當研究團隊在相同比特預算下比較兩種方法時,驚人的發現出現了:離散方法的表現并不遜色于連續方法。更進一步,當給離散方法分配更多比特預算時,它的表現甚至超過了連續方法。這就像發現數字相機在像素足夠高的情況下,畫質完全可以媲美甚至超越膠片相機。
研究團隊用BAR-FSQ離散標記器進行了系統性實驗。他們將編碼書大小從2^10逐步擴展到2^256,對應的比特預算從2560增加到65536。結果顯示,隨著比特預算的增加,離散方法的重建質量持續改善。當比特預算達到65536時,離散方法的重建保真度(rFID為0.33)明顯優于廣泛使用的SD-VAE連續方法(rFID為0.62)。
這一發現徹底改變了人們的認知。原來離散方法并非天生inferior,而是一直以來都在"營養不良"的狀態下工作。當給它們充足的"營養"(比特預算)時,它們展現出了驚人的潛力。研究團隊得出了一個重要結論:離散標記器的主要性能瓶頸在于比特預算不足,而擴大編碼書大小能讓離散標記化超越連續方法。
這個發現的意義不僅僅在于技術層面,更在于它打破了領域內的固有偏見。就像當年人們發現地球是圓的而不是平的一樣,這項研究重新定義了人們對圖像生成技術的理解。它告訴我們,技術的優劣往往不在于路線選擇,而在于資源配置和實現方式。
二、詞匯量爆炸帶來的新挑戰
雖然擴大編碼書大小能顯著提升離散方法的性能,但這也帶來了一個前所未有的挑戰:詞匯量爆炸問題。這就像給一個翻譯官從1萬詞的詞典升級到100萬詞的詞典一樣,雖然翻譯會更準確,但查詞的時間也會大幅增加。
在傳統的自回歸圖像生成模型中,每次生成新的圖像塊時,模型都需要在整個詞匯表中選擇最合適的一個詞。當詞匯表大小從幾千個擴展到幾百萬甚至幾十億個時,這種選擇過程變得極其復雜和耗時。具體來說,模型的最后一層需要將高維隱藏狀態投影到詞匯表大小的向量上,這個操作的計算和內存需求隨詞匯表大小線性增長。
研究團隊通過實驗驗證了這個問題的嚴重性。他們發現,當編碼書大小達到2^18(約26萬個詞匯)時,使用標準線性預測頭的訓練已經變得難以承受。內存需求激增,訓練時間大幅延長,而且隨著詞匯表繼續擴大,這些問題會呈指數級惡化。
更糟糕的是,即使硬件能夠支持如此大的詞匯表,學習問題也變得異常困難。在如此龐大的選擇空間中建立可靠的概率分布,需要大量的訓練數據和計算資源。這就像讓一個人在幾百萬種顏色中準確選擇出最合適的一種來畫畫,即使是專業畫家也會感到無所適從。
研究團隊還嘗試了一種直接的解決方案:比特預測頭。這種方法不再直接預測詞匯表中的索引,而是逐個預測組成該索引的二進制位。比如,如果要預測索引65537(對應二進制1000000000000001),就逐個預測每一位是0還是1。這種方法確實解決了詞匯表擴展的計算問題,但帶來了新的性能下降。實驗顯示,比特預測頭在所有詞匯表大小上的表現都明顯劣于線性預測頭,而且隨著詞匯表擴大,性能退化更加嚴重。
這種性能退化的原因在于,直接的比特預測忽略了不同比特位之間的依賴關系。在索引的二進制表示中,高位比特通常比低位比特更重要,而且相鄰比特之間往往存在強相關性。簡單的逐位獨立預測無法捕捉這些復雜的結構關系,導致生成質量嚴重下降。
面對這個兩難困境,研究團隊意識到需要一種全新的方法來平衡計算效率和生成質量。他們的目標是設計一種既能處理任意大小詞匯表,又能保持甚至提升生成質量的預測機制。這個挑戰就像要設計一種既能快速查找又能準確理解的智能詞典系統。
三、掩碼比特建模:巧妙的解決方案
面對詞匯量爆炸的挑戰,亞馬遜研究團隊提出了一個巧妙的解決方案:掩碼比特建模(Masked Bit Modeling,MBM)。這種方法就像一個聰明的猜詞游戲,不是一次性猜出完整答案,而是通過逐步揭示線索來逼近正確答案。
掩碼比特建模的核心思想是將標記預測問題轉化為條件生成問題。傳統方法像是讓AI在幾百萬個選項中直接選擇一個,而MBM則像是玩填字游戲——先給出一些已知的字母,然后逐步填補空白處的字母,直到完成整個單詞。
具體來說,假設要預測一個用14位二進制數表示的圖像標記,比如"10110100110101"。MBM不會一次性預測整個14位序列,而是采用漸進式的方法。首先,它會隨機遮掩其中一部分比特位,比如變成"101M01M0MM0101"(M表示被遮掩的位)。然后,模型需要根據上下文信息和已知的比特位來預測被遮掩的位置應該填入0還是1。
這個過程分為多個步驟進行。在第一輪中,模型可能會預測出幾個最確定的比特位,比如將"101M01M0MM0101"變成"1011010MMM0101"。在第二輪中,基于新獲得的信息,模型繼續預測剩余的遮掩位,比如變成"101101001M0101"。這樣逐輪進行,直到所有比特位都被正確預測出來。
這種方法的優勢是顯而易見的。首先,它完全繞過了傳統方法中需要對整個大詞匯表進行softmax計算的問題。無論詞匯表有多大,MBM始終只需要對每個比特位進行二分類判斷(0或1),計算復雜度從O(V)降低到O(log V),其中V是詞匯表大小。當詞匯表從幾千擴展到幾百萬時,這種復雜度的降低是革命性的。
其次,漸進式預測過程本身就是一種強有力的正則化機制。就像人類在猜詞時會利用已知信息來推斷未知部分一樣,模型在每一輪預測中都能利用之前預測的結果來改進當前的判斷。這種自引導機制顯著提升了預測的準確性和魯棒性。
研究團隊在設計MBM時特別注意了比特位之間的依賴關系建模。他們使用了一個輕量級的多層網絡來處理比特序列,這個網絡能夠捕捉不同位置之間的復雜交互。網絡采用SwiGLU激活函數和adaLN歸一化層,這些都是當前最先進的神經網絡組件,確保了模型能夠學習到比特位之間的精細依賴模式。
在訓練過程中,掩碼策略的選擇也經過了精心設計。研究團隊對比了多種掩碼分布,包括arccos分布、均勻分布和logit-normal分布。出人意料的是,與典型的掩碼圖像建模方法(通常偏愛尾重分布如arccos)不同,BAR在簡單的均勻分布下表現最佳。這說明比特級別的預測任務具有與圖像塊級別預測不同的特性和需求。
采樣過程同樣體現了MBM的巧妙設計。在生成新圖像時,模型首先生成一個全為掩碼標記的比特序列,然后通過多輪迭代逐步"解碼"出真實的比特值。每一輪都會揭示一定數量的比特位,直到整個序列完全確定。這種漸進式生成不僅提高了生成質量,還為用戶提供了靈活的質量-速度權衡選擇。
四、實驗驗證:全方位的性能突破
為了驗證BAR方法的有效性,研究團隊進行了極其全面的實驗驗證。這些實驗就像一場嚴格的產品質量檢測,從多個維度全面評估BAR的性能表現。
在標記器性能方面,研究團隊首先驗證了擴大編碼書大小對重建質量的影響。他們使用BAR-FSQ標記器,將編碼書大小從2^10系統性地擴展到2^256。實驗結果清晰地展示了一個持續改善的趨勢:隨著比特預算的增加,重建質量steadily提升。特別值得注意的是,當比特預算達到16384時,BAR-FSQ就能達到與連續方法相當的重建質量(rFID約0.50)。而當比特預算進一步增加到65536時,BAR-FSQ的重建質量(rFID 0.33)明顯超越了廣泛使用的SD-VAE(rFID 0.62)。
在生成模型性能方面,研究團隊設計了詳細的對比實驗來驗證不同預測頭的效果。他們比較了三種方案:傳統的線性預測頭、直接的比特預測頭,以及提出的掩碼比特建模頭。實驗覆蓋了從2^10到2^64的廣泛編碼書大小范圍。結果顯示,線性預測頭在小詞匯表上表現良好,但無法擴展到大詞匯表。直接比特預測頭雖然能處理大詞匯表,但生成質量顯著下降,甚至在使用分類器無關引導的情況下,生成FID仍然超過2.6。相比之下,掩碼比特建模頭不僅能夠處理任意大小的詞匯表,還在所有測試規模上都實現了最佳的生成質量。
研究團隊還進行了細致的消融實驗來理解各個組件的貢獻。在掩碼策略方面,他們發現與傳統掩碼圖像建模不同,BAR在均勻掩碼分布下表現最佳,這揭示了比特級預測的獨特性質。在預測頭規模方面,實驗顯示增加預測頭的容量能夠持續改善性能,特別是對于較大的編碼書,更強的預測頭帶來更明顯的提升。在采樣策略方面,他們發現增加采樣步數從2步到3步能夠顯著提升質量,而進一步增加到5步或6步僅帶來邊際改善。
為了實現更高效的生成,研究團隊還探索了"標記混排"策略。這種方法通過調整空間下采樣率來平衡序列長度和每個標記的比特數。具體來說,BAR-B使用256個標記,每個16比特;BAR-B/2使用64個標記,每個64比特;BAR-B/4使用16個標記,每個256比特。實驗結果表明,這種策略能夠在生成質量和采樣速度之間實現靈活的權衡。BAR-B/2相比BAR-B在質量上僅有輕微下降(gFID從1.68增加到2.24),但采樣速度提升了6倍多。
在與現有方法的全面比較中,BAR展現出了壓倒性的優勢。在ImageNet-256基準上,BAR-B僅使用415M參數就達到了1.13的gFID,顯著超越了參數量為1.5B的RAR(gFID 1.48)和其他離散方法。更重要的是,BAR-B還超越了多個基于連續管道的強大方法,包括xAR(gFID 1.24)、DDT(gFID 1.26)、VA-VAE(gFID 1.35)和MAR(gFID 1.55)。
當擴展到更大的模型BAR-L時,性能進一步提升到新的高度。BAR-L實現了0.99的gFID,這不僅創下了離散方法的新紀錄,也超越了所有現有的連續方法,成為ImageNet-256上的新最佳結果。在ImageNet-512上的實驗同樣證實了BAR的優勢,BAR-L以1.09的gFID超越了所有對比方法。
五、效率革命:速度與質量的雙重勝利
BAR不僅在生成質量上創下新紀錄,在計算效率方面也實現了革命性突破。這種雙重勝利就像設計出了既快又好的交通工具,徹底改變了圖像生成的效率格局。
在采樣速度方面,BAR展現出了驚人的優勢。傳統的連續方法通常需要多步迭代過程,每一步都要進行復雜的擴散計算。而BAR作為自回歸方法,能夠一次性生成圖像,避免了反復迭代的開銷。更重要的是,掩碼比特建模頭的輕量級設計進一步減少了計算負擔。
具體數據顯示,BAR-B在保持1.13 gFID高質量的同時,采樣速度達到24.33圖像/秒,比MAR快20.45倍,比VA-VAE快16.11倍,比DDT快15.02倍,比xAR快11.99倍,比RAE快3.68倍。這種速度優勢在實際應用中具有重大意義,意味著用戶能夠在更短時間內獲得更高質量的生成結果。
更令人印象深刻的是BAR高效變體的表現。BAR-B/2在質量僅輕微下降的情況下(gFID 1.35),采樣速度達到150.52圖像/秒,與單步擴散模型MeanFlow(151.48圖像/秒)相當,但質量顯著更優(1.35 vs 2.20)。BAR-B/4進一步將采樣速度提升到445.48圖像/秒,比MeanFlow快近3倍,同時保持相當的生成質量(gFID 2.34 vs 2.20)。
這種效率提升的根本原因在于BAR獨特的架構設計。傳統方法需要在龐大的詞匯空間進行全局搜索,而BAR通過比特級預測將復雜的全局優化問題分解為一系列簡單的二分類問題。每個二分類問題的計算復雜度是固定的,不隨詞匯表大小變化,從而實現了真正的可擴展性。
掩碼比特建模的漸進式預測機制也貢獻了額外的效率優勢。與傳統的單步大詞匯表預測相比,多步小規模預測能夠更好地利用現代GPU的并行計算能力。每一輪預測涉及的計算都相對簡單,能夠高效地映射到GPU的計算單元上。
研究團隊還發現,BAR的訓練效率同樣出色。相比需要數千個epoch才能收斂的擴散模型,BAR通常在400個epoch內就能達到最佳性能。這不僅節省了大量的計算資源,也使得研究和開發周期大大縮短。對于資源受限的研究團隊或應用場景,這種訓練效率優勢具有重要的實用價值。
內存使用方面,BAR也展現出明顯優勢。傳統的大詞匯表線性預測頭需要存儲巨大的權重矩陣,當詞匯表大小達到百萬級別時,僅預測頭就可能占用數GB內存。而BAR的掩碼比特建模頭是輕量級的,無論詞匯表多大,其內存需求都保持在可控范圍內。這使得BAR能夠在相對便宜的硬件上運行大規模模型,降低了應用門檻。
從實際應用角度看,BAR的效率優勢意味著更廣泛的應用前景。快速的生成速度使得實時應用成為可能,比如互動式內容創作、實時視頻生成等。低內存需求讓BAR能夠部署在移動設備或邊緣計算設備上,擴展了應用場景。高訓練效率則降低了定制化模型的開發成本,讓更多組織能夠訓練適合自己需求的生成模型。
六、技術細節與創新亮點
BAR的成功不僅體現在最終性能上,更在于其背后眾多技術細節的精心設計和創新。這些技術創新就像一部精密機器中的各個齒輪,每一個看似微小的改進都為整體性能提升做出了重要貢獻。
在標記器設計方面,BAR采用了FSQ(Finite Scalar Quantization)量化器,這是一個關鍵的技術選擇。與傳統的VQ-GAN需要學習碼書不同,FSQ使用預定義的量化格網,避免了碼書優化的復雜性和不穩定性。這種設計使得BAR能夠平滑地擴展到任意大的碼書大小,從2^10一直到2^256,而不會遇到傳統方法在大碼書時的訓練困難。
標記器的架構融合了多項現代設計理念。編碼器從預訓練的SigLIP2-so400M初始化,利用了大規模視覺-語言預訓練的知識。解碼器采用ViT-L架構從頭訓練,確保了對圖像生成任務的專門優化。訓練目標結合了L1、L2、感知損失、Gram損失和GAN損失,形成了一個多目標優化框架,既保證重建精度又維護視覺質量。
生成器架構基于最先進的RAR模型,但引入了多項增強組件。RoPE(旋轉位置嵌入)提供了更好的位置編碼能力,特別適合長序列建模。SwiGLU激活函數和RMSNorm歸一化層是當前Transformer架構的最佳實踐,提供了更穩定的訓練動態和更強的表達能力。重復類別條件化機制增強了模型對輸入條件的敏感性,提升了條件生成的準確性。
掩碼比特建模頭的設計體現了計算效率和表達能力的精妙平衡。它采用3層SwiGLU網絡配合adaLN條件化,這種輕量級設計確保了快速推理的同時保持了足夠的建模能力。頭部的隱藏維度可以靈活調整,研究團隊發現較大的隱藏維度(特別是對于大碼書)能夠帶來顯著的性能提升,這體現了預測復雜度與模型容量之間的合理匹配。
在訓練策略方面,BAR采用了多階段訓練流程。標記器訓練分為兩個階段:初始訓練40個epoch建立基礎能力,然后對解碼器進行40個epoch的精調以優化生成質量。生成器訓練400個epoch,配合余弦學習率調度和100個epoch的預熱期。這種精心設計的訓練計劃確保了模型能夠穩定收斂到最優性能。
采樣策略的創新也是BAR的重要特色。不同于傳統的單步采樣或固定步數采樣,BAR提供了靈活的比特揭示調度。默認的[4,4,4,4]調度在4個步驟中均勻揭示比特,而[2,2,5,7]這樣的后重調度在使用分類器無關引導時能夠獲得更好的效果。這種靈活性讓用戶能夠根據質量需求和時間約束選擇最適合的采樣策略。
模型的可擴展性設計體現了對未來發展的深思熟慮。BAR-B和BAR-L采用了類似ViT的擴展策略,通過增加層數、隱藏維度和注意力頭數來提升模型容量。這種擴展方式已經在多個視覺任務中被證實有效,為BAR向更大規模發展提供了清晰的路徑。
技術實現上的諸多細節也體現了研究團隊的深厚功力。mixed precision訓練使用bfloat16格式平衡了訓練速度和數值穩定性。梯度裁剪和權重衰減等正則化技術防止了訓練過程中的數值問題。KV緩存機制在推理時避免了重復計算,進一步提升了采樣效率。
這些技術創新的協同作用創造了BAR的卓越性能。每一個組件都經過精心調試和優化,形成了一個高度集成的系統。這種系統級的創新思維,而非單點突破的思路,是BAR能夠在多個維度同時實現突破的關鍵原因。
七、深遠影響與未來前景
BAR的成功不僅僅是一個技術突破,更代表了AI圖像生成領域的范式轉變。這種影響就像智能手機的出現改變了整個通訊行業一樣,將在多個層面產生深遠的影響。
在學術研究層面,BAR重新定義了離散與連續方法的競爭格局。長期以來,學術界普遍認為連續方法在圖像生成上具有天然優勢,大量研究資源都投入到連續方法的改進上。BAR的成功表明,這種偏見可能阻礙了對離散方法潛力的充分挖掘。現在,研究者們需要重新審視兩種方法的根本差異,這可能催生出更多創新性的混合方法或全新的技術路線。
從技術發展角度看,BAR提出的"比特預算"概念為視覺標記化建立了新的評估標準。這種統一的度量方式不僅有助于公平比較不同方法,更重要的是為未來的研究提供了明確的優化目標。研究者們現在可以更精確地分析信息容量與生成質量之間的關系,這將推動更高效的壓縮和生成算法的發展。
掩碼比特建模的成功也為序列建模領域帶來了新的啟示。傳統的語言模型和視覺生成模型都依賴大詞匯表的直接預測,但BAR證明了將復雜預測任務分解為簡單二分類任務的有效性。這種思路可能在其他需要處理大規模離散空間的任務中找到應用,比如音頻生成、3D模型生成等。
在實際應用方面,BAR的高效性能為實時圖像生成應用打開了新的可能性。以往受限于計算成本而無法實現的應用場景,現在變得可行。比如,實時的個性化內容創作、交互式游戲場景生成、實時視頻特效等。特別是BAR-B/4達到445圖像/秒的驚人速度,已經接近實時視頻的幀率要求,這為視頻生成應用提供了新的技術基礎。
從商業化角度看,BAR的高效性和高質量為AI圖像生成的大規模部署提供了經濟可行的解決方案。傳統的高質量圖像生成需要昂貴的計算資源,限制了其商業化規模。BAR在保持頂級質量的同時大幅降低了計算成本,這將加速AI圖像生成技術在各行各業的普及。
教育和研究資源的民主化是另一個重要影響。BAR的高訓練效率和低資源需求降低了進入門檻,讓資源有限的研究機構和個人開發者也能訓練高質量的生成模型。這種技術門檻的降低將促進創新的多樣化,可能催生出更多創意性的應用。
在多模態AI發展方面,BAR作為一個純離散的高性能視覺生成模型,為統一的多模態大模型提供了新的技術路徑。由于離散標記與語言模型的天然兼容性,BAR生成的視覺表示可以更容易地與文本處理集成,推動真正統一的多模態智能系統的發展。
從技術演進的更大圖景看,BAR代表了AI領域從"bigger is better"向"smarter is better"的轉變。它證明了通過巧妙的設計可以在不顯著增加計算成本的前提下實現性能突破。這種思路對于AI技術的可持續發展具有重要意義,特別是在當前對AI碳排放和能源消耗日益關注的背景下。
展望未來,BAR開啟的技術路線還有巨大的發展空間。比如,探索更先進的比特預測策略、研究自適應碼書大小的動態調整機制、開發針對特定應用優化的變種模型等。這些方向的研究將進一步推動圖像生成技術的發展邊界。
說到底,BAR不僅僅是一個技術突破,更是一次思維方式的轉變。它提醒我們,在追求技術進步時,重新審視基礎假設和探索新的解決思路往往比單純的模型擴展更有價值。這種創新精神將繼續推動AI技術向更高效、更智能、更實用的方向發展。
亞馬遜團隊的這項研究徹底改變了我們對圖像生成技術的理解。他們證明了離散方法并非天生劣勢,而是一直在"營養不良"的狀態下競爭。通過巧妙的掩碼比特建模技術,BAR不僅解決了大詞匯表的計算難題,還實現了質量和速度的雙重突破。這項研究的意義遠超技術層面,它為整個AI領域提供了重新思考問題本質的寶貴啟示。隨著這種技術的進一步發展和應用,我們有理由相信,AI圖像生成將進入一個全新的時代。
Q&A
Q1:BAR是什么技術?
A:BAR是亞馬遜開發的全新圖像生成技術,全稱是"掩碼比特自回歸建模"。它的核心創新是用"猜詞游戲"的方式生成圖像——不是一次性選擇答案,而是逐步揭示比特位來預測圖像內容。這種方法既能處理超大詞匯表,又保持極高的生成速度和質量,在ImageNet-256上創下0.99的質量新紀錄。
Q2:為什么BAR比傳統方法更快?
A:BAR的速度優勢來源于其獨特的預測方式。傳統方法需要在幾百萬個詞匯中直接選擇,就像在巨大圖書館里找書。而BAR將復雜問題分解為簡單的0/1判斷,每次只需要回答"是或否",計算量大幅減少。實測顯示BAR-B達到24.33圖像/秒,比同等質量的其他方法快數十倍。
Q3:離散方法和連續方法有什么區別?
A:這就像數字相機和膠片相機的區別。連續方法像膠片相機,處理的是平滑漸變的信息;離散方法像數字相機,處理的是分離的數字編碼。以前人們認為離散方法天生不如連續方法,但BAR研究發現,問題出在"像素"不夠高——給離散方法分配足夠的信息容量后,它的表現完全可以超越連續方法。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.