<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      VFMTok: Visual Foundation Models驅(qū)動(dòng)的Tokenizer時(shí)代來(lái)臨

      0
      分享至



      視覺(jué) Tokenizer 的困境與破局

      近年來(lái),自回歸(Autoregressive, AR)模型在語(yǔ)言生成領(lǐng)域的成功激發(fā)了其在圖像生成領(lǐng)域的應(yīng)用,涌現(xiàn)出 DALL-E、Parti、VAR 和 LlamaGen 等代表性工作。這類技術(shù)高度依賴于 VQGAN 等視覺(jué) Tokenizer,它負(fù)責(zé)將高維、冗余的像素空間映射到一個(gè)低維、緊湊的離散潛在空間,是決定生成模型上限的基石。

      然而,以 VQGAN 為代表的傳統(tǒng) Tokenizer 通常需要從零開(kāi)始訓(xùn)練,其訓(xùn)練目標(biāo)由像素級(jí)重建損失函數(shù)主導(dǎo),導(dǎo)致其產(chǎn)生的潛在空間:

      1. 富含低層細(xì)節(jié)特征卻缺乏高層語(yǔ)義信息:能很好地還原圖像細(xì)節(jié),但潛在編碼本身缺乏高層語(yǔ)義信息。
      2. 較高的潛在空間冗余:VAGAN 基于圖像塊 (patch) 逐一進(jìn)行量化,而圖像中的物體通常是不規(guī)則的區(qū)域,基于圖像塊的量化降低了 tokens 的編碼效率。
      3. 無(wú)視結(jié)構(gòu)特性的表征:潛在空間的組織較為混亂,使得生成模型不僅需要更長(zhǎng)的訓(xùn)練時(shí)間來(lái)學(xué)習(xí)其潛在空間分布,而且往往得借助 CFG(Classifier-Free Guidance, CFG)等技巧來(lái)實(shí)現(xiàn)高保真度的圖像生成,增加了模型推理時(shí)間。

      與此同時(shí),預(yù)訓(xùn)練的視覺(jué)基礎(chǔ)模型(Visual Foundation Models, VFMs),如 CLIP、DINOv2、SigLIP2 等,在提取豐富語(yǔ)義且可泛化視覺(jué)特征方面表現(xiàn)出了強(qiáng)大的能力。這些模型通過(guò)自監(jiān)督或語(yǔ)言監(jiān)督的方式進(jìn)行訓(xùn)練,它們能夠有效抽象出圖像中的高層語(yǔ)義信息,因此這些預(yù)訓(xùn)練的視覺(jué)基礎(chǔ)模型大多應(yīng)用于圖像內(nèi)容理解任務(wù)當(dāng)中。直接將其應(yīng)用于圖像重建和生成任務(wù)上卻鮮有人探索。

      基于此,香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團(tuán)隊(duì)提出一個(gè)大膽假設(shè):原本為視覺(jué)理解任務(wù)設(shè)計(jì)的預(yù)訓(xùn)練視覺(jué)基礎(chǔ)模型,其潛在特征是否也能直接作為圖像重建與生成的魯棒結(jié)構(gòu)化表征?

      為了驗(yàn)證這一猜想,我們探索了一個(gè)基礎(chǔ)視覺(jué)模型新的應(yīng)用新方向:用凍結(jié)的預(yù)訓(xùn)練視覺(jué)基礎(chǔ)模型構(gòu)造離散的視覺(jué) Tokenizer,將其應(yīng)用于圖像重建和自回歸圖像生成任務(wù)上。

      我們發(fā)現(xiàn),相比于傳統(tǒng)的視覺(jué) Tokenizer 模型,視覺(jué)基礎(chǔ)模型驅(qū)動(dòng)的圖像 Tokenizer 在這兩項(xiàng)任務(wù)上均表現(xiàn)出優(yōu)異的性能。



      • 論文標(biāo)題: Vision Foundation Models as Effective Visual Tokenizers for Autoregressive Generation
      • 論文地址: https://arxiv.org/pdf/2507.08441
      • Huggingface: https://huggingface.co/papers/2507.08441
      • Github:
      • https://github.com/CVMI-Lab/VFMTok.git (Vanilla version)
      • https://github.com/CVMI-Lab/VFMTok-RAR.git (Ultra version)

      探索性發(fā)現(xiàn)

      為了驗(yàn)證視覺(jué)基礎(chǔ)模型 (VFMs) 能否構(gòu)造高質(zhì)量的視覺(jué) Tokenizer,我們首次嘗試使用不同的凍結(jié)的預(yù)訓(xùn)練基礎(chǔ)視覺(jué)模型 (VFMs) 提取圖像特征,將其送入 VQGAN 的編碼器中進(jìn)行端到端訓(xùn)練。訓(xùn)練階段只有量化器(quantilizer)和解碼器中的參數(shù)會(huì)進(jìn)行更新,隨后用它完成自回歸圖像生成任務(wù)。

      實(shí)驗(yàn)表明:凍結(jié)的視覺(jué)基礎(chǔ)模型 (VFMs) 提取的圖像特征可以直接用于圖像重建,且訓(xùn)練好的視覺(jué) Tokenizer 在自回歸圖像生成任務(wù)上的表現(xiàn)優(yōu)于傳統(tǒng)的視覺(jué) Tokenizer 模型。

      這一發(fā)現(xiàn)凸顯了預(yù)訓(xùn)練視覺(jué)基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量視覺(jué) Tokenizer 的巨大潛力。



      核心思想

      基于我們的探索性發(fā)現(xiàn):凍結(jié)的視覺(jué)基礎(chǔ)模型 (VFMs) 可以直接構(gòu)造高質(zhì)量的視覺(jué) Tokenizer 并進(jìn)行端到端地訓(xùn)練,我們對(duì)構(gòu)造的視覺(jué) Tokenizer 的結(jié)構(gòu)進(jìn)行進(jìn)一步的優(yōu)化 —— 利用視覺(jué)基礎(chǔ)模型 (VFMs)提取圖像的多層特征 (Multi-level Features Extraction),這有助于同時(shí)捕獲圖像中的低層細(xì)節(jié)特征和高層語(yǔ)義信息。

      同時(shí),我們注意到現(xiàn)有的量化機(jī)制 (quantization) 都是對(duì)圖像塊 (patch) 逐一量化,而圖像中物體一般都是形狀不規(guī)則的,因此我們?cè)O(shè)計(jì)了區(qū)域自適應(yīng)的量化 (Region-Adaptive Quantization) 方案。該方案可以進(jìn)一步降低潛在特征空間的冗余度,提高視覺(jué) tokens 的利用效率。

      此外,因?yàn)橐曈X(jué)基礎(chǔ)模型的參數(shù)是凍結(jié)的,因此在重建圖像內(nèi)容的同時(shí),我們也設(shè)計(jì)了語(yǔ)義特征重建的目標(biāo)函數(shù) (Semantic Reconstruction Objective),來(lái)提升視覺(jué) Tokenizer 的語(yǔ)義保真度。我們將基于視覺(jué)基礎(chǔ)模型 (VFMs) 的 Tokenizer 稱之為VFMTok。



      VFMTok 架構(gòu)圖

      關(guān)鍵技術(shù)細(xì)節(jié)

      • 多層圖像特征提取 (Multi-level Features Extraction)

      為了同時(shí)捕獲圖像低層細(xì)節(jié)特征和高層語(yǔ)義信息方便圖像重建,VFMTok 采用凍結(jié)的預(yù)訓(xùn)練的視覺(jué)基礎(chǔ)模型 (VFMs) 作為編碼器提取多層級(jí)語(yǔ)義特征。VFMTok 按照等間隔的方式從預(yù)訓(xùn)練基礎(chǔ)模型 (VFMs) 中提取多層特征 (multi-level features)。

      • 區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization)

      為了實(shí)現(xiàn)區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 機(jī)制,VFMTok 通過(guò)可學(xué)習(xí)「錨點(diǎn)查詢」(Anchor Queries)結(jié)合可變形注意力機(jī)制(Deformable Attention)自適應(yīng)地從多層級(jí)特征 (multi-level features) 中進(jìn)行區(qū)域自適應(yīng)的特征采樣 (Region-Adaptive Sampling)。

      這種方式能聚焦于采樣圖像中模式一致的區(qū)域。隨后,VFMToks 對(duì)可學(xué)習(xí)「錨點(diǎn)查詢」(Anchor Queries)進(jìn)行量化 (quantization)。這種方式可以有效提升 token 的利用效率 —— 用更少的 tokens(256)來(lái)表征一張圖像。



      • 語(yǔ)義重建目標(biāo)(Semantic Reconstruction Objective)

      因?yàn)橐曈X(jué)基礎(chǔ)模型在 Tokenizer 的訓(xùn)練階段參數(shù)是凍結(jié)的,因此 VFMTok 在重建圖像的同時(shí),也會(huì)重建凍結(jié)的基礎(chǔ)模型(VFM)最后一層的語(yǔ)義特征。

      為了實(shí)現(xiàn)這一點(diǎn),VFMTok 解碼階段設(shè)計(jì)了一個(gè)共享的輕量級(jí) Vision Transformer(ViT)。這個(gè) ViT 接收區(qū)域自適應(yīng)量化后的 tokens,結(jié)合一個(gè)可學(xué)習(xí)的 mask token 以及一組可學(xué)習(xí)的位置編碼(Positional Embedding)作為輸入,分別產(chǎn)生用于圖像重建和語(yǔ)義重建的特征。共享 ViT 的設(shè)計(jì)既減少了參數(shù)量又保證了語(yǔ)義保真度。其雙重目標(biāo)函數(shù)是:





      訓(xùn)練完成后,VFMTok 可以被應(yīng)用于圖像自適應(yīng)回歸任務(wù)上,基于 next-token prediction 的方式生成高質(zhì)量的圖像內(nèi)容。

      實(shí)驗(yàn)亮點(diǎn)與分析

      1.卓越的重建生成質(zhì)量與效率

      大量實(shí)驗(yàn)表明,基于視覺(jué)基礎(chǔ)模型 (VFMs) 構(gòu)造的視覺(jué) Tokenizer——VFMTok,具備高質(zhì)量、高效率的圖像重建和自回歸圖像生成能力。

      • 更好的圖像重建質(zhì)量:相較于傳統(tǒng)的視覺(jué) Tokenizer,VFMTok 可以用更少的 token 數(shù)量(僅用 256 個(gè))實(shí)現(xiàn)更優(yōu)的重建質(zhì)量(0.89 rFID, 215.4 rIS)和更高的碼本利用率 (100%),超越了之前大部分傳統(tǒng)的離散 Tokenizers。



      • 更快的生成訓(xùn)練收斂速度:相比于經(jīng)典的 VQGAN 這類 Tokenizer,VFMTok 能夠顯著提升自回歸模型訓(xùn)練階段的收斂速度 ——訓(xùn)練收斂速度提升了 3 倍。



      • 更好的生成性能:在 ImageNet 256x256 的 class-to-image 生成任務(wù)上,VFMTok-1.4B 模型在參數(shù)量更少、訓(xùn)練迭代次數(shù)更少的情況下,自回歸生成性能超越了同類 LlamaGen-3B。此外,在接入更好的自回歸圖像生成框架 RAR 后,實(shí)現(xiàn)了SOTA 的圖像生成性能(gFID: 1.36)。



      • CFG-free 優(yōu)越性:值得注意的是,VFMTok 在有無(wú) CFG 的情況下性能幾乎一致(gFID: 2.07 vs 2.04),而 LlamaGen 則會(huì)從 2.19 急劇惡化至 9.38。這證明了其潛在空間具有極強(qiáng)的語(yǔ)義一致性,無(wú)需 CFG 即可實(shí)現(xiàn)高保真度的 class-to-image 圖像生成,可以進(jìn)一步減少圖像生成時(shí)間。
      • 更快的推理速度:由于 tokens 數(shù)量減半(256 vs. 576),自回歸模型的生成過(guò)程長(zhǎng)度減半,推理速度因此獲得了約 4 倍的提升。

      2.消融實(shí)驗(yàn)的有力證明

      僅使用凍結(jié)的 VFM 作為編碼器,線性探針準(zhǔn)確率(linear probing)就從 VQGAN 的 23.1% 提升至56.4%。引入?yún)^(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 和語(yǔ)義特征重建 (Semantic Reconstruction Objective) 后,VFMTok 僅用 256 個(gè) Token 就能在重建質(zhì)量(rFID 0.89 vs 0.95) 上全面超越使用 576 個(gè) Token 的 VQGAN 基線 Tokenizer。



      總結(jié)與展望

      VFMTok 首次證明了凍結(jié)的視覺(jué)基礎(chǔ)模型 (VFMs) 提取的圖像特征能有效用于圖像重建與生成,同時(shí)可以提升 Tokenizer 語(yǔ)義表征能力,使自回歸 (AR) 圖像生成模型收斂更快,并能實(shí)現(xiàn) CFG-free 的高保真圖像合成。VFMTok 提出的區(qū)域自適應(yīng)量化機(jī)制,通過(guò)有效利用圖像區(qū)域的固有冗余實(shí)現(xiàn)緊湊編碼,在減少視覺(jué) token 數(shù)量的同時(shí)提升性能,實(shí)現(xiàn)高效且高質(zhì)量的自回歸圖像生成。

      大量實(shí)驗(yàn)驗(yàn)證了 VFMTok 在圖像重建和自回歸生成中的有效性,確立了預(yù)訓(xùn)練視覺(jué)基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量、高效率 Tokenizer 的主導(dǎo)地位。

      由此可見(jiàn),利用 VFM 的先驗(yàn)知識(shí)是構(gòu)建高質(zhì)量潛在空間的必由之路,也是構(gòu)建下一代 Tokenizer 的關(guān)鍵,這比任何從零開(kāi)始的正則化或約束都更根本、更有效。預(yù)訓(xùn)練視覺(jué)基礎(chǔ)模型的巨大潛力值得我們?cè)谖磥?lái)深入挖掘,最終可能探索出一個(gè)能夠有效兼容所有生成模型的、語(yǔ)義豐富、高質(zhì)高效的「統(tǒng)一 Tokenizer」。

      VFMTok 論文與代碼均已公開(kāi),歡迎感興趣的同學(xué)閱讀、復(fù)現(xiàn)以及深入討論。

      作者介紹

      本文作者主要來(lái)自于香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團(tuán)隊(duì)。階躍星辰 AIGC 團(tuán)隊(duì)主要致力于圖像生成底模、圖像編輯底模、世界模型以及 RL 后訓(xùn)練研究和落地。歡迎志同道合的同學(xué)交流和加入,一起為 AIGC 社區(qū)貢獻(xiàn)力量。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      魔笛助攻鐵衛(wèi)處子球,AC米蘭1-1羅馬,國(guó)米三喜臨門(mén)成最大贏家

      魔笛助攻鐵衛(wèi)處子球,AC米蘭1-1羅馬,國(guó)米三喜臨門(mén)成最大贏家

      釘釘陌上花開(kāi)
      2026-01-26 05:40:44
      為什么半個(gè)世紀(jì)了,年輕人還往廣東跑?背后真相太現(xiàn)實(shí)……

      為什么半個(gè)世紀(jì)了,年輕人還往廣東跑?背后真相太現(xiàn)實(shí)……

      樓市諸葛
      2026-01-25 19:09:07
      葛曉倩隔空喊話“出錘”張雨綺,雙胞胎相差三個(gè)月,卻就讀不同年級(jí)

      葛曉倩隔空喊話“出錘”張雨綺,雙胞胎相差三個(gè)月,卻就讀不同年級(jí)

      今古深日?qǐng)?bào)
      2026-01-26 09:18:00
      華裔政治家族,卻遭特朗普清洗!特朗普如何扳倒“趙家人”?

      華裔政治家族,卻遭特朗普清洗!特朗普如何扳倒“趙家人”?

      觀察者海風(fēng)
      2026-01-20 15:14:58
      1-1!意甲2強(qiáng)一夜不勝:米蘭差榜首5分,那不勒斯慘敗,國(guó)米笑了

      1-1!意甲2強(qiáng)一夜不勝:米蘭差榜首5分,那不勒斯慘敗,國(guó)米笑了

      體育知多少
      2026-01-26 07:51:31
      媒體人:楊鳴向遼寧隊(duì)提出辭職,今天上午俱樂(lè)部會(huì)發(fā)離任公告

      媒體人:楊鳴向遼寧隊(duì)提出辭職,今天上午俱樂(lè)部會(huì)發(fā)離任公告

      懂球帝
      2026-01-26 11:37:07
      勇士大勝!庫(kù)里26+2+7,最后3分21秒,庫(kù)里從替補(bǔ)席起身走入通道

      勇士大勝!庫(kù)里26+2+7,最后3分21秒,庫(kù)里從替補(bǔ)席起身走入通道

      擔(dān)酒
      2026-01-26 08:52:43
      瀘州白骨案?jìng)善苾?nèi)幕,全靠?jī)蓚€(gè)關(guān)鍵人物:一個(gè)說(shuō)漏嘴,一個(gè)記性好

      瀘州白骨案?jìng)善苾?nèi)幕,全靠?jī)蓚€(gè)關(guān)鍵人物:一個(gè)說(shuō)漏嘴,一個(gè)記性好

      社會(huì)日日鮮
      2026-01-23 08:44:02
      國(guó)臺(tái)辦選擇冷處理鄭麗文事件,是對(duì)“聽(tīng)其言、觀其行”

      國(guó)臺(tái)辦選擇冷處理鄭麗文事件,是對(duì)“聽(tīng)其言、觀其行”

      扶蘇聊歷史
      2026-01-26 11:29:55
      一手好牌打得稀爛?央視《太平年》高開(kāi)低走,三大原因勸退觀眾

      一手好牌打得稀爛?央視《太平年》高開(kāi)低走,三大原因勸退觀眾

      往史過(guò)眼云煙
      2026-01-25 14:13:20
      匈牙利第七所孔子學(xué)院揭牌

      匈牙利第七所孔子學(xué)院揭牌

      財(cái)聯(lián)社
      2026-01-25 10:54:17
      小米18系列繼續(xù)首發(fā)驍龍8 Elite Gen6!9月見(jiàn)

      小米18系列繼續(xù)首發(fā)驍龍8 Elite Gen6!9月見(jiàn)

      快科技
      2026-01-26 10:44:18
      陳道明戳破養(yǎng)老真相:所謂養(yǎng)老,不過(guò)是清醒時(shí)自渡,糊涂前自在

      陳道明戳破養(yǎng)老真相:所謂養(yǎng)老,不過(guò)是清醒時(shí)自渡,糊涂前自在

      青蘋(píng)果sht
      2026-01-20 05:51:45
      68歲大媽喜歡睡前泡腳,不久腦梗去世,醫(yī)生怒斥:太無(wú)知了

      68歲大媽喜歡睡前泡腳,不久腦梗去世,醫(yī)生怒斥:太無(wú)知了

      醫(yī)學(xué)科普匯
      2025-12-13 16:40:05
      唯一在世的中共一代領(lǐng)導(dǎo)人,曾任中央政治局常委,如今109歲

      唯一在世的中共一代領(lǐng)導(dǎo)人,曾任中央政治局常委,如今109歲

      星辰故事屋
      2026-01-23 12:14:47
      張獻(xiàn)忠是如何莫名其妙地死在四川南充鳳凰山的?

      張獻(xiàn)忠是如何莫名其妙地死在四川南充鳳凰山的?

      小豫講故事
      2026-01-26 06:00:10
      爭(zhēng)議點(diǎn)球葬送好局!保守的阿萊格里,讓米蘭到手的勝利三分飛了

      爭(zhēng)議點(diǎn)球葬送好局!保守的阿萊格里,讓米蘭到手的勝利三分飛了

      里芃芃體育
      2026-01-26 10:29:49
      1996年, 施瓦辛格在家中無(wú)事,和35歲200斤女傭發(fā)生不當(dāng)關(guān)系

      1996年, 施瓦辛格在家中無(wú)事,和35歲200斤女傭發(fā)生不當(dāng)關(guān)系

      南權(quán)先生
      2026-01-20 15:49:53
      還能交易走嗎?勇士官方:庫(kù)明加左膝過(guò)度伸展,幾日后復(fù)查

      還能交易走嗎?勇士官方:庫(kù)明加左膝過(guò)度伸展,幾日后復(fù)查

      懂球帝
      2026-01-26 08:16:04
      突發(fā)!張雨綺被遼寧春晚緊急撤下!頂流短劇男星被女友曝涉D!

      突發(fā)!張雨綺被遼寧春晚緊急撤下!頂流短劇男星被女友曝涉D!

      魔都囡
      2026-01-26 11:39:36
      2026-01-26 12:11:00
      機(jī)器之心Pro incentive-icons
      機(jī)器之心Pro
      專業(yè)的人工智能媒體
      12182文章數(shù) 142549關(guān)注度
      往期回顧 全部

      科技要聞

      印奇再上牌桌,階躍融資50億

      頭條要聞

      40歲假肢舞者誕下四胎 因汶川地震痛失女兒、雙腿截肢

      頭條要聞

      40歲假肢舞者誕下四胎 因汶川地震痛失女兒、雙腿截肢

      體育要聞

      叛逆的大公子,要砸了貝克漢姆這塊招牌

      娛樂(lè)要聞

      張雨綺被實(shí)名舉報(bào)代孕、插足婚姻

      財(cái)經(jīng)要聞

      從美式斬殺線看中國(guó)社會(huì)的制度韌性構(gòu)建

      汽車要聞

      雙門(mén)雙座+純電后驅(qū) 全新smart精靈#2原型概念車4月首發(fā)

      態(tài)度原創(chuàng)

      本地
      健康
      藝術(shù)
      手機(jī)
      房產(chǎn)

      本地新聞

      云游中國(guó)|格爾木的四季朋友圈,張張值得你點(diǎn)贊

      耳石脫落為何讓人天旋地轉(zhuǎn)+惡心?

      藝術(shù)要聞

      溥心畬的花鳥(niǎo),淡雅清新

      手機(jī)要聞

      首款性能Ultra旗艦來(lái)了!iQOO 15 Ultra定檔2月4日

      房產(chǎn)要聞

      6大碾壓級(jí)優(yōu)勢(shì)!2025海口最強(qiáng)書(shū)包房來(lái)了!

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 亚洲性线免费观看视频成熟| 国产自啪精品视频网站丝袜| 国产伦孑沙发午休精品 | 国产婷婷综合在线视频| 国模大胆一区二区三区| 伊人久久无码中文字幕| 天堂a无码a无线孕交| 国产熟女区| 久久精品国产亚洲AⅤ无码| 人妻熟女久久久久久久| 日本毛茸茸的丰满熟妇| 男人进入女人下部视频| AV在线无码| 野花香在线视频免费观看大全 | 亚洲无码五区| 久久精品国产亚洲AⅤ无码 | 亚洲无码精品人妻| 丰满少妇人妻无码| 中文字幕亚洲在线观看| 一区二区三区激情免费视频| 99国产成人综合久久精品| 亚洲精品乱码久久久久久蜜桃| 国产精品毛片一区视频播| 第一福利导航视频| 色综合久久久久无码专区| 香蕉久久精品日日躁夜夜躁夏| 91综合网| 亚洲精品影视| 成年网站拍拍拍Av| 亚洲男人的天堂在线播放| 精品欧洲av无码一区二区| 无码天堂| 丰满少妇a级黄片在线免费观看| 欧美丰满熟妇xxxx性ppx人交| 四虎永久免费在线| 亚洲乱码精品中文字幕| 精品尤物国产尤物在线看| 国产真实露脸乱子伦| 亚洲AV专区无码观看精品天堂| 又大又粗欧美黑人aaaaa片| 国模无码在线|