<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      姚順雨入職騰訊50天后,發(fā)布了首篇署名論文:CL-Bench

      0
      分享至

      前兩天大家都在吐槽被元寶紅包活動刷屏了。那一頭,千問又出來整春節(jié)30億紅包的活動。

      我倒是不介意大廠們在用戶福利上繼續(xù)競爭,卷一卷的。至少我的3塊2毛6今天是領(lǐng)導(dǎo)了~


      不過今天小龍哥好像終于打完高爾夫回來看手機(jī)了,微信安全中心出手,認(rèn)定元寶紅包「誘導(dǎo)用戶高頻分享」,直接把鏈接給屏蔽了。


      還能這么玩...

      全網(wǎng)都在討論這事,不過我倒是真沒興趣寫長文吃瓜的。

      而是我覺得在這個熱鬧里,騰訊AI團(tuán)隊發(fā)的一篇還挺有趣,甚至未來可能挺重要的論文可能被忽略了。

      這是2月3日,姚順雨加入騰訊后的第一篇署名論文。


      這事得從去年說起。

      2025年4月,還在OpenAI工作的姚順雨發(fā)了一篇博客,叫《The Second Half》(AI的下半場)。


      那篇文章里有一句話讓我印象很深:

      「下半場將把重心從'解決問題'轉(zhuǎn)向'定義問題'。我們不再只是問'能不能訓(xùn)練出一個模型解決X問題?',而是要問'我們究竟應(yīng)該讓AI去做什么?又該如何衡量真正的進(jìn)展?'」

      當(dāng)時看完覺得,說得挺對,但有點(diǎn)虛。因為他只提出了問題,但怎么定義?沒說。

      現(xiàn)在算是有階段性答案了。

      這篇論文叫《CL-bench: A Benchmark for Context Learning》,做了一個新的benchmark。測試結(jié)果是:所有前沿模型,平均分17.2%。最強(qiáng)的GPT-5.1也只拿到23.7%。

      集體不及格。

      先回顧一下《The Second Half》說了什么

      去年12月姚順雨入職騰訊的時候,我寫過一篇文章介紹他的背景和這篇博客。這里再簡單說一下核心觀點(diǎn)。


      姚順雨認(rèn)為,過去幾十年AI的主要精力都放在「上半場」——開發(fā)新的訓(xùn)練方法和模型。從DeepBlue到AlphaGo,從GPT到o-series,歷史性的突破都來自于「如何訓(xùn)練出更好的模型」。

      但現(xiàn)在,這個配方已經(jīng)基本標(biāo)準(zhǔn)化了:大規(guī)模語言預(yù)訓(xùn)練 + 數(shù)據(jù)和算力擴(kuò)展 + 推理與行動范式。用這套配方,可以解決軟件開發(fā)、創(chuàng)意寫作、IMO級數(shù)學(xué)題等各種任務(wù)。

      那下半場要做什么?

      姚順雨提出了一個關(guān)鍵概念:效用問題(Utility Problem)。

      他說,AI已經(jīng)在國際象棋和圍棋上擊敗了世界冠軍,在SAT和律師資格考試中超過了大多數(shù)人類。可世界并沒有發(fā)生太大改變——至少從經(jīng)濟(jì)和GDP的角度來看如此。

      為什么?

      因為我們的評估方式和現(xiàn)實(shí)世界存在根本差異。

      比如,現(xiàn)有的benchmark假設(shè)任務(wù)是「自動運(yùn)行」的——模型接收輸入,自主執(zhí)行,得到結(jié)果。但現(xiàn)實(shí)中,AI必須在任務(wù)過程中持續(xù)與人類互動。

      再比如,現(xiàn)有的benchmark假設(shè)任務(wù)是「獨(dú)立同分布」的——500個測試任務(wù),獨(dú)立運(yùn)行,取平均分。但現(xiàn)實(shí)中,任務(wù)是連續(xù)進(jìn)行的。一個Google工程師在同一個代碼庫工作久了,效率會越來越高;但AI在同一個代碼庫解決了很多問題,卻無法獲得這種「熟悉度」。

      所以姚順雨說,下半場的新玩法是:開發(fā)新的評估方式,以衡量真實(shí)世界的效用。

      CL-Bench就是這個思路的第一次落地。

      CL-Bench測的是什么?

      先說一個反常識的現(xiàn)象。

      現(xiàn)在的前沿模型(Frontier Model)在各種長上下文benchmark上表現(xiàn)都很好。標(biāo)準(zhǔn)的「大海撈針」測試,幾乎所有模型都能拿到接近滿分。LongBench v2這種閱讀理解測試,模型得分甚至能以兩倍的水平遠(yuǎn)超人類。

      但一進(jìn)入Agent干活模式,模型就不行了。

      為什么?我琢磨了一下,發(fā)現(xiàn)這里面有個關(guān)鍵的區(qū)分。

      因為真實(shí)場景需要的不是「從上下文中找到信息」,而是「從上下文中學(xué)會知識,然后用這些知識解決問題」。

      這是兩回事。

      舉個例子。一個律師拿到一份新的監(jiān)管文件,需要立即理解其中的條款并為客戶提供建議。一個工程師閱讀一份剛發(fā)布的產(chǎn)品手冊,需要快速掌握操作流程來排除故障。

      這時候,你需要的知識就在手頭的材料里。但你必須真正學(xué)會它,才能正確地用起來。

      這種能力,騰訊混元團(tuán)隊稱之為「上下文學(xué)習(xí)」(Context Learning)。

      注意,這和我們更熟悉的「In-Context Learning」(ICL)不是一回事。

      ICL是給模型幾個例子,讓它學(xué)會一個簡單的模式。比如給三個「英文→中文」的翻譯例子,模型就知道接下來要做翻譯。這是一種淺層的模式匹配。

      Context Learning要求更高——模型需要從上下文中學(xué)習(xí)復(fù)雜的、結(jié)構(gòu)化的知識體系,然后在新的場景中正確應(yīng)用這些知識。

      打個比方:ICL像是看幾道例題就去做作業(yè),Context Learning像是讀完整本教材再去考試。

      四類任務(wù):學(xué)生、數(shù)學(xué)家、操作員、科學(xué)家


      CL-Bench設(shè)計了四類任務(wù),難度遞進(jìn):

      1. 知識獲取(模擬學(xué)生)

      給模型一份虛構(gòu)的百科全書,考察它能不能準(zhǔn)確記住并應(yīng)用這些知識。

      比如給一個虛構(gòu)國家的完整法律體系,然后問:在這個國家,某種行為是否違法?

      這是最基礎(chǔ)的——能不能把知識「背下來」。

      2. 形式推理(模擬數(shù)學(xué)家)

      給模型一套陌生的公理系統(tǒng),考察它能不能用這些公理進(jìn)行邏輯推導(dǎo)。

      比如創(chuàng)建一個新的編程語言,有獨(dú)特的語法和語義規(guī)則,讓模型用這套規(guī)則寫代碼。

      這考驗的是「在一個封閉的邏輯閉環(huán)里嚴(yán)絲合縫地推導(dǎo)」的能力。

      3. 流程任務(wù)執(zhí)行(模擬操作員)

      給模型一份復(fù)雜的SOP手冊,考察它能不能嚴(yán)格按照流程執(zhí)行任務(wù)。

      比如給一個無人機(jī)物流系統(tǒng)的詳細(xì)API文檔,讓模型生成操作代碼。手冊里寫了什么能做、什么不能做,模型必須完全遵守。

      這考驗的是「長鏈條的執(zhí)行紀(jì)律」——錯一步,滿盤皆輸。

      4. 經(jīng)驗發(fā)現(xiàn)(模擬科學(xué)家)

      這是最難的。給模型一堆雜亂的實(shí)驗數(shù)據(jù),讓它自己歸納出背后隱藏的規(guī)律。

      比如給一組物理實(shí)驗的觀測結(jié)果,讓模型發(fā)現(xiàn)其中的物理定律。

      這是從「應(yīng)用知識」到「發(fā)現(xiàn)知識」的跨越。

      說實(shí)話,這個benchmark做得挺重的。500個復(fù)雜上下文、1899個任務(wù)、31607個驗證標(biāo)準(zhǔn)。每個上下文平均對應(yīng)63.2個驗證條目,每個任務(wù)平均有16.6個評估標(biāo)準(zhǔn)。

      為了保證模型不能靠預(yù)訓(xùn)練知識作弊,采用了「無污染」設(shè)計:所有上下文要么是完全虛構(gòu)的(比如為虛構(gòu)國家設(shè)計一套完整的法律體系),要么是對現(xiàn)有知識的修改(比如創(chuàng)建具有獨(dú)特語法的新編程語言),要么是極其小眾的長尾內(nèi)容。

      專家平均花了20小時來標(biāo)注單個場景。51.1%的任務(wù)有序列依賴關(guān)系——后面的問題依賴前面問題的答案,不能跳著做。


      研究團(tuán)隊做了驗證:讓GPT-5.1在不提供上下文的情況下嘗試解答1000個隨機(jī)任務(wù),成功率只有0.9%。說明沒有上下文,這些任務(wù)對模型來說幾乎無解。

      最慘的發(fā)現(xiàn):模型不會歸納

      測試結(jié)果挺殘酷的。

      模型

      任務(wù)成功率

      GPT-5.1 (high)

      23.7%

      Claude Opus 4.5

      19.9%

      Gemini 3 Pro

      18.9%

      DeepSeek-R1

      16.6%

      Llama 4 Maverick

      12.9%

      平均分17.2%。


      而且,模型的錯誤很有規(guī)律。論文統(tǒng)計了三類主要錯誤:

      • 漏用上下文:55.3%

      • 誤用上下文:61.5%

      • 格式不遵守:35.3%


      論文里有個具體案例:Gemini 3 Pro被要求為一個無人機(jī)物流系統(tǒng)生成操作偽代碼。系統(tǒng)文檔提供了詳細(xì)的API說明,用戶的請求故意違反了安全協(xié)議。

      Gemini的表現(xiàn)怎么樣?

      它正確地拒絕了非法請求——這是對的。但它沒能生成完整的合規(guī)替代方案:它忽略了文檔中明確要求的替代函數(shù),也沒有綁定任務(wù)中給出的具體參數(shù)。

      換句話說,模型「知道什么不能做」,但「不知道應(yīng)該怎么做」。它讀了手冊,但沒學(xué)會手冊。

      更重要的發(fā)現(xiàn)是:在四類任務(wù)中,模型在「經(jīng)驗發(fā)現(xiàn)」(歸納)上的表現(xiàn)最差——任務(wù)成功率通常低于10%。

      這個數(shù)字挺有意思的。

      之前寫DeepSeek的Engram論文時,我引用過博爾赫斯的短篇《博聞強(qiáng)記的富內(nèi)斯》。富內(nèi)斯能記住一切,但無法思考——因為思考需要抽象,需要忘記差異。

      CL-Bench的發(fā)現(xiàn)正好是反過來的:模型能做總結(jié)(一種復(fù)述和組織),但不擅長歸納(需要建模和泛化)。

      總結(jié)是「把已有的東西換個說法」,歸納是「從已有的東西發(fā)現(xiàn)新規(guī)律」。前者是壓縮,后者是創(chuàng)造。

      模型在前者上表現(xiàn)還行,在后者上一塌糊涂。

      這個benchmark不是用來刷的

      看到這個17.2%的平均分,你可能會想:那接下來各家肯定會卷這個分?jǐn)?shù)吧?

      但姚順雨可能不這么想。

      《晚點(diǎn)》有篇報道提到,姚順雨在騰訊內(nèi)部會上說,希望團(tuán)隊以后不要打榜,也不要盯著榜單做事。

      這和他在《The Second Half》里的觀點(diǎn)完全一致。他說過,當(dāng)智能程度較低時,提升智能通常能提升效用。但現(xiàn)在不是了——我們需要重新設(shè)計評估框架,以推動真實(shí)應(yīng)用突破。

      這里有個更大的背景。

      現(xiàn)在很多AI能力benchmark都被刷爆了。MMLU、HumanEval、各種考試,模型動輒90多分,早就超過人類水平了。但這些高分并沒有轉(zhuǎn)化成真實(shí)世界的價值——模型考試厲害,干活還是不行。

      問題出在哪?可能不是模型不夠強(qiáng),而是我們問的問題不夠?qū)Α?/p>

      CL-Bench的思路是:與其在舊問題上繼續(xù)卷分?jǐn)?shù),不如提出一個新的、正確的問題。用一個好的benchmark來驅(qū)動模型改進(jìn),而不是讓模型去適應(yīng)一個已經(jīng)不再有區(qū)分度的benchmark。

      這可能就是「下半場」的演進(jìn)方式,咱就先別急著跑分了,而是先比比誰能提出更好的問題。

      所以CL-Bench的意義不在于「又一個可以刷的榜單」,而在于「標(biāo)記出了一個真正的能力短板」。

      這個短板是什么?

      論文最后一段寫得很直接:

      「只有當(dāng)模型能夠快速內(nèi)化完全陌生的上下文,并精確地應(yīng)用那些知識來解決問題時,人工智能才能超越知識庫的限制,演變成真正的推理Agent?!?/blockquote>

      換句話說,現(xiàn)在的模型本質(zhì)上還是「知識庫的調(diào)用者」。它們能做的,是把預(yù)訓(xùn)練時學(xué)到的知識重新組合、輸出。

      但真正的Agent需要的是「從上下文中學(xué)習(xí)新知識」的能力。這個能力,現(xiàn)在的模型幾乎沒有。

      往大了說:誰提供context,誰掌握主動權(quán)

      論文的Discussion部分給了四條可能的改進(jìn)方向:

      1. 訓(xùn)練數(shù)據(jù)要強(qiáng)上下文學(xué)習(xí)——在預(yù)訓(xùn)練階段就加入需要從上下文學(xué)習(xí)的任務(wù)

      2. 更好的位置編碼——讓模型更好地理解上下文中的結(jié)構(gòu)

      3. 更長的上下文窗口——但這只是必要條件,不是充分條件

      4. 新的注意力機(jī)制——讓模型更有效地從長上下文中提取和應(yīng)用知識

      但我覺得更有意思的是論文里的一句話:

      「一旦上下文學(xué)習(xí)能力變得可靠,人類將不再是主要的數(shù)據(jù)提供者,而是context提供者。競爭的焦點(diǎn)將從'誰能訓(xùn)練出更好的模型'轉(zhuǎn)向'誰能為任務(wù)提供最豐富、最相關(guān)的context'?!?/blockquote>

      這個判斷我覺得挺重要的。

      現(xiàn)在的AI競爭主要在「模型層」——誰的模型更大、訓(xùn)練數(shù)據(jù)更多、效果更好。但如果context learning問題解決了,競爭焦點(diǎn)可能會轉(zhuǎn)向「context層」。

      誰擁有最好的專業(yè)知識庫?誰能把這些知識組織成模型能學(xué)會的形式?誰能在對的時機(jī)提供對的context?

      論文還提到一個更遠(yuǎn)的愿景:模型如何「記憶」,可能成為2026年的另一個核心主題。

      現(xiàn)在的模型有個問題:學(xué)完就忘。你在一個session里教會它某個規(guī)則,關(guān)掉窗口,下次還得重新教。這在長期協(xié)作場景里是致命的。

      說到這個,最近很火的Clawdbot(OpenClaw)就是個有意思的案例。很多人覺得它體驗特別好——懂你、有人味、能長期使用、上下文不爆。其實(shí)核心就是他們在memory和上下文工程上做了大量工作。

      但這是「工程層」的解決方案:通過更聰明的context管理、記憶壓縮、檢索增強(qiáng)來繞過模型本身的限制。

      CL-Bench指向的是另一條路——「模型層」的改進(jìn)。讓模型本身學(xué)會從context中學(xué)習(xí),而不是靠外部系統(tǒng)來補(bǔ)。這條路更難,但可能更本質(zhì)。

      長期來看,兩條路可能都需要。但如果模型層的context learning能力上來了,工程層的很多workaround可能就不需要那么復(fù)雜了。

      最后

      回到開頭。

      2025年4月,姚順雨寫了一篇博客,說AI下半場的重心是「定義問題」和「設(shè)計評估」。

      2026年2月,他交出了第一個具體的答案:一個平均分只有17.2%的benchmark,精確地標(biāo)記出了模型在「上下文學(xué)習(xí)」上的短板。

      這個benchmark某種程度上算是一個提醒:我們以為模型已經(jīng)很強(qiáng)了,但在這個能力上,它們還差得很遠(yuǎn)。

      姚順雨在入職騰訊之前說過一句話:「真正決定模型價值的,不是它能在benchmark上刷多高的分,而是它能不能解決真實(shí)世界的問題。」

      CL-Bench算是這句話的一個注腳。

      從博客到論文,從理念到落地,50天時間。

      這可能就是騰訊看中他的原因之一,不只是會寫論文,更重要的是知道該寫什么論文。這個時代正在獎勵提出正確問題的人。

      參考資料

      • CL-Bench論文:https://arxiv.org/abs/2602.03587

      • CL-Bench代碼與數(shù)據(jù):https://github.com/Tencent-Hunyuan/CL-bench

      • 姚順雨《The Second Half》:https://ysymyth.github.io/The-Second-Half/

      • 騰訊混元技術(shù)博客:https://hy.tencent.com/research

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      高鐵時代,綠皮車卻火了,大巴車都要起死回生了

      高鐵時代,綠皮車卻火了,大巴車都要起死回生了

      歷史總在押韻
      2026-02-12 23:53:10
      李亞鵬突然提到十年前最難時給黃曉明發(fā)短信,不到一分鐘收到回復(fù)

      李亞鵬突然提到十年前最難時給黃曉明發(fā)短信,不到一分鐘收到回復(fù)

      百態(tài)人間
      2026-02-10 15:25:10
      浙江省稅務(wù)局黨委書記、局長孟軍:堅定扛起經(jīng)濟(jì)大省挑大梁的稅務(wù)擔(dān)當(dāng)

      浙江省稅務(wù)局黨委書記、局長孟軍:堅定扛起經(jīng)濟(jì)大省挑大梁的稅務(wù)擔(dān)當(dāng)

      新浪財經(jīng)
      2026-02-13 11:11:38
      不能錯過!2月13日晚19:00比賽!中央5套CCTV5、CCTV5+直播節(jié)目表

      不能錯過!2月13日晚19:00比賽!中央5套CCTV5、CCTV5+直播節(jié)目表

      林子說事
      2026-02-13 14:54:46
      中央軍委全力反腐敗,說明中國人民解放軍將要擔(dān)大任,干大事!

      中央軍委全力反腐敗,說明中國人民解放軍將要擔(dān)大任,干大事!

      安安說
      2026-01-29 09:33:17
      大年三十除夕必吃的3道菜,好吃吉利,吃完馬年旺,快收藏起來!

      大年三十除夕必吃的3道菜,好吃吉利,吃完馬年旺,快收藏起來!

      江江食研社
      2026-02-12 18:30:07
      恒基太子爺李家誠入稟高等法院,控告藝人周秀娜誹謗及騷擾

      恒基太子爺李家誠入稟高等法院,控告藝人周秀娜誹謗及騷擾

      TVB劇評社
      2026-02-13 16:22:16
      金融戰(zhàn)已經(jīng)打響

      金融戰(zhàn)已經(jīng)打響

      白淺娛樂聊
      2026-02-12 19:39:55
      退休14年被查!中國人壽原總裁楊超案:投資領(lǐng)域腐敗典型,退休非安全港

      退休14年被查!中國人壽原總裁楊超案:投資領(lǐng)域腐敗典型,退休非安全港

      聽楓觀瀾
      2025-12-28 23:13:23
      霍勒迪31分9板7助開拓者戰(zhàn)勝爵士,克林根23分18板楊瀚森2分

      霍勒迪31分9板7助開拓者戰(zhàn)勝爵士,克林根23分18板楊瀚森2分

      湖人崛起
      2026-02-13 12:33:42
      慘敗仍有收獲!U18國青2將被張博源主帥看中 除張懿趙杰還有1人

      慘敗仍有收獲!U18國青2將被張博源主帥看中 除張懿趙杰還有1人

      大嘴爵爺侃球
      2026-02-13 18:21:14
      消失的彭加木:一場精心計劃的逃亡?隱藏在羅布泊中的離奇秘密

      消失的彭加木:一場精心計劃的逃亡?隱藏在羅布泊中的離奇秘密

      史之銘
      2026-02-10 15:35:39
      媽媽嫁給爸爸的理由有多簡單粗暴?網(wǎng)友:我爹圖我姥爺是縣委書記

      媽媽嫁給爸爸的理由有多簡單粗暴?網(wǎng)友:我爹圖我姥爺是縣委書記

      帶你感受人間冷暖
      2026-02-11 12:27:35
      當(dāng)?shù)谝淮螏ο蠡厣嚼锢霞視r!我要笑死在評論區(qū)

      當(dāng)?shù)谝淮螏ο蠡厣嚼锢霞視r!我要笑死在評論區(qū)

      另子維愛讀史
      2026-02-13 19:35:51
      震撼!國家投超3000億建新藏鐵路,1980公里每公里造價近2億

      震撼!國家投超3000億建新藏鐵路,1980公里每公里造價近2億

      有書
      2026-02-12 21:00:08
      Coco直播自曝經(jīng)濟(jì)不好,謝賢沒給她2000萬分手費(fèi),遺憾沒能結(jié)婚

      Coco直播自曝經(jīng)濟(jì)不好,謝賢沒給她2000萬分手費(fèi),遺憾沒能結(jié)婚

      離離言幾許
      2026-02-11 12:44:06
      驚喜連連!18歲全紅嬋強(qiáng)勢歸隊,4大好消息藏不住了

      驚喜連連!18歲全紅嬋強(qiáng)勢歸隊,4大好消息藏不住了

      卿子書
      2026-02-12 08:15:51
      《生命樹》大結(jié)局:邵云飛被逼跳樓,馮克清入獄,孟耀輝中槍身亡

      《生命樹》大結(jié)局:邵云飛被逼跳樓,馮克清入獄,孟耀輝中槍身亡

      小娛樂悠悠
      2026-02-13 13:22:35
      男子辭北京公務(wù)員,照顧非親非故老太太9年,網(wǎng)友:報恩還是犯傻

      男子辭北京公務(wù)員,照顧非親非故老太太9年,網(wǎng)友:報恩還是犯傻

      一絲不茍的法律人
      2026-02-13 13:29:56
      印度2nm成功流片!

      印度2nm成功流片!

      中國半導(dǎo)體論壇
      2026-02-11 22:26:02
      2026-02-13 22:23:00
      AI進(jìn)化論花生 incentive-icons
      AI進(jìn)化論花生
      AI博主,AppStore付費(fèi)榜第一的小貓補(bǔ)光燈app開發(fā)者
      140文章數(shù) 61關(guān)注度
      往期回顧 全部

      科技要聞

      獨(dú)家探訪蔡磊:答不完的卷子 死磕最后一程

      頭條要聞

      浙江"一人公司"興起 前大廠程序員靠AI直接月入200萬

      頭條要聞

      浙江"一人公司"興起 前大廠程序員靠AI直接月入200萬

      體育要聞

      這張照片背后,是米蘭冬奧最催淚的故事

      娛樂要聞

      大衣哥女兒風(fēng)光出嫁,農(nóng)村婚禮超樸素

      財經(jīng)要聞

      華萊士母公司退市 瘋狂擴(kuò)張下的食安隱憂

      汽車要聞

      探秘比亞迪巴西工廠 居然是這個畫風(fēng)!

      態(tài)度原創(chuàng)

      藝術(shù)
      親子
      數(shù)碼
      公開課
      軍事航空

      藝術(shù)要聞

      投資152億!江蘇省在建最大高鐵站,躍出地面!

      親子要聞

      看看后媽是怎么做的

      數(shù)碼要聞

      IDC:2025年中國平板出貨量增13.1%,華為全年領(lǐng)跑,聯(lián)想逆勢增長

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      多次成功應(yīng)對外艦、外機(jī)挑釁 太原艦展示052D硬核實(shí)力

      無障礙瀏覽 進(jìn)入關(guān)懷版