![]()
本文來自微信公眾號:AIGC從0到1,作者:01Flow,頭圖來自:AI生成
引言:2026年2月20日,又一個行業的崩塌時刻
2026年2月20日,Anthropic發布Claude Code Security,美股網絡安全板塊集體暴跌。CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%,單日市值蒸發超100億美元。Global X網絡安全ETF創2023年11月以來新低。
這是繼2月3-4日"SaaSpocalypse"(SaaS崩塌)之后,48小時內第二次行業級崩塌。
兩次崩塌的共同特征是:AI不再是“輔助工具”,而是直接替代了整個職業類別的核心價值。Claude Code Security在內部測試中發現500+潛伏多年的高危漏洞,包括Ghostscript、OpenSC等開源項目,部分漏洞存在超十年未被人類安全專家發現。
這是范式崩塌的信號。
當一個AI工具能夠超越整個行業數十年的專家積累,因為中間有段時間我沒有緊密fellow,參見前文《用AI,不AI:一個AI異化者的重生手記》,所以我特別想搞清楚的是:范式是如何演進到這一步的?
第一階段:模型能力的指數級躍遷(2018-2024)
A. 核心特征:Scaling Law(縮放定律)的勝利
從GPT-3到GPT-4,從Claude到Gemini,這一階段的主旋律是模型能力的指數級增長。LLM在軟件任務上的時間跨度每7個月翻倍,Claude Opus 4.6在METR軟件任務上達到14.7小時,相比前代提升了近3倍。
這個階段的關鍵信念是:
更大的模型 = 更強的能力
更多的數據 = 更好的泛化
更長的上下文 = 更復雜的推理
直到互聯網數據被用完,蒸餾數據會引發崩潰。AI訓練的瓶頸從模型參數夠不夠大,到是新鮮、可靠的數據從哪里來。這預示著第一階段的天花板。
B. 范式的內在矛盾
這一階段暴露出三個核心矛盾:
1.數據枯竭:互聯網公開數據已被“反復嚼舊料”,模型開始“嚼自己的尾巴”;
2.能力泛化 vs. 落地應用:模型越抽象越泛化,但缺乏與真實任務的有效對接;
3.Speech-act的空轉:大量對話停留在“數字空間空轉”,未能進入“speech-cognition的高價值空間”。
![]()
第二階段:從In-Context Learning到Scaffolding(2024-2025)
A.Anthropic的雙重路徑
Anthropic的戰略核心:“in-context learning和Scaffolding演化的雙重作用下的模型進展。”
In-Context Learning(上下文學習)的深化:
不再是簡單的few-shot prompting;
演變為Context Engineering——Anthropic在2025年9月正式提出這一概念;
核心轉變:從“寫好提示詞”到“策展最優token集合”;
關鍵技術:Compaction(壓縮)、Structured Note-taking(結構化記憶)、Sub-agent Architectures(子代理架構)。
Scaffolding(腳手架)的戰略意義:這里的“腳手架”指的是:人類經驗進入LLM的管道和結構。
Anthropic的工程博客揭示了一個關鍵洞察:
> "Context engineering represents a fundamental shift in how we build with LLMs. As models become more capable, the challenge isn't just crafting the perfect prompt—it's thoughtfully curating what information enters the model's limited attention budget at each step." “上下文工程代表著我們利用大型語言模型進行開發的根本性轉變。隨著模型能力的增強,挑戰已不再僅僅是精心設計完美的提示,而是要審慎地在每一步中篩選出哪些信息能進入模型有限的注意力預算。”
那么,LLM平臺戰爭的本質已經從模型轉移到腳手架。誰定義了人類具身經驗進入LLM的管道形態,誰就定義了speech symbiosis的拓撲結構。
這意味著:
腳手架(Scaffolding)成為模型能力的放大器;
戰場從“模型訓練”轉移到“運行時編排”;
人類經驗的輸入方式,決定了AI的輸出質量。
B. 關鍵技術突破
1.Context Window的辯證法:
更長的上下文 ≠ 更好的性能;
Context Rot現象:隨著token數量增加,模型檢索準確性下降;
解決方案:Just-in-time retrieval + Agentic Search。
2.從Pre-retrieval到Runtime Exploration:
傳統:預先檢索所有相關數據;
新范式:維護輕量級標識符,動態加載數據;
Claude Code的實踐:用glob、grep等工具導航環境,繞過陳舊索引。
3.Multi-agent Architecture的崛起:
主代理維護高層計劃;
子代理處理深度技術工作;
每個子代理可能消耗數萬token,但只返回1000-2000 token的精煉摘要。
C. 遞歸自我改進(RSI)時代的到來
2025年底,一個只有行業少數人能察覺的拐點出現了:模型開始幫助創造模型。(參見前文:《AI自主進化前的窗口期:12個月!》)
研發速度首次實現遞歸式增長,單個研究者的產出被成倍放大。Alexandr Wang將這個階段命名為遞歸自我改進(RSI,Recursive Self-Improvement)時代。
過去五年的規律:AI進步靠堆資源。投入更多數據和算力,模型就變得更強。
現在的質變:模型不再被動等待投喂,它開始能幫忙做研究,能參與訓練下一代模型。它能整理數據、生成實驗代碼、做架構搜索,而且速度更快。
從外部看,所有頭部LLM廠家的發布頻率突然變高了。但這只是表象。在內部,研發流程正在發生質變:
研究被切分成更小的步驟;
模型能夠實時給出方案并進行對比;
許多過去依賴人工試錯的路徑,現在直接在模型內部就能跑通;
下一代模型的迭代速度實現了量級躍升。
競爭邏輯的改變:在RSI時代,競爭的焦點已經從單純的“資源規模”轉向了“迭代速度”。
現在的優勢,取決于誰能更快地生成實驗方案、更快地清洗數據、更快地測試不同路徑,并以最快速度將這些成果反哺給下一代模型。所以你會看到,掌握了這套打法的頭部實驗室,產品發布節奏明顯提速了。
AI已經進入了能夠自我推動的階段。短期內,你或許感知不到劇烈變化,但在未來三到五年,這種自我加速能力會在產品迭代、組織更新和行業地位上拉開巨大差距。
第三階段:腳手架重構與行業崩塌(2026年2月)
A. 腳手架戰爭的本質
LLM平臺戰爭的本質已經從模型轉移到腳手架。誰定義了人類具身經驗進入LLM的管道形態,誰就定義了speech symbiosis的拓撲結構。
這意味著:
模型能力趨于同質化:(OpenAI、Anthropic、Google的頂級模型差距縮小);
差異化在于編排能力:如何讓人類經驗有效輸入、如何讓模型與真實任務對接;
價值捕獲點轉移:從“訓練最強模型”到“構建最佳管道”。
B. 腳手架重構的領域,就是商業模式崩塌的領域
第一次崩塌:SaaS的48小時(2月3-4日)。
市值蒸發:
納斯達克云指數蒸發近3000億美元;
這不是宏觀回調,而是底層商業邏輯的崩塌。
三個關鍵指標的失速:
1. NRR(凈收入留存率)中位數跌至101%——接近危險線;
2. GRR(總收入留存率)跌破90%——客戶流失加速;
3. CAC回本周期拉長至24個月以上——單位經濟模型失效。
Forbes的深度報道指出:這不是“增長變慢”,而是“單位經濟模型正在失效”。
資本的三個逃逸方向:
資金流向呈現出令人窒息的極化:
1.Service-as-Software(結果導向革命):
從“出售工具訪問權”到“出售可驗證的商業結果”;
無法把計費模型與交付價值硬綁定的軟件→淪為“可替換組件”。
2.物理基礎設施:
固態變壓器、推理ASIC、硅光收發器;
掌控變壓器架構與光通信模塊→建立“物理主權”;
“資本只愿意為‘物理控制權’和‘原生數字主權’下注”。
3.機器身份與硬核推理:
安全層面:從“防人越權”到“約束自治機器代理”;
硬件層面:通用芯片在低延遲推理的能效比被挑戰。
第二次崩塌:網絡安全的黑色星期四(2月20日)
觸發事件:Anthropic發布Claude Code Security
技術突破的顛覆性:
采用AI模型Claude Opus 4.6;
可像人類安全專家般理解代碼邏輯;
發現傳統工具易遺漏的復雜漏洞(業務邏輯缺陷、權限繞過問題);
內置多階段驗證機制,自動生成修復建議但保留人工審核環節。
實戰表現:
內部測試發現500+潛伏多年的高危漏洞;
包括Ghostscript、OpenSC等開源項目;
部分漏洞存在超十年未被人類專家發現。
市場反應:
CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%;
板塊單日市值蒸發超100億美元;
Global X網絡安全ETF創2023年11月以來新低。
行業影響:
該工具定位代碼審計環節,直接沖擊應用安全測試市場;
盡管仍處限量研究預覽階段,但加劇市場對AI顛覆傳統安全商業模式的焦慮。
![]()
兩次崩塌的共同邏輯
這兩次崩塌揭示了一個殘酷的事實:當AI的腳手架能夠有效對接某個垂直領域時,該領域的傳統商業模式就會在48小時內崩塌。
當AI能夠:
1.超越人類專家的多年積累(網絡安全);
2.以更低成本交付相同結果(SaaS);
3.持續學習和進化(而人類專家的知識更新速度有限)。
傳統商業模式的護城河就會瞬間蒸發。
腳手架重構的本質:
傳統軟件時代:
人類經驗 → 程序員編碼 → 軟件產品 → 用戶使用;
瓶頸:程序員的編碼能力和時間。
腳手架時代:
人類經驗 → 腳手架管道 → LLM理解 → 輸出結果;
瓶頸:腳手架的設計質量。
誰定義了“人類經驗→LLM輸入”的管道形態:
就定義了AI能理解什么、不能理解什么;
就定義了AI能做什么、不能做什么;
就定義了價值如何流動。
這就是“speech symbiosis的拓撲結構”——人機共生的交互拓撲。
![]()
第四階段:Agentic AI的大規模落地(2025年底-2026年)
A. 從“概念”到“可用”的跨越
如果說前一階段講的是技術為什么變快,這一階段則更貼近普通人和企業:AI為什么終于能把事情辦成了。
過去兩年,智能體(Agents)這個詞被提及了無數次。從2023年開始,它就被大肆宣傳,但在很長一段時間里,它更像是一個被炒作的流行詞,始終沒有達到預期。
到了2025年下半年,情況變了。智能體第一次真正開始運轉,能夠承擔真實任務,而不再僅僅是Demo。
從會回答到會執行:
智能體開始處理完整的任務鏈:
連續調用工具;
在后臺長時間運行;
根據突發情況自動調整執行步驟。
從這一刻起,AI能力邊界擴大了。以前的AI只能回答問題,現在的AI能推進進度。對企業而言,多了一個7x24在線的“數字員工”;對個人而言,則多了一個能主動幫你成事的“超級助理”。
B. 軟件工程的統治地位
數據顯示:軟件工程占所有AI代理工具調用量的近50%,而醫療、法律、金融等垂直領域各占比不足5%。(見下圖)
這揭示了兩個事實:
1.通用能力的優先級:代碼理解、文件操作、系統調用是最基礎的“管道能力”;
2.垂直領域的巨大空白:有上百個AI獨角獸企業等待被打造。
馬斯克的第一性原理預測:
馬斯克預測:到今年年底,AI將完全繞過編碼,直接創建二進制文件。
當AI能夠:
理解用戶意圖;
設計系統架構;
生成優化的機器碼;
直接輸出可執行文件。
中間的“編碼”環節就成了冗余。這是第一性原理的極致體現——直接從需求到結果,跳過所有中間層。
不愧是第一性原理宗主。
![]()
C. 三個方向同步爆發
1. 編程智能體正在重塑研發流程
它們能讀懂、生成并修改代碼,讓工程師的工作效率實現躍升。在Meta內部,有工程師利用AI將生產力提高了10到100倍。這些案例一個接一個出現后,組織里的其他人突然意識到,工作方式真的在改變。
2. 個人智能體(Personal Super Intelligence)
能幫你規劃任務、安排日程、拆解目標,真正滲透進日常生活。
如果你想改善健康:它能幫你量身定制并嚴格落地一套包含飲食、運動和作息的完整方案。
如果你要籌辦一場活動:它能自動跟進進度、對接場地、發送邀請,甚至替你查漏補缺。
如果你想享受生活:它能幫你接管繁雜的日常瑣事,把你釋放出來,把時間留給釣魚、畫畫、旅行,或者任何真正有價值的事。
3. 公共服務智能體
在印度提供了范本:民眾直接在WhatsApp上就能獲取政府服務、查詢信息、提交申請,效率發生了質變。
智能體不再是某個前沿行業的專屬,它正成為一種通用的工作方式。
D. 從不放心到放心
智能體為什么能在現在跨越“概念”走向“可用”?Alexandr Wang將其歸結為四點質變:
1. 模型的推理能力大幅躍升;
2. 工具調用變得更加穩定;
3. 與現實場景的連接更加順暢;
4. 經過海量應用測試后,可靠性得到了驗證。
智能體從讓人“不放心”,變成了“可以放心托付”。這正是其能夠被規模化部署的核心前提。
一旦信任建立并放心部署,價值就會快速釋放。它們不知疲倦、可無限復制、能同時處理多項任務。它們不僅能將人類從重復性勞動中解放出來,更能加快整個組織的運轉速度。
企業的運轉效率、國家的公共服務質量,都將因此拉開差距。這些差距將在2026年變得清晰可見。按照Wang的判斷,在整個2026年,智能體會在全球諸多經濟領域和地區實現大規模部署。用他的話說:“AI帶來的經濟價值將呈指數級增長。”
智能體已經成為一種新的生產方式。越早將其納入業務流程的組織,就能越早進入新的增長軌道。
E. Claude vs. OpenClaw:兩種腳手架哲學
有人這樣說:“Claude Code是精英專家同事,OpenClaw是知道你全部經歷、凌晨兩點還給你發語音的室友。”
這代表了兩種腳手架設計哲學:
Claude的“專家協作”模式:
強調Context Engineering的精細化;
多階段驗證機制;
保留人工審核環節;
適合高風險、高價值場景(如代碼安全審計)。
OpenClaw的“親密室友”模式:
持續上下文感知;
低摩擦交互;
更激進的自主權;
適合個人生產力場景。
兩種模式的核心差異在于:如何平衡“人類經驗輸入的連續性”與“AI自主決策的邊界”。
![]()
F. 數據生產關系的重構:Perceptron Network案例
Perceptron Network代表了范式演進的另一個維度:數據生產從封閉平臺壟斷轉向分布式共建。
核心洞察:“AI訓練的瓶頸從來不是模型參數夠不夠大,而是新鮮、可靠的數據從哪里來。”
Perceptron的思路:
把數據生產從封閉的平臺壟斷,轉向分布式共建;
讓真實人類信號成為AI持續進化的燃料,而不是反復嚼舊料;
未來勝出的不是誰算力最猛,而是誰能拿到源源不斷的、可驗證的實時行為數據。
機制設計:
節點捕捉公開互動和上下文信號(避開隱私雷區);
經過驗證結構化后供給AI代理;
貢獻者通過$PERC獎勵參與價值閉環。
網絡效應:
節點越多→覆蓋越廣→信號越豐富→數據質量越高;
形成正反饋循環;
數據從“平臺護城河”變成“可循環授權的公共資產”。
這是AI生產關系的重塑:從“少數巨頭囤積”到“網絡共建共享”。
第五階段:Speech-Cognition的終局(未來)
A. 人人管理天才團隊的時代
AI時代本質上就是“人人管理天才團隊”。每個人手里的chatgpt、claude,就是博士團隊、甚至諾獎級專家組合。
但關鍵前提是:管理天才團隊的能力本身就是稀缺資源。
但有個關鍵前提:管理天才團隊的能力本身就是稀缺資源。AI確實降低了技術門檻,但“提出好問題、設計驗證流程、判斷輸出質量”這套能力反而在放大。就像人人都能開法拉利,但不是人人都能跑出F1圈速。工具平權了,但能力差距反而更大了。
這導致了新的能力分層:
工具平權了:人人都能訪問Claude、GPT;
能力差距放大了:“提出好問題、設計驗證流程、判斷輸出質量”成為核心競爭力;
腳手架能力成為新的護城河:誰能更好地構建“人類經驗→AI輸出”的管道。
![]()
B. 供應端的指數級挑戰
The advancement of AI technology is not linear but exponential.The task duration doubles every seven months.人工智能技術的發展并非呈線性增長,而是呈指數增長。任務消耗時長每七個月就會翻一番。
這帶來一個反直覺的擔憂:與其擔心AI泡沫,本猿更擔心的是——供應端是否跟得上指數級的需求爆發。
馬斯克的供應鏈洞察:2023年,業界最擔心的是GPU短缺。經過3年的生產,GPU已經過剩了,真正的瓶頸是電力。
這意味著:
算力瓶頸:從GPU算力轉移到光互連的納秒級延遲和兆瓦級電力調度;
數據瓶頸:新鮮、可靠、可驗證的實時行為數據(Perceptron Network試圖解決的問題);
編排瓶頸:能夠駕馭復雜agent系統的工程師(腳手架能力)。
供應鏈的瓶頸正在從“計算”轉向“能源”和“編排”。一旦解決瓶頸,就是意味著實現了黃仁勛的觀點:智能的0關稅、0延遲出口全球,本質上是能源出口。
C. 從Speech-act到Speech-cognition
agent擺脫speech-act的數字空間空轉,進入到speech-cognition的高價值空間。
這是范式演進的終極目標:
Speech-act:對話本身是目的(聊天機器人時代);
Speech-cognition:對話是認知工具,連接思考與行動;
Aha moment:類似Hassabis說的Einstein Test——科學理論發現的突破。
因為是個神經網絡黑盒。這個感覺基于大量交互經驗。模糊摸一下,就是意圖解析穿透力很強,長邏輯鏈的收斂,動態對齊(真正的互動)。有一起往前走的協作感。
這種“協作感”的特征:
意圖解析穿透力很強:AI能理解深層意圖,而非表面指令;
長邏輯鏈的收斂:能在復雜任務中保持方向感;
動態對齊:真正的互動,而非單向執行;
一起往前走的協作感:人機共生,而非工具使用。
![]()
D. 由抽象到具象
和AI互動是一個高信息密度智能體在向下兼容我們,所以不論怎么聊,都會有所收獲。AI是越抽象越泛化,怪不得現在年輕人越來越抽象。
這揭示了當前階段的特征:
AI的能力是“抽象泛化”的;
人類的需求是“具體情境”的;
腳手架的作用就是在兩者之間建立橋梁。
范式演進的脈絡總結
A. 五個階段的遞進邏輯
1.模型競賽期(2018-2024):
- 核心:Scaling Law
- 瓶頸:數據枯竭、落地應用缺失
- 代表:GPT-3/4, Claude 1/2
2.腳手架覺醒期(2024-2025):
- 核心:In-Context Learning + Scaffolding + RSI
- 突破:Context Engineering, 模型幫助創造模型
- 代表:Claude 3.5 Sonnet, Anthropic工程實踐
3.腳手架重構與行業崩塌期(2026年2月-持續):
- 核心:腳手架重構的領域,商業模式就崩塌
- 信號:兩次48小時崩塌(SaaS + 網絡安全)
- 觸發:Claude Code Security等垂直突破
4.Agentic AI大規模落地期(2025年底-2026年):
- 核心:從“概念”到“可用”的跨越
- 戰場:編程、個人助理、公共服務三個方向爆發
- 代表:Meta 10-100倍生產力提升、印度WhatsApp政務
5.Speech-Cognition期(未來):
- 核心:互動作為認知工具
- 目標:AI作為認知放大器,而非工具
- 特征:動態對齊、長邏輯鏈收斂、協作感
B. 兩條主線的交織
第一條主線:技術提速
模型能力 → Context Engineering → RSI(模型創造模型)→ 迭代速度指數級增長
第二條主線:應用落地
Speech-act空轉 → Agentic Orchestration → 大規模部署 → Speech-Cognition
第一條主線決定天花板有多高,第二條主線決定落地有多快。而競爭的終局,取決于誰能讓更多人更早用上智能體。
還有一條數據主線,目前共識還不確定。
![]()
C. 關鍵轉折點
1.Anthropic的Context Engineering論文(2025年9月):
- 標志著從"prompt engineering"到"context engineering"的官方確認
- 腳手架從隱性知識變為顯性方法論
2.RSI時代的到來(2025年底):
- 模型開始幫助創造模型
- 研發速度首次實現遞歸式增長
3.第一次崩塌:SaaSpocalypse(2026年2月3-4日):
- 傳統SaaS商業模式的結構性崩塌
- 資本從"軟件"逃向"物理基礎設施"和"結果交付"
4.第二次崩塌:網絡安全板塊黑色星期四(2026年2月20日):
- Claude Code Security發布
- AI超越人類專家多年積累的標志性事件
智能體從“不放心”到“放心”(2025年底-2026年)
- 可靠性驗證完成
- 大規模部署開始
- 新的生產方式確立
D. 深層思考:范式演進的哲學
從“工具”到“同事”再到“共生體”三個階段的隱喻:
1.工具時代:人使用AI(GPT-3時代)
2.同事時代:人與AI協作(Claude Code時代)
3.共生時代:人AI一體化(Speech-cognition時代)
從“attention is all you need”到“context is all you need”
Transformer的核心是attention機制,但Anthropic的洞察是: “Context, therefore, must be treated as a finite resource with diminishing marginal returns.”
因此,上下文信息必須被視為一種有限的資源,其邊際效益會逐漸遞減。
這意味著:
-Attention的稀缺性:每個新token都消耗“注意力預算”;
-Context Engineering的本質:在有限注意力預算下,策展最高信號密度的token集合;
-腳手架的價值:不是增加模型能力,而是優化模型注意力的分配效率。
2026年2月20日之后
A. 三個確定性趨勢
1.模型能力繼續指數級增長:
- 任務時長每7個月翻倍
- RSI加速這一進程
2.腳手架生態成為主戰場:
- 誰定義管道,誰控制價值流
- 腳手架重構的領域,商業模式就崩塌
3.數據生產關系重構:
- 從平臺壟斷到分布式共建
-實時行為信號成為新石油
B. 三個開放性問題
1.供應端能否跟上需求爆發?
- 從GPU短缺到電力短缺
- 物理瓶頸可能成為下一個限制因素
2.垂直領域的AI獨角獸何時爆發?
- 軟件工程已占50%
- 醫療、法律、金融的5%占比意味著巨大空白
3.人類能力分層會如何演化?
- 工具平權 vs. 能力差距放大
- “管理天才團隊”的能力如何培養?
C.最后的隱喻:Einstein Test與三個時間維度
Hassabis提出了“Einstein Test”(愛因斯坦測試)——AI發現科學理論的能力,回到1905年AI能不能發現狹義相對論。這或許是范式演進的終極目標。
要到達那里,我們需要穿越三個時間維度:
現在:這是一個工程問題。我們需要構建更好的腳手架,讓人類經驗有效進入LLM,讓智能體可靠執行。
未來:這是一個管理問題。當人人都能訪問天才團隊(AI agents),真正的差距在于誰能更好地管理它們——提出好問題、設計驗證流程、判斷輸出質量。
更遠的未來:這是一個共生的問題。不是AI替代人類科學家,而是AI與人類科學家共生,在Speech-Cognition的高價值空間中,一起往前走,發現下一個aha moment。
2026年2月20日,當Claude Code Security發現了人類專家十年未發現的漏洞,我們或許已經看到了這個未來的一角。
這種“意圖解析的穿透力”,這種“長邏輯鏈的收斂”,這種“一起往前走的協作感”——正是我們正在經歷的范式演進的最深刻特征。
答案正在2026年的每一天被書寫。
參考文獻:
- Anthropic, "Effective context engineering for AI agents" (2025)
- Forbes, "SaaSpocalypse Now: AI Is Disrupting SaaS" (2026)
- 立委NLP頻道, "從生成式AI到行動式AI的范式轉移" (2026)
- Alexandr Wang, "RSI時代與智能體大規模部署" (2025-2026)
- METR Software Tasks Benchmark (2024-2026)
- Claude Code Security發布及市場反應報道 (2026年2月20日)
本文來自微信公眾號:AIGC從0到1,作者:01Flow(ex上市公司CMO,《AIGC從0到1》第一作者,專注AI時代的商業模式與產品架構,主張“用AI,不AI”。“AIGC從0到1”是創造者的航海日志,由<航線圖><方向舵><壓艙石>組成。)
本內容由作者授權發布,觀點僅代表作者本人,不代表虎嗅立場。如對本稿件有異議或投訴,請聯系 tougao@huxiu.com。
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4836239.html?f=wyxwapp
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.