![]()
作者|高允毅
“如果一個 AI 能解 IMO,但解決不了任何現實問題,那它不是通用人工智能。”
這是卡內基梅隆大學助理教授、艾倫人工智能研究所研究科學家,蒂姆·德特默斯對 AGI 給出的判斷,他用一篇文章《通用人工智能為何不會成為現實》直接把 AGI 從神壇上拽了下來。
![]()
有意思的是,幾天后,加州大學圣地亞哥分校助理教授、Together AI 內核副總裁丹·傅,給出了完全相反的判斷。他寫了一篇《通用人工智能終將成為現實》,說我們也許早就已經實現了 AGI。
![]()
于是,兩篇文章,一場關于“AGI ”的爭論,被帶進了播客現場。
這場討論并非空談,兩位嘉賓都是同時深耕學術界與產業界的一線研究者。
蒂姆·德特默斯長期深耕深度學習量化領域,即模型壓縮,如何在更低精度、更少算力下,讓模型保持可用性能。
![]()
在蒂姆·德特默斯看來,判斷 AGI 是否成立,首先要回到一個常被忽略的前提:計算是物理的。
在他看來,內存遷移、帶寬、延遲,以及馮·諾依曼瓶頸,決定了算力不可能無限擴張。他說“幾乎所有指數增長,最終都會撞上資源和物理極限”。所以,指數增長終將放緩,Scaling Law 也不例外。
但丹·傅顯然不這么看。在他看來,現在談“算力見頂”,還太早了。丹·傅每天都在和 GPU 內核、算力利用率打交道,在他看來,“我們甚至還沒真正用好上一代硬件。”
![]()
在現實系統中,算力其實被嚴重低估和浪費了,大量性能消耗在內核調度、系統開銷和工程細節上。更關鍵的是,人們今天評測和使用的“最強模型”,往往是基于一到兩年前的算力集群訓練出來的,它們并不能代表當下硬件和大規模集群所能達到的真實上限。
他因此提出了一個直觀的估算思路,用來說明算力增長的潛力來自多個維度的疊加:
新一代硬件 帶來約 2–3 倍 的性能提升;
系統與工程優化 將算力利用率提升 約 3 倍;
更大規模的集群 再帶來 約 10 倍 的規模效應。
這三者相乘,意味著可用算力在理論上可以提升接近90 倍。這并不是紙面上的推算,而是正在產業中逐步發生、逐步兌現的現實潛力。
有意思的是,當爭論繼續推進,兩人反而在一個問題上開始靠攏:AGI 到底是什么?
關于 AGI 的定義,大致有兩種主流視角:
一種從認知能力出發,看模型能否覆蓋足夠多的認知任務;
另一種則從經濟角度出發,看它是否真的改變了生產方式。
這一點上,雙方達成一個共識:AGI 是什么并不重要,重要的是,它有沒有改變我們工作的方式。
在訪談后后半部分,大家從未來拉回到了現實,Agent 成為了關鍵話題。
丹·傅在節目中提到一個有趣的時間點:2025 年 6 月,那是他第一次意識到,Agent 可能真的越過了拐點。
![]()
他當時發現機器學習工程中最難的技能之一、編程領域的終極難題——“GPU 內核編程”被代碼智能體啃下來了。他自己親測:原本一個 GPU 內核功能開發得磨一周,那天靠著代碼智能體,一天就搞定了三四個,工作效率直接提升了 5 倍。而他的團隊用上后,那些原本需要整支團隊耗數月的復雜系統開發,也變得輕裝上陣。
這讓丹·傅想起了自己對自動駕駛的態度變化,從長期懷疑到真正坐上 Waymo,他意識到技術的突破可能藏在某個猝不及防的瞬間。
針對 Agent 的爆發式潛力,蒂姆·德特默斯曾發布了一篇擲地有聲的文章《要么善用 Agent,要么被時代淘汰》。在他看來,代碼 Agent 本身就是高度通用的 Agent,因為代碼幾乎可以描述和解決所有數字化問題。他甚至直言,“超過 90% 的代碼和文本,本就應該由 Agent 來生成。但同時他也強調,“人類必須對最終結果承擔責任,而非盲目依賴 AI 的輸出。”
![]()
兩人將 Agent 形象地比作“需要精細化管理的實習生”,只要給它明確背景信息、拆解任務邊界、設定執行約束,人類無需過度干預其執行過程,而是把注意力聚焦在把控方向上,用專業判斷力校驗結果。而在 Agent 時代,真正吃到紅利的將是有深厚積累的專家,其專業基礎越深厚,Agent 能為其創造的效率增量就越顯著。
在節目的最后,關乎對 AI 行業未來的預判,雙方拋出了一系列深刻洞見。
在他們看來,小模型會成為行業新熱點、開源模型會進一步飛躍;新硬件、多模態、端側 AI 都會有進一步發展。
其中,硬件賽道將走向多元化發展,模型訓練與推理環節的專業化分化會進一步加劇。
更值得關注的是,Transformer 架構獨霸天下的時代會落幕,各類新架構會登上時代舞臺。
他們還特別提到了中國的GLM-4.7、MiniMax、DeepSeek 等優秀模型,對中國大模型的快速進步表達了高度認可。
在他們看來,相比技術路線相對集中的美國,中國團隊反而更敢于探索多種可能性,比如狀態空間模型、線性注意力以及混合架構等,通過架構創新或極致性能,讓開源模型脫穎而出。
同時,他們也指出,中國的模型團隊在技術路線上更務實。與“先做出最強模型,再等待應用出現”的硅谷思路不同,中國團隊更關注模型是否真正能落地、是否能在現實場景中產生價值。正是這種務實的發展思維,可能會在未來深刻影響人工智能的技術形態以及它所能創造的社會價值。
以下是播客全文,更多精彩細節,歡迎來看:
“AGI 能否成為現實”之爭
主持人:蒂姆,幾周前你發表了一篇極具爭議性的精彩博文,標題是《通用人工智能為何不會成為現實》。而丹,你在幾天后也發布了一篇同樣引人入勝的回應博文,標題為《通用人工智能終將成為現實》。我想先了解一下二位的背景,你們都有著一個有趣的特點,就是兼具產業界和學術界的從業經歷。蒂姆,不如你先講講吧。
蒂姆?德特默斯:我是卡內基梅隆大學機器學習與計算機科學系的助理教授,同時也是艾倫人工智能研究所的研究科學家。
我過往的研究主要聚焦于高效深度學習量化技術,簡單來說就是模型壓縮,把大模型從 16 位精度壓縮到 4 位精度左右,這方面我做了不少核心研究。比如一種高效的微調方法,我們將模型壓縮至 4 位精度,在模型上使用適配器,這樣所需的內存相比全精度模型能減少多達 16 倍。
目前我正致力于代碼 Agent 的研究,我們將在約兩周后發布一項非常令人振奮的成果,打造出了目前最先進的 Agent,它能快速適配私有數據,在任意代碼庫上都能實現出色的性能表現,這一成果真的讓人充滿期待。
主持人:丹,該你了。
丹?傅:我是加州大學圣地亞哥分校的助理教授,同時擔任合聚人工智能公司的內核副總裁。
在產業界,我的工作主要集中在提升模型的運行速度,GPU 內核正是將模型轉化為實際在 GPU 上運行程序的關鍵,你可以把它理解為專門的 GPU 程序。
我的博士階段以及實驗室的大量研究都圍繞這一方向展開,比如我研發了快速注意力機制,這是一款針對當下多數語言模型核心運算的高效內核。我還研究了 Transformer 架構之外的替代架構,比如狀態空間模型等。
在合聚人工智能,我主要關注如何打造當下最優的語言模型,以及如何進一步提升它們的運行速度。
就在本期節目錄制的今早,我們還和庫爾索公司聯合發布了一篇博文,介紹了我們如何為其多款模型實現加速,并助力他們在英偉達的布萊克韋爾(Blackwell) GPU 上推出了作曲者 2.0 模型,這大概就是我的工作內容。
從 AGI 的定義,
聊到對 AGI 的現實判斷
主持人:接下來我們聊聊通用人工智能的話題,節目后半段再探討 Agent 和代碼 Agent,以及二位的相關見解。通用人工智能這個術語被大家廣泛使用,但我想大家都認同,目前還沒有人能準確定義它。為了本次探討,二位認為什么樣的通用人工智能定義是實用的?
丹?傅:當然。我和蒂姆在這一系列博文中反復探討的一個問題,就是通用人工智能的定義。
就我而言,我最近一直在思考,以當下的模型發展水平,尤其是語言模型,再結合后續會談到的 Agent 來看,以 5 年前、10 年前,甚至我和蒂姆剛開始讀博時任何人給出的通用人工智能定義,我們其實已經實現了當時的設想。如今的模型能寫代碼、能生成人類語言,即便有時用詞上會有些小瑕疵,但確實能完成這些令人驚嘆的任務。我還會思考,這種技術發展到何種程度,會引發一場新的工業革命,真正改變我們當下的工作方式,并產生巨大的經濟影響。
在軟件工程領域,我覺得我們已經身處這樣的變革中,或者說即將迎來全面變革。雖然在一些高度專業化的領域,比如模型未必能寫出世界上最優質的福蘭語和鈷語言代碼,但在網頁開發,甚至很多底層系統工程方面,它們的表現已經非常出色。
我寫那篇博文的一個原因就是,審視當下的發展,我們或許已經實現了通用人工智能,或者說某種形式的通用人工智能。即便尚未完全實現,下一代正在訓練的模型,只要比當下的模型表現更好,我們就已經取得了令人驚嘆的突破。
蒂姆?德特默斯:我寫那篇博文時發現,自己竟然忘了在文中給出通用人工智能的定義,盡管整篇文章都圍繞這個主題展開。我想這在某種程度上也反映了我們對通用人工智能的思考現狀 —— 我們并未認真去界定它。當然,目前存在多種定義,各有優劣,正如你所說,沒有一個定義能獲得所有人的認同。
我簡單提幾種比較主流的,一種是將通用人工智能視為認知能力、認知任務的集合,關注模型能完成哪些認知層面的工作。軟件工程、文本創作都是高度依賴認知的任務,而讓機器人在空間中移動則更偏向操作層面,當然也有人認為肢體移動的規劃也屬于認知范疇,但多數人會將其區分開來,認為所有數字化的任務都屬于認知領域,物理層面的操作則超出了這一范疇。
另一種我認為很有意義的定義視角是經濟層面,看人工智能是否能引發一場新的工業革命,是否具備廣泛的實用性,能應用到各個領域,推動各類工作的效率提升,就像計算機的出現那樣。當然,計算機剛出現時,生產率其實出現了下降,直到其在經濟中廣泛普及,生產率才重新回升。通用人工智能的發展或許也會經歷類似過程,在軟件工程等領域,其帶來的效率提升已經十分顯著。
主持人:我們直接切入核心爭論吧。蒂姆,你曾提到 AGI 的相關構想的起源,這一點讓我覺得很有意思,你能展開講講嗎?
蒂姆?德特默斯:好的。先梳理一下整體的背景,當下關于 AGI 的一些觀點,根植于特定的思維模式,主要來源于有效利他主義社群和理性主義社群。
我 15 年前也曾是這些社群的一員。在推特上,總能看到有人說 “兩年內就能實現通用人工智能”,一年后又有人說 “兩年內就能實現通用人工智能”,年年如此。我覺得這種想法有些草率,也體現出一種信息繭房的狀態,持這種觀點的人很少接觸不同的想法。這也是我寫那篇博文的主要動機,我希望提出一些不同的觀點,為當下主流的思考提供一種反視角。
算力是否見頂
主持人:你核心的觀點是,這些構想與實際的計算現實之間存在矛盾,這樣概括準確嗎?
蒂姆?德特默斯:沒錯。這其中既涉及物理層面的限制,也有理論層面的問題,而這兩方面都存在一個共同的規律 —— 收益遞減。所有指數級增長的事物最終都會放緩,因為發展需要資源,而資源總會耗盡,這里的資源可以有多種解讀。
從物理層面來看,技術的進一步發展會變得越來越困難,幾乎所有研究和開發領域都是如此。前期的進展往往容易實現,而后續要取得突破,需要投入更多資源,發展速度也會越來越慢。
再看計算設備的物理現實,以及計算本身的結構,其實有用的計算主要包含兩個環節:
首先是將數據從不同位置收集起來,匯聚到指定位置,然后對這些信息進行整合,完成信息的轉化處理。簡單來說,就是結合已知信息,計算出未知的新信息。有用的信息,必然是從已有的信息中轉化而來的。如果只是大量轉移信息,卻不進行處理,就無法產生新信息;如果只是對現有信息進行大量計算,又會錯失跨領域的洞察和間接的啟發。我認為這一點與我們當下的神經網絡架構高度契合。
早期的卷積神經網絡表現出色,原因就在于它們幾乎不怎么移動內存,而是專注于大量計算,這意味著這類設備需要強大的浮點運算能力,而內存帶寬則沒那么重要。當發展到大規模密集計算、大矩陣運算階段,就到了當下神經網絡的發展方向,但此時仍保留著循環機制的特點,需要關注之前的狀態。不過由于循環的特性,計算的內存復用率極低。
而 Transformer 架構,先是通過大矩陣將前一層的輸入信息進行轉化,再通過注意力機制實現跨時間或空間的信息關聯。我認為這是處理信息最根本的兩種方式:一是讓信息之間建立關聯,或對信息進行轉化;
二是讓信息與關聯較遠的其他信息建立聯系,也就是挖掘長期關聯,并基于已有信息進行轉化。
主持人:你認為這一發展進程正在放緩,對吧?你的博文中有一句非常引人注目的話,稱 “圖形處理器的發展將不再有實質性突破”,這是核心觀點,能說說原因嗎?
蒂姆?德特默斯:這個觀點包含兩層含義,首先是一個非常根本的物理問題,也就是我剛才提到的內存轉移和計算的關系。
計算要產生價值,就必須將內存數據轉移到進行計算的本地區域,這其實是一個幾何問題。你需要一個大容量的信息存儲區,然后將其中的信息轉移到計算區域。而我們已經找到了實現這一過程的最優物理方式:配備大容量但速度較慢的動態隨機存取存儲器,再將數據轉移到高速緩存中。
從幾何結構來看,這是實現高速運算的最優解,針對特定規模的計算任務,這種架構的效率是最高的。如果是矩陣乘法這類不同規模的計算任務,就需要使用圖形處理器而非中央處理器,因為圖形處理器雖然延遲更高,但吞吐量更大,能傳輸更多數據,只是速度稍慢。我們可以對緩存的結構、大小,以及核心的共享方式做一些微調,但歸根結底,核心的問題始終存在 —— 這是一個幾何難題,空間的利用方式是有限的,這就決定了數據的訪問模式和延遲始終存在固定的限制,其中最大的延遲來自大容量的動態隨機存取存儲器,這也是主要的性能瓶頸。這一瓶頸也被稱為馮?諾依曼瓶頸,幾乎所有計算機都受此限制,具體來說,就是需要將程序傳輸到執行區域才能運行。對于神經網絡而言,就是要將權重和輸入數據傳輸到張量核心這一執行單元。
想要繞開這一瓶頸的方法寥寥無幾,唯一的途徑是進行本地內存存儲和本地計算,市面上也有一些處理器嘗試實現這一點,比如存算一體處理器,能在很大程度上在芯片內部解決馮?諾依曼瓶頸問題,但這類處理器仍需要從外部向芯片內傳輸數據,這就使得馮?諾依曼瓶頸從芯片內部轉移到了存儲設備或網絡層面,問題只是發生了轉移,本質并未改變。你仍需要通過網絡將存儲在磁盤或內存中的程序加載到芯片中,這還是同一個物理問題,只是調整了幾個變量而已。這是問題的第一個層面,目前還沒有能解決這一問題的架構。
第二個層面,也是我的核心觀點所在:想要突破瓶頸,需要依靠新技術,但當新技術的潛力被充分挖掘后,又需要新的技術實現進一步突破。
比如,我們從動態隨機存取存儲器發展到了高帶寬存儲器,也就是堆疊式的動態隨機存取存儲器,速度大幅提升,但這種存儲器的堆疊層數有限,因為其制造和測試的難度極高,良品率很低。到 2026 年,高帶寬存儲器的產能將會不足,無法實現規模化生產,因為制造難度實在太大。我們已經見證了諸多技術創新,張量核心的出現是一大突破,8 位精度、4 位精度的量化技術也相繼落地,我和其他研究者的研究都表明,這些技術在信息論層面和實際應用中都是接近最優的。
如果基于足夠多的數據進行訓練,4 位精度是不夠的,實際需要 8 位精度,這意味著量化技術已經發展到了極限。硬件的潛力也被挖掘殆盡,目前沒有新的技術可以突破,我們能做的只是優化制造工藝,降低成本,卻無法提升速度。各項功能的開發也已到極致,稀疏化技術是很多人嘗試的方向,這一研究已經持續了 50 年,我自己也做過相關嘗試,這或許是最后一個可探索的方向,但 4 位精度的量化技術已經意味著量化領域的發展走到了盡頭。
簡單來說,功能和硬件都已被開發到極限,這就是我們當下的處境。
主持人:太有意思了。丹,你對這些觀點有什么看法?
丹?傅:我非常認可蒂姆的這篇博文,因為當下有不少關于通用人工智能的討論,只是簡單地按照指數增長的趨勢去推演,認為到某個時間點,人工智能會發展到掌控整個宇宙的程度,我一直覺得這種思考方式有些片面。我認同蒂姆從實際物理限制角度出發的分析,正如他所說,這些都是依賴物理輸入、進行實際物理計算的系統。
我的觀點是,看看當下的系統和我們訓練的模型,我們甚至連上一代硬件的潛力都遠未充分挖掘,更不用說新推出的硬件了。
從技術層面,我在博文中主要提出了兩個核心觀點:
第一,看看當下那些表現出色的模型,我在博文中主要以開源模型為例,因為開源領域會更多地披露模型的訓練過程和所耗資源,而開放人工智能和思存人工智能等公司并未公開相關數據。
以 DeepSeek 模型為例,這是目前最優秀的開源模型之一,它在 2024 年底完成訓練,使用的是上一代的英偉達 H800 GPU,這款顯卡因出口限制做了性能閹割,并非原版 H100。根據公開報告,該模型的訓練使用了約 2000 塊 H800 顯卡,耗時約一個月。計算一下實際的算力利用情況會發現,芯片的有效利用率僅約 20%,行業內將這一指標稱為模型浮點運算利用率。而在 21 世紀 20 年代初,我們在舊硬件上訓練不同架構的模型時,輕松就能實現 50% 甚至 60% 的模型浮點運算利用率。如果能將這一指標提升,再加上我的好友崔最近發布了一系列能優化模型訓練的新內核,單是這一項優化,就能讓算力利用率提升 3 倍。
第二,需要意識到的是,這款 2024 年年中開始訓練的 DeepSeek 模型,在 2026 年初仍是眾多優秀開源或類開源模型的基礎。而從那之后,我們已經搭建了全新的算力集群,搭載了當下最新的硬件,比如英偉達的布萊克韋爾系列顯卡。普爾賽德、瑞弗萊克申等公司都在搭建包含數萬個 B200、GB200 芯片的算力集群。
對比來看,新一代硬件即便保持和之前相同的精度、相同的配置,運算速度也能提升 2 至 3 倍,算力集群的規模更是擴大了 10 倍,再加上 3 倍的純技術優化空間,整體的可用算力能提升 3×3×10,也就是 90 倍。這還沒有考慮未來的算力集群建設,只是當下已經落地、有人正在用于模型訓練的集群。
我的核心觀點是,單從這些基礎的硬件條件來看,就能發現可用算力相比我們當下所依賴的模型,還有多達兩個數量級的提升空間,也就是 100 倍。當然,我們可以爭論算力規模擴大是否會帶來收益遞減,縮放曲線是否依然有效,但現實的算力潛力就擺在眼前。
這還沒考慮蒂姆提到的那些點,比如目前的訓練大多采用 8 位精度,而 4 位精度的訓練方法才剛剛開始形成相關研究成果;GB200 芯片有 72 個連接速度極快的核心,而我們甚至還沒看到基于這款芯片訓練的首個預訓練模型。開放人工智能的報告中提到,GPT-5.2 是首個基于 H100、H200 和 GP200 芯片訓練的模型,這在我看來,意味著它的預訓練其實是在老舊的算力集群上完成的,只是在新的 GP200 芯片上進行了一些微調。
主持人:你提到,不僅硬件的利用率不足,模型本身也是硬件發展的滯后指標,對吧?
丹?傅:沒錯。我們當下能使用、能體驗到的模型,都是在一兩年前搭建的算力集群上完成預訓練的。
因為搭建一個算力集群需要時間,完成大規模的預訓練需要時間,后續的微調、人類反饋強化學習等后訓練環節也需要時間。所以我們當下所看到的、用來衡量模型質量的這些模型,其實都是在一年半前的硬件上訓練的。而在這之后,我們已經搭建了規模大得多的算力集群,不難想象,這些集群會被用于訓練新一代模型。
也就是說,我們當下所依賴的優質模型,訓練所使用的硬件其實已經相當老舊,而我們擁有了新一代的硬件、更多的軟件優化方案,更不用說架構層面的創新了。
蒂姆剛才提到,處理數據的核心是先轉移、再計算,而變形金剛架構其實一直在發展,只是在研究者看來,發展速度稍慢。但我們能看到,計算的核心方式已經在發生變化,哪怕再找到 1.5 倍或 2 倍的優化空間,整體的可用算力就能達到 100 甚至 150 倍。所以當下還有大量的算力潛力可以挖掘,用來訓練更優質的模型。
預訓練是綜合訓練,
后訓練是專項訓練
主持人:我理解這場討論的核心是預訓練,也就是我們能否用更多的數據和算力訓練出更大的模型。但在本播客之前的對話中,很多人都強調后訓練的重要性,以及構建結合預訓練和強化學習的人工智能系統的意義。這一點在當下的討論中該如何定位?
丹?傅:這是個非常好的問題,我和蒂姆的博文其實都沒有重點探討這一點。我喜歡這樣比喻,預訓練就像是在健身房進行的綜合力量訓練,通過大重量訓練提升整體的力量和能力;而后訓練就像是針對特定項目的專項訓練,讓你在具體任務上表現更出色。
從算力消耗來看,歷史上預訓練消耗的算力占絕對主導,其目的是打造具備通用能力的模型,讓模型掌握大量知識,能完成多種任務,甚至擁有比普通人更多的知識儲備,比如我自己的知識量肯定比不上聊天生成預訓練轉換器。
而后訓練的作用,一方面是讓模型變得更實用,比如聊天生成預訓練轉換器,能理解用戶的需求,并盡力完成任務;另一方面,我們也發現,后訓練正越來越多地被用于培養模型的特定技能。比如擅長輔助編程的模型,雖然依托于預訓練積累的大量知識,但正是通過后訓練,才讓它在編程領域具備了出色的能力;同理,擅長法律工作的模型,也是在預訓練的基礎上,通過后訓練實現了專業領域的優化。
從純計算的角度來看,預訓練的算力消耗通常遠大于后訓練。后訓練的工作,我雖然不是這方面的專家,但感覺更多地像是如何打造一款實用的產品,如何獲取用戶反饋,諸如此類。
當然,也有一種可能是,下一代預訓練模型的基礎能力已經足夠強大,只要針對經濟領域的各個垂直賽道進行后訓練,就能打造出極具實用性的模型。所以這也是計算領域的另一個重要維度,或許我們根本不需要那 100 倍的額外算力,更多的是需要像培養人類一樣,深入理解問題,找到合適的訓練方法 —— 就像你如何培養一名實習生完成特定任務,如何讓一個能力強大的預訓練模型發揮出實際價值,這正是后訓練要解決的問題。
主持人:二位都提到了 “實用性” 這個概念,這或許是你們觀點的交匯點。通用人工智能的定義眾說紛紜,但最終的關鍵還是看它在產業中的實際實用性。所以即便由于收益遞減,我們無法實現那個大家都無法準確定義的、理想化的通用人工智能,也無關緊要,因為我們還有巨大的潛力可以挖掘,足以讓人工智能在整個經濟領域發揮真正的價值,而不僅限于編程領域。
蒂姆?德特默斯:沒錯。我那篇博文的核心結論正是如此,我們不必過分糾結于通用人工智能的定義,更應該思考如何讓人工智能發揮最大的實用價值,而這不僅關乎模型本身,丹剛才提到后訓練是產品化的過程,這一點很重要。計算機的發展歷程告訴我們,技術在經濟中的普及需要一種截然不同的思維模式。
美國的思維模式往往是 “打造出最優的模型,自然會有人使用”,而中國的思維模式則更注重務實,思考如何讓技術惠及更多人。我認為這種務實的思維模式至關重要。談及實用性,一方面是模型的能力,另一方面就是這種發展思維。
我相信我和丹,以及大多數人都會認同一個觀點:如果一個人工智能能完成數學奧林匹克競賽這類高難度任務,卻無法解決任何實際問題,那它算不上通用人工智能。而當下的模型已經具備了實用性,所以不會出現那種 “有能力卻無用處” 的情況。
我們真正追求的,是實用性極強的模型,而這樣的模型我們已經擁有,并且還能不斷優化。我認為按照某些定義,我們或許無法實現通用人工智能,但人工智能必將產生巨大的社會影響。
丹?傅:我想補充一點,蒂姆你提到了經濟領域的物理性工作和知識性工作的劃分,美中兩國在這方面的差異非常有意思。
最近有一本丹?王寫的書很火,探討了制造型經濟、工程型經濟與偏法務型經濟的區別。美國有大量優秀的知識性工作有待人工智能去賦能,而從經濟的實際產業結構來看,醫療、教育占了很大比重,科技領域雖然也是重要組成部分,引領著股市的走向,但還有更多領域等待挖掘。
現在有很多優秀的研究者正在嘗試用新一代模型研發新藥、推動醫療領域的實際變革;如果機器人技術能實現突破,助力完成一些體力勞動 —— 未必是建造房屋這類重活,而是日常的家務勞動,那將挖掘出經濟領域的巨大潛力。這些方向的發展已經能看到初步的成果,自動駕駛的發展歷程對我很有啟發。
在我讀博初期,大概 2018、2019 年,我對自動駕駛持非常懷疑的態度,當時大家總說自動駕駛 “再有一兩年就能實現”,專家則說 “五年內有望落地”。但去年我乘坐了威莫的自動駕駛車輛,如今在加州灣區,我甚至能使用威莫的高速自動駕駛服務。理論上,我現在甚至可以賣掉自己的車 —— 當然我不會這么做,因為我個人喜歡開車。
但技術的進步就是這樣,在這之前一直毫無起色,突然有一天就實現了突破,你會發現它不僅表現出色,甚至比優步、出租車這類人工服務還要好。如果人工智能在家庭清潔、洗碗這類家務勞動上也實現這樣的突破,那將是非常令人振奮的,也會徹底改變人們的看法。我自己并非機器人領域的研究者,但一直密切關注著這個領域的發展。
多硬件、多芯片的未來方向
主持人:丹,借著這個話題,我想問問,從你的觀察來看,人工智能領域是否會朝著多硬件、多芯片的方向發展?顯然英偉達的發展勢頭迅猛,還有賽博拉斯等公司,以及眾多從底層技術切入的專用集成電路企業。從你深耕底層技術的視角,你怎么看這一趨勢?
丹?傅:這是個很棒的問題,我在實驗室的工作中會花大量時間思考這個問題,產業界的工作中也會密切關注。當下正處于一個非常令人振奮的階段:英偉達的芯片性能強勁、穩定性高,圍繞其構建的軟件生態也非常完善;而 AMD 的芯片也開始展現出同樣的潛力,相關的研究也在推進。
比如在實驗室,我的好友西姆龍?奧羅拉主導開發了一個名為希普基滕斯的庫,核心就是探索如何設計合適的軟件抽象層,實現 AMD GPU 的編程。研究發現,AMD GPU 和英偉達 GPU 的軟件抽象層存在明顯差異,即便這兩款 GPU 的參數規格相對接近 —— 更不用說和格羅克、賽博拉斯、薩博諾瓦等公司的芯片相比了,它們的編程方式也截然不同。
現在越來越多的人開始關注這一領域,投入時間和精力進行研究。英偉達收購了格羅克,當下張量處理單元也備受關注,賽博拉斯和開放人工智能也剛宣布達成合作。所以未來必然會涌現出更多的硬件方案,英偉達無疑會繼續保持良好的發展態勢,甚至在本期節目錄制時,其市值已經突破 5 萬億美元,但硬件領域的多樣性會大幅提升,尤其是在模型推理層面。
訓練和推理是兩種截然不同的計算過程,因此需要的芯片也大相徑庭。在推理層面,模型可能需要在手機、筆記本電腦等本地設備上運行。我的手機是一款幾年前的蘋果手機,但其運算能力已經超過了我讀博初期使用的一些 GPU,硬件算力的增長速度令人驚嘆。
2025 年 6 月是 Agent 的拐點
主持人:丹,你剛才提到自動駕駛實現突破的那個節點,Agent 的發展是否也已經到了這樣的時刻?你還提到過 “軟件奇點”,我們當下是否正處于 Agent 發展的關鍵突破點?
丹?傅:我認為是的。就我個人的經歷而言,這個突破點出現在 2025 年 6 月左右。
給大家做個背景介紹,我在合聚人工智能的日常工作就是編寫這些 GPU 內核,在機器學習領域,GPU 內核的編程被認為是最難掌握的技能之一,它需要高度的并行化設計,使用的是 C++ 這種資深工程師使用了數十年的老牌語言,而非 Python 這類易用的語言。招聘能編寫 GPU 內核的工程師難度極大,這是一項極具挑戰性的技能,無疑是編程能力的頂尖體現。
而 2025 年 6 月,我們有了一個非常有趣的發現:云代碼、庫爾索 Agent 這類代碼 Agent,在編寫 GPU 內核方面的表現非常出色。那一周,我完成了三四個原本各自需要一周時間才能完成的功能開發,全部工作一天就搞定了。當時我就意識到,這個工具讓我這個內核領域的專家,工作效率提升了 5 倍。
我讓團隊都開始使用這個工具,現在團隊借助它搭建了許多復雜的系統,能快速完成原本需要整個團隊耗時數月才能實現的功能開發。而 GPU 內核編程,正是編程領域最難的 “終極挑戰”,所以在我們看來,代碼 Agent,尤其是在高難度的 GPU 內核編程領域,已經實現了關鍵性的突破。
幾個月前,我在斯拉什大會上做了一場演講,提出了“軟件奇點”的概念,核心就是意識到在軟件工程領域,即便是這類非常小眾的高難度技能,人工智能的表現也已經超越了普通程序員,甚至能為資深程序員帶來效率的大幅提升。就本期節目錄制的當下而言,讓 Agent 獨立完成開發,可能還無法產出完美的結果,但如果資深程序員借助這些工具,工作效率能提升 10 倍,這是一個非常令人振奮的發展階段。
要么善用 Agent,
要么被時代淘汰。
主持人:聊到 Agent,蒂姆,你最近還發表了一篇精彩的博文,標題是 《要么善用 Agent,要么被時代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務的 Agent。從代碼 Agent 的出色表現,到 Agent 在日常生活各領域發揮實用價值,這一發展進程當下處于什么階段?
蒂姆?德特默斯:我寫這篇博文,也是因為發現使用代碼 Agent 能為各類任務帶來巨大的生產效率提升。作為一名教授,我平時的編程工作并不多,但借助代碼 Agent,編程變得前所未有的輕松,這在以往是難以想象的。
當然,Agent 在非編程任務上的表現也同樣出色。從我自身的體驗來看,生產效率的提升幅度不一,有時是兩三倍,有時甚至能達到 10 倍,而且工作質量沒有下降,甚至有時還能提升。Agent 的能力或許未必比我強,但它不會疲憊,不會犯低級錯誤,也不會在整合復雜信息時出現認知上的困難 —— 這和丹剛才提到的 GPU 內核編程的情況是一樣的。
我認為馬特你將其分為代碼 Agent 和通用 Agent,但在我看來,代碼 Agent 本身就是通用 Agent。代碼 Agent 能編寫程序解決各類問題,而代碼的通用性極強,任何數字化的問題都能通過代碼解決。代碼 Agent 讓解決問題的過程變得無比輕松,讓我們能以以往無法想象的方式和速度解決各類問題,實現多任務并行處理。Agent 不會疲憊,可以持續工作,讓工作變得輕松很多。
我的博文中有一個觀點我自己很認同,開篇我先區分了炒作和現實,而后基于自己在直播中測試 Agent 的實際體驗得出結論:超過 90% 的代碼和文本都應該由 Agent 來生成,不這么做,就會被時代淘汰。我想對于很多工程師來說,這一點已經成為現實。
有些人認為,Agent 生成的代碼和文本質量一定低下,但關鍵在于,你需要對 Agent 的輸出進行檢查和編輯。你所做的這 10% 的工作,能帶來巨大的改變。通過這種對輸出內容的檢查、編輯和優化,讓成果成為屬于自己的作品。
人工智能生成的內容,并不比你自己寫的內容缺乏個性。比如我借助 Agent 撰寫科研基金申請,成品會讓我覺得充滿生命力,能感受到其中的吸引力,相信評審人看到后會覺得 “這是一項優秀的研究,值得資助”。現實就是如此,如果你只是讓 Agent 生成內容,不做任何檢查就直接使用,那肯定無法達到預期效果;但如果你能快速審核內容、調整優化,發現不妥之處并進行修改,最終就能得到優質的成果,這會成為未來的常態。
而適應這種工作方式所需的技能,大多數人還未完全掌握,我自己也在學習中,目前仍處于探索階段。模型在更新,框架在迭代,我們需要不斷適應、持續學習,雖然要學的東西很多,但一旦掌握,帶來的回報是巨大的。
曾經有人認為軟件工程師會因此消失,但現在大家都不再這么想了。Agent 極大地提升了生產效率,而掌握使用 Agent 的能力,正是當下最需要學習的技能。善用 Agent,能讓你完成更多工作,這是核心所在。如果不懂得如何有效使用 Agent,你就會被淘汰,這將成為一項必備的核心技能。
主持人:聊到 Agent,蒂姆,你最近還發表了一篇精彩的博文,標題是 《要么善用 Agent,要么被時代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務的 Agent。從代碼 Agent 的出色表現,到 Agent 在日常生活各領域發揮實用價值,這一發展進程當下處于什么階段?
蒂姆?德特默斯:我認為最關鍵的是保持務實,思考需要解決的問題,并嘗試用代碼實現。
當然,對于非程序員來說,編程本身就有很高的門檻,會覺得 “我從沒寫過代碼,根本做不到”。但如果和 Agent 互動,它能直接幫你搭建程序,你只需要進行少量的學習 —— Agent 還會為你講解相關知識,很快就能上手,實現程序的運行、網站的搭建等,還能快速獲得反饋,現在做這些事情已經不再困難。
當然,我之前提到過需要檢查 Agent 的輸出,但如果你只是為自己搭建一些簡單的工具提升工作效率,其實往往不需要這么做,Agent 生成的代碼質量已經足夠高。如果是在公司工作,需要將代碼整合到正式的代碼庫中,那肯定需要進行審核;但如果只是搭建個人使用的小程序,提升自己的工作效率,那非常容易。
舉個隨機的例子,我會錄制自己和 Agent 互動的視頻,視頻中會有我講解的片段,也有我查看輸出、思考分析的片段。我借助 Agent 搭建了一個工具,它能識別語音,記錄我說話的時間戳,然后對視頻進行剪輯,只保留我講解的部分,去掉無意義的片段。這個工具我只用了 20 分鐘就搭建好了,我相信所有人都能做到,因為我甚至沒有檢查 Agent 生成的代碼,直接使用后,剪輯出的視頻效果非常好。
只要建立起 “提出需求 — Agent 生成 — 獲得反饋” 的循環,你根本不需要自己編程,只需要學會檢查輸出內容,或者掌握 Python 程序、bash 腳本的基本運行方法,就能實現工作的自動化。
主持人:那該如何選擇要自動化的工作呢?該從哪些角度思考生活中的自動化需求?
蒂姆?德特默斯:我在博文中也探討過這個問題,其實可以分為直覺層面和精細化分析層面。
直覺層面很簡單,就是思考哪些工作自動化后會帶來便利,哪怕是一些復雜的需求,比如 “我想要一個能實現某某功能的安卓或蘋果應用”,一開始你可能覺得這很難,但只要向 Agent 提出需求,它能立刻實現。你可以充分發揮想象力,打造任何自己想要的工具,那些以往沒人開發、自己又迫切需要的產品,現在都能借助 Agent 實現。
這種思維方式能讓你打造出實用的工具,提升生產效率,同時也能鍛煉你使用 Agent 的能力。當然,有時嘗試后可能會失敗,這時你會明白 Agent 的局限性,以及自己還需要學習哪些知識才能解決問題。
這是直覺層面的方法,能讓你快速入門,從最初的興奮,到面對現實的冷靜,再到繼續嘗試,最終會發現自己的生產效率在一天天提升。
而精細化分析層面的方法,來自我在德國自動化行業三年的工作經歷,當時主要負責工廠的自動化改造,這是一種非常嚴謹的計算方法:先梳理自己的工作流程,為每個步驟計時,然后分析如果將某個步驟自動化,能帶來多少收益、節省多少時間,再計算開發這個自動化工具需要投入多少時間,通過這種成本收益分析,快速判斷哪些工作的自動化改造是有價值的。
我的博文中提到,郵件的自動化處理效果并不好,還有一些事情也是如此,比如創建會議日歷邀請,沒人喜歡做這件事,但仔細想想,人們對會議的安排有很多個性化的需求,比如某天想多安排會議,某天想把會議安排在午飯前,這些需求 Agent 無法感知。即便你向 Agent 詳細說明這些需求,它生成的日歷邀請也未必能符合預期,最終的效率提升其實非常有限。
通過這種精細化的分析,能讓我們避開這些無意義的嘗試,找到真正能通過自動化提升效率的工作。
主持人:丹,從你的角度來看,在 Agent 的應用中,哪些方法是有效的,哪些目前還不成熟但未來有望實現,又該如何管理 Agent?
丹?傅:我發現 Agent 的有效應用,主要有兩個核心要點。
第一,讓 Agent 發揮效用的方式,和管理團隊中的初級員工、公司里的實習生非常相似。比如,你不會對一個剛來的實習生說 “去把公司的營收提升一倍”,或許你會嘗試一次,但顯然不可能得到想要的結果。相反,你會給實習生安排一些簡單的入門任務,讓他們熟悉復雜的代碼庫,并告訴他們可能會遇到的問題 —— 因為你自己有過相關的經歷。當你給 Agent 提供這樣的背景信息,讓它能接觸到相關的資料,它通常就能順利完成任務。
另外,對待新員工,你不會直接把生產環境的所有權限、數據庫信息都交給他們,而是會給他們足夠的工具,讓他們能開展工作。對待 Agent 也是如此,有些人會擔心 Agent 誤刪生產環境的所有數據,于是對其處處限制,每一步都進行監控,但如果用這種方式對待人類員工,他們根本不可能高效工作。這是一個很重要的點,當下的 Agent,至少可以把它當作實習生或初級員工來對待。
第二,我發現一個非常有趣的現象,尤其是從教授的教育視角,思考如何培養學生適應這個 Agent 成為工作核心的未來,那就是:一個人的專業知識越扎實,比如蒂姆在流程自動化領域的專業積累,或是我在 GPU 內核編程領域的深耕,Agent 能為其帶來的能力提升就越大。
因為專業知識扎實的人,能在更高的抽象層面開展工作,知道工作的核心要點、方向,了解常見的問題和陷阱,知道哪些事情容易實現、哪些事情有難度,知道如何將復雜任務拆解為多個步驟。
之前有一段時間,大家一直在討論 Agent 是否會取代所有軟件工程師,或者取代所有初級員工,而從當下的發展來看,顯然不會出現這種情況。如果一個工具能讓我的團隊工作效率提升 10 倍,我不會解雇 90% 的員工,而是會讓他們去完成更有價值的工作,實現 100 倍的效率提升。這是一方面。
另一方面,成為某個領域專家的路徑,其實和以往并沒有太大區別:你需要深入學習、深入理解相關知識,需要親手實踐、真正解決問題。在當下這個時代,聊天生成預訓練轉換器能教你很多東西,我自己就嘗試過讓它教我汽車的各類工作原理,雖然目前效果還一般,但不可否認,現在學習知識的難度比以往低了很多,哪怕是兩三年前,都沒有這么便捷的學習方式。
所以總結來說,對待 Agent,要像扮演管理者的角色,幫助它解決遇到的問題,不能只是把問題丟給它就撒手不管;同時,你需要不斷提升自己,成為更優秀的 “管理者”,積累更多的領域知識,更深入地理解工作內容。
主持人:也就是說,成為專家、持續學習的需求并沒有改變,這一點很有意思,也很有道理。但有一個問題,如果一名年輕的內核工程師第一天入職,以往的培養方式是先安排簡單的任務,第二年再安排更復雜的工作,那在 Agent 時代,這種實操性的職場培訓該如何開展?
丹?傅:我們在合聚人工智能也一直在思考這個問題,即便在模型和 Agent 如此強大的當下,我們仍在積極招聘人才。
我們的做法是:首先,我以教授的身份,錄制了一系列關于 GPU 工作原理的課程,要求所有新員工都必須學習;然后,我會給他們布置一個從零開始的任務,比如修改快速注意力機制的內核,實現某個新功能,具體的功能可以由他們自己選擇。Agent 的優勢在于,能讓新員工更快地參與到高價值的工作中。
對于一名初級工程師來說,第一次嘗試管理他人是非常有意義的經歷,因為這會讓他們開始用更精準的語言思考問題。比如,軟件工程師常會遇到這種情況:產品經理給出一個需求,寫了長長的需求文檔,但當你讓別人去實現這個需求時,才會發現描述一個功能需要多么精準的表達。
而 Agent 的出現,讓這一過程得以簡化,初級工程師不需要真正成為管理者,依然可以作為工程師開展工作,但能以管理者的思維方式,甚至產品經理的視角來思考問題。因為和 Agent 溝通時,你必須精準地描述自己的需求。我發現,團隊中那些剛從大學或碩士畢業的年輕員工,只要積極學習和使用人工智能 Agent,他們的溝通能力會比以往的工程師強很多,對知識的理解和掌握速度也會大幅提升,并且能以以往 5 到 10 年都難以想象的速度搭建工具、完成工作。
蒂姆?德特默斯:我從教育的角度補充一點,這一點其實和丹的觀點形成了一定的對比,也很有意思。我一直強調 “要么善用 Agent,要么被時代淘汰”,這一點對學生也同樣適用,但正如丹所說,使用 Agent 的前提是具備一定的領域知識。
我們發現,如果允許學生使用 Agent,他們的學習效率會非常高,但有時他們借助 Agent 完成的解決方案,表面上看起來沒問題,實際上卻漏洞百出,而學生自己卻意識不到。
當下我們正面臨一個困境:很難同時培養學生的領域知識和 Agent 使用能力,這兩者的平衡很難把握。我們既不想培養出對知識一知半解的學生,也希望學生能掌握 Agent 的使用方法,否則他們進入職場后將無法勝任工作。
丹提到,具備扎實知識基礎的人,借助 Agent 能實現能力的飛躍,但對于剛開始學習計算機科學的學生來說,該讓他們學習多少專業知識,又該讓他們在多大程度上借助 Agent 完成工作,這是一個非常棘手的問題,目前還沒有完美的解決方案。
如果讓學生過度依賴 Agent,他們的基礎知識點掌握會非常薄弱;如果讓學生完全靠自己完成所有學習任務,不使用 Agent,他們又無法掌握這項核心技能,進入職場后缺乏競爭力。
或許一個解決方案是:先讓學生扎實掌握基礎知識,再學習使用 Agent。但學生并不會這樣做,他們能輕易接觸到這些人工智能工具,并且會因為其便捷性而頻繁使用。
所以或許真正的解決之道,是培養學生一種全新的信息處理和知識學習的思維方式,這種能力甚至超越了批判性思維 —— 學生需要學會識別自己不知道的未知事物,也就是那些自己沒有考慮到、不理解,甚至從未想過的問題。只有具備這種能力,才能跟上 Agent 的發展步伐。因為在未來,我們很可能會面對自己無法理解的問題,而 Agent 卻能理解,我們需要找到一種方式,跟上 Agent 的節奏,這無疑是一大挑戰。
小模型是未來趨勢
主持人:二位對 2026 年人工智能的發展有哪些具體的期待?認為哪些趨勢會成為現實,哪些則不會?
蒂姆?德特默斯:我覺得自己的看法比較矛盾,一方面,我認為很多領域的發展會趨于平淡,不會有太多創新;另一方面,又會有一些意想不到的突破出現。而在前沿模型領域,我認為不會有太多驚喜。
當下一個公開的事實是,預訓練數據已經耗盡,正如丹所說,我們可以通過合成數據來彌補這一缺口,代碼 Agent 的訓練,就是在各類環境中生成大量合成數據,并進行數據融合,我們在這方面會取得一些進展,但整體來看,機器學習領域的發展已經顯現出疲態。
我認為代碼 Agent 的性能不會有太大提升,主要的進步會體現在用戶體驗的優化上。當下各款模型的性能已經趨于同質化,比如我使用 GLM-4.7 的配置時,一度以為自己用的是 Opus 4.5,后來才發現是不同的模型,因為它們的表現實在太相似了。
所以前沿模型的性能發展會陷入停滯,而小模型領域則會迎來快速發展。如果針對特定的專業數據訓練小模型,其性能會非常出色,而且小模型的部署難度低,能力卻不容小覷。
比如 1000 億參數的模型,能輕松實現部署,即便是 RTX 6000 這類售價 6000 美元的入門級數據中心 GPU,也能勝任。我認為對于很多企業來說,這會是一個極具吸引力的選擇,它們不再需要依賴前沿的大模型,定制化的小模型甚至能表現出更優的性能,因為其針對特定領域做了優化。
當下存在一個很大的問題,正如 Anthropic 首席執行官所指出的,市面上有很多性能強大的開源模型,但實際使用的人卻很少,原因就在于部署難度極高。一旦模型的部署需要超過 8 塊 GPU,不僅需要用戶進行大量的效率優化,還涉及復雜的系統工程問題,而目前還沒有能實現這一功能的開源系統,需要實現推理任務的解耦、跨序列長度的拆分等技術。或許我們能為異構 GPU 設備、小模型打造這樣的部署系統,屆時 1000 億參數模型的運行效率,將能媲美當下的前沿大模型。
小模型兼具效率和靈活性的優勢,再加上能通過大模型的知識蒸餾實現性能提升,這些因素結合起來,將徹底改變人工智能的發展格局。
丹?傅:我也對小模型的發展充滿期待,認為它們會釋放出更多的能力。
我會密切關注開源模型的發展,GLM-4.7 的出現,已經讓開源模型的性能開始媲美當下最優秀的前沿模型,我認為 2026 年開源模型的能力會實現又一次大的飛躍。
我也非常期待新硬件的推出,目前已經有一些關于英偉達下一代 NVIDIA Rubin GPU、AMD 400 系列顯卡的消息,即便我們還未充分挖掘當下硬件的潛力,我也很想看看下一代硬件能帶來怎樣的性能突破。
此外,我還期待多模態領域的發展,去年視頻生成模型迎來了發展的小高峰,比如 Sora 2、Gemini、Veo 等模型都表現出色,我很想看看它們后續的發展。
最后,我也期待能看到,在筆記本電腦、手機這類終端設備上,人工智能的智能水平能達到怎樣的高度,能被推進到什么程度。我想說,當下投身人工智能領域,恰逢最激動人心的時刻。
主持人:二位早些時候提到了狀態空間架構(SSM),你們認為這會是人工智能的近期發展方向嗎?也就是說,我們會逐漸走出 Transformer 架構的時代,向狀態空間模型、世界模型等新架構發展嗎?這是否是你認為值得期待且勢在必行的發展趨勢?
丹?傅:我認為在很多領域,新架構已經落地應用了。比如當下全球最優秀的一些音頻模型,就部分基于狀態空間模型打造。英偉達最近也發布了多款優秀的混合架構模型,比如神經變形金剛,就是其中的代表。
所以相關的研究已經取得了很多不錯的成果,架構的進化還會繼續。比如 DeepSeek 的模型壓縮技術,就借鑒了狀態空間模型的一些理念;MiniMax 的一款模型,則采用了線性注意力的思路。
所以未來人工智能的架構會變得更加多元,這一趨勢已經顯現。
而中國的實驗室在這方面會有更多的探索和突破,因為中國并沒有像開放人工智能那樣,集產品、模型、營收于一體的巨頭企業,也就沒有統一的技術發展范式。所以中國的實驗室會更敢于嘗試,想要讓自己的開源模型脫穎而出,架構創新就是一個重要的方向,當然,純性能的提升也是一個途徑。因此,未來人工智能的架構會迎來爆發式的創新。
https://www.youtube.com/watch?v=XCCkgRzth6Q、
聲明:本文為 AI 前線整理,不代表平臺觀點,未經許可禁止轉載。
InfoQ 老友!請留步!極客邦 1 號客服上線工作啦!
后續我將通過微信視頻號,以視頻的形式持續更新技術話題、未來發展趨勢、創業經驗、商業踩坑教訓等精彩內容,和大家一同成長,開啟知識交流之旅歡迎
今日薦文
你也「在看」嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.