![]()
新智元報道
編輯:艾倫
【新智元導讀】Science 最新論文顛覆「技術奇點」敘事:真正的智能爆炸已在發生,但它不是孤獨超級大腦的降臨,而是人與 AI 深度纏繞的社會性躍遷。推理模型內部自發涌現出「思想社會」,人機混合的「半人馬時代」已然開啟。問題從不是奇點會不會到來,而是我們能否建起與之匹配的社會基礎設施。
上周的一篇 Science 論文,正在動搖人們對人工智能未來最根深蒂固的想象。
幾十年來,「技術奇點」的故事幾乎已成定論:某一天,一個無所不能的 ASI 將憑空涌現,將人類甩在身后。
這個形象塑造了無數科幻小說,也隱約支撐著今天 AI 安全討論的底層邏輯。
芝加哥大學、加州大學圣地亞哥分校和谷歌的研究者認為,這個故事從根子上就講錯了。
詹姆斯·埃文斯(James Evans)、本杰明·布拉頓(Benjamin Bratton)和谷歌研究員布萊斯·阿格拉-阿卡斯(Blaise Agüera Y Arcas)在《科學》期刊發表論文《Agentic AI and the next intelligence explosion》(《智能體 AI 與下一次智能爆炸》),提出了一個截然不同的判斷:真正的智能爆炸已經在發生,只是它的形狀和人們預想的完全不同——它是多元的、社會性的,而且與人類深度纏繞在一起。
![]()
模型內部,有「人」在爭論
這篇論文的起點,是一項關于推理模型內部機制的發現,足以令 AI 圈感到意外。
過去一年,DeepSeek-R1、QwQ-32B 等推理模型的橫空出世引發廣泛關注。
它們在數學、代碼、復雜邏輯等任務上的表現,顯著超過了同等規模的常規指令微調模型。
通常的解釋是:這些模型「想得更久了」——通過強化學習,在回答前生成更長的思維鏈,付出更多測試時推算時間(test-time compute)。
然而,谷歌、芝加哥大學和圣塔菲研究所的研究者發現,推理能力的提升并非源于計算量的單純延伸,而是來自對多智能體交互的隱性模擬——他們將其稱為「思想社會」(society of thought)。
模型內部會涌現出具有不同人格特質和領域專長的認知視角,這些視角之間進行辯論、質疑與調和。
研究團隊分析了超過 8000 道推理題的模型輸出,發現在最復雜的任務上,如研究生級別的科學推理(GPQA)和高難度數學題,DeepSeek-R1 的「對話特征」尤為明顯;
而在相對簡單的布爾表達式等程序性任務中,這類特征幾乎消失。
他們甚至做了一個更直接的驗證:在 DeepSeek-R1-Llama-8B 模型中,研究者找到了一個與「驚訝、頓悟或應答」相關的內部特征,人為提升該特征的激活強度后,模型在數學推算任務上的準確率從 27.1% 躍升至 54.8%。
一個化學題的案例,把這種現象描述得相當具體:面對一道復雜的 Diels-Alder 合成反應,DeepSeek-R1 在推理過程中突然寫道:「不對,這里是環己二烯,不是苯」——模型在自我否定中修正了錯誤。
而 DeepSeek-V3 則沿著一條單線敘述徑直走到底,給出了錯誤答案。
更值得注意的是:這些模型從未被訓練去產生「思想社會」。
當強化學習僅以推理準確率作為獎勵信號時,模型自發增加了對話性的、多視角的行為。
優化壓力,自己找到了社會性推理這條路。
智能,從來不是一個「人」的事
埃文斯等人在《科學》論文中,將這一發現放進了更宏大的歷史框架:每一次「智能爆炸」,本質上都是一次社會組織方式的躍遷。
靈長類動物的智識水平隨群體規模擴大,而非隨棲息地難度增加。
人類語言創造了邁克爾·托馬塞洛所說的「文化棘輪」——知識跨代累積,無需每個人從頭重建。
文字、法律和官僚體系,則把社會智慧外化進了制度和基礎設施之中。
論文舉了一個有趣的例子:一個蘇美爾文書負責運行谷物核算系統,他根本不理解這套體系的宏觀經濟功能——但系統整體的智能,已經遠超他個人。
大型語言模型延續了這條線:它們被訓練在人類社會認知的全部輸出之上,是文化棘輪的計算激活形態,每一個參數都是無數次交流與表達的壓縮沉淀。
這個視角,直接挑戰了「孤獨超級大腦」的奇點敘事。
布拉頓此前在其思想機構 Antikythera 的研究中持續探討類似問題,他曾在演講中描繪過這樣的情景:
如果未來存在 80 億人類智能體,和 800 億乃至更多的非人類智能體,兩者之間的比例可能是 1 比 10、1 比 100,甚至更高,屆時,「什么構成社會」這個問題,將回到第一性原理。
「半人馬」時代,已經開始
論文將當下的人機協作形態稱為「半人馬配置」(centaur configuration)——人與 AI 智能體的混合行動者,既非純粹的人類,也非純粹的機器。
這種配置會變得極其多樣:一個人指揮多個 AI 智能體;一個 AI 服務多個人;許多人與許多AI在動態編組中相互協作。
智能體可以自我復制和分叉,一個面臨復雜問題的智能體可以生成副本,分配子任務,再將結果合并——這是遞歸式的集體審議,在每一層復雜性爆發時展開,在問題解決時收束。
這對 AI 的擴展路徑意味著什么?
論文的判斷是:重要的不只是單個智能體的算力規模,而是系統能否在真實社會的尺度和情境中運作。
為此,「建設智能體制度」與「建設智能體本身」同等重要。
在對齊方式上,論文對當下主流方案提出了批評。
從人類反饋中強化學習(RLHF)本質上是「親子糾錯模型」,在二元關系中有效,面對數十億智能體時難以擴展。
他們主張一種「制度對齊」(institutional alignment)路徑:就像人類社會依靠法庭、市場、官僚體制這些持久的制度模板運轉,而非依賴每個人的個人美德,可擴展的 AI 生態也需要其數字等價物——智能體的身份在其次,關鍵是它能否勝任某個角色協議,就像「法官」、「律師」、「陪審團」這些槽位本身的存在,獨立于坐在那個位子上的具體的人。
誰來審計審計者?
在治理層面,論文觸及了一個最為棘手的問題。
當 AI 系統被部署于招聘、量刑、福利分配等高風險決策中,「誰來審計審計者」變得無法回避。
論文提出了一種「憲政結構」的構想:政府需要部署具有明確價值取向的 AI 系統——透明度、公平、正當程序——專門用于制衡私營部門和政府其他部門部署的 AI,反之亦然。
例如,勞工部 AI 審計企業招聘算法是否存在差異性影響,司法部門 AI 評估行政部門 AI 的風險評估是否達到憲法標準。
論文用一個細節說明了另一種可能的未來:另一種選擇,是像美國證券交易委員會那樣,雇用拿著 Excel 表格的商學院畢業生,去對抗 AI 增強的高頻交易平臺的高維度合謀。
美聯儲的交易員,對陣的是一整套自動化認知系統——這已是現實。
這篇論文的核心關切,恰恰在于避免把注意力放錯地方。
擔心一個無所不能的單體 AI 降臨,可能導致政策走向誤區——去防范一種也許根本不會出現的技術形態。
真正需要設計的,是混合人機社會系統的規范、協調機制和制度框架。
用論文的原話作結,倒也簡潔有力:智能爆炸的問題,從來不是它會不會到來,而是我們能否建起與它相配的社會基礎設施。
參考資料:
https://www.science.org/doi/10.1126/science.aeg1895
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.