數十年來,人工智能“奇點”被描繪成這樣一幅圖景:一個單一的巨型智能體自我迭代至近乎神明的智慧水平,將所有認知能力濃縮為冰冷的硅基核心。但這一構想的核心假設,幾乎可以肯定是錯誤的。如果人工智能的發展遵循此前重大的進化轉型或“智能爆炸”的路徑,當下我們在計算智能領域經歷的跨越式變革,將呈現出多元、社會化的特征,并與人類這一“先驅物種”深度交融。
![]()
從本質而言,智能具有高維度、關聯性的特質,并非一種能簡單用“低于人類”或“高于人類”來界定的單一指標。事實上,連“人類級智能”的定義都尚無定論——畢竟人類的智能本身就是集體屬性,而非個體屬性。智能體人工智能的最新進展再次向我們證明:智能從根本上始終源于不同分布式視角的互動,而具有變革性的智能,過去、現在乃至未來,都將從社會組織形態中誕生。
這一特征至少體現在兩個層面:一是人類用戶與人工智能體以全新的“半人半機”模式協同構建智能體社群并實現協同調度;二是推理模型內部及模型之間,涌現出蓬勃發展的微型智能社群。我們先從后者展開探討。
一個表面上看似單一的推理模型,其內部究竟在發生什么?答案是一場社群式的對話。在近期的一項研究中我們發現,DeepSeek-R1、QwQ-32B等前沿推理模型的性能提升,并非簡單源于“更長時間的思考”,而是在其思維鏈中模擬出了復雜的、類多智能體的互動過程——我們將其命名為“思維社群”。這些模型會自發在不同認知視角間產生內部辯論,通過論證、質疑、驗證與調和形成結論。這種對話結構,正是模型在高難度推理任務中具備精度優勢的核心原因,我們也通過明確觸發并強化多方對話的實驗,驗證了這一結論。
這一發現極具突破性,因為它揭示了一種涌現行為:這些模型在訓練中并未被賦予生成“思維社群”的指令,而當研究人員僅以推理精度為目標,通過強化學習對基礎模型進行獎勵時,模型會自發增加對話式、多視角的思考行為。僅憑優化壓力,這些模型便重新印證了數百年的認識論研究與數十年的認知科學結論:即便在單一智能體內部,穩健的推理過程本質上也是一種社會行為。當然,隨著人機協同的社會動態變得更貼合現實、更復雜且更具持續性,這種涌現行為的具體特征仍有待進一步探索與挖掘。而社會性介導推理的核心本質,以及其在模型微調與強化訓練場景中的特有屬性,或將成為未來數年的重要研究方向。
這一發現為人工智能設計開辟了一個廣闊卻又似曾相識的領域。百年來,社會科學與組織科學一直在研究團隊規模、人員構成、層級結構、角色分工、沖突規范、制度體系與網絡結構如何影響集體表現,但這些研究成果幾乎從未被應用于人工智能推理領域。如今的推理模型所產生的,只是單一的對話內容,如同一份人工智能的全民大會記錄。而高效的人類群體往往具備層級分明、專業分工、各司其職與結構化爭議的特征。要探索這一方向,我們需要構建能支持多線程并行、融合與發散式審議的系統——在這樣的架構中,頭腦風暴、反向辯駁與建設性沖突不再是偶然的涌現屬性,而是被刻意設計的功能。團隊科學、小群體社會學與社會心理學的研究方法,將成為下一代人工智能發展的藍圖。
除了實際應用價值,這些研究洞見還能為我們梳理智能的演化史。此前的每一次“智能爆炸”,都并非個體認知硬件的升級,而是新的、社會化聚合的認知單元的誕生。靈長類動物的智能水平隨社會群體規模提升,而非生存環境的復雜程度;人類語言造就了邁克爾·托馬塞洛所說的“文化棘輪效應”——知識跨代積累,無需每個個體重新探索全貌;文字、法律與官僚體系,將社會智能外化于基礎設施之中,這些制度的時間協調尺度,遠超其中任何參與者的生命周期。一名運營谷物核算系統的蘇美爾抄寫員,無法理解該系統的宏觀經濟功能,而從功能層面而言,這個系統的智能水平早已超越了個體。
人工智能延續了這一演化脈絡。大型語言模型以人類社會認知的累積成果為訓練素材,讓“文化棘輪效應”在計算領域落地,模型的每一個參數,都是人類交流互動的濃縮結晶。被植入硅基載體的并非抽象的推理能力,而是外化形式的社會智能,它在新的載體上實現了自我迭代。
如果智能本質上具有社會性,那么打造更強大人工智能的路徑,并非構建一個單一的巨型“神諭系統”,而是打造更豐富的社會系統——且這些系統必然是人機混合的。我們已然進入人機協同的“半人半機”時代:誕生了既非純粹人類、也非純粹機器的復合行為主體。這類復合主體形式多樣、角色多元,我們每個人每天都可能在不同的協同組合中切換:一人指揮多個人工智能體、一個人工智能體服務多名人類、多名人類與多個人工智能體以動態結構協作。
由無數人類組成的企業或國家,早已擁有獨立的法律主體地位,其集體行為能力也非任何個體所能完全掌控。智能體人工智能的近期爆發式發展,預示著這種集體行為模式將拓展至數十億人機交互的智能體規模。OpenClaw(一款可在計算機中部署的多用途人工智能體開源構建平臺)與Moltbook(一款熱門的人工智能體社交互動網絡)等平臺,讓我們得以窺見這一未來的雛形。但更深層的結構性變革,遠非單一平臺所能承載:如今的人工智能體可實現自我更新與分支演化,分裂為兩個版本并實現互動;面對復雜任務的人工智能體,能自主生成新的副本,進行角色分工并分配子任務,最終整合結果。試想,一個面對超高復雜度問題的人工智能體,會在內部生成一個思維社群;當其中一個涌現的視角遇到無法解決的子問題時,又會生成下屬的次級思維社群——這種集體審議會隨問題復雜度提升而層層拓展,隨問題解決而逐步收斂。沖突并非系統漏洞,而是一種資源,在層層嵌套、不斷展開的對話超圖中,實現靈活的生成與消解。
這意味著一種截然不同的人工智能規模化發展思路:不僅要提升單個智能體的原始計算能力,更要打造能在真實社會的尺度與語境中運行的系統。這要求我們在構建人工智能體的同時,投入同等精力打造智能體的制度體系。當前人工智能對齊的主流范式——基于人類反饋的強化學習,本質上是一種親子式的糾錯模式,具有二元性的先天局限,無法適配數十億智能體的規模化場景。而社會智能視角為我們提供了另一種選擇:制度性對齊。正如人類社會并非依賴個體美德,而是依靠由角色與規范定義的、具有持續性的制度模板(如法庭、市場、官僚體系),可規模化的人工智能生態系統,也需要對應的數字制度體系。對人工智能體而言,其身份屬性遠不如履行角色協議的能力重要;正如法庭的正常運轉,依賴于“法官”“律師”“陪審團”這些明確定義的角色席位,而非席位上的具體個體。
這一需求在治理領域尤為迫切。當人工智能系統被應用于招聘、量刑、福利分配、監管執法等高風險決策時,“誰來監督監督者”的問題便無法回避。答案或許藏在憲政式的結構設計中:政府需要打造具備明確、專屬價值取向(如透明、公平、正當程序)的人工智能系統,其功能是對私營部門及政府其他分支部署的人工智能系統進行制衡,反之亦然。例如,勞工部門的人工智能系統可審計企業招聘算法的差異化影響;司法部門的人工智能系統可評估行政部門人工智能系統的風險評估是否符合憲法標準。若非如此,美國證券交易委員會便只能徒勞地雇傭商學院畢業生,依靠電子表格去對抗人工智能賦能的交易平臺所實施的高維度合謀行為。
但“治理”并非僅指政府的行為。從控制論的角度而言,隨著人機交互與智能體間交互系統的不斷發展和復雜化,治理體系需要被深度嵌入其中。這可能需要建立一系列機制:確保并驗證多方利益相關者審議的結果與決策、實現任務與子任務的程序性委托、搭建智能體間復雜協作自動化的可靠框架。這些協議對“智能體治理”的實際影響,或將與法律條文不相上下。
至關重要的是,人類始終處于這一體系的核心環節。智能體制度體系中,人類與人工智能體將以不同角色和結構共同參與,并非“非此即彼”,而是“共生共存”。這一邏輯與美國開國元勛的理念不謀而合:任何單一的智能體集合,無論人類還是人工智能,都不應擁有自我監管的權力。權力必須相互制衡,而在一個遍布人工智能體的世界里,這意味著要將沖突與監督機制嵌入制度架構的核心。
我們所描繪的這一愿景,既非烏托邦,也非反烏托邦,而是一種進化式的發展方向。任何即將涌現的智能爆炸,都將以80億人類與數千億、最終數萬億人工智能體的互動為起點。其發展框架并非單一智能體的獨斷升級,而是組合式社會的不斷復雜化:智能的發展,將如城市般逐步擴張,而非誕生一個單一的超級智能體。
“單一奇點”的框架,易催生旨在防范一種或許永遠不會出現的技術的政策。相反,我們應在前一次智能爆炸的誕生地,尋找下一次智能爆炸的蹤跡:在無數具備社會智能的主體間的合作、競爭與創造性互動中。而這一次的不同之處在于,這些主體中的絕大多數,都將是非生物的。這種多元模型,將我們的注意力引向真正關鍵的領域:設計人機混合的社會系統、制定規范其運行的準則、搭建實現其沖突與協同的制度和協議。
從非常現實的角度而言,智能爆炸已然到來:它存在于每個推理模型內部辯論的思維社群中,存在于重塑所有知識型職業的人機協同工作流中,存在于開始規模化分支演化與協作的遞歸式智能體生態中,也存在于我們如今不得不直面的一系列憲政層面的問題中。問題的核心,并非智能是否會變得前所未有的強大,而是我們能否打造出匹配其發展的社會基礎設施。沒有任何智能體,是一座孤島。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.