![]()
新智元報道
編輯:定慧
【新智元導讀】2027年將是人類命運的關鍵節點!Anthropic首席科學家Jared Kaplan預警,人類將在2027至2030年面臨是否允許AI進行遞歸自我進化的終極抉擇。
2027年,AI會進化到什么程度?
在人類技術文明的漫長歷史中,很少有一個具體的時間節點像「2027年」這樣,同時承載著彌賽亞式的救贖期許與末日論般的生存恐懼。
![]()
AI向善,還是AI向惡?
這不再是科幻小說家筆下的賽博朋克幻想,而是硅谷頂級實驗室中,無數高性能芯片在冷卻液中日夜計算出的物理必然。
2024年末至2025年初,全球AI領域正處于一種詭異的「靜默風暴」之中。地表之上,ChatGPT、Gemini、Claude的每一次迭代都引發著資本市場的狂歡與公眾的驚嘆;地表之下,以Anthropic、OpenAI和DeepMind為代表的核心圈層卻陷入了一種近乎窒息的緊張感。
這種緊張源于一個日益清晰的共識:遞歸自我進化的閉環即將閉合。
Anthropic聯合創始人兼首席科學家Jared Kaplan在近期的一系列深度訪談與內部研討中,拋出了一個令整個科技界震顫的論斷:
人類將在2027年至2030年之間面臨一個「極其高風險的決定」——是否允許AI系統自主進行下一代AI的訓練與研發。
![]()
這不僅關乎技術,更關乎人類作為物種的命運。
與此同時,Anthropic最新發布(12月3日)的內部深度調查《AI如何改變工作》,正在揭示這場宏大敘事下微觀個體的命運——工程師的「空心化」和學徒制的崩潰。
![]()
在硅谷的「凍結招聘」與國內互聯網大廠的「35歲危機」背景共振下,我們該如何和AI共存?
是時候了,現在我們每個人都需要一份面向未來的「生存指南」!
遞歸的終局,2027智能爆炸
Jared Kaplan警告,人類必須在2030年前決定是否要冒終極風險,讓AI系統通過自我訓練變得更強大。
![]()
他認為這一舉措可能引發有益的智能爆炸——也可能成為人類最終失控的時刻。
在Anthropic公司內部,表達擔憂的并非只有他一人。
其聯合創始人之一杰克·克拉克在去年十月表示,他對AI的發展軌跡既持樂觀態度,又深感憂慮,他將AI稱為一個真實而神秘的生物,而非簡單可預測的機器。
Kaplan表示,他對AI系統在達到人類智能水平之前與人類利益保持一致非常樂觀,但擔心一旦它們超越這個臨界點可能帶來的后果。
![]()
要理解Jared Kaplan的警告,首先必須理解支配當前AI發展的底層物理規律——Scaling Laws,以及它為何預示著一個不可避免的「奇點」。
過去十年,深度學習的輝煌建立在一種粗暴而有效的哲學之上:堆砌算力與數據。
Kaplan本人正是「神經縮放定律」的奠基人之一。
該定律指出,模型的性能與計算量、數據集大小和參數數量呈冪律關系。只要我們不斷增加這三個要素,智能就會「涌現」。
然而,到了2025年,這一范式撞上了兩堵墻:
- 高質量人類數據的枯竭
互聯網上可用于訓練的高質量文本已被挖掘殆盡。人類產生的每一個字符,從莎士比亞的十四行詩到Reddit上的口水戰,都已被喂入模型。
- 邊際效應遞減
單純增加模型參數帶來的性能提升正在放緩,而訓練成本卻呈指數級上升。
正是在這個瓶頸期,遞歸自我改進(RSI)成為了通向超級智能(ASI)的唯一鑰匙。
Kaplan及其團隊的模型顯示,AI進化的下一階段將不再依賴人類數據,而是依賴AI自身生成的合成數據與自我博弈。
![]()
谷歌DeepMind負責人Demis Hassabis也曾談論「智能爆炸」、自我改進型AI
根據Anthropic和DeepMind的內部推演,這一過程將經歷三個涇渭分明的階段:
- 第一階段:輔助研發(2024-2025)
這是我們當前所處的階段。AI(如Claude Code或Cursor)作為人類工程師的「超級外骨骼」,輔助編寫代碼、優化超參數。在這個階段,AI的貢獻是線性的,它提升了效率,但核心的創新路徑仍由人類科學家規劃。Anthropic的數據顯示,Claude Code已經能夠獨立完成涉及20步以上的復雜編程任務,這標志著輔助能力的成熟。
- 第二階段:自主實驗員(2026-2027)
這是Kaplan警告的臨界點。AI智能體(Agents)開始獨立承擔機器學習(ML)實驗的完整閉環。它們不再是寫代碼的工具,而是成為實驗的設計者。它們提出假設、編寫訓練框架、運行實驗、分析損失函數的異常,并根據結果調整模型架構。此時,AI的研發效率將僅受限于算力供給,而不再受限于人類研究員的睡眠時間和認知帶寬。
- 第三階段:遞歸閉環與起飛(2027-2030)
當AI的研發能力超越人類頂級科學家(如Kaplan本人),它將設計出比自身更強大的下一代AI。這種「子代」AI擁有更高的智商和更優化的架構,從而能設計出更強大的「孫代」AI。這種正反饋循環一旦啟動,智能水平將在極短時間內(可能僅需數周)呈現指數級躍升,即所謂的「硬起飛」。
![]()
AI革命被低估了!Eric Schmidt,埃里克·施密特曾擔任谷歌母公司董事長
為什么是2027年?
「2027」并非一個隨意的數字,它是多個技術與硬件周期耦合的結果。
無獨有偶,此前另一個項目AI2027同樣預測,在未來十年內,超人類AI的影響將是巨大的,其規模將超越工業革命。
![]()
AI模型的訓練依賴于大規模GPU集群的構建。
根據英偉達的路線圖以及全球數據中心的建設周期,2027年正是下一代超級計算集群(如OpenAI的Stargate項目或其同等規模設施)投入使用的節點。
這些集群的算力將是GPT-4時代的100倍甚至1000倍。
英偉達的GPU路線圖中,2027年底,最新芯片「費曼」也將啟用。
![]()
DeepMind的Demis Hassabis指出,AlphaZero通過「自我博弈」在圍棋領域實現了從零到神的突破,而不需要任何人類棋譜。
現在的目標是將這種「零人類數據」的學習范式泛化到編碼和數學領域。
一旦AI能夠通過自我生成的代碼進行訓練,并利用形式化驗證來確保證明或代碼的正確性,數據的天花板就被徹底打破了。
Kaplan認為,這一技術突破將在2026-2027年間成熟。
終極風險:不可解釋的優化路徑
Kaplan警告的核心在于不可解釋性(Uninterpretability)。
當AI開始自主設計下一代AI時,它所采用的優化路徑可能完全超出人類的認知范疇。
想象一下,一個擁有萬億參數的AI發現了一種全新的數學結構來優化神經網絡的權重更新。
![]()
這種結構極其高效,但極其晦澀。
由于人類無法理解這種優化機制,我們也就無法檢查其中是否隱藏了「特洛伊木馬」或錯位的目標函數。
「這就像你創造了一個比你聰明得多的實體,然后它去創造一個更聰明的實體。你根本不知道終點在哪里。」Kaplan在接受《衛報》采訪時如是說。
這種失控的風險,迫使Anthropic等實驗室提出了「計算閾值」(Compute Thresholds)監管方案,試圖通過限制訓練算力來為人類爭取時間。
但在地緣競爭的壓力下,這種自我約束的脆弱性不言而喻。
![]()
寫到這里,再次讓我想起,馬斯克很早就說過的,人類只是某種數字生命的啟動器。
從這個角度,不管人類是否自愿,這個過程已經不可逆了。
人類工程師的最后一份實驗報告
如果說Kaplan的預測是對未來的宏大敘事,那么Anthropic發布的《AI如何改變工作》報告,則是一份關于當下的、充滿血肉真實質感的田野調查。
![]()
這份報告基于對Anthropic內部數百名工程師的深度追蹤,揭示了在技術奇點到來之前,人類勞動形式是如何被徹底重塑的。
Anthropic的工程師們并非普通的軟件開發者,他們是世界上最懂AI的一群人。
他們使用Claude的方式,預演了未來3-5年全球軟件工程的常態。
調查顯示,在短短12個月內,AI在工作流中的滲透率發生了質變:
![]()
![]()
最引人注目的數據是「獨立工具調用鏈長度」的翻倍。
這意味著AI不再是只能寫一個函數的「補全工具」,而是能夠像一個真正的工程師一樣:讀取需求->搜索現有代碼->規劃修改方案->編寫代碼->運行測試->修復報錯->提交代碼。
![]()
這一連串動作在以前必須由人類打斷并串聯,現在AI已經可以一口氣跑完21個步驟。
Claude Code與自動化臨界點
報告特別指出了「Claude.ai」(聊天界面)與「Claude Code」(集成開發環境中的Agent)的巨大差異。
在聊天界面中,自動化比例僅為49%,人類仍需頻繁介入對話。
在Claude Code環境中,自動化比例高達79%。
這意味著,在專業的工程環境下,80%的工作實際上已經由AI托管。
人類工程師的角色,正在從「創作者」轉變為「監督者」。
生產力的提升令人欣喜,但報告的后半部分卻充滿了憂慮。
Anthropic極其誠實地記錄了工程師們對自己職業未來的恐懼——技能退化(Skill Atrophy)。
一位資深工程師在訪談中說道:「我以前認為我喜歡寫代碼,現在我發現我只是喜歡代碼帶來的結果。」
這句話道出了技術異化的本質。
編程不僅僅是產出代碼,它是一種思維訓練。
通過一行行敲擊代碼、一次次面對報錯、一步步調試堆棧,工程師建立起了對系統的物理手感和技術直覺。
![]()
當AI瞬間生成幾百行完美運行的代碼時,這個「痛苦但必要」的學習過程被省略了。
- 理解力的淺層化
工程師變得更加「全棧」(Full-stack),敢于觸碰前端、數據庫、運維等所有領域。但這種全棧是建立在沙灘上的。他們能讓系統跑起來,但不知道系統為什么能跑起來。一旦遇到AI無法解決的深層邏輯Bug(通常涉及到底層原理或極其復雜的交互),這些「速成全棧」工程師將束手無策。
- 驗證的困境
隨著AI生成的代碼越來越復雜,人類閱讀和審查代碼的難度也在增加。工程師傾向于將那些「容易驗證」(如單元測試能覆蓋的)任務交給AI,而回避那些需要深層審美和架構判斷的任務。但問題在于,隨著信任度的增加,邊界正在模糊。
學徒制的崩塌
這是報告中另一個最具社會學意義的發現:初級工程師正在失去成長的土壤。
「我喜歡和人一起工作,但我現在越來越不需要他們了……初級人員不再像以前那樣經常帶著問題來找我。」
在傳統的軟件工程體系中,初級工程師(Junior)通過處理瑣碎的Bug、編寫簡單的測試用例、維護文檔來積累經驗,并在資深工程師(Senior)的指導下逐步成長。
這是一種類似中世紀行會的「師徒制」。
然而,AI現在最擅長的正是這些「瑣碎、低風險、易驗證」的任務。
資深工程師發現,與其花30分鐘教實習生,不如花30秒讓Claude完成。
于是,初級工程師失去了練手的機會,資深工程師失去了傳道的動力。
這預示著一個可怕的未來——「斷層的一代」。
當現在的資深工程師退休后,誰來接班?我們是否正在培養一代完全依賴AI拐杖,一旦斷網就徹底喪失能力的「空心工程師」?
站在2025年的節點上,望向2030年的迷霧,每一個個體都必須進行一場深刻的自我革命。
Jared Kaplan的2027警告或許是懸在頭頂的達摩克利斯之劍,但未來并非已成定局。
在奇點到來前的最后幾年里,請務必抓緊手中的方向盤,保持清醒,保持痛感,保持工程師的驕傲。
參考資料:
https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic
https://www.theguardian.com/technology/ng-interactive/2025/dec/02/jared-kaplan-artificial-intelligence-train-itself
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.