![]()
![]()
文 | Innocent Roland
當(dāng)埃隆·馬斯克公開判斷“2026 年實(shí)現(xiàn) AGI(通用人工智能),2030 年集體智能將碾壓人類”時(shí),整個(gè)科技圈迅速被點(diǎn)燃。
在他看來,AI 正處在一條幾乎無法減速的加速曲線上:能力每 7 個(gè)月翻倍,現(xiàn)有模型還有百倍潛力尚未釋放,一旦放緩節(jié)奏,人類反而可能失去對(duì)系統(tǒng)的控制權(quán)。這種近乎“懸崖式推進(jìn)”的判斷,也讓 AI 的未來被推向更極端的討論區(qū)間。
與之相對(duì)的,則是相對(duì)而言更加保守的聲音,以DeepMind CEO 戴密斯·哈薩比斯為代表的其他從業(yè)者則認(rèn)為:“2030年前AGI落地概率僅50%”,他強(qiáng)調(diào)物理世界交互能力才是關(guān)鍵,安全測試必須先行;而“AI教父”辛頓更直接呼吁全球簽署“AI開發(fā)暫停條約”,以防失控。
前 Meta 首席 AI 科學(xué)家楊立昆的態(tài)度則更加冷靜甚至悲觀。他和不少研究者直言,當(dāng)前被頻繁討論的 AGI,更像是一種敘事工具;僅依賴大語言模型,幾乎不可能真正通向通用人工智能。
關(guān)于 AGI 的爭論從未停歇:它會(huì)在何時(shí)到來?是否真的存在?又是否會(huì)從根本上改變?nèi)祟惿鐣?huì)?答案仍然高度分裂。
為此,Morketing整理了包括2026年達(dá)沃斯世界經(jīng)濟(jì)論壇核心對(duì)話、《財(cái)富》、《The Verge》、《麻省理工科技評(píng)論》等權(quán)威渠道的專家論述,系統(tǒng)梳理全球頂尖AI科學(xué)家與機(jī)構(gòu)負(fù)責(zé)人的觀點(diǎn),將其分為激進(jìn)派、漸進(jìn)派、降溫派三大陣營,闡述他們對(duì)AGI實(shí)現(xiàn)時(shí)間、定義、監(jiān)管及替代人類的看法,以期管中窺豹,一探AI未來之貌。
![]()
激進(jìn)派:AGI誕生就在眼前,
進(jìn)一步減少對(duì)AI的約束會(huì)帶來革命性成果
首先是激進(jìn)派,其代表人物是xAI創(chuàng)始人埃隆·馬斯克(Elon Musk),同時(shí)Anthropic(2021年成立的公司,其代表產(chǎn)品是Claude)的CEO達(dá)里奧·阿莫迪(Dario Amodei),這兩位的核心觀點(diǎn)是AGI已經(jīng)近在眼前,甚至可能不出兩年,人們就能見到真正的AGI面世。
首先,根據(jù)他們的定義,所謂的AGI就是一個(gè)非擬人化意識(shí)的,能夠獨(dú)立完成諾獎(jiǎng)級(jí)科研、全流程軟件開發(fā)等復(fù)雜任務(wù)的完全體,其中埃隆·馬斯克更為激進(jìn),在他看來,2026年底就能實(shí)現(xiàn)真正意義上的AGI,2030-2031年集體智能將超越人類,其依據(jù)是:AI能力每7個(gè)月翻倍,當(dāng)前模型效率仍有100倍提升空間,將呈現(xiàn)鏈?zhǔn)椒磻?yīng)式爆發(fā)。
當(dāng)然,需要補(bǔ)充的是,作為并不單純的“資本領(lǐng)袖”,考慮到埃隆·馬斯克需要同時(shí)為投資人、資本和自己的“錢包”負(fù)責(zé),其觀點(diǎn)很可能受到利益的影響。
同為激進(jìn)派的達(dá)里奧·阿莫迪就相對(duì)來說保守一些,在2026年達(dá)沃斯論壇上略微推遲了AGI落地的時(shí)間預(yù)期,體現(xiàn)出對(duì)技術(shù)不確定性的謹(jǐn)慎,但整體仍堅(jiān)持AGI會(huì)在短期內(nèi)落地。
這種對(duì)于AGI落地的樂觀預(yù)估,自然會(huì)影響他們對(duì)于監(jiān)管的態(tài)度。其中,達(dá)里奧·阿莫迪明確表示,“安全措施不應(yīng)阻礙創(chuàng)新——AGI的潛在收益遠(yuǎn)大于風(fēng)險(xiǎn),我們應(yīng)在發(fā)展中解決安全問題”;埃隆·馬斯克則進(jìn)一步主張,“AGI應(yīng)盡快落地,因?yàn)檠舆t落地會(huì)讓人類失去對(duì)AI的控制權(quán)”。
總的來說,激進(jìn)派對(duì)AI安全閾值、跨國監(jiān)管約束持保留態(tài)度,優(yōu)先考量技術(shù)迭代速度。
在這里我們要額外補(bǔ)充的是,雖然達(dá)里奧·阿莫迪表示安全措施不該阻礙創(chuàng)新,但Anthropic的研究也確實(shí)在安全技術(shù)上做出了一些貢獻(xiàn),其數(shù)據(jù)顯示接入外部環(huán)境數(shù)據(jù)的大語言模型幻覺率可降低42%-68%,且其提出的“憲法AI”框架(簡單來說,就是在模型訓(xùn)練數(shù)據(jù)中加入一套“倫理憲法”,如“不傷害人類”“誠實(shí)透明”等原則,讓模型在生成內(nèi)容時(shí)自動(dòng)遵循這些原則。)的核心是用人類價(jià)值觀約束模型行為,本質(zhì)上是在創(chuàng)新與安全之間尋求平衡。
![]()
考慮到Anthropic的企業(yè)文化和相關(guān)內(nèi)容宣傳,Anthropic可能認(rèn)為安全可以在發(fā)展中解決的問題,從而讓AI能夠快速迭代的同時(shí)讓他們能夠被安全且無害的被應(yīng)用到日常生活中去。
最后,在受大多數(shù)人關(guān)注的效率議題上,作為激進(jìn)派的達(dá)里奧·阿莫迪預(yù)測:“AI將在1年內(nèi)替代所有軟件開發(fā)者,5年內(nèi)替代50%的白領(lǐng)工作”,埃隆·馬斯克則更為極端,認(rèn)為“2026年AGI落地后,3-7年內(nèi)一半的崗位將直接消失。”
這里我們需要補(bǔ)充一點(diǎn),Anthropic旗下的一系列產(chǎn)品最強(qiáng)的能力,或者說最讓其出圈的能力就是編程。
以相對(duì)穩(wěn)定的Claude Opus 4為例,其測試數(shù)據(jù)顯示,該模型在SWE-bench基準(zhǔn)測試(評(píng)估模型解決真實(shí)GitHub問題的能力)中準(zhǔn)確率達(dá)到72.5%;在TerminalBench測試(在多步驟終端代碼生成任務(wù)中驗(yàn)證模型表現(xiàn))中準(zhǔn)確率為43.2%。且該模型目前在測試中可連續(xù)進(jìn)行近7小時(shí)的代碼生成和任務(wù)執(zhí)行,因此已經(jīng)有不少觀點(diǎn)認(rèn)為其很可能取代部分軟件工程師以及從事簡單代碼編寫和維護(hù)的初級(jí)程序員、代碼審查員等。
這也解釋了為何達(dá)里奧·阿莫迪認(rèn)為AI會(huì)在一年時(shí)間里替代掉軟件開發(fā)者,如果以此為推導(dǎo),就意味著未來的AI將能夠完成自我迭代的,這種頗具科幻色彩的預(yù)測,很難不讓人想到經(jīng)典影片《黑客帝國》。
從某種程度上來說,讓程序員寫AI來完成完全的自我替代,這種想法堪稱“地獄級(jí)設(shè)想”。
當(dāng)然,無論是達(dá)里奧·阿莫迪還是埃隆·馬斯克,他們都是一家或者多家巨頭企業(yè)的領(lǐng)導(dǎo)者。加上到近期埃隆·馬斯克正在推動(dòng)將自己麾下的一系列企業(yè)整合上市,以及Anthropic正尋求以3500億美元估值融資,計(jì)劃籌集總額250億美元或更多資金。且在2026年1月19日有海外媒體報(bào)道稱紅杉資本計(jì)劃對(duì)Anthropic重大投資,微軟與英偉達(dá)也已承諾向其投資總計(jì)至多150億美元。
因此,我們必須要意識(shí)到,他們的一系列觀點(diǎn)都會(huì)受到其立場的影響。
![]()
漸進(jìn)派:理性審慎者,
平衡創(chuàng)新與安全
相比激進(jìn)派,漸進(jìn)派的支持者更多,知名人士也不少。
包括DeepMind(代表產(chǎn)品是Gemini,以及AlphaGo)CEO戴密斯·哈薩比斯(Demis Hassabis)、OpenAI(代表產(chǎn)品ChatGPT)/SSI聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維(Ilya Sutskever)、“AI教父”杰弗里·辛頓(Geoffrey Hinton),以及不少頂尖AI科研機(jī)構(gòu)從業(yè)者,他們的核心觀點(diǎn)是“理性看待AGI發(fā)展,安全與創(chuàng)新并重,注重技術(shù)落地的實(shí)際價(jià)值”。
同時(shí),他們整體更理性,也是當(dāng)前AI領(lǐng)域的“主流派別”。
首先,在對(duì)AGI的定義上,漸進(jìn)派就產(chǎn)生與激進(jìn)派完全不同的結(jié)論。以戴密斯·哈薩比斯為例,他將AGI定義為“具備人類所有認(rèn)知能力——包括頂尖科學(xué)家與藝術(shù)家的創(chuàng)造力的系統(tǒng)”,強(qiáng)調(diào)AGI需具備自主提出科學(xué)猜想、實(shí)現(xiàn)跨領(lǐng)域創(chuàng)新的能力。這一觀點(diǎn)與OpenAI聯(lián)合創(chuàng)始人Ilya Sutskever的早期表述一致,后者曾將AGI描述為“能像人類一樣學(xué)習(xí)并最終超越人類的系統(tǒng)”。
而且,他們對(duì)于AGI落地的時(shí)間上也秉持著更為謹(jǐn)慎的態(tài)度,在戴密斯·哈薩比斯看來,雖然現(xiàn)在AI依舊在不斷進(jìn)步,此前大語言模型的撞墻言論并不可信,但在2030年前AGI落地的概率也只有50%。
最難解決的核心問題是與物理世界的交互能力,在他看來對(duì)物理世界因果關(guān)系和運(yùn)作機(jī)制的“理解”,恰恰是實(shí)現(xiàn)AGI的關(guān)鍵,因此目前的大語言很難成為AGI誕生的沃土,與之相反融合視覺、聽覺、視頻和語言的多模態(tài)模型,反而有可能形成完整世界認(rèn)知的能力,最終產(chǎn)生真正的AGI。
依舊是持續(xù)學(xué)習(xí),目前的大模型,只能說在訓(xùn)練階確實(shí)能在一定程度上學(xué)“學(xué)習(xí)”,但在部署后,當(dāng)前的模型無法在與用戶的交互中持續(xù)學(xué)習(xí)。
另一方面則是與物理世界的交互能力,在他看來對(duì)物理世界因果關(guān)系和運(yùn)作機(jī)制的“理解”,恰恰是實(shí)現(xiàn)AGI的關(guān)鍵,因此在這點(diǎn)上多模態(tài)模型要遠(yuǎn)比大語言模型更有優(yōu)勢,這種融合視覺、聽覺、視頻和語言以形成完整世界認(rèn)知的能力,才是通往AGI的必經(jīng)之路。
需要指出的是,專家們的預(yù)測并非一成不變。例如,伊爾亞·蘇茨克維就曾公開調(diào)整其AGI時(shí)間表:他在2025年TED演講中預(yù)測“5-10年就能實(shí)現(xiàn)AGI”,但在2026年2月的訪談中則改口稱“規(guī)模時(shí)代結(jié)束,高質(zhì)量數(shù)據(jù)枯竭,算力邊際效益遞減,需構(gòu)建“通用學(xué)習(xí)直覺”而非單純堆規(guī)模,AGI需新范式”,當(dāng)然,這種變化本質(zhì)上是對(duì)AI發(fā)展邏輯的重新認(rèn)知,因此,我們也需要意識(shí)到AI和世界一樣處在動(dòng)態(tài)變化中,預(yù)測也并不一定是準(zhǔn)確的。
其次,在監(jiān)管層面上漸進(jìn)派是“主動(dòng)安全約束”的核心推動(dòng)者,主張將安全機(jī)制嵌入模型訓(xùn)練全流程。
雖然這點(diǎn)聽上去和Anthropic的“AI憲法”很相似,但其限制遠(yuǎn)比Anthropic的更為嚴(yán)格。例如,杰弗里·辛頓就提出“電路斷路器”與暫停協(xié)議,主張?jiān)贏I系統(tǒng)中嵌入自動(dòng)降級(jí)開關(guān),當(dāng)模型出現(xiàn)不可控行為時(shí)自動(dòng)凍結(jié)并報(bào)警,同時(shí)呼吁各國簽署“AI開發(fā)暫停條約”,出現(xiàn)失控跡象時(shí)全球暫停前沿模型訓(xùn)練至少72小時(shí)。
與之相似,戴密斯·哈薩比斯則將安全測試作為AGI落地的前提,指出“AGI的安全閾值應(yīng)與技術(shù)能力匹配,因此我們需要在實(shí)現(xiàn)AGI前,完成至少3輪全場景安全測試。”具體到行動(dòng)層面上,DeepMind已在Gemini模型中落地“電路斷路器”機(jī)制,在高風(fēng)險(xiǎn)任務(wù)處理中啟動(dòng)紅色預(yù)警模式,由人類專家二次驗(yàn)證。
伊爾亞·蘇茨克維更是將安全視為AGI的核心前提,強(qiáng)調(diào)“如果首批強(qiáng)大的系統(tǒng)不能做到‘關(guān)愛眾生’,那局面會(huì)變得非常危險(xiǎn)”。雖然這些言論和行動(dòng),聽起來像是在防范科幻小說中才有的“鐵人叛亂”(桌游《戰(zhàn)錘40K》中人工智能叛變?nèi)祟惖脑O(shè)定)。
然而,若考慮混沌理論——微小差異導(dǎo)致長期不可預(yù)測性,以及安全約束在特定場景下提升效率的可能,那么漸進(jìn)派在安全上的謹(jǐn)慎態(tài)度便并非全無道理。
最后,在人們最為關(guān)注的效率層面上,漸進(jìn)派同樣更加保守也更加溫和,他們的核心觀念是“AI輔助論”,強(qiáng)調(diào)AI的核心價(jià)值是增強(qiáng)人類智能而非替代人類。
戴密斯·哈薩比斯認(rèn)為,“AI的核心價(jià)值是‘增強(qiáng)人類智能’(Augmented Intelligence),而非‘替代人類’,也就是說AI應(yīng)作為科學(xué)家、醫(yī)生的助手,而非替代者”;伊爾亞·蘇茨克維則進(jìn)一步指出,“AI的效率價(jià)值不是‘替代人類’,而是‘釋放人類創(chuàng)造力’,因此AI應(yīng)承擔(dān)重復(fù)性工作,讓人類專注于創(chuàng)新”。
同時(shí),他們大多認(rèn)可AI落地中存在“效率幻覺”,認(rèn)為真效率的實(shí)現(xiàn)需要AI與業(yè)務(wù)流程深度融合,而非單純追求實(shí)驗(yàn)室中的高效表現(xiàn),對(duì)企業(yè)AI落地的“J型曲線”持理性看待態(tài)度。
例如戴密斯·哈薩比斯在近期的采訪中談及AI泡沫時(shí)就說過:“對(duì)于像Alphabet(谷歌母公司)這樣擁有深厚技術(shù)積累和龐大業(yè)務(wù)底座的公司來說,無論泡沫是否破裂,我們都能贏。因?yàn)榧词姑魈霢I的進(jìn)步突然停止(雖然他認(rèn)為這不可能),僅僅是現(xiàn)有的技術(shù),就已經(jīng)足夠讓我們的搜索、YouTube、辦公套件等業(yè)務(wù)產(chǎn)生巨大的效率提升和體驗(yàn)變革。”
![]()
降溫派:技術(shù)懷疑者,
警惕過度炒作
最后則是保守派,或者說是降溫派,對(duì)他們而言,AI現(xiàn)如今的熱度已經(jīng)遠(yuǎn)超AI能夠?qū)嶋H產(chǎn)生的價(jià)值。
以“卷積神經(jīng)網(wǎng)絡(luò)之父”,前Meta首席AI科學(xué)家楊立昆(Yann LeCun,和杰弗里·辛頓一起獲得圖靈獎(jiǎng),美國國家科學(xué)院、美國國家工程院和法國科學(xué)院院士)為核心代表,立場更為悲觀審慎,核心觀點(diǎn)是“當(dāng)前AI技術(shù)存在本質(zhì)短板,AGI短期內(nèi)無法實(shí)現(xiàn),行業(yè)過度炒作AI的能力與價(jià)值”,是AI領(lǐng)域的“理性派”。
![]()
在AGI發(fā)展上,降溫派徹底否定當(dāng)前技術(shù)路徑實(shí)現(xiàn)AGI的可能性,甚至質(zhì)疑AGI定義的合理性。楊立昆認(rèn)為“AGI一詞已淪為炒作工具”,主張用“高級(jí)機(jī)器智能”替代AGI概念,其核心判斷標(biāo)準(zhǔn)是系統(tǒng)是否具備物理世界的因果推理能力,而非在語言或邏輯任務(wù)中的表現(xiàn)。甚至明確表示“大語言模型永無AGI,新范式落地需數(shù)十年。”
簡單來說,在他看來,如果繼續(xù)依靠現(xiàn)有的大語言模型,就意味著AGI永遠(yuǎn)不會(huì)出現(xiàn),其核心觀點(diǎn)與戴密斯·哈薩比斯類似,同時(shí)由于現(xiàn)有的大語言模型無法構(gòu)建和理解物理世界,其語言能力成功地掩蓋了模型最大的缺陷,這使得現(xiàn)如今的AI模型雖能通過律師資格考試,卻無法理解物理世界的基本規(guī)律——這也是我們尚未擁有通用機(jī)器人或?qū)崿F(xiàn)Level 5自動(dòng)駕駛的原因。
或許正是因?yàn)檫@種理念,使得其在開發(fā)思路上也與戴密斯·哈薩比斯有一定程度的重疊,雙方都更注重多模態(tài),和視頻數(shù)據(jù)訓(xùn)練,只不過相比戴密斯·哈薩比斯而言,楊立昆對(duì)于技術(shù)AGI的問世持有更謹(jǐn)慎且悲觀的態(tài)度,畢竟新范式都需要十年才能落地,AGI自然是遙遙無期。
其次,則是監(jiān)管層面,在監(jiān)管和安全治理方面,楊立昆卻顯得頗為激進(jìn),在他看來當(dāng)前的AI安全擔(dān)憂毫無疑問是“被過度炒作的”。
在楊立昆看來,“現(xiàn)如今的大語言模型連基本的物理世界理解都沒有,談超級(jí)智能風(fēng)險(xiǎn)為時(shí)過早”,這就意味著當(dāng)前全球范圍內(nèi)的安全約束與監(jiān)管措施過于嚴(yán)苛,反而是忽視了AI技術(shù)的局限性,過度約束反而會(huì)阻礙正常的技術(shù)研發(fā)與應(yīng)用,這似乎與激進(jìn)派形成呼應(yīng),這也是為什么我們并沒有將這一派認(rèn)定為單純的保守派,而是將其定義為“降溫派”的原因。
但值得注意的是,雖然雙方都認(rèn)為應(yīng)該減少監(jiān)管,但與激進(jìn)派不同,降溫派的核心邏輯是“風(fēng)險(xiǎn)尚未顯現(xiàn)”而非“收益大于風(fēng)險(xiǎn)”。因此,從某種程度上來說,他們對(duì)于未來的預(yù)估確實(shí)更加保守,也更加慎重。
最后,在效率價(jià)值層面,降溫派則認(rèn)為AI的效率價(jià)值被過度高估,甚至可以說是過度炒作。
楊立昆曾經(jīng)在多個(gè)不同的采訪和自己的文章中都表示過,“當(dāng)前AI的效率價(jià)值被過度炒作,畢竟大語言模型連基本的物理世界理解都沒有,談替代人類為時(shí)過早”,雖然他認(rèn)可AI確實(shí)能在部分場景中提供一定的輔助價(jià)值,但堅(jiān)定地認(rèn)為AI不可能在短期內(nèi)帶來效率革命。
值得注意的是,降溫派與其他流派不同,他們直接認(rèn)為“效率幻覺”的存在本質(zhì)上是技術(shù)能力不足的體現(xiàn),而非落地過程中的階段性問題,因此除非更改AI范式,并推動(dòng)技術(shù)進(jìn)步,否則效率幻覺會(huì)一直存在。
例如LambHam 2026年1月的研究顯示,AI產(chǎn)生的錯(cuò)誤與幻覺,需人類花費(fèi)大量時(shí)間修正,而這一成本約占AI預(yù)期價(jià)值的40%。例如,某軟件公司采用AI代碼生成工具后,開發(fā)速度提升了20%,但代碼錯(cuò)誤率也提升了15%,導(dǎo)致測試與修正時(shí)間增加了30%,凈效率反而下降了10%。
只不過,在最后的結(jié)尾上降溫派和激進(jìn)派再度出現(xiàn)分歧,在降溫派看來,雖然現(xiàn)如今對(duì)于效率的提升是源自技術(shù)不足,但即使技術(shù)進(jìn)一步發(fā)展,AI也不可能完全替代人類勞動(dòng),對(duì)AI替代人類勞動(dòng)的觀點(diǎn)持徹底否定態(tài)度。
![]()
結(jié)語
總的來看,三大派別立場迥異,卻存共性:一是純文本大語言模型無法實(shí)現(xiàn)AGI,構(gòu)建理解物理世界因果關(guān)系的“世界模型”是必經(jīng)之路;二是2026年是AI從“規(guī)模驅(qū)動(dòng)”向“范式重構(gòu)”的轉(zhuǎn)折節(jié)點(diǎn),多模態(tài)模型或成核心技術(shù)。
盡管三方對(duì)AGI落地時(shí)間(1年至20年以上)、落地路徑分歧巨大,但現(xiàn)階段AI仍需在創(chuàng)新與監(jiān)管、幻覺與現(xiàn)實(shí)、替代與協(xié)同中穩(wěn)步發(fā)展。正如伊爾亞·蘇茨克維半年內(nèi)改變AGI預(yù)測所揭示:AI發(fā)展與世界一樣動(dòng)態(tài)多變,其未來或?qū)⒁猿A(yù)期方式變革——這一切,唯有時(shí)間能給出答案。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.