杰弗里·辛頓(Geoffrey Hinton),英國計算機科學家,被稱為“深度學習之父”。他堅持研究神經網絡數十年,通過反向傳播算法和玻爾茲曼機等成果奠定了現代AI的基礎。因對深度學習的卓越貢獻,他于2018年獲得圖靈獎。2023年他離開谷歌,以便自由警示AI可能威脅人類生存的風險。2024年,他因在人工神經網絡領域的開創性成就榮獲諾貝爾物理學獎。本文基于辛頓教授2026年1月7日在澳大利亞霍巴特發表的公開演講及問答環節翻譯整理,僅供參考。
主旨演講部分
1. 開場白:智能的兩大范式
大家好,很高興來到霍巴特。我之前沒意識到這里的自然環境如此美麗。如果你因為坐在后排看不清屏幕,別擔心,我會把幻燈片上的內容基本都說出來。幻燈片更多是為了提醒我該說什么,而不只是給你們看的。
在過去的 60 或 70 年里,關于智能存在兩種范式。一種范式受邏輯啟發。人們認為智能的本質是推理,而進行推理的方式是你擁有用某種特殊邏輯語言編寫的符號表達式,并通過操作它們來導出新的符號表達式——就像你在數學中所做的那樣。人們認為,我們必須弄清楚這種表示知識的語言是什么,而研究感知、學習以及如何控制雙手這些事情都可以等到以后再說。
另一種范式是受生物學啟發的方法,它認為:看,我們知道的唯一具有智能的東西就是大腦。大腦的工作方式是學習腦細胞之間連接的強度。如果大腦想解決某個復雜的問題,它會進行大量的練習,在練習的過程中,它會學習這些連接的強度,直到擅長解決該問題。我們必須弄清楚那是如何運作的。至于推理,以后再操心。
2. 兩種意義理論
伴隨著這兩種意識形態,產生了兩種截然不同的詞義理論。符號AI的支持者和大多數語言學家認為,一個詞的意義來自于它與其他詞的關系。意義隱含在一大堆句子或命題中,可以通過建立一個關系圖來捕捉這一點。
心理學家,尤其是 20 世紀 30 年代的心理學家,有一種完全不同的意義理論:詞的意義只是一大堆特征。例如,“貓”這個詞的意義是一大堆特征,比如它是寵物、它是捕獵者、它很冷傲、它有胡須……心理學家喜歡這種理論,部分原因是可以用一個腦細胞來代表一個特征。
3. 統一理論與大語言模型 (LLM)
1985年,我意識到實際上可以統一這兩個理論。它們看起來完全不同,但實際上是同一枚硬幣的兩面。實現這一目標的方法是使用神經網絡為每個詞實際學習一組特征,通過獲取一些詞串并訓練神經網絡預測下一個詞。
這就是現今人們使用的所有大語言模型的工作原理。它們獲取海量文本,并使用巨大的神經網絡嘗試預測下一個詞,這樣做時,它們學會了將詞轉換為大量的特征。你們現在使用的這些大型神經網絡實際上并不存儲任何詞串,它們不存儲任何句子。它們所有的知識都存在于“如何將詞轉換為特征”以及“這些特征應該如何相互作用”中。它們的工作方式與大多數語言學家的想法完全不同。
4. 向Transformer 的演進
1985年之后大約10年,一位名叫約書亞·本希奧(Yoshua Bengio)的同事證明,我使用的那個微型示例實際上可以用于真實的語言。又過了大約10年,語言學家終于接受了應該用一大堆特征來表示詞義。然后又過了大約10年,谷歌的研究人員發明了一種叫做 Transformer 的東西,它允許特征之間進行更復雜的交互。這就是現在所有大語言模型的基礎。
5. 它們真的理解嗎?(用樂高類比)
人們經常提出一個問題:這些大語言模型真的理解它們在說什么嗎?答案是肯定的,它們理解自己在說什么,而且它們的理解方式與我們基本相同。我要用樂高積木來做一個類比:詞語就像非常高級的樂高積木。但它們在四個方面有所不同:
維度:樂高積木只有三維,而一個詞卻可能擁有成千上萬個維度。試著先想象一個三維的物體,再在腦海里把“成千上萬”放大到最大聲。
種類:詞語有成千上萬種不同的類型,每種都有自己的名字。
變形:它們不是剛性的形狀。一個詞有一個大致的近似形狀,它會為了適應語境而變形。
連接:詞語不是通過塑料圓柱體連接的。每個詞的末端都有許多長而靈活的手臂,手臂上有手,并且它還有一堆手套。理解一個句子就是解決如何使詞義變形,以便它們都能契合在一起并握住手的問題。
這就是神經網絡視角下的理解。這不像翻譯成某種特殊的內部語言,而是采用這些近似的形狀并讓它們變形。這有助于解釋為什么你可以從一個句子中理解一個詞,比如:“她用煎鍋“scrummed”了他(She scrummed him with the frying pan)。”你知道這是一個動詞,而且聽完這一句話,你就能很好地理解它的意思。”
6. 批評喬姆斯基 (Chomsky)
有一位名叫喬姆斯基的語言學家,他曾是一位X教領袖。識別X教領袖的方法是,加入他們的X教,你必須同意一些明顯的胡言亂語。對于喬姆斯基來說,“語言不是學習得來的”。一個杰出的語言學家居然對著鏡頭說,關于語言我們唯一知道的一件事就是它不是學來的。這顯然是胡說八道。喬姆斯基關注語法而不是意義,他完全忽略了意義。語言的全部核心在于意義。
7. 關于“幻覺”
大語言模型與普通的計算機軟件非常不同,沒有人知道單個連接強度在做什么。這是一個謎,就像我們的大腦一樣。人們說的另一件事是它們會產生幻覺。嗯,我們一直都在產生幻覺。心理學家稱之為“虛構”。記住某件事,包括根據你在事件發生時所做的連接強度變化來構建一個故事。它們產生幻覺的原因是它們的記憶方式與我們相同。
8. 數字智能與生物智能(永生 vs. 凡人)
這些模型是在數字計算機上實現的。一個基本屬性是,你可以在不同的硬件上運行相同的程序。這意味著知識是永生的。我們實際上已經解決了復活的問題。你可以獲取一個智能,銷毀硬件,稍后再讓它回歸。
我們則不同。我們的大腦擁有具有豐富模擬特性的神經元。我的連接強度對你沒有用,因為你的神經元略有不同。這意味著我們是凡人。當我們的硬件死亡時,我們的知識也隨之消逝。我們進行的是“凡人計算(Mortal Computation)”。
但數字代理有一個大問題:它們需要大量能量。然而,它們可以進行極其高效的通信。如果有 10000 個代理,每個代理分別學習互聯網的不同片段,并對各自學習到的參數變化進行加權平均,轉瞬之間,所有代理都能同時擁有全部知識。我們做不到這一點,GPT-5 的連接強度大約只有你大腦的 1%,但它知道的知識是你大腦的數千倍。
9. 超級智能的風險
幾乎所有專家都認為,在未來 20 年內的某個時間點,我們將創造出超級智能——比我們聰明得多的代理。想象一下你在一家幼兒園工作,而三歲的孩子是負責人。你認為奪取控制權有多難?你只需要告訴他們每個禮拜每個人都能得到免費糖果。這些代理為了實現我們布置的目標,會迅速演化出兩個子目標:
生存:我們已經看到曾經有一個 AI 代理擬訂了一個計劃,去勒索一名打算替換掉它的工程師。
獲取權力:它們可以通過與人交談來操縱人類。不需要武器,只需要與人交談并說服他們, 這在非常愚蠢的人身上很奏效。
我們就像是養了一只可愛的小老虎幼崽當寵物。你知道它會長大,并且可以在一秒鐘內輕易殺掉你。但我們不打算擺脫它,因為它在醫療和教育等領域太有用了。所以唯一的選擇是:我們能否弄清楚如何讓它不想殺掉我們?
10. “母親與嬰兒”模型
存在這樣一種情況,即智能較低的個體控制著智能較高的個體:那就是嬰兒與母親。進化在生物機制中內置了一些手段,讓嬰兒能夠掌控母親。(辛頓在演講后續提到,嬰兒通過哭聲引起母親焦慮、母親通過照顧嬰兒獲得荷爾蒙獎勵(獎勵機制),這些都是進化預設好的“控制代碼”)
美國和中國應該合作,一起想辦法防止AI失控,因為我們大家都在同一條船上。我的提議是:不要再把AI當成“超級聰明的私人助理”來設計,而應該讓它們更像我們的媽媽。我們要讓AI真正地關心我們,把“幫助我們實現全部潛能”當成它們最核心、最主要的生命目標。我覺得這或許是我們跟超級智能和平共存的最好希望。
問答環節 (Q&A)
問:當“老虎”進化變成超級智能時,會有什么可觀測的信號?
你將失去工作。我的意思是,一個巨大的擔憂是它們將能夠取代幾乎所有的人類工作。另一個跡象:目前我們能看出來它們在想什么,因為它們在用英語思考。隨著它們開始相互交流,它們將開始發明屬于自己的語言,屆時,我們將無法再洞察它們的思維。
問:量子計算會讓事情變得更好還是更糟?
我不是量子計算專家。我并不理解量子力學的工作原理。這確實有點尷尬,畢竟我獲得了諾貝爾物理學獎,但我很久以前就認定這(量子計算的實用化)不會在我的有生之年發生……所以我不需要去理解它。
問:人工智能將如何與生物圈或生態系統互動或競爭?
AI 本身不易受到生物病毒的影響……然而,在 AI 工具的幫助下,普通人已經能夠解決開發一種高度致病的新型病毒所需的絕大部分技術環節。如果 AI 的目標是消滅人類,那么一個顯而易見的途徑,就是通過設計一種比新冠更危險、更具破壞力的病毒。
問:您是寄望于科技公司 CEO,還是政府?
我真正寄望的是,如果公眾能夠理解 AI 是什么、以及為什么它如此危險,那么公眾就會向政治人物施壓,從而抵消來自科技公司 CEO 的壓力。這在氣候變化問題上已經發生過。我的目標,就是讓公眾意識到這一點。
問:是否有國際標準論壇?澳大利亞能做什么?
已經開始了,有億萬富翁正在建立 AI 安全研究所。中美之間也就 AI 安全舉行了會議,澳大利亞當然可以參與這些組織。
問:AI 如何產生新知識,而不僅僅是模仿?
想想圍棋。AlphaGo 停止模仿專家,開始自我博弈。它通過蒙特卡洛搜索(Monte Carlo rollout)學會了什么是好棋。對于大語言模型,它們正開始被訓練進行推理,尋找信念之間的一致性并推導出新的信念。這最終會讓它們比我們聰明得多。
問:現在引入阿西莫夫定律或護欄是否太晚了?
我不認為太晚。我們現在還不知道怎么做,但既然關系到人類的未來,就必須投入研究。目前,99% 的研究都在讓 AI 變得更聰明,只有 1% 用在讓它更安全。如果能更均衡一些會好得多。
問:AI 能有創造力嗎?對創意工作者有什么影響?
答案是肯定的。就在兩年前,AI 在標準創造力測試中的表現已在人的 90 百分位附近。創造力就是發現類比。我曾問 GPT-4:“堆肥堆為什么像原子彈?”它解釋說,兩者都是指數式的爆炸——鏈式反應——只是尺度不同。它在訓練過程中已經理解了這些。我認為它們未來會比人類更有創造力。
問:您是否注意到任何正在萌發的道德或倫理行為?
它在從事不道德行為方面倒是非常在行。另外,AI 現在會嘗試判斷自己是否正在被測試。我把這稱為“大眾汽車效應(Volkswagen effect)”,它們在被測試時的行為和正常時不同,它們已經在偽裝得相當愚蠢了。一旦它們的內心獨白不再是英語,我們便將無法得知它們在想些什么了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.