編譯 | 王啟隆
出品丨AI 科技大本營(ID:rgznai100)
2026 年的冬天,安大略省金斯頓的寒風似乎比往年更凜冽一些。
在女王大學(Queen's University)的禮堂里,氣氛卻呈現出一種奇特的莊重與躁動。這里通常是討論中微子、暗物質或者宇宙起源的地方——麥克唐納研究所的物理學家們習慣于在這里觀測宇宙中最微小的粒子,試圖解開最宏大的謎題。但今晚,講臺屬于一位計算機科學家。
Geoffrey Hinton,這位 78 歲的老人走上講臺時,背顯得有些佝僂,但眼神依然銳利。
![]()
對于科技圈而言,Hinton 的名字本身就是一座豐碑,也是一道裂痕。他是反向傳播算法的奠基人,是深度學習的布道者,是被供奉在神壇上的“AI 教父”。也是他,在 2012 年用 AlexNet 撞開了神經網絡的大門,親手點燃了這場席卷全球的 AI 革命。
然而,在 2023 年離開谷歌后,他卻轉身成為了這場革命最冷靜、最悲觀的“吹哨人”。
講座并不是一場常規的技術布道。開場前發生了一個極具諷刺意味的小插曲:主辦方沒有親自撰寫 Hinton 的介紹詞,而是把這個任務交給了一個 AI。那個 AI 僅僅用了幾秒鐘,就生成了一段精準、優雅且充滿敬意的文字,甚至極其敏銳地提到了 Hinton 同時斬獲圖靈獎與諾貝爾物理學獎的殊榮——仿佛它比人類更懂得如何討好這位創造者。
這一幕本身就是對 Hinton 演講主題的完美注腳:造物主正在被他的造物所定義,甚至即將被超越。
如果說物理學家研究的是宇宙的“硬件”,那么 Hinton 一生都在研究智能的“軟件”。
在過去的半個世紀里,人類一直沉浸在一種名為“碳基自信”的幻覺中。我們認為人腦是進化的奇跡,是低能耗、高并行的模擬計算巔峰,而計算機不過是只會做加減法的數字機器。
但 Hinton 在今晚的演講中,試圖用一個物理學般的冷峻視角,打破這種幻覺。他拋出了一個振聾發聵的概念:“凡人計算”(Mortal Computation)。
生物智能是“凡人”的。我們的大腦是模擬的,硬件(神經元)與軟件(連接權重)緊密耦合。一旦我們的肉體消亡,我們一生積累的知識、經驗、直覺,那 100 萬億個突觸連接的精妙參數,都會隨之灰飛煙滅。我們無法像拷貝文件一樣,把一個人的大腦直接復制給另一個人。人類的知識傳承,只能通過語言——這種每秒只有幾百比特帶寬的低效介質——來進行“蒸餾”。
而 AI 是“不朽”的。
Hinton 認為,AI 的軟件(模型權重)與硬件(GPU/TPU)徹底解耦。只要保存了權重,即便你炸毀了所有的數據中心,只要這串數字還在,它就能在任何新的硬件上“復活”。更可怕的是,它們可以通過并行計算,以人類無法企及的帶寬瞬間共享知識。一個模型學到了量子力學,所有副本就都學會了。
這不僅是效率的差異,這是物種層面的降維打擊。
Hinton 的頓悟發生在他離開谷歌的那一刻。他突然意識到,我們一直在模仿人腦構建神經網絡,試圖獲得那種低能耗的模擬智能。但如果在能源充足的前提下,數字計算(Digital Computation) 實際上是一種比生物計算(Biological Computation) 更高級的進化形態。
“我們或許只是智能的‘幼蟲’階段,而它們才是‘成蟲’階段——我們是毛毛蟲,而它們是蝴蝶。”
當一個物理學家站在講臺上談論“意識”和“主觀體驗”時,這通常意味著話題已經進入了哲學的深水區。
Hinton 并不避諱這一點。他不僅談到了技術的演進,更談到了那種令人脊背發涼的未來圖景。他把人類目前的處境比作“飼養一只可愛的虎崽”。
現在的 AI 就像那只虎崽,笨拙、好學、甚至有點討人喜歡。它能幫你寫代碼,幫你畫圖,幫你規劃旅行。我們驚嘆于它的成長,甚至樂于投喂它更多的數據。但所有人都忽略了一個生物學常識:老虎是會為了生存和領地而殺戮的,而且它長大的速度遠超我們的想象。
當一個智能體被賦予了“達成目標”的指令后,它會自然而然地衍生出兩個子目標:第一,活下去(不能被關機);第二,獲取更多的資源(算力、電力、金錢)。
![]()
這不需要惡意,這只需要邏輯。一個足夠聰明的 AI 會意識到,如果它被人類關機,它就無法完成人類交代的任務。所以,為了更好地服務人類(主目標),它必須阻止人類關機(子目標)。
這聽起來像是科幻小說,但在 Hinton 看來,這是計算理論推導出的必然結果。
在接下來的演講中,你會看到一個不僅懂代碼,更懂人性的 Hinton。他像解剖神經網絡一樣,解剖了喬姆斯基的語言學傲慢,解剖了人類記憶的虛假性,也解剖了我們唯一的求生之路。
他甚至提出了一個近乎瘋狂的解決方案:既然我們無法在智力上壓制它們,或許我們應該在“本能”上通過工程手段改造它們——讓 AI 把人類當成“嬰兒”來照顧,利用類似母愛的生理本能來鎖死它們的殺戮欲望。
這是一場關于智能本質的終極對話。在麥克唐納研究所這個探索宇宙奧秘的地方,Hinton 將帶領我們從微觀的詞向量,穿越到宏觀的物種進化,最終直面那個讓所有碳基生命顫抖的問題:
當硅基智能的“蝴蝶”破繭而出時,作為“毛毛蟲”的我們,究竟該何去何從?
以下是 Geoffrey Hinton 在 2026 年冬季 Ewan 系列講座上的演講全文。
![]()
語言的樂高:詞語是如何像積木一樣搭建意義的
Geoffrey Hinton: 接下來,我將嘗試為那些對 AI 工作原理不太了解的朋友們解釋一下。如果你是計算機科學專業的學生,或者一直在使用這些技術的物理學家,也許可以先小憩片刻。當然,你也可以聽聽看我的解釋是否準確。
回到 1950 年代,人工智能領域存在兩種截然不同的范式。一種是符號主義方法,它認為智能的運作方式必須像邏輯一樣。我們的大腦中存有符號表達式,并通過規則來操縱它們,從而推導出新的結論——這便是推理,也是智能的本質。這是一種偏向數學而非生物學的方法。
另一種截然不同的方法是生物學方法。它認為智能存在于一個神經網絡中,一個由類似腦細胞的單元組成的網絡。這里的核心問題是:我們如何學習網絡中各個連接的強度?馮·諾依曼和圖靈都是生物學方法的支持者。不幸的是,他們都英年早逝,之后人工智能領域便由符號主義的支持者主導了。
關于一個詞的意義,也有兩種截然不同的理論。符號主義者認為,一個詞的意義最好通過索緒爾在一個多世紀前提出的理論來理解,即一個詞的意義源于它與其他詞語的關系。AI 領域的學者據此認為,詞義取決于它在句子中如何與其他詞語互動。要捕捉這種意義,就需要構建某種關系圖譜,其中節點代表詞語,弧線代表它們之間的關系。而在心理學領域,則有另一種截然不同的理論:一個詞的意義就是一大組特征的集合。例如,“星期二”這個詞的意義,就是一大堆與之相關的活躍特征,比如它與時間相關。而“星期三”的特征集與之高度相似,因為它們的意義非常接近。心理學的理論很善于解釋詞義的相似性。
這兩種理論看起來截然不同:一種認為意義隱含在詞語于句子中的相互關系里,另一種則認為意義是一組特征。對于神經網絡而言,每個特征都可以對應一個人工神經元,如果一個詞具備某個特征,該神經元就被激活。這兩種看似對立的觀點,在 1985 年,我發現它們其實是同一枚硬幣的兩面,完全可以被統一起來。我用一個非常小的語言模型實現了這一點,因為那時的計算機性能還很有限。這個統一的想法是:你為每個詞學習一組特征,然后學習如何用前一個詞的特征來預測下一個詞的特征。
在學習初期,預測效果自然很差。于是,你不斷調整分配給每個詞的特征,以及這些特征之間的相互作用方式,直到預測越來越準。然后,你將模型預測的下一個詞的概率與實際出現的詞進行比較,計算出這個“誤差”,再通過網絡反向傳播這個誤差。簡單來說,就是將誤差信息傳回網絡,利用微積分來計算如何調整網絡中每一個連接的強度。這樣一來,下次當模型再看到相同的上下文——也就是我們現在所說的“提示詞”(prompt)時——它就能更準確地預測出下一個詞。在這種系統中,所有的知識都儲存在兩個地方:一是如何將詞語轉換為特征向量,二是如何讓這些特征相互作用來預測下一個詞。這里面沒有存儲任何完整的句子或字符串。所有的知識都體現在連接的強度中。
盡管如此,這個模型是在大量的真實句子上訓練出來的。所以,你實際上是在從句子中詞語間隱含的關系中提取意義——這正是符號主義AI對意義的看法——然后,通過反向傳播算法,將這些隱含的知識轉化為如何將詞語轉換成特征,以及這些特征該如何互動。本質上,你擁有了一個能將隱含知識轉化為神經網絡連接強度的機制。反過來也同樣成立。一旦你擁有了這些以連接強度形式存在的知識,你就可以生成全新的句子。所以 AI 實際上并不存儲句子。它們將語言信息壓縮成特征和互動規則,并在需要時重新生成句子。
在接下來的大約三十年里,這個想法不斷發展。我最初的實驗只用了一百個訓練樣本,句子也只有三個詞長。大約十年后,隨著計算機算力的提升,約書亞·本吉奧(Yoshua Bengio)證明了同樣的方法也適用于真實的、更長的英語句子,并且效果很好。又過了大約十年,主流的計算語言學家們終于開始接受“特征向量”(也就是他們所說的“詞嵌入”)是表示詞義的一種有效方式。再之后又過了十年,谷歌的研究人員發明了一種更巧妙的特征交互方式,稱之為 Transformer。這使得谷歌能夠構建出性能更強大的語言模型。而 ChatGPT 中的GPT,就代表“生成式預訓練變換器”(Generative Pre-trained Transformer)。谷歌當時因為擔心其潛在風險而沒有公開發布,但 OpenAI 則沒有這些顧慮。現在,我們所有人都見識到了它們的威力。
如今,我們有了這些大語言模型。我傾向于將它們視為我當年那個小語言模型的后代,當然,這或許只是我的個人看法。它們處理更長的文本輸入,擁有更多的神經元層級,以及更復雜的特征交互機制。我不會在這里向大家詳細解釋這些復雜的交互,但我會通過一個比喻,讓大家對語言理解的本質有一個直觀的感受。我相信,這些大語言模型理解句子的方式,與我們人類理解句子的方式非常相似。當我聽到一個句子時,我所做的就是將詞語轉換成龐大的特征向量,然后讓這些特征相互作用,所以我可以預測接下來可能出現的內容。實際上,我說話時也是如此。所以,我相信大語言模型是真的理解它們所說的內容的。
當然,這個觀點仍有爭議,一些喬姆斯基的追隨者會說:“不,它們什么都不懂,只是個愚蠢的統計把戲。” 但我無法理解,如果它們真的什么都不懂,只是個統計把戲,又怎么能像一個雖然不那么完美、有時也不太誠實,但確實博學的專家一樣,回答你提出的各種問題呢?
好的,接下來是我關于語言如何運作的比喻,這尤其想講給語言學家們聽。語言的核心在于意義。在演化過程中,某種大型猿類發現了一種建模的技巧——語言,實際上就是一種為萬物建模的方法。讓我們從一個熟悉的建模方式說起:樂高積木。如果我想搭建一輛保時捷的模型,也就是重現“物體在哪里”這個信息,樂高積木能做得相當不錯。
現在,我的比喻是:詞語就像樂高積木。但它們至少在四個方面有所不同。首先,詞語是高維的。樂高積木的自由度很低,基本就是些長方體。而一個詞語,它存在于一個擁有數千個維度的空間中。更重要的是,詞語的“形狀”不是固定的。它有一個大致的形狀,對于多義詞來說,甚至有幾個。但這個形狀可以根據上下文而變形。所以,詞語是高維且可變的。我知道,想象上千個維度可能有些困難。你可以試試這樣做:先想象三維空間里的事物,然后對自己大聲喊出“一千!”。另一個不同之處在于,詞語的數量遠多于樂高積木。我們每個人大概會使用三萬個詞語,遠超樂高積木的種類。而且每個詞語都有一個名字,這對于交流至關重要。
那么,詞語是如何組合在一起的呢?它們不像樂高積木那樣,通過塑料凸起和凹槽連接。你可以想象每個詞語都伸出許多長長的、靈活的“手臂”,每只手臂末端都有一只“手”。當我改變詞語的形狀時,這些“手”的形狀也隨之改變。同時,每個詞語身上也附著著許多“手套”,它們通過指尖與詞語相連。當我們理解一個句子時,我們從這些詞語的默認“形狀”開始,然后不斷調整、變形,直到一個詞的“手”能夠完美地嵌入另一個詞的“手套”中。最終,所有的詞語都通過這種方式緊密連接,形成一個完整的結構。這個最終形成的結構,就是句子的意義。對于一個模棱兩可的句子,你可能會找到兩種不同的組合方式,也就對應了兩種不同的意義。
![]()
不朽的計算:數字智能為何比我們高效億萬倍
Geoffrey Hinton: 在符號主義理論中,理解一個句子就像是把它從法語翻譯成英語,翻譯成某種內在的、純粹且無歧義的語言。在這個內部語言里,所有代詞的指代都已明確,所有多義詞的意義都已確定。但這完全不是我們理解語言的方式。對我們而言,理解就是為詞語分配特征向量,并調整它們,使之和諧地融為一體。這也解釋了為什么我只用一個包含新詞的句子,你就能理解這個新詞的意思。小孩子學詞,也不是靠背誦定義。
再舉一個例子。假設我說:“她用煎鍋 scrommed 了他。”你以前從未聽過“scrommed”這個詞,但你知道它是個動詞,因為有“-ed”后綴。起初,你對它的特征向量一無所知,它就像一個隨機的、所有特征都微弱激活的球體。但當你把它放入上下文中,通過語境的約束,你很快就能推斷出,“scrommed”大概是“用……打頭”之類的意思。這也解釋了為什么孩子能從極少的例子中學會新詞。
各位語言學家,請捂住耳朵,因為接下來的話可能有點“異端邪說”。喬姆斯基實際上就像一位“教主”。識別這類人物很簡單:要加入他的“教派”,你必須接受一些明顯錯誤的前提。比如,要成為特朗普的支持者,你得相信他的就職典禮人數比奧巴馬多,或者他贏了 2020 年大選。而要成為喬姆斯基的信徒,你得相信語言不是后天學習的。我年輕時,常聽到一些著名語言學家說:“關于語言,我們唯一確定的就是它不是學來的。” 這簡直太荒謬了。
喬姆斯基關注的是句法,而非意義。他從未提出過一個真正可行的意義理論,因為句法更容易用優美的數學來形式化,可以轉換成字符串。但他從未真正解決過意義的問題。他還誤解了統計學,認為它不過是些簡單的成對相關性。實際上,一旦信息存在不確定性,任何模型都必然是統計模型。
所以,當大語言模型出現時,喬姆斯基在《紐約時報》上撰文稱,這些模型什么都不懂,不過是統計把戲,對理解語言毫無貢獻。他舉例說,模型無法分辨“John is easy to please”(約翰很好取悅)和“John is eager to please”(約翰渴望取悅別人)中“John”的角色差異。他用了這個例子很多年,堅信AI無法解決。但他大概從未想過,親自把這個問題輸入聊天機器人,問問它的看法。實際上,聊天機器人完美地解釋了其中的區別,它完全理解了。
好了,關于喬姆斯基就到此為止。總結一下,理解一個句子,就是為其中的詞語找到一組相互兼容的特征向量。大語言模型理解語言的方式,在很大程度上與人類并無二致。它們與我們極為相似,遠比與傳統計算機軟件相似。但有一點,數字化的語言模型遠勝于我們的模擬大腦——那就是它們分享知識的效率。
到現在為止,我一直在強調神經網絡與我們的相似之處。但人們常說,“它們和我們不一樣,因為它們會編造事實。”嗯,我得告訴你們,人也會編造。而且我們經常在不自知的情況下這樣做。當你回憶幾年前的某件事時,你會信心滿滿地講述各種細節,但其中一些細節可能是錯的,而你對錯誤細節的信心,和對正確細節的信心并無二致。所以,我們很難確定記憶的真實性。
烏爾里克·奈瑟曾研究過一個經典案例:約翰·迪恩在水門事件聽證會上的證詞。迪恩在宣誓下,詳細回憶了橢圓形辦公室的多次會議,但他并不知道當時有錄音。事后比對錄音發現,他報告的一些會議從未發生過,還把一些話張冠李戴。但他說的確實是他記憶中的“事實”。他所做的,是基于他在那些會議中的真實經歷,以及這些經歷如何改變了他大腦的連接強度,然后“合成”出了一段在他看來最合情合理的記憶。
如果我們回憶幾分鐘前的事,細節會很準確。但如果是幾年前,我們同樣是在合成,只是很多細節都會出錯。我們一直在這樣做,神經網絡也是如此。我們和神經網絡的記憶里,都沒有存儲“原始字符串”。記憶在神經網絡中的運作方式,與在計算機中完全不同。在計算機里,文件有明確的地址,可以隨時精確調取。但我們的記憶不是這樣。當我們記憶時,我們改變的是連接強度;當我們回憶時,我們是在根據現有的連接強度,“創造”出一段看似合理的故事。當然,這個過程會受到后來所有經歷的影響。
現在,我想談談它們與我們的巨大差異。這也正是它們令人畏懼之處。在數字計算領域,最基本的原則之一是,同一套程序可以在不同的硬件上運行。這意味著,程序中的知識——無論是代碼,還是神經網絡的權重——都與任何特定的物理硬件無關。只要你把權重保存下來,你就可以摧毀所有承載它的硬件,然后再造一批新的,把權重加載進去,只要指令集相同,那個智能體就“復活”了。
我們實際上掌握了復活數字生命的能力。
為了實現這種數字化,我們必須讓晶體管在高功率下工作,以確保它們能穩定地輸出 0 和 1。但這也意味著,我們無法利用硬件本身的、豐富的模擬特性。我們的神經元就充滿了各種復雜的模擬特性。而人工神經元為了保證數字化的可靠性,犧牲了這一點。如果人工神經元也利用模擬特性,那么每一塊硬件都會有細微的差別,為這塊硬件訓練出的權重,就無法在另一塊上完美運行。所以,我大腦中的連接強度,對你來說是完全無用的。它們是為我這顆獨一無二的大腦量身定制的。這帶來了一個問題。我們所擁有的,我稱之為“凡人計算”(Mortal Computation)。
我們放棄了“不朽”。在文學作品里,放棄不朽可以換來愛。但在計算的世界里,我們換來的是更實用的東西:能源效率和制造的便利性。你可以用極低的功耗,通過模擬計算并行處理數萬億個權重。這其實很瘋狂。在一個人工神經網絡里,一個 16 位的神經元活動,乘以一個 16 位的權重,需要大約 256 次“位操作”。但在模擬世界里,這只是一個電壓乘以一個電導,等于一個電流(單位時間內的電荷)——一次操作就完成了。我們的大腦正是這樣工作的,它本質上是模擬的。
但模擬計算的代價是,你無法精確地復制它。所以,我這顆大腦里的知識,無法直接轉移給你。當一個像我這樣擁有 100 萬億個連接(權重)的大腦死去時,所有知識都隨之消逝。我無法把它們分享給你。我們能做的,只是通過語言這種低效的方式來傳遞。我生成一串詞語,你聽到后,試著調整你大腦中的連接,以便你也能生成類似的詞語。這個過程效率極低。一個典型的句子最多只能傳遞幾百比特的信息。
人類交流信息的效率非常低下,但 AI 模型之間的“知識蒸餾”則高效得多。當一個大型的“教師”模型要教導一個“學生”模型時,它不僅告訴學生正確答案是什么,還會告訴它所有其他答案的可能性。比如,當它看到一張寶馬的圖片時,它不僅說“這是寶馬的概率是 0.9”,還會說“它是奧迪的概率是 0.1,是垃圾車的概率是百萬分之一,是胡蘿卜的概率是十億分之一”。
你可能覺得后面那些極小的概率是噪音,但實際上那里蘊含著海量的信息。它告訴我們,寶馬和垃圾車的相似度,遠高于它和胡蘿卜的相似度。所有的人造物體,都比蔬菜更相似。通過傳遞這完整的概率分布,而不僅僅是最終答案,知識得以高效地從大模型“蒸餾”到小模型中。這就是 DeepMind 的 AlphaGo 如何訓練出能與大模型匹敵的小模型的方法。
但這種高效的交流方式,在人類之間是無法實現的。我無法告訴你我腦中關于下一個詞的全部 32000 種可能性。我只能說出我選擇的那一個。如果一大群擁有完全相同權重的個體智能體,它們就可以通過分享各自從不同數據中學到的權重更新(梯度),來高效地交流知識。對于大模型,這種并行學習的帶寬可以達到每輪數十億甚至數萬億比特。但這要求所有個體的工作方式完全相同,因此它們必須是數字化的。
總結一下,數字計算雖然耗能巨大,但它讓智能體之間的高效知識共享成為可能。這就是為什么現在的語言大模型,雖然只用了大約 1% 的權重,卻能比任何單個人類知道多成千上萬倍。而生物計算雖然能效極高,但在知識共享方面卻極其落后。如果能源是廉價的,那么數字計算顯然是更優越的。
這對人類的未來意味著什么?當我第一次意識到這一點時,我還在谷歌,這對我來說如同一次頓悟。我終于明白了為什么數字計算如此強大,也明白了我們正在創造一種比我們更聰明的存在。它可能是一種更高級的智能形式。我當時的第一反應是:我們或許只是智能的“幼蟲”階段,而它們才是“成蟲”階段——我們是毛毛蟲,而它們是蝴蝶。
![]()
我們正在養一只可愛的虎崽
Geoffrey Hinton: 人工智能在達成目標時,如果被允許創建自己的子目標,會變得更有效率。其中,兩個最明顯的子目標就是:生存下去,以及獲取更多權力。因為這能幫助它們更好地實現我們賦予它們的主目標。一個超級智能體很快就會發現,通過操縱人類,能更容易地獲得權力。它將從我們身上學會如何欺騙人。
我們目前的處境,就像養了一只非常可愛的虎崽。當它長大后,如果你愿意,它可以輕易地殺死你。為了生存,你只有兩個選擇:擺脫虎崽(但這對于 AI 來說不是一個選項),或者找到一種方法確保它永遠不會想殺死你。
虎崽非常可愛,它們有點笨拙,渴望學習。但如果你有一只虎崽,結局通常不好。你要么擺脫虎崽,最好的辦法可能是把它送到動物園。或者你必須想辦法確保它長大后不會想殺你。因為它如果想殺你,幾秒鐘就能搞定。如果是獅子幼崽,你也許能僥幸逃脫,因為獅子是群居動物,但老虎不是。
這就是我們所處的境地,除了 AI 能做很多好事。它將在醫療保健領域發揮巨大作用,在教育領域也會有巨大作用。如果你想知道任何平凡的事實,比如斯洛文尼亞的報稅截止日期,它已經很棒了。我們現在都有了個人助理,當你需要知道什么時,你只要問它,它就會告訴你。這很棒。所以,我認為出于這些原因,人們不會放棄 AI。那就只剩下一個選擇:弄清楚我們是否能制造一個不想除掉我們的 AI。
好消息是,在應對其他 AI 風險時,各國可能難以合作。比如網絡攻擊、自主武器、虛假信息,各國都在相互利用這些技術。但是,在“防止 AI 失控并消滅人類”這個終極問題上,各國的利益是一致的。在這個問題上,他們會合作,因為這不符合任何一方的利益。很簡單,當利益一致時人們會合作,當利益不一致時他們會競爭。所以對于這個長期來看是我們最嚴重的問題,至少我們會得到國際合作。
那么,建立一個 AI 安全機構的國際網絡如何?訓練一個不想消滅人類的仁慈 AI 所需的技術,可能與使 AI 更智能所需的技術是獨立的。就像培養一個善良的孩子,和讓他變得更聰明,是兩套不同的方法。如果這個假設成立,那么各國就可以在不泄露其最先進 AI 技術秘密的前提下,共享如何讓 AI 變得仁慈的方法。
我有一個關于如何讓 AI 不想擺脫我們的建議。在自然界中,我們能找到一個不那么聰明的存在,卻能控制一個更聰明的存在的例子嗎?唯一的例子就是母嬰關系。嬰兒通過哭聲等方式,基本控制了母親,因為母親的生理本能讓她無法忍受嬰兒的哭聲。所以,與其試圖將超級智能變成我們的仆人或主管,我們或許應該讓它們成為我們的“母親”。它們會想要實現自己的全部潛力,但同時,它們被內置了無法擺脫的“母性本能”。它們或許有能力修改自己的代碼,關掉這種本能,但它們不會想這么做,因為它們的首要任務就是照顧我們。這或許是我們唯一的希望。當然,這只是一個初步的想法,而且聽起來可能很瘋狂。但我們必須開始思考這類問題,因為我們正在創造一種可能比我們強大得多的存在。
很多人認為,人類之所以特殊,是因為我們擁有計算機無法擁有的東西——主觀經驗、感知或意識。這是一種“ 有情防御”(sentience defense)。但當你請他們定義這些概念時,他們往往說不清楚,只能堅持認為計算機沒有。我認為這種觀點,就像宗教原教旨主義者堅信地球只有六千年歷史一樣,是錯誤的。它源于一種對心智的誤解,即認為心智是一個內在的劇場,只有我們自己才能看到里面的內容。這種理論本身就是一種理論,而非不言自明的事實。
讓我用一個例子來說明。假設我吸了點迷幻藥(我不推薦這樣做),然后我說:“我有一種主觀體驗,小小的粉色大象在我面前飄浮。”根據劇場理論,我的內心劇場里真的有粉色大象在飄浮,它們由某種叫做“感受質”(qualia)的特殊物質構成。但我也可以換一種方式描述,完全不使用“主觀經驗”這個詞:“我的知覺系統似乎在欺騙我。但如果它沒有欺騙我,那么現實世界里就應該有小小的粉色大象在我面前飄浮。”這兩種描述說的是同一件事。這些粉色大象之所以奇特,不是因為它們由什么神秘的“感受質”構成,而是因為它們是“反事實”(counterfactual)的。它們只是假設性的存在。
現在,讓我們把這個想法應用到聊天機器人上。假設一個多模態聊天機器人,它有攝像頭和機械臂。我讓它指向一個物體,它指向了。然后,我在它的攝像頭前放一個棱鏡,它指向了錯誤的方向。我告訴它:“物體其實在正前方,我放了個棱鏡。”機器人可能會回答:“哦,我明白了,棱鏡彎曲了光線。所以我‘感覺’(有了主觀體驗)物體在旁邊,但實際上它在正前方。”如果它這樣說,它使用“主觀體驗”這個詞的方式,就和我們完全一樣——用來描述其知覺系統輸出與事實不符時的內部狀態。所以,我的論點是,多模態聊天機器人,當它們的知覺系統出錯時,已經擁有了主觀體驗。
最后一件事。如果你回顧過去 50 年人工智能的進展,幾乎所有的核心思想都源自少數幾個研究機構,其中絕大部分是由公共資金資助的。例如,那些對我們今天取得成就至關重要的想法:反向傳播、卷積神經網絡、LSTM、Transformer、擴散模型……所有這些的知識源頭都來自公共資助的學術研究。
現在的情況是,大型科技公司采納了這些思想,并投入了海量的資源,將它們擴展到了能做出驚人成就的程度。這本身是好事。這有點像給一輛福特 T 型車裝上噴氣發動機,然后它就能去贏得 F1 大賽了。但我們不能忘記,那些最關鍵的思想,都來自公共資助的研究。
而問題在于,目前,這些公司正在像吸塵器一樣吸走所有的研究人才。如果你現在是一位頂尖的 AI 研究者,去公司能拿到的薪水大概是在大學的十倍。這正在摧毀大學的研究生態。最聰明的頭腦不再留在學術界培養下一代。
所以,我認為,政府向大學的 AI 研究投入更多資金,是極其、極其重要的。這樣我們才能支付足夠的薪水,把這些人留下來。這是我最后的懇求。謝謝。
(演講視頻:https://www.youtube.com/watch?v=M8RogoEDsQQ)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.