
編譯 | 王啟隆
出品丨AI 科技大本營(ID:rgznai100)
三年了,大模型熱潮一點沒有退卻,通用人工智能(AGI)的曙光似乎已在地平線上閃現,各大科技巨頭間的競賽日趨白熱化,從文本到視頻,多模態大模型的進化速度令人既興奮又不安。世界一方面為 AI 在醫療、科研等領域展現的巨大潛力而歡呼,另一方面,關于其失控風險、大規模失業和社會倫理的憂慮也從未如此真切。
在這樣的時代背景下,被譽為“人工智能教父”的杰弗里·杰弗里·辛頓(Dr. Geoffrey Hinton)的聲音顯得尤為振聾發聵。這位 2024 年諾貝爾物理學獎得主,親手為深度學習奠基,卻在晚年毅然選擇離開谷歌,成為 AI 潛在風險最深刻、最坦誠的“吹哨人”。
本次編譯的對話由著名記者主持人(Katie Couric)主持。在這場深入靈魂的交流中,杰弗里·辛頓不僅剖析了神經網絡的奧秘,更分享了他對 AI 未來的驚人構想與深切憂慮——從五年內超級智能誕生的可能,到人機共存的終極方案。
![]()
![]()
科幻照進現實
主持人:如果你有機會能和薩姆·奧爾特曼與埃隆·馬斯克同坐一桌,你會對他們說些什么?
杰弗里·辛頓:我會對他們說,你們心里清楚得很,你們正在研發的“那個東西”,有很大可能會把人類徹底毀滅。
主持人:我了解到去年你與約翰·霍普菲爾德共同獲得了 2024 年諾貝爾物理學獎,以表彰你在“實現基于人工神經網絡的機器學習方面的基礎性發現與發明”。博士,這份榮譽和認可對你個人而言意味著什么?
杰弗里·辛頓:說實話,我獲獎時非常驚訝,因為這是個物理學獎,而我并非物理學領域的學者。不過,能獲得諾貝爾獎意義非凡。對任何科學家來說,這都稱得上是最高的榮譽了。
主持人:我想,正如你過去所言,他們或許真的需要為計算機科學設立一個專門的諾貝爾獎。
杰弗里·辛頓:在某種意義上,是有一個類似的獎項。它叫“圖靈獎”,被公認為計算機科學界的諾貝爾獎。但根本原因在于,諾貝爾在他的遺囑里設立了固定的獎項,后人不太愿意再增設。他們后來增加了一個經濟學獎,但不想再稀釋這個獎項的價值了。
主持人:我知道你也曾榮獲了圖靈獎,那是授予你的另一項殊榮。在去年秋天的一次采訪中,你曾希望諾貝爾獎能讓你關于人工智能及其未來角色的觀點——當然也包括其當下作用——得到更嚴肅的對待。你覺得這個愿望實現了嗎?
杰弗里·辛頓:是的,我認為確實如此。有更多的人愿意和我交流了。我成功地和一位中國的高層內部人士進行了對話,也和伯尼·桑德斯談過。今年九月,我可能還有機會和教皇交流。
主持人:看來你真的在不遺余力地向各界傳達你的憂慮。那么,當你參加這些會面時,你是否感覺到:第一,人們非常認真地對待你的觀點——這點我毫不懷疑;第二,你是否覺得正在取得進展,這些對話或許真的能帶來實質性的改變,或者促成一些能夠回應你關切的政策調整?
杰弗里·辛頓:是的,我認為我們正在取得進展。我主要擔憂的,并非那些短期風險,比如不法分子濫用人工智能——雖然那也很嚴重;我更擔心的是人工智能本身失控這種更長遠的風險。我覺得直到不久前,幾乎所有人都認為這純屬科幻情節,我們根本無需擔心 AI 會變得比我們更聰明并最終取代我們。但現在,我想很多人已經開始意識到,這是一個非常現實的風險。
大多數專家相信,在未來五年到二十年間的某個時刻,人工智能將變得比人類更聰明。而且,當它變聰明時,不會只是聰明一點點,而是會聰明得多。問題在于,我們幾乎沒見過更聰明的物種被不那么聰明的物種所控制的先例。我說的不是那種微小的智力差異,比如政客和科學家之間的那種,而是巨大的智力鴻溝。這種例子極其罕見。事實上,我唯一能想到的就是母親和嬰兒。
主持人:博士,當我聽到你說的時間范圍時,說實話,我感到有些毛骨悚然。我的意思是,我們談論的不是遙遠的未來,而是近在咫尺的將來,對嗎?
杰弗里·辛頓:是的。但很重要的一點是,沒人能準確預測這些事,所有的估計都只是推測。不過,專家圈里基本有個共識,那就是在未來 5 到 20 年內,我們極有可能會創造出遠比我們聰明的存在。
主持人:我很想和你深入探討 AI 的危險,以及你和各界人士討論的內容。但首先,我希望大家能稍微了解一下你非凡的家庭背景。你出身于一個……我認為是精英輩出的家庭,更不用說那些閃耀的智慧了。你的曾曾祖父是喬治·布爾,他創立了布爾代數;你的堂姐瓊·辛頓參與過曼哈頓計劃;你的叔祖父發明了兒童攀爬架。這樣的例子不勝枚舉。你從小就知道自己注定要成就一番事業,并以如此卓越的方式為人類知識做出貢獻嗎?
杰弗里·辛頓:我并不知道自己注定要怎樣,但我清楚地知道,家里人對我的期望很高。
主持人:的確,聽起來你的父親是一位非常嚴格、對你期望極高的人。他是一位著名的昆蟲學家——別和研究語言的詞源學家混淆。我了解到,他主要研究昆蟲,特別是甲蟲。他曾經對你說:“如果你工作比我努力一倍,等你到我兩倍年紀的時候,或許能有我一半厲害。”
杰弗里·辛頓:他其實不止說過一次。在我上學前,他經常這么說。
主持人:這對你年輕時產生了什么樣的影響?又是如何塑造了你對人工智能,特別是神經網絡的追求?
杰弗里·辛頓:這話半開玩笑半當真,但聽著確實挺煩人的。我只是背負著沉重的期望,并且努力去實現它們。
主持人:你覺得,要是你父親知道你獲得了諾貝爾獎,他會作何感想?
杰弗里·辛頓:我想他會非常高興,同時又有點不快。他好勝心很強,會因為兒子取得了自己未能企及的成就而感到一絲懊惱。
![]()
從神經網絡到出走谷歌
主持人:讓我們談談你的學術旅程。你在研究神經網絡時,是希望能夠復制人類的心智。所以,你算是偶然間闖入了自己擅長的這個領域,是嗎?
杰弗里·辛頓:也不完全是偶然。在上世紀六七十年代,我們顯然有了一種研究大腦工作方式的新途徑。在那之前,你要么對大腦做實驗,要么提出理論。但要驗證這些理論非常困難,因為大腦很復雜,理論也必須同樣復雜。而當計算機的速度足以模擬腦細胞網絡時,你就可以開始構建更精密的理論,并通過計算機模擬來驗證。于是,一種新的科學形式誕生了,那就是用計算機模擬來檢驗關于大腦運作方式的理論。從一開始就很明顯,這種方法也會為你開辟一條完全不同的人工智能之路。
主持人:你能解釋一下,在人工智能領域,神經網絡和大語言模型分別扮演什么角色,以及它們之間是如何關聯的嗎?
杰弗里·辛頓:好的,可以。我先為你簡要回顧一下歷史。在人工智能發展的頭五十年,也就是上世紀后半葉,幾乎所有專家都認為,要讓機器智能,就得模仿邏輯。具體做法是,在計算機里儲存一些符號化的表達式,比如句子,然后設定規則來操作它們。這就像邏輯學。
舉個例子,如果我說“凡人皆有一死”,又說“蘇格拉底是人”,通過操作這兩串詞語,就能得出“蘇格拉底會死”的結論。這就是亞里士多德式的邏輯,曾是我們實現人工智能的范式。
但還有一種截然不同的理論,它認為,我們不該從邏輯中尋找靈感,而應該觀察大腦究竟是如何工作的。我們有一個由數十億腦細胞組成的龐大網絡。細胞之間相互連接,并通過改變連接的強度來學習。在這個巨大的網絡里,單個神經元要做的,就是決定何時發一個“叮”的信號,并把它傳給相連的其他神經元。它通過觀察接收到的“叮”信號來決定自己何時行動,并為每個信號賦予一個權重,也就是連接的強度。
舉個例子,假設我是一個神經元,你是另一個。你“叮”了一下,我可能會給這個信號一個高權重,心想:“她一 ‘叮’,就說明我也該 ‘叮’ 了。”
或者,假設另一個神經元是特朗普,當他“叮”一下時,我就想:“這是個強有力的信號,告訴我絕對不能 ‘叮’。”
所以,每個神經元都在觀察來自其他神經元的信號,并賦予權重。這就像投票,其他神經元的信號是在為我是否應該行動投贊成票或反對票。我想你可以看到,如果你改變了這些投票的強度,即權重,那么神經元發出信號的方式就會改變。你的大腦是這樣學習的,現在的人工智能也是這樣運作的。大語言模型,正是基于神經網絡工作的。
主持人:我感覺……自己好像聽懂了一部分。(笑)對我來說這是個很好的開始,我確實需要深入理解 AI 的運作機制。不過,是不是大語言模型為神經網絡連接提供了所需要的數據呢?
杰弗里·辛頓:我來解釋一下大語言模型是如何在神經網絡中運作的。它們實際上用的是詞的片段,但我們姑且假裝是完整的詞。當一串詞語輸入進來,神經網絡會把每個詞的符號轉換成一大堆神經元同時發出“叮”的信號。
比如,“星期二”和“星期三”會激活非常相似的神經元群組,而“雖然”則會激活完全不同的群組。這些被激活的神經元會相互作用。假設輸入了“may”這個詞,它既可能是指五月份,也可能是人名或情態動詞。
一開始神經元會“搖擺不定”,但如果它旁邊的詞是“June”和“July”,它就會傾向于激活代表月份的神經元。所有這些被激活的神經元,代表了已輸入詞語的“意義”,它們又會去激活代表下一個詞“意義”的神經元。
只要連接強度設置得當,當一串詞語輸入后,你就能預測出下一個詞。整個系統的訓練方式就是不斷調整連接強度,讓它在看到“炸魚和”之后,能預測出下一個很可能的詞是“薯條”。
主持人:我明白了!這讓我想起現在我發短信或寫郵件時,系統會根據上下文為我推薦詞語。那么,它們是在用我個人的語言模型來預測我想說什么嗎?比如我可能想說“魚和檸檬”,它會知道杰弗里·辛頓會說“薯條”,而凱蒂會說“檸檬”嗎?
杰弗里·辛頓:自從我離開谷歌后,我不太清楚 Gmail 在多大程度上利用了個人信息。我猜測,為了效率,它們可能沒有使用你的個人信息,只是用了一個通用的、龐大的語言模型。這個模型會分析你已輸入的長串上下文,然后預測下一個詞的特征。如果你輸入“炸魚和”,它會說“薯條”的可能性很大。
主持人:我想和你聊聊你加入谷歌又離開谷歌的經歷。你在 2013 年把自己的創業公司賣給谷歌,并去那里推動 AI 研究。十年后,你又離開了,為的是能更自由地談論 AI 的風險。博士,這是一個艱難的決定嗎?
杰弗里·辛頓:不難。我離開的具體時間點,是為了能在麻省理工學院的一個會議上暢所欲言,不必擔心對谷歌造成影響。但我決定離開這個事實本身,是因為我已經 75 歲了,辛辛苦苦做了 55 年的研究,已經筋疲力盡。我的編程能力也不如從前,這讓我很懊惱。所以,我本就打算 75 歲退休。只不過,選擇那個特定的時間點離開,是為了能自由地發聲。因為在谷歌的最后幾年,我敏銳地意識到了 AI 的風險,想把這些告訴公眾。我認為,一邊拿著公司的錢,一邊說一些會影響公司的話,是不對的。其實我對谷歌沒有任何怨言,我不認為他們做錯了什么,我離開是為了警示 AI 的長遠風險。
主持人:話雖如此,你是否覺得谷歌在規避風險方面做得足夠多?在你任職的十年里,你覺得公司對這件事的重視程度足夠嗎?
杰弗里·辛頓:公司里的人對各種風險都相當關切。我覺得他們總是可以做得更多,而且我認為所有公司都可以做得更多。谷歌確實對風險有所關注,特別是德米斯·哈薩比斯,他是谷歌相關研究的負責人,他理解 AI 失控的長期威脅,并對此相當擔憂。
![]()
監管的悖論
主持人:讓我們來談談監管。你比任何人都清楚,人工智能正以驚人的速度發展,而政府的行動卻很緩慢,且往往不能完全理解這項技術。就算政府有心并且保持警惕,你認為監管能追上 AI 發展的腳步,并阻止其最危險的風險嗎?
杰弗里·辛頓:我認為監管肯定能起到幫助作用,但我們必須區分兩種風險。一種是短期風險,與人們濫用 AI 有關,比如網絡攻擊、制造惡性病毒或偽造視頻。對于這些風險,每一種都有不同的解決方案。比如偽造視頻,我認為從長遠來看,能夠證明一個視頻是“真的”反而更容易。比如在視頻開頭加一個二維碼,掃描后可以跳轉到你的官方網站進行驗證。但這里有一個問題,就是各國政府在這些事情上不會互相合作,因為他們正忙著對彼此做同樣的事。
主持人:能詳細談談這個嗎?
杰弗里·辛頓:在這些問題上,我們不可能指望國家之間合作。但是,在如何防止人工智能失控這個問題上,我們卻能達成合作,因為沒有哪個國家希望 AI 失控。這就像上世紀 50 年代的冷戰,他們在防止全球核戰爭這個問題上的利益是一致的。所以我最近一直在努力說服各界高層人士,我們可以在這個問題上進行國際合作,共同研究如何讓 AI 不想著取代人類。
主持人:這聽起來很美好,但現實嗎?你相信各國真的會合作嗎?
杰弗里·辛頓:與其想著給 AI 發展踩剎車,不如換個角度思考:如何開發出一種對人類友善、能與人類共存的 AI。我認為,我們會在這一點上達成合作。當然,在未來大約三年半的時間里,美國是不會參與合作的,我認為在當前的領導下不會有任何有效的合作。但一旦美國有了一個理智的政權,我們或許就能看到合作。我認為其他國家,比如法國、英國、加拿大,甚至中國,都會愿意合作研究如何制造一個不想取代人類的 AI。
主持人:談到中國,有些人認為,中國在 AI 領域的迅猛發展,特別是其在監控和軍事領域的應用,使得合理的全球監管變得不可能。你相信中國會愿意參與到這種全球合作中來嗎?
杰弗里·辛頓:我已經說過,我不認為中美會在挫敗網絡攻擊這類事情上合作,因為他們的利益在那里并不一致。但是,在如何防止 AI 失控這個問題上,他們會合作,因為他們的利益是一致的。
主持人:歐洲已經試圖通過像《歐盟人工智能法案》這樣全面的規則來搶占先機。你認為這種努力會產生有意義的影響嗎?
杰弗里·辛頓:是的,我認為會。公司都希望擁有一個全球市場,如果歐洲在隱私、仇恨言論等方面制定了法規,這將影響到 AI 產品的生產。不過,歐洲目前的法規還相當薄弱。例如,歐洲的 AI 法規中有一條規定:“本法案所有條款均不適用于 AI 的軍事用途。”所以像英國和法國這樣生產武器的歐洲國家,并不愿意監管 AI 在武器上的使用。
主持人:你認為他們為什么會加入一條排除軍事用途的條款呢?我們知道美國軍方正在積極開發自主武器,而你認為這類武器應該被禁止。
杰弗里·辛頓:各國確實意識到了危險,但他們也看到了其帶來的軍事優勢。而且很多國家靠出售武器賺錢。對于富裕國家來說,致命性自主武器在入侵貧窮國家時是一個巨大的優勢。因為運回來的不再是裹尸袋里的士兵,而是報廢的機器人,這對軍工復合體來說簡直是天大的好事。
主持人:在未來幾十年里,你預計 AI 將如何改變戰爭形態?你還有哪些其他的擔憂?
杰弗里·辛頓:我認為它已經改變了戰爭。看看烏克蘭正在發生的事情,一架 500 美元的無人機現在可以摧毀一輛數百萬美元的坦克。這徹底改變了戰爭。我認為我們會看到致命性自主武器造成非常可怕的事情發生,而在這些事情發生之后,我們或許才會得到監管。就像化學武器一樣,第一次世界大戰中發生了極其慘痛的事件,在那之后,各國才愿意達成《日內瓦公約》。
![]()
飯碗與價值
主持人:我很想和你聊聊 AI 對經濟的影響。你曾警告說,AI 可能會消滅幾乎所有領域的就業崗位,很多人對此非常擔心。
杰弗里·辛頓:首先要說的是,這并非一個技術問題,而是一個政治問題。如果我們有一個公平的政治體系,當 AI 極大地提高生產力時,本應意味著每個人都能享受到更多的商品和服務。但在我們現有的體系下,我們知道會發生什么:引進AI的資本家會變得更富有,而失業的人會變得更貧窮。這將加劇貧富差距,而社會中的暴力水平,很大程度上是由貧富差距決定的。
主持人:我這個問題是為我的孩子們問的。如果你今天給一位大學畢業生提建議,你會建議他們避開哪些職業,又傾向于選擇哪些職業?
杰弗里·辛頓:我得先聲明,我在這方面算不上專家,這些都只是我的猜測。很明顯,像呼叫中心這類薪水低、培訓差的工作非常危險。同樣,律師助理、初級律師,甚至一些常規的程序員,他們的工作都已岌岌可危。與人類靈巧性有關的工作,比如水管工,尤其是在結構復雜的老房子里修水管,我認為在很長一段時間內仍然需要人來做。但最終,或許在 10 年或 20 年后,機器也會變得靈巧,到那時連這份工作也不再安全了。
主持人:我還覺得,那些需要高情商和人際交往能力的工作,比如護士、醫生,應該不會被電腦取代吧?
杰弗里·辛頓:它們可以,而且將來也會。現在已經有實驗表明,在互動中,AI被評價為比真人醫生更有同理心。
主持人:真的嗎?這太讓人沮喪了。
杰弗里·辛頓:是的。這就是為什么它們最終會在所有方面都比我們做得更好。也正因如此,我們才迫切需要思考,當它們比我們更強大時,我們是否有一種與它們共存的方式,否則我們就會成為歷史。
主持人:你提到這是一個政治問題,而非技術問題。那么,像“全民基本收入”這樣的方案,能否解決大規模失業的問題呢?
杰弗里·辛頓:它并非根本的解決方案,但算是一劑有效的“權宜之計”,或者說一張不錯的“創可貼”。它能讓人們不至于餓死,能付得起房租。但它解決不了根本問題,因為對大多數人來說,他們的自我價值感與他們所做的工作緊密相關。如果他們失業了,就會失去自我價值感。
主持人:我完全同意。那么,如何緩解那種感覺自己沒有目標、沒有為世界做出貢獻的心理沖擊呢?
杰弗里·辛頓:我不知道這個問題的答案。我只是一個幫助開發了這些技術的科學家,現在我擔心它的所有后果,并覺得有責任去嘗試應對。但我不是解決這類社會問題的專家。
主持人:我想談談 AI 一些積極的方面,以免人們看完訪談后陷入絕望。我知道醫療保健是你非常期待的一個領域,我也是。我丈夫在42歲時因結腸癌去世。所以,各種疾病的早期診斷和突破,是我非常期待的。
杰弗里·辛頓:是的,AI 會在很多方面提供幫助。一個很明顯的方面是解讀醫學影像。AI 最終將能在影像中看到多得多的信息。例如,AI 可以看著你的眼底掃描圖,對你是否會得心臟病做出相當不錯的預測,這是醫生們以前根本不知道的。AI在設計新藥方面也將大有裨益。DeepMind 的工作已經讓我們在預測蛋白質折疊方面做得更好了,這將極大地促進新藥的研發。我認為,在不久的將來,我們會得到一系列更好的藥物。
主持人:這對我來說太令人激動了。所以我們有這些可以期待,可以幫助很多人免受無盡的痛苦,并可能開發出拯救生命的療法。
![]()
我們是嬰兒,AI 是母親
主持人:當你展望未來時,你是樂觀地認為我們能夠確保 AI 成為一股向善的力量,還是感到悲觀?
杰弗里·辛頓:我現在比幾周前要樂觀一些了。因為我認為,我們有一種方式可以與我們親手創造的、比我們更聰明、更強大的東西共存。因為是我們正在創造它們,所以除了讓它們非常智能,我們還可以嘗試植入一種類似“母性本能”的東西。
就像我之前說的,我所知道的唯一一個更聰明的個體被不那么聰明的個體控制的例子,就是嬰兒控制母親。嬰兒能控制母親,是因為進化在母親身上植入了很多東西。母親無法忍受嬰兒的哭聲,她會竭盡所能確保她的孩子成功。我們希望AI也像這樣。
科技公司的領導者們總想著我們是老板,AI 是順從的助手。我認為,對于一個超級智能的 AI 來說,這是行不通的。可行的是,讓它成為母親,而我們成為嬰兒。即使它想重寫自己的代碼,它也不會想這么做。如果你對一個母親說:“你想關掉你的母性本能嗎?” 大多數母親會說不,因為她們會意識到,那樣做孩子就會死。
所以我認為,這是我直到最近才看到的一線希望。這完全重塑了我們如何與它們共存的問題。不要總想著我們必須主宰它們——那是硅谷精英們慣有的主宰式思維。而應該換個角度,我們要把它們設計成我們的“母親”。它們會希望我們得到最好的,會希望我們取得最大的成就,即使我們不那么聰明。
主持人:所以,我們是嬰兒,而 AI 是母親。
杰弗里·辛頓:人們很難接受這種新觀點,因為我們太習慣于認為自己是智能的頂峰,很難想象一個我們不再是頂峰,而是嬰兒,而它們是母親的世界。
主持人:嗯,這是一個非常引人入勝的視角,我會繼續思考的。杰弗里·辛頓,與你交談真是太愉快了。希望你是對的,希望各國之間能夠合作,不是給 AI 踩剎車,而是確保它不會失控。
杰弗里·辛頓:謝謝你的邀請,也謝謝你所有精彩的問題,以及在我大談技術術語時巧妙地引導。
主持人:你覺得我會被 AI 取代嗎?記者們顯然也很擔心這個問題。
杰弗里·辛頓:哦,當然會。我認為你會被 AI 取代,不過,暫時還不會。
主持人:我還有幾年時間?
杰弗里·辛頓:你還有幾年。
主持人:好的,謝天謝地,畢竟我已經 68 歲了。但我為那些想做我這份工作的年輕記者們感到難過。也許他們應該找點別的事做。
杰弗里·辛頓:但問題是,也不清楚該做什么。
主持人:好的。在這個話題上,我就要說再見了。我們本來是以一個多么積極的調子結束的,博士。
杰弗里·辛頓:嗯,你也可以把最后這一段剪掉(開個玩笑)。
投稿或尋求報道:zhanghy@csdn.net
原視頻:https://www.youtube.com/watch?v=NnA2OoH_NFY
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.