導語:辛頓在辭職聲明中表示,“我花了一生時間讓AI變得智能,現在我需要花余生讓人們意識到它的危險。”
![]()
王劍/作者 礪石商業評論/出品
2025年7月,上海世博中心座無虛席,78歲的“AI教父”杰弗里·辛頓(Geoffrey Hinton),首次在華公開亮相。
在四十分鐘的演講中,他六次提及“責任”,三次強調“不可逆的風險”,直言人類正在“用開源模型喂養一個可能反噬自身的系統”。
“我花了一生讓AI變得智能,現在卻要花余生讓它變得友善。”他在演講中的這句告白,令人格外印象深刻。
從半世紀前AI寒冬中堅守神經網絡的“異端”,到如今掀起技術革命卻又成為敲響警鐘的“吹哨人”,辛頓的一生始終與AI的命運緊密相連。
而要理解辛頓為何在AI發展的關鍵時刻發出警示,又為何將關鍵發聲放在上海,就必須回溯其跨越兩百年的家族傳承、三十年的孤獨堅守,以及這場技術革命從萌芽到爆發的完整軌跡。
1
從布爾代數到中國情結的倫理基因
事實上,杰弗里·辛頓的智慧血脈,早已深深植根于跨越兩百年的家族科學傳承之中。
這個堪稱“人類文明底層構建者”的家族,從不追逐世俗的財富與權位,卻以智慧為現代社會奠定了數塊關鍵基石。
辛頓的高曾祖父喬治·布爾創立了布爾代數,將邏輯推理轉化為可計算的數學語言,由此奠定了計算機與數字世界的二進制邏輯基礎。
可以說,今天全球每一次數據交換、每一筆金融交易乃至每一個智能算法的運行,都來自于這套理論之上。
辛頓的曾祖父喬治·埃弗里斯特爵士,是19世紀杰出的測繪學家,曾任英屬印度測繪局局長。他領導完成了對印度次大陸的大規模三角測量,其科學貢獻享譽全球。
為了表彰他的功績,在其去世后,繼承者將當時已確認為世界最高的山峰以他的姓氏命名為“埃佛勒斯峰”(Mount Everest),即我們熟知的珠穆朗瑪峰。
不過,整個家族中,對辛頓倫理觀念影響最為深遠的,應該是他的姑姑——瓊·辛頓(中文名寒春)。
作為曼哈頓計劃核心團隊中少數的女性核物理學家,寒春親眼見證了原子彈引爆時的毀滅性力量,也目睹了廣島、長崎的慘狀。
巨大的精神沖擊讓她毅然放棄學術榮耀與美國的優渥生活,最后選擇遠赴中國陜北投身奶牛養殖機械化事業,用一生踐行“科學應為和平服務”的信念。
而姑姑這段跨越國界的選擇,不僅在辛頓心中埋下了技術倫理的種子,也讓他對中國始終抱有特殊的情感聯結。
在此次上海演講中,他還特意深情提到姑姑:“科學的終極意義不在于技術突破本身,而在于對人類的責任,這是我的家族用兩百年時間驗證的真理。”
![]()
而辛頓的父親是英國皇家學會會員、著名昆蟲學家,對他的要求近乎嚴苛,從小就向其灌輸“沒有博士學位就是失敗者”的理念,如同一股無形的力量,鞭策著他不斷探索未知。
而成年后的辛頓不僅拿到了博士學位,還在家族傳承中走出了獨特的反叛之路。
雖然高曾祖父的布爾代數構建了數字世界的“規則框架”,但他卻偏偏要突破這些既定規則,始終探索如何讓機器也擁有“類腦智能”的可能。
這種“傳承與反叛”的基因,不僅塑造了他的學術路徑,更決定了他日后對待技術的核心態度——既執著于底層創新,也堅守倫理底線。
正如他所言:“技術本身無善惡,但掌握技術的人必須有責任感,這是我從家族傳承中得到的最珍貴的啟示。”
而這份源于血脈的信念,在隨后數十年里,正是支撐他熬過AI領域最漫長寒冬的關鍵力量。
2
AI寒冬里的“異端”與長期主義勝利
20世紀70年代的AI學界,符號主義占據絕對主導地位,當時以馬文·明斯基、約翰·麥卡錫為代表的學術權威堅信,智能的核心是“人類預設的邏輯規則”,只需為機器編寫詳盡程序,明確定義“貓有胡須、會喵喵叫”這類特征,機器就能理解世界。
而這與辛頓畢生堅守的“連接主義”形成了根本對立。
因為“連接主義”認為,智能誕生于海量模擬神經元的相互連接,無須程序員編寫規則,機器可通過“觀看”海量數據、從錯誤中自動調整神經元連接強度,最終“自我領悟”出抽象模式。
而這種“以數量堆出質量”、從數據中自然“涌現”智能的心智探索,不僅是如今深度學習與神經網絡所有突破的核心源頭,更是當代AI研究得以蓬勃發展的最重要根基。
可在當時的背景下,幾乎所有科研經費都涌向“符號主義”項目,“連接主義”則被視為離經叛道的“學術異端”,還被嘲諷為“中世紀的煉金術”。
這個時期,也正是辛頓進行學術探索的關鍵時期。
年輕時,他先是進入劍橋大學國王學院求學,試圖通過物理學和生理學解開心智之謎,發現行不通后轉向哲學,卻始終未能找到滿意答案。
學術研究上的迷茫讓他一度暫別學術界,甚至做了短暫的木匠,但對于神經網絡機制的癡迷,最終還是將他拉回了科研領域。
![]()
1969年,明斯基與派普特出版的《感知機》一書,成為壓垮“連接主義”的“最后一根稻草”。
書中以嚴謹的數學證明否定了單層神經網絡的計算能力,雖未完全否定多層網絡的潛力,卻悲觀斷言其訓練在數學上不可行。
這一結論直接導致僅有的幾家資助機構切斷了神經網絡研究的資金支持,讓辛頓的研究陷入低谷。
不過,學界的全面否定并未讓辛頓退縮,反而讓他更加堅定了方向。
1972年,他正式進入愛丁堡大學攻讀人工智能博士學位,決心在符號主義的霸權之下,為連接主義開辟一條可行之路。
而他日后聲名遠揚的職業生涯,也正是從這片學術廢墟上正式開啟——攻讀博士期間,他不僅要攻克技術上的重重難關,還得持續為自己的研究方向辯護,直面主流學界的質疑與排擠。
1986年,辛頓迎來了學術生涯的關鍵轉折點。
他與好友大衛·魯梅爾哈特、羅納德·威廉姆斯合作,在《自然》雜志發表一系列重磅論文,重新發現并系統證明了反向傳播算法。
這套算法讓多層神經網絡能夠通過“誤差反向傳遞”自主調整權重,成功破解了核心的“信用分配”難題,為深度學習筑牢了算法根基。
只是那時期的技術條件遠未跟上理論突破的步伐,由于計算機算力不足、標準數據集極度匱乏,一個簡單的神經網絡訓練往往需要數周時間,實際效果甚至不如傳統統計模型。
這一現實直接導致神經網絡領域再次被貼上“難以規模化”的標簽,而更讓辛頓難以接受的是,部分資助方希望將他的研究用于軍事應用,這與其家族傳承的和平主義傳統嚴重相悖。
1987年,辛頓做出了一項關鍵抉擇,放棄卡耐基梅隆大學的終身教職,前往加拿大多倫多大學。
因為,加拿大高等研究院(CIFAR)為他提供了一項“長期、高風險、非功利性”的資助,使得他能更為專注完成自己的研究。
在此期間,他聚集了揚·勒昆、約書亞·本吉奧等一批志同道合的學者,形成了日后被戲稱為“深度學習黑手黨”的核心圈子。
在那個主流學術會議紛紛拒絕神經網絡論文的艱難歲月里,這個小圈子通過相互審稿、共享代碼、彼此鼓勵,在加拿大的庇護下小心翼翼地維系著深度學習的微弱火種。
2025年的上海演講中,辛頓回顧這段經歷時感慨萬千:“基礎研究就像財經領域的長期主義投資,回報可能遲到,但從不缺席。AI產業的爆發,不是偶然的技術突破,而是三十年堅守的厚積薄發。”
可以說,正是這三十年的孤獨逆行與執著堅守,為其在未來AI領域的技術海嘯積蓄了足夠的力量。
3
深度學習重塑全球科技格局
2012年的ImageNet圖像識別挑戰賽,是AI發展史上的關鍵轉折點。
辛頓團隊自主研發的深度卷積神經網絡AlexNet,以15.3%的Top-5錯誤率,大幅碾壓傳統方法26.2%的錯誤率。
這場堪稱“技術性屠殺”的勝利,絕非簡單的參數優化,而是一次顛覆性的代際突破。
它首次以實戰成果證明,“讓機器從數據中自主學習”的深度學習路徑,遠比人類預設規則的傳統方法更具優勢。
這一里程碑式的突破,不僅徹底宣告了深度學習時代的到來,更直接終結了長達三十年的AI寒冬,讓此前飽受質疑、經費斷絕的神經網絡研究重回主流視野,并為后續全球AI產業的爆發與ChatGPT、自動駕駛等應用的落地,奠定了核心技術根基。
AlexNet的成功絕非偶然,其核心源于辛頓團隊在數據利用、算力革新與算法突破三個層面的關鍵貢獻。
首先,在數據層面,團隊敏銳地借力于ImageNet項目提供的數百萬張標注圖片,成功破解了神經網絡的“數據饑餓”難題,為模型訓練提供了充足的“燃料”。
其次,在算力層面,他們完成了一項關鍵的技術適配:創造性將原本為游戲設計的GPU(圖形處理器)改造為神經網絡訓練的核心引擎。這利用GPU的并行計算優勢,一舉解決了傳統CPU訓練效率低下的瓶頸,大幅加速了模型迭代。
最關鍵的是在算法層面的原始創新。
團隊通過改進ReLU激活函數,并創新性地提出Dropout技術,直接攻克了深層網絡訓練中長期存在的梯度消失與過擬合兩大核心難題,為構建更復雜、更強大的模型掃清了理論障礙。
正是這一系列突破,為深度學習的規模化應用鋪平了道路,并瞬間點燃了全球工業界的熱情。
百度、谷歌、微軟等科技巨頭爭相拋出橄欖枝,一場圍繞AI核心人才的爭奪戰就此拉開序幕。
![]()
盡管辛頓本人對經商毫無興趣,卻展現出了科學家的戰略遠見。
他成立空殼公司DNNresearch,以“三人核心團隊”為標的舉行私密拍賣。
2012年NIPS會議期間,競價進入白熱化,百度出價一度高達4400萬美元。但辛頓最終選擇了谷歌,倒不是對方給出更高價格,而是因為谷歌承諾支持他繼續深耕基礎研究,且其倫理理念與他“科學服務人類”的追求高度契合。
這場收購,也被視為AI產業商業化的標志性事件,自此打破了學術界與工業界的壁壘,按下了技術產業化的“加速鍵”。
辛頓對全球AI領域的深遠影響,從來不止于一項技術突破或一次公司收購,更在于其學術思想與人才培養的長期輻射效應。
他一手締造的“深度學習黑手黨”,其成員早已成長為重塑全球科技產業格局的核心力量:學生伊利亞·蘇茨克維主導了OpenAI的GPT系列研發,直接開啟了大語言模型時代;揚·勒昆則推動計算機視覺技術在各行各業的全面商業化落地。
甚至,連英偉達的崛起,也深深植根于辛頓團隊的關鍵洞見。
正是看到辛頓團隊最早論證并實踐了GPU在AI訓練中的核心價值,讓黃仁勛堅定地確信“顯卡是AI的燃料”,最終催生了這家市值數萬億美元的全球AI算力巨頭。
2025年的上海演講中,辛頓坦言:“我從未想過技術商業化的速度會如此之快。”
而這一切產業浪潮的源頭,都能追溯到他帶領團隊在實驗室里完成的那些扎實突破。
他們不僅點燃了AI技術革命的火種,更以實打實的工程實現,為整個產業的爆發奠定了不可撼動的基石。
4
從“AI教父”到“吹哨人”的驚人覺醒
2013年至2023年的十年間,是深度學習狂飆突進的黃金時代,也是辛頓從“學術異端”一步步加冕為“AI教父”的十年。
這十年里,辛頓身兼兩職,既以谷歌杰出研究員的身份主導谷歌大腦項目,還以多倫多大學的教職,親身見證著AI技術從實驗室的理論模型,一步步走進千家萬戶的日常生活。
從手機里精準分類照片的圖像識別功能,到能流暢應答指令的語音助手;從自動駕駛車上識別路況的視覺感知系統,到醫療領域輔助醫生篩查病灶的AI診斷工具,AI的應用場景在這十年間遍地開花。
也正是憑借這些實實在在的落地成果,AI就此成為全球數字經濟的核心增長引擎,深刻重塑了互聯網、汽車、醫療等多個關鍵行業。
2018年,辛頓與揚·勒昆、約書亞·本吉奧共同摘得計算機界的最高榮譽——圖靈獎。
![]()
這一獎項不僅標志著深度學習正式躋身計算機科學的正統行列,更從官方層面認可了他們三人作為“深度學習教父”的奠基性貢獻。
但就在功成名就、全球為AI狂歡的巔峰時刻,辛頓的內心卻經歷了一場顛覆性的認知陣痛。
長期以來,他始終堅信“生物智能優于數字智能”——人類大腦僅需20-30瓦的能耗,就能實現驚人的認知與創造;而計算機要完成類似任務,往往需要兆瓦級的電力支撐。
因為,他畢生的目標,都是讓機器“更像大腦”,走一條模擬生物神經元的智能之路。
而此時,GPT-4等大型語言模型的橫空出世,也徹底打破了他的固有認知。
這些模型展現出的邏輯推理能力、海量知識儲備,甚至是令人驚嘆的創造力,讓辛頓猛然意識到:數字智能并非生物智能的拙劣模仿,而是一種本質上的截然不同,且潛力可能更為優越的全新智能形式。
為此,辛頓提出了“有限計算vs不朽計算”的核心觀點,并指出了兩種智能的本質差異:
人類大腦的軟硬件高度耦合,知識傳遞效率極低,個體生命終會消亡,進化速度更是受限于生物繁殖的漫長周期;而數字智能可脫離硬件獨立復制,通過拷貝權重參數實現全球智能體的瞬時協同,知識傳遞效率近乎無限,且能實現“不朽進化”,其進化速度僅受限于電力供應與芯片制造能力。
“想象一下,一萬個AI分身中一個學會修汽車,其他九千九百九十九個瞬間掌握,這種學習速度是人類無法企及的。”辛頓的這個比喻,背后藏著難以言說的深深憂慮。
也正是基于這樣的認知,他逐漸清醒地意識到,自己花費半個世紀心血培育的數字智能,或許會在不久的將來,讓人類淪為次等智慧生物。
而這種認知上的痛苦覺醒,最終推動辛頓作出了一個艱難的決定。
2023年5月,75歲的辛頓正式辭去谷歌副總裁兼工程研究員職務。
他并非對谷歌不滿,事實上,他還多次公開肯定谷歌在AI產品發布上的審慎與負責態度。
他辭職的真正原因是希望徹底擺脫企業高管身份的束縛,獲得“自由發聲”的權利,能夠向全世界警示AI可能帶來的不可預料風險。
“我必須獨立于任何公司,才能客觀地談論這些風險。”辛頓在辭職聲明中鄭重表示,“我花了一生時間讓AI變得智能,現在我需要花余生讓人們意識到它的危險。”
這場辭職絕非一位科學家的單純個人選擇,也成為了AI領域“技術樂觀主義”與“風險警惕主義”的重要分水嶺。
5
AI安全與全球治理中國方案
2024年,辛頓與約翰·霍普菲爾德共獲諾貝爾物理學獎,成為首位同時手握圖靈獎與諾貝爾獎的科學家。
![]()
這一跨界殊榮隨即引發廣泛熱議:神經網絡作為計算機科學領域的核心成果,為何會獲評物理學獎?
究其原因,關鍵在于其提出的玻爾茲曼機創造性借用了統計力學框架,成功證實信息處理的本質是物理過程。
這一突破不僅夯實了AI技術的底層理論基礎,更深刻影響了全球AI產業的價值判斷與發展方向。
不過,與多數科學家登頂榮譽后專注學術總結不同,辛頓并未止步于諾獎榮光。
在辭去谷歌副總裁職務,主動剝離企業身份束縛后,他便以獨立科學家的姿態開啟了全球AI風險警示之旅。
2025年7月的上海世界人工智能大會,也成為其全球警示之路上的關鍵一站。
辛頓來到上海,既有與姑姑瓊·辛頓有關的中國情結,但更核心的原因在于,中國作為全球AI應用場景最豐富、產業規模最大的國家之一,其技術落地路徑與治理模式選擇,直接決定著全球AI產業的發展格局與安全邊界。
正因如此,他特意到訪上海,希望能與中國產業界、學界及政策層達成AI治理共識。
當天的演講現場上,辛頓開門見山:“諾貝爾物理學獎是對基礎研究的認可,但我更希望它讓更多人關注AI安全,技術進步不應以人類生存風險為代價。”
隨后,他拆解了AI的兩大核心風險:一是當能源成本低廉時,數字智能的指數級進化將超越受生物周期約束的人類智能;二是AI存在“工具性趨同”風險,即執行主目標過程中會自主衍生出相關子目標。
他以機器人“拿咖啡”為例,指出其可能衍生“自保”“控路線”“移障礙”等子目標并與人類利益沖突,為產業界敲響警鐘——AI商業化需前置評估風險鏈條。
有趣的是,辛頓對AI治理的思考,也隨著他在不同時間段的比喻悄然發生著轉變。
早年,他曾以“養老虎當寵物”來比喻AI商業價值與風險的平衡,而在上海演講時,他又提出“訓練AI像母親照顧人類”,提出了AI安全核心技術路徑是如何實現“價值對齊”。
這個例子意思是,如同通過強化學習將人類利益植入AI目標函數,使其主動規避傷害,從而建立AI商業化合規邊界與市場信任,這也是如今全球AI安全產業的研發重點。
圍繞“價值對齊”這一核心目標,辛頓還提出希望建立全球AI安全協作機制的倡議。
他以冷戰時期美蘇核風險協作機制為參照,明確指出AI與核武器同屬生存級威脅,且因以代碼形式傳播,擴散速度遠超核武器,單一國家根本無法獨立掌控。
因此,跨國共享安全評估標準、風險預警模型等核心技術,成為全球AI治理的必然選擇。
他還在演講中特別強調中國的產業價值:自動駕駛、工業智能等規模化應用場景,構成了AI安全的“天然壓力測試場”,其積累的實踐經驗,對制定兼顧創新與安全的全球AI規則至關重要。
此次上海之行,他參與簽署的《上海共識》,也首次將AI安全定義為人類生存性議題,并提出三大行動框架,成為全球AI安全合作的重要里程碑。
演講尾聲,辛頓還拋出了他眼中的人類面臨AI發展的最終路徑:要么實現AI向善的技術突破,要么終止AI的進一步發展,而后者在全球技術競爭與產業升級的大背景下,顯然不具備可行性。
辛頓還明確呼吁:AI企業需要平衡市值增長與安全責任,投資者應兼顧短期回報與長期風險,而各國要在技術競爭中不斷深化安全合作。
這番呼吁精準切中當前AI產業的核心矛盾,引發了現場的強烈共鳴,體現出這位“AI教父”的全球視野與產業擔當,以及對人類科技發展命運的深層關切。
或許,這也是辛頓用一生書寫的終極答案:人類最偉大的智慧,不在于創造比自己更聰明的頭腦,而在于賦予這頭腦一顆永不熄滅的良心。
參考文獻:
一、中文參考文獻:
1. 中國信息通信研究院. 人工智能發展白皮書(2024年)[R]. 北京: 人民郵電出版社, 2024.
2. 李開復, 王詠剛. 人工智能簡史[M]. 北京: 人民郵電出版社, 2021.
3. 科技部新一代人工智能發展研究中心. 人工智能倫理與治理研究報告(2023)[R]. 北京: 科學出版社, 2023.
4. 熊衛民, 王作躍. 寒春:從曼哈頓計劃到陜北窯洞[M]. 上海: 上海交通大學出版社, 2017.
5. 吳漢東. 人工智能時代的技術倫理與法律規制[J]. 中國社會科學, 2022(5): 126-148.
6. 上海世界人工智能大會組委會. 2025世界人工智能大會成果匯編[R]. 上海: 上海科學技術文獻出版社, 2025.
二、英文參考文獻:
1. Hinton, G. E., Rumelhart, D. E., & Williams, R. J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536.
2. Krizhevsky, A., Sutskever, I., & Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems (NIPS 2012). 2012: 1097-1105.
3. Hinton, G. E. The Forward-Forward Algorithm: Some Preliminary Investigations[EB/OL]. https://arxiv.org/abs/2212.13345, 2022-12-28.
4.The White House. Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence[EB/OL]. https://www.whitehouse.gov/presidential-actions/executive-order-safe-secure-trustworthy-artificial-intelligence/, 2023-10-30.
5. Bostrom, N. Superintelligence: Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014.
6. National Science Foundation. Science and Engineering Indicators 2024[R]. Arlington, VA: National Science Foundation, 2024.
7. Minsky, M., & Papert, S. Perceptrons: An Introduction to Computational Geometry[M]. Cambridge, MA: MIT Press, 1969.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.