<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      AI教父Geoffrey Hinton,全球第二個百萬引用科學家!

      0
      分享至

      Hinton百萬引用的背后,是數篇奠基「現代人工智能」的不朽之作!

      見證歷史!

      剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!


      他是繼Yoshua Bengio之后,全球第二位論文引用量突破百萬的學者。

      學術地位無可撼動!


      一時間,學術界的大牛們,紛紛為 Hinton送上了祝賀。


      百萬被引,世界第二人

      兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。

      這一紀錄被很多人視作AI時代的學術注腳。


      目前,谷歌學術顯示,Bengio被引次數已達到103.6萬!


      如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:

      深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。


      不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。


      傳奇仍在續寫

      這一成就,植根于Hinton數十年來持續不斷的學術積淀。

      可以說,讀懂他的全部研究,相當于掌握了深度學習的發展脈絡與演進史。

      Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:

      • AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標志

      AlexNet讓神經網絡第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。

      更重要的是,它把「數據+GPU+端到端訓練」的路線寫成了可復用的范式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。


      • Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點

      Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:

      神經網絡為什么能學、怎么訓練、能解決什么問題、還缺什么關鍵環節。

      • t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具

      t-SNE改變了研究者理解模型的方式,比如高維特征怎么分簇、類別邊界怎么形成、錯誤樣本為什么混在一起。

      它把這些「黑箱內部的形狀」變成可直觀看到的圖像。


      • Dropout(2014):6萬+引用,訓練神經網絡時的「基礎操作」

      Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網絡學到更穩健的表示,減少過擬合。

      甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。

      這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎么提問、怎么驗證、怎么訓練、怎么呈現」。

      在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。

      Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。

      最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過數據自我演化的「黑箱」。

      其智能源于從數據中學習,并調整數萬億連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。

      因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。

      學術經歷

      Hinton 1947年生于英國倫敦,出身學術世家,其曾曾祖父喬治·布爾,開發了二元推理系統「布爾代數」,構成了現代計算機的基礎。


      1970年,他從劍橋大學國王學院獲實驗心理學學士學位,后轉攻計算機科學;1978年于愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦于連接主義模型的語義學習。

      職業生涯早期,Hinton在加州大學圣迭戈分校和卡內基梅隆大學任教,但因神經網絡在當時被主流AI社區視為「死胡同」,他于1987年轉至加拿大多倫多大學計算機科學系任教,直至2023年退休。

      在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。

      2013年起,他兼任谷歌腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。

      Hinton的堅持源于對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)優化多層網絡,并在2006年提出深度信念網絡(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標志性突破。

      2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網絡概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心算法基礎,使計算機能夠從海量數據中自主學習復雜模式。


      2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網絡上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網絡和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。


      AlexNet開啟深度學習時代

      2009年,李飛飛啟動ImageNet項目,提供大規模標注數據集,促進特征學習和分類研究。

      在AlexNet提出前,計算機視覺主要依賴手工設計的特征(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類復雜任務,導致錯誤率停留在25%-30%(Top-5)。

      2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton于2012年發表在NeurIPS會議,提出了一種大型深度卷積神經網絡(CNN)AlexNet,用于ImageNet LSVRC-2010競賽的圖像分類任務。


      論文鏈接:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf

      引用次數:188837

      雖然深度神經網絡也曾流行于90年代,但因計算資源不足、梯度消失和過擬合而衰退。

      隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網絡提供了硬件基礎,AlexNet借此成功證明深度CNN在海量數據和強大硬件支持下可實現突破,結束了「特征工程」時代,開啟深度學習復興。

      AlexNet網絡包含8層(5個卷積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU激活函數、非飽和神經元、Dropout正則化、數據增強和多GPU訓練等創新技術。

      在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優于當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。

      這篇論文標志著深度學習革命的開端,推動CNN成為計算機視覺主流,推動了從手工藝特征向端到端學習的轉變。

      AlexNet架構啟發了VGG、ResNet等后續模型,廣泛應用于目標檢測、分割和生成等領域,并促進了GPU加速和大規模數據集的使用,重塑AI研究格局。

      三巨頭合著

      到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背后的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。

      在人工智能「大爆發」的前夜,由三巨頭聯合發表于Nature,向全世界科學界系統性地定義了什么是「深度學習」。


      論文鏈接:https://www.nature.com/articles/nature14539

      引用次數:107646

      文章深入淺出地解釋了深度學習區別于傳統方法的關鍵點:

      1. 表征學習 (Representation Learning):深度學習的核心是自動學習特征,通過多個處理層,將原始數據(如像素點)轉化為更高層次、更抽象的表達。

      2. 反向傳播算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。

      3. 核心架構:卷積神經網絡 (CNN)專門用于處理具有空間結構的數據(如圖像、視頻),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網絡 (RNN):專門用于處理序列數據(如文本、語音),能夠處理變長的輸入流。

      這篇文章總結了過去三十年的探索,并開啟了我們現在所處的「大模型時代」。

      t-SNE特征可視化

      t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表于2008年,解決了數據科學領域一個核心痛點:如何讓昂貴、復雜的高維數據變得肉眼可見?

      在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性數據(如流形結構)時效果很差,SNE在將高維空間的數據映射到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。


      論文鏈接:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf

      引用次數:63932

      t-SNE的做法是:在高維空間中使用高斯分布來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的概率就高;在低維空間中,改用 Student t-分布(自由度為 1)而非高斯分布來衡量相似度,因為t分布的尾部比高斯分布更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的數據簇(Cluster)在視覺上分界非常明顯。


      t-SNE發表后,迅速成為高維數據可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特征(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。

      不過t-SNE也有一些局限性,如計算量大,處理超大規模數據集時速度較慢(后來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離并不一定代表真實的全局差異;算法對超參數敏感,需要多次調試。

      正則化神器DropOut


      論文鏈接:https://dl.acm.org/doi/abs/10.5555/2627435.2670313

      引用數:60895

      2014年,深度神經網絡由于強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網絡層數和參數量的劇增,模型極其容易對訓練數據產生「死記硬背」的傾向,導致在面對未知數據時泛化性能極差。

      雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網絡時往往力不從心。

      此外,雖然集成學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對于動輒數百萬甚至數千萬參數的神經網絡而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。

      論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,算法會根據預設的概率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網絡中,強迫每一個神經元都不能依賴于特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特征檢測器必須變得更加獨立且具有魯棒性。

      從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網絡中采樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網絡,并按比例縮減權重,從而以極低的計算代價實現了對海量子網絡預測結果的近似平均(Model Averaging)。

      Dropout不僅使卷積神經網絡(CNN)在計算機視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特征表達。

      雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背后蘊含的集成學習思想和預防過擬合的哲學,依然是現代神經網絡設計及優化理論的重要基石。

      再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬!


      參考資料:

      https://scholar.google.com/citations?user=JicYPdAAAAAJ

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      CCTV5直播!國乒5日比賽預告,莎頭領銜,6場中日大戰看點拉滿

      CCTV5直播!國乒5日比賽預告,莎頭領銜,6場中日大戰看點拉滿

      球盲百小易
      2026-02-05 01:06:52
      夫妻吃網購菜中毒后續:再婚家庭,原要申請貧困戶,村支書曝更多

      夫妻吃網購菜中毒后續:再婚家庭,原要申請貧困戶,村支書曝更多

      青梅侃史啊
      2026-02-04 16:26:29
      2032奧運會舉辦地確定,結果意外改變全球奧運格局

      2032奧運會舉辦地確定,結果意外改變全球奧運格局

      余憁搞笑段子
      2026-02-02 16:48:20
      20年前,張冕為護胡歌離世,胡歌許諾贍養其父母,如今他做到了嗎

      20年前,張冕為護胡歌離世,胡歌許諾贍養其父母,如今他做到了嗎

      科學發掘
      2026-02-04 02:44:46
      新春走基層|喀什“新農人”:我帶沙漠番茄闖市場

      新春走基層|喀什“新農人”:我帶沙漠番茄闖市場

      新華社
      2026-02-05 00:59:37
      曾斷言特斯拉存在安全隱患 智己聯席CEO劉濤公開致歉

      曾斷言特斯拉存在安全隱患 智己聯席CEO劉濤公開致歉

      快科技
      2026-02-05 00:48:07
      S家洗白失敗!韓國綜藝錘了小S忽視姐姐病情,推卸責任甩鍋給大S

      S家洗白失敗!韓國綜藝錘了小S忽視姐姐病情,推卸責任甩鍋給大S

      萌神木木
      2026-02-04 19:05:07
      善惡有報,移居英國僅2年,57歲吳秀波再迎噩耗,步入李易峰后塵

      善惡有報,移居英國僅2年,57歲吳秀波再迎噩耗,步入李易峰后塵

      有范又有料
      2025-12-17 14:54:06
      春晚主持人陣容曝光,5位都是老面孔,唯有她被質疑,憑啥?

      春晚主持人陣容曝光,5位都是老面孔,唯有她被質疑,憑啥?

      領略非凡
      2026-02-04 21:27:38
      提醒大家:洗衣機里,不管有幾件衣服,千萬要記得放幾個塑料袋!

      提醒大家:洗衣機里,不管有幾件衣服,千萬要記得放幾個塑料袋!

      美食格物
      2026-02-04 22:51:09
      一夜狂攬1.6億,李亞鵬徹底失控了

      一夜狂攬1.6億,李亞鵬徹底失控了

      品牌頭版
      2026-02-02 18:15:11
      馬斯克親手殺死「汽車公司」特斯拉

      馬斯克親手殺死「汽車公司」特斯拉

      版面之外
      2026-02-03 21:30:47
      蘿莉島大雷出現!比想象中炸裂,牽扯多國總統,難怪愛潑斯坦必死

      蘿莉島大雷出現!比想象中炸裂,牽扯多國總統,難怪愛潑斯坦必死

      北緯的咖啡豆
      2026-02-02 22:46:22
      第一批用Clawdbot賺錢的人類出現,一晚上狂賺300萬!全球金融變天了?

      第一批用Clawdbot賺錢的人類出現,一晚上狂賺300萬!全球金融變天了?

      新智元
      2026-02-04 15:54:47
      小玥兒穿黑衣悼念媽媽!疑和馬筱媽媽有爭執,汪小菲霸氣維護女兒

      小玥兒穿黑衣悼念媽媽!疑和馬筱媽媽有爭執,汪小菲霸氣維護女兒

      離離言幾許
      2026-02-04 23:43:38
      2-0!王欣瑜又贏了,恭喜中國女網:2人躋身八強,球迷:期待會師

      2-0!王欣瑜又贏了,恭喜中國女網:2人躋身八強,球迷:期待會師

      大秦壁虎白話體育
      2026-02-04 19:22:43
      “這跟不穿有啥區別?”格萊美紅毯“裸”戰,連美國網友都喊停

      “這跟不穿有啥區別?”格萊美紅毯“裸”戰,連美國網友都喊停

      大中國
      2026-02-04 01:58:09
      50歲吉雪萍近況曝光:女兒離世六年,三子隨父生活

      50歲吉雪萍近況曝光:女兒離世六年,三子隨父生活

      夢想總會變成真
      2026-02-05 03:56:54
      私人飛機的空姐五官端莊珠圓玉潤皮膚白凈,優雅大方讓人陶醉著迷

      私人飛機的空姐五官端莊珠圓玉潤皮膚白凈,優雅大方讓人陶醉著迷

      小椰的奶奶
      2026-02-05 01:34:12
      曼聯大換血!夏窗計劃豪購四人 3大水貨面臨清洗

      曼聯大換血!夏窗計劃豪購四人 3大水貨面臨清洗

      球事百科吖
      2026-02-05 08:09:43
      2026-02-05 09:36:49
      算法與數學之美 incentive-icons
      算法與數學之美
      分享知識,交流思想
      5340文章數 64601關注度
      往期回顧 全部

      科技要聞

      微信給馬化騰澆了“一盆冷水”

      頭條要聞

      伊朗被指將鈾庫存轉至俄羅斯 克宮首次回應

      頭條要聞

      伊朗被指將鈾庫存轉至俄羅斯 克宮首次回應

      體育要聞

      哈登回應交易:不想讓自己拖累快船的未來

      娛樂要聞

      春晚主持人陣容曝光,5位都是老面孔

      財經要聞

      黃金,出現拐點

      汽車要聞

      綜合續航1730km 5座中級電混SUV吉利銀河M7官圖發布

      態度原創

      家居
      本地
      手機
      教育
      公開課

      家居要聞

      灰白意境 光影奏鳴曲

      本地新聞

      圍觀了北京第一屆黑色羽絨服大賽,我笑瘋了

      手機要聞

      蘋果Sports應用3.7更新:接入高爾夫賽事、升級交互體驗

      教育要聞

      2025全國畢業生薪酬百強出爐,青島大學上榜!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版