哈嘍,大家好,桿哥這篇評論,主要來分析語言是濾鏡概率是枷鎖,AI發展的真正天花板,被深夜加班對話戳破
![]()
當下GPT-5的傳聞讓不少人對AI充滿幻想,但深夜加班時,前谷歌工程師出身的老板一句“大模型永遠成不了牛頓,只能做他最好的學生”,卻澆醒了很多人。
這并非否定AI價值,而是點出了當前大模型難以突破的核心瓶頸。
核心結論:Transformer架構有天花板,堪比內燃機效率極限
這位技術出身的老板指出,當前大模型存在兩個根本性缺陷,這也是其無法實現突破性創新的關鍵。
![]()
一是語言本身的局限,人類從不單靠語言理解世界;二是概率系統的本質,真正的科學發現源于邏輯推理,而非統計關聯。就像內燃機效率有理論極限,Transformer架構也有自己的天花板。
語言局限:AI靠“失真濾鏡”理解世界
大模型的困境,在于它只能通過語言這一二手信息理解世界,而非直接經驗。這就像從沒見過蘋果、沒感受過重力,卻靠十萬本描述蘋果落地的書去認知世界。
![]()
人類嬰兒靠觸摸、觀察建立物理直覺,知道東西會掉落是因為無數次驗證。但GPT們只知道“蘋果和落地在文本中經常同時出現”。
![]()
語言本就是現實的壓縮包,壓縮必然丟失信息。AI依賴這種有損壓縮版本學習,構建的世界模型注定失真,這也導致了其常識的脆弱性。
概率本質:科學發現猜不出來
把17世紀所有科學文獻喂給強大的大模型,它也大概率發現不了萬有引力。牛頓的突破不在于掌握更多數據,而在于用全新視角看待舊數據,這種跨越式類比思維,不是概率系統能產生的。
![]()
大模型擅長統計關聯,卻不擅長因果推理。它能寫出完美的萬有引力論文,是因為相關內容在訓練數據中頻繁出現,但無法成為第一個建立這種聯系的人。
科學革命的本質是反直覺的范式轉換,概率模型擅長在現有框架內優化,卻難以跳出束縛。
未來方向與當下啟示
![]()
下一代AI可能需要融合神經符號系統、直接交互物理世界、深度融入因果推理,或采用“大模型+專業工具”的混合架構。
對創業者而言,應將大模型定位為“人類智慧的放大器”;產品經理要明確其能力邊界;職場人則需培養第一性原理思考、跨領域類比等AI缺乏的創造力。
![]()
大模型成不了牛頓,但能成為每個人的“牛頓助手”。理解它的局限,不是否定技術,而是更清醒地規劃人與AI的共生未來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.