![]()
最近英偉達CEO黃仁勛在采訪里放了個大招,說AI既沒有泡沫,也不會搞出世界末日。
這話一出來,美國那邊直接吵成了菜市場。
支持者把AI當成救世主,反對者天天喊著人類要完,可吵來吵去,真正該擔心的事兒反而沒人提了。
![]()
今天咱就掰開揉碎了說,黃仁勛這話到底靠不靠譜,AI現在真正的麻煩在哪兒。
黃仁勛這話吧,聽聽就行,別全當真,畢竟英偉達是賣AI芯片的,去年光靠這玩意兒就賺了個盆滿缽滿。
![]()
他說沒泡沫,就跟開飯館的老板說"我們家菜永遠不愁賣"一樣,你說能信幾分?但他反駁末日論還是有點道理的,現在的AI連貓和狗都分不太清,真要毀滅世界怕是還得再修煉幾十年。
可美國那邊的爭論早就跑偏了。
![]()
另一邊又有人舉著倫理大旗喊"AI要統治世界",結果越吵越兇,反而沒人關心AI現在已經捅了哪些婁子。
皮尤研究中心去年做的調查挺有意思,62%的美國人覺得AI風險大,可58%又盼著它解決氣候問題,這種矛盾心態,就是被兩邊的極端言論帶溝里了。
![]()
現在網上隨便刷幾條信息,保不齊就有AI寫的。
斯坦福去年的報告說,AI生成的內容占了全網38%,這里面65%都是些沒營養的東西。
![]()
為啥會這樣?還不是因為算法就認流量,企業發現用AI寫東西又快又便宜,管它質量怎么樣,先堆上去再說。
![]()
結果呢?真正有價值的信息被這些垃圾淹沒了。
麻省理工學院研究發現,總看AI寫的東西,人會變得越來越不愛動腦子,去年全球青少年"信息焦慮癥"比2020年多了不少,怕是跟這脫不了干系。
![]()
黃仁勛今年開始推"物理AI",說要把AI用到工廠、汽車這些實體場景,聽著挺高大上,可現實問題一堆。
就說特斯拉的自動駕駛吧,今年因為AI誤判路況出了12起人命事故,算法在現實世界里的容錯率簡直低得嚇人。
工廠里的AI系統也不靠譜,去年全球17起安全事故,都是因為數據更新慢了半拍。
![]()
科學家辛辛苦苦驗證半天,結果發現是AI瞎編的,光驗證成本就比生成數據的成本高10倍。
這哪是幫忙搞科研,簡直是添亂,現在不光機器依賴AI,人也開始離不開了。
![]()
哈佛醫學院調查顯示,45%的職場人遇到復雜決策就找AI要方案,青少年更是天天抱著社交機器人聊天,線下說話都不利索了。
最要命的是Deepfake技術,今年美國大選37%的選民被AI偽造的候選人言論騙了,這社會信任要是崩了,可不是鬧著玩的。
英偉達現在市值2.8萬億美元,全靠AI芯片撐著。
![]()
可這增長神話還能續多久?最新的H100芯片算力比上一代強3倍,訓練GPT-5的效率卻只提升12%,投入產出比越來越低。
今年全球AI投資漲了45%,企業搞AI項目的平均回報卻從2022年的28%跌到11%,這賬誰都會算吧?
為了破局,英偉達今年猛砸邊緣計算、自動駕駛這些新賽道。
![]()
可現實制約擺在這兒,美國數據中心今年耗了12%的電,加州都不讓建新的AI服務器集群了,亞利桑那州的工廠因為缺水,直接減產30%。
芯片原材料就那么多,電力水資源就那么點,想靠物理AI撐起2.8萬億市值,怕是有點難。
2000年互聯網泡沫的時候,思科市值5500億美元,結果呢?過度依賴單一技術,說崩就崩。
![]()
現在AI行業的劇本跟當年太像了,資本狂熱撞上物理極限,這跟頭遲早得栽。
黃仁勛說AI沒泡沫,其實是怕戳破自己的飯碗,說不會末日,倒是說了句大實話。
![]()
但AI真正的危機,既不是泡沫破裂,也不是機器統治世界,而是信息越來越垃圾,應用越來越危險,資源越來越不夠用。
與其天天吵AI是好是壞,不如想想怎么讓它少添亂多幫忙,畢竟技術本身沒好壞,就看咱們怎么用了。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.