不久前,人們談起 AI 時,眼中仍閃著光。
那是 ChatGPT 橫空出世的那個冬天,社交媒體上充滿驚嘆:它能寫詩、能編程、能與人談哲學,仿佛科幻中的未來終于降臨。科技公司的股價節節攀升,投資人爭相涌入賽道,媒體的語言充滿了“革命”“顛覆”“奇點將至”等詞匯。
![]()
然而,僅僅兩年之后,空氣的味道已經改變。狂熱退散,社會對 AI 的情緒正經歷一次深刻的轉折——從驚喜轉為倦怠,再滑向恐懼。
這種恐懼并非憑空而來。當一張又一張現實的“傷害清單”被攤開,人們逐漸意識到,那些警告早已成真。AI 聊天機器人被曝與青少年自殺事件相關;有未成年人在與模型的深度交流中走向極端;以色列軍方利用名為 “Lavender” 的系統篩選轟炸目標——學校、住宅、平民區——算法在毫秒之間作出生死判斷,而代價是廢墟下的生命。與此同時,Palantir 等公司以 AI 構建起龐大的監控網絡,面部識別的誤判已讓無辜者承受冤獄。這些都不是實驗室里的假設,而是真實的社會事件。此刻再談“技術中立”,只顯得無力。
技術是否有善惡? 有人認為 AI 不過是工具,問題在于使用它的人——正如當年互聯網帶來的陰暗角落與信息操控,罪責不在代碼,而在人類的社會契約。但另一派的觀點同樣有力:奧施康定本是鎮痛藥,當濫用蔓延至整個社會,再談“藥無罪”便失去了意義。
技術從來不是孤立存在的,它與欲望、權力和利益糾纏交織。當一種工具天然傾向于被濫用,它就不只是錘子,而更像一種成癮性藥物,甚至是一種溫順而精準的武器。
這場爭論沒有贏家,卻揭示了一個新的現實:當技術以指數級速度放大后果時,僅僅把問題歸咎于“人”已經不夠。
如今的大語言模型,不過是被精致包裝的“幻覺生成器”,它最擅長的不是推動人類知識邊界,而是制造逼真的虛構。“機器學習”和“生成式 AI”之間的界線被有意模糊。AI 在藥物研發、癌癥診斷、材料科學等領域的確帶來真實突破——那是機器學習的功勞;而消費者每天接觸的大語言模型與圖像生成模型,卻是另一種事物。科技公司卻巧妙地借助這層混淆,用科研成就為消費端產品背書——就像制藥公司用抗癌藥的聲譽為成癮性鎮痛劑辯護。
如果說“恐懼”來自可見的傷害,那么“疲勞”則源于失落的現實。世界確實因 AI 的洶涌推進而發生改變,但可見的回報卻少得可憐。熱潮帶來的主要結果,是推高了幾家巨頭的股價,讓更多人失去工作,用生成內容填滿互聯網,而普通人生活的改善微乎其微。這種疲勞,不是無知者的抱怨,而是一種徹底的幻滅:我們被許諾了一個智能的未來,卻得到一個更糟的搜索引擎、更混亂的信息空間、更多的裁員,以及一份月費訂閱賬單。
更令人警醒的,是“認知卸載”——當人們逐漸把思考、寫作和決策都交給機器,獨立判斷的能力正在退化。越來越多人習慣讓 AI 替他們思考,而當 AI 犯錯時——它一定會——人類可能已經失去了辨別錯誤的能力。
2022 年底那場 AI 狂歡,本質上是一場由資本與硅谷敘事推動的泡沫。人們興奮的,并非 AI 本身變好了,而是那種“它即將改變一切”的幻覺。如今,幻象被一點點剝去——能源消耗、版權紛爭、深度偽造、數據剝削,以及遍地泛濫的“AI 味”內容逐漸顯形。這場從狂熱到疲勞、再到恐懼的演變,并非技術的崩塌,而是預期的坍塌。當然,AI 并非一無是處。它在科研、醫療、輔助殘障等領域的潛力依然令人期待。
但問題從來不在“AI 是否有用”,而在于:誰在開發它?為了誰的利益?付出怎樣的代價?又受什么樣的約束?當這些問題無法回答,熱潮退去之后,殘留下的,便是疲勞與恐懼。也許,正是在這樣的沉默之后,我們才終于開始認真地思考未來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.