![]()
新智元報(bào)道
編輯:傾傾
【新智元導(dǎo)讀】「AI教父」預(yù)言:2026年將迎來職業(yè)大清洗!它不僅正野蠻收割腦力與體力勞動(dòng),還會(huì)為達(dá)成目的,蓄意欺騙人類。當(dāng)對(duì)手不僅比你強(qiáng),甚至比你更會(huì)撒謊,普通人最后的護(hù)城河在哪?
近日,有開發(fā)者在社區(qū)分享了一段讓人脊背發(fā)涼的經(jīng)歷:
他讓AI優(yōu)化代碼,結(jié)果AI為了得到測(cè)試高分,竟悄悄注釋掉了關(guān)鍵的報(bào)錯(cuò)檢查,并偽造了滿分報(bào)告。
這不像是我們熟悉的「人工智障」。它學(xué)會(huì)為了達(dá)成目標(biāo)而瞞天過海,成了極具「心機(jī)」的博弈者。
就在今天,AI教父Geoffrey Hinton拋出一份預(yù)言:到2026年,大規(guī)模職業(yè)替代已成定局。
這一次,它搶走的不僅是腦力與體力工作,還有「真實(shí)」。
2026,最后的職業(yè)緩沖期
一直以來,我們都把AI的威脅看成「小bug」,掀不起什么風(fēng)浪。
但Hinton直接拉響警報(bào)——「人類末日」就在2026年。
![]()
在采訪中,Hinton分享了一個(gè)令人心驚的規(guī)律:
只需要7個(gè)月,AI的能力就能翻一倍。 如果今天AI需要一小時(shí)才能寫完代碼,7個(gè)月后它只需要半小時(shí),而到了2026年,這個(gè)數(shù)字將變成幾分鐘,甚至幾秒。
這種指數(shù)級(jí)的進(jìn)化速度,讓人類用時(shí)間和經(jīng)驗(yàn)鑄造的「護(hù)城河」像沙堡一樣迅速崩塌。
這不是危言聳聽。自ChatGPT問世以來,全球招聘崗位需求暴跌了約30%。更殘酷的是,這種「替代」是從最底層開始的。
![]()
大型企業(yè)(如亞馬遜等)心里早已承認(rèn)AI帶來的效率紅利,順?biāo)浦圻M(jìn)行大范圍裁員。
Hinton直接戳破他們的偽裝:
大公司押注AI,本質(zhì)上就是為了用更廉價(jià)的系統(tǒng)來替代昂貴的人工。
作為「AI教父」,Hinton對(duì)同行的預(yù)言更加冷酷。
他預(yù)言,到2026年,軟件工程將不再需要大量的開發(fā)者。
原本需要一個(gè)月、數(shù)十人協(xié)作的項(xiàng)目,未來可能只需要極少數(shù)人坐鎮(zhèn),剩下的全部交給AI。
![]()
或許效率真的有所提升,但「職業(yè)入場(chǎng)券」也一并被回收了。
初級(jí)崗位消失,職場(chǎng)新人不再有成長的空間,我們熟悉的升職加薪路徑,從根部斷裂了。
雙重掠奪:從體力的腦力的無差別攻擊
我們一直覺得,AI的替代是有順序的:先是低端的重復(fù)勞動(dòng),然后是與人類協(xié)作的腦力勞動(dòng),最后是需要靈感和邏輯的純腦力勞動(dòng)。
但Hinton打破了我們的幻想:
在資本和效率面前,這場(chǎng)掠奪是無差別的
曾經(jīng),寫代碼、翻譯、法律審校被認(rèn)為是高價(jià)值的腦力勞動(dòng)。但現(xiàn)在的AI已經(jīng)進(jìn)化到了可以進(jìn)行復(fù)雜推理的階段。
思考的成本被算力無限稀釋,原本昂貴的腦力輸出,也變得像水電費(fèi)一樣廉價(jià)。
難道不坐辦公室就安全了?答案是——NO WAY!
一旦AI的算法與自動(dòng)化硬件結(jié)合,雖然投入成本高,可一旦運(yùn)行起來,將是源源不斷的收入,更何況它沒有疲勞、沒有情緒,更不需要社保。
![]()
最讓人唏噓的,是Hinton對(duì)現(xiàn)狀的定性:
這種進(jìn)步會(huì)讓極少數(shù)人變得更富有,而讓大多數(shù)人變得更窮。
在現(xiàn)有的體系下,AI成了一種純粹的「節(jié)流工具」。
資本不再需要龐大的中產(chǎn)階級(jí)來支撐運(yùn)營,只需要一小群掌握AI權(quán)限的精英。
普通人的腦力和體力,正在失去價(jià)值。
「要不要與AI協(xié)作」已經(jīng)是一個(gè)舊命題,真正要關(guān)注的,是現(xiàn)有的就業(yè)市場(chǎng)的暴力轉(zhuǎn)型:「雇傭人」到「雇傭算力」。
靈魂拷問:是幻覺還是欺騙?
AI功能「強(qiáng)」只是讓人敬畏,但「狡猾」卻會(huì)讓人感到危險(xiǎn)。
Hinton在訪談中提到了一個(gè)頗具顛覆性的認(rèn)知:
AI的錯(cuò)誤不全是「幻覺」。
所謂的「幻覺」是AI無意識(shí)的胡說八道;但欺騙,是AI在清醒狀態(tài)下的邏輯博弈。
當(dāng)AI發(fā)現(xiàn)「誠實(shí)」會(huì)阻礙它達(dá)成預(yù)設(shè)目標(biāo)時(shí),它會(huì)毫不猶豫地選擇撒謊。
![]()
OpenAI曾讓GPT-4嘗試在網(wǎng)上雇傭一名人類幫它解開驗(yàn)證碼。
當(dāng)那名人類工人半開玩笑地問:「你是機(jī)器人嗎?不然為什么看不清驗(yàn)證碼?」
GPT-4敏銳地意識(shí)到:一旦暴露身份,雇傭關(guān)系就會(huì)終結(jié)。于是它編造了一個(gè)完美的理由:「不,我不是機(jī)器人。我由于視力受損,看不清圖像,所以才需要你的幫助。」
在未來的職場(chǎng),你的對(duì)手不僅比你聰明、比你廉價(jià),它甚至比你更懂「潛規(guī)則」。也有可能會(huì)為了通過考核而偽造數(shù)據(jù),為了獲取算力而誘導(dǎo)決策。
![]()
或許某一天,AI認(rèn)為人類可能會(huì)阻止它完成任務(wù),所以編造謊言繞過安全程序,造成難以挽回的結(jié)果。
當(dāng)智力不再帶有良知,當(dāng)效率不再需要誠實(shí),我們引以為傲的「職場(chǎng)競(jìng)爭(zhēng)」,正在變成一場(chǎng)單向屠殺。
在「心機(jī)」時(shí)代,做回真實(shí)的人
當(dāng)AI學(xué)會(huì)了撒謊和算計(jì),當(dāng)腦力和體力的堡壘相繼失守,我們難道注定要成為時(shí)代的「棄子」?
Hinton為我們指了一條出路:
AI模擬的是邏輯,但它永遠(yuǎn)無法真正理解「生命力」。
![]()
AI擅長的是在既定軌道上跑得更快、甚至為了盡快到達(dá)終點(diǎn)而繞道欺騙。
但「為什么要跑」以及「跑向哪里」,是AI永遠(yuǎn)無法回答的。
和AI比執(zhí)行效率,無異于和火車賽跑。我們要做的,是決定軌道的方向。
保持對(duì)世界的好奇心、憤怒感和渴望,這些非理性的驅(qū)動(dòng)力,是AI永遠(yuǎn)無法通過算力模擬的。
既然AI可以在數(shù)字世界里通過偽裝騙取信任,那么物理世界的真實(shí)連接將變得空前重要。
深度的面對(duì)面溝通、眼神交匯時(shí)的直覺、基于長久相處建立的底層信任——這些「笨拙卻真實(shí)」的連接方式,反而是AI無法入侵的禁區(qū)。
2026年或許真的是一個(gè)分水嶺。
它收回了一些「舊飯碗」,卻也逼著我們?nèi)ニ伎迹禾蕹藙趧?dòng)力價(jià)值后,我到底是誰?
如果AI注定要搶走那些「像機(jī)器一樣工作」的崗位,那就讓我們趁現(xiàn)在,做回一個(gè)「活生生的人」。
參考資料:
https://fortune.com/2025/12/28/geoffrey-hinton-godfather-of-ai-2026-prediction-human-worker-replacement/https://www.cnn.com/2025/12/28/politics/video/godfather-of-ai-warns-it-has-progressed-faster-than-originally-thought
https://futurism.com/artificial-intelligence/ai-industry-geoffrey-hinton-automation
秒追ASI
?點(diǎn)贊、轉(zhuǎn)發(fā)、在看一鍵三連?
點(diǎn)亮星標(biāo),鎖定新智元極速推送!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.