哈嘍,大家好,我是小方,今天,我們主要來看看,當AI真的開始深度嵌入各行各業后,我們普通人的工作坐標,到底應該定在哪里。
![]()
一份2025年底的行業調研,它說,未來十年,我們可能不會再爭論“哪個崗位會被AI取代”,而是會聚焦于“在AI的環繞下,人類必須扮演好哪幾種角色”,這話聽起來有點繞,但說白了,就是人和機器的分工要重新劃界了。
![]()
世界經濟論壇之前預估過,到2030年全球會有9200萬個崗位受到影響,但同時能新創造出1.7億個崗位,這可不是簡單的此消彼長,而是一次徹徹底底的角色大洗牌,從我干了18年數據分析的經驗來看,有五類角色的價值,不僅不會被稀釋,反而會越來越“吃香”。
![]()
![]()
AI是超級參謀,但唯一能結合“后臺信息”和“直覺風險”做出終局判斷的,還是人類決策者,你的價值,就在于在AI給出的浩瀚可能性中,找到那唯一可行的現實路徑。
![]()
你有沒有發現,有時候問AI一個問題,得到的答案牛頭不對馬嘴?問題可能不在AI,而在問題本身,一個模糊的指令,比如“幫我提高銷量”,AI可能會給你一堆從降價到鋪廣告的寬泛建議,但一個精準的數據分析師,會把這個模糊目標拆解成:“對比過去三年同期數據,分析第二季度復購率下降的主要原因,是產品問題、服務問題還是競爭對手有新動作?”看,當問題被精準定義,AI的分析才能有的放矢。
![]()
最近一個在智能駕駛公司工作的講,他們的算法團隊花在“定義問題”上的時間,已經超過了寫代碼的時間,比如,要優化自動駕駛在暴雨天的感知能力,他們不是直接讓AI“去看清”,而是會拆解成:雨滴在攝像頭上的成像干擾規律是什么?不同雨量下,激光雷達的信號衰減模型如何?先把這些邊界清晰的問題喂給AI,它才能高效學習,未來,提出一個“好問題”的能力,本身就是一種強大的競爭力。
![]()
AI很強,但它也會“一本正經地胡說八道”,行業里管這叫“幻覺”,比如,它可能根據有偏差的數據,生成一份顯示某個小眾產品突然爆火全國的報告。如果你不加核查直接采用,那就掉坑里了,所以,“看門人”這個角色至關重要。他們負責建立數據質量的檢查哨,給AI的輸出加上“人工質檢”的最后一關。
![]()
某大型內容平臺就分享過一個案例,他們的AI審核系統一度將某些正規的科普視頻誤判為違規,原因是這些視頻里提到了某些敏感科技術語,觸發了AI的過于寬泛的規則,正是后臺的“看門人”團隊,通過抽樣復查和人工復核,及時發現了這個系統性的誤判傾向,并調整了模型參數,避免了一次大規模的誤傷,只要當前AI的底層邏輯沒有根本性突破,這種“幻覺”就難以根除,因此,擁有領域專業知識、能一眼看出結果是否合理的“看門人”,就是讓AI安全、可靠服務于我們的關鍵保險栓。
![]()
AI能在數字世界里模擬、優化、推演,但把藍圖變成現實,需要實實在在的“手和腳”,比如,AI分析說,優化客服機器人某個對話流程,能提升客戶滿意度。
![]()
但這個新流程符不符合中國人的聊天習慣?測試時用戶有沒有出現新的困惑?這些都需要執行者去真實地撥打測試電話、收集用戶反饋,甚至觀察用戶的表情(如果是視頻客服)。
![]()
這是最根本、也是最無法被替代的一點,AI沒有情感,沒有價值觀,也無法承擔法律和道德責任。當一項由AI輔助做出的決策產生重大后果時,無論是正面還是負面,最終站在前臺承擔贊譽或責任的,只能是人。
![]()
比如,醫療AI輔助診斷系統建議了某種治療方案,采用與否的決定權和對患者生命的最終責任,在醫生肩上,金融風控AI給出了貸款拒絕的建議,但基于社會公平性等綜合因素做出 override的決定,并為此負責的,是風控主管,技術的發展必須有道德的護欄,而人類,就是那個最終的護欄設置者和責任承擔者,我們的同理心、倫理判斷和社會責任感,是確保技術向善的根本。
![]()
未來的關鍵,或許不在于和AI比誰算得快、誰記得多,而在于我們能否更好地扮演好決策者、提問者、看門人、執行者和責任人這五種角色。
![]()
這要求我們更懂業務、更懂人性、也更懂如何與機器協作,把自己的坐標定在這些位置上,我們就能和AI一起,創造出更大的價值。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.