![]()
當AI客服為你省下等待時間,算法推薦比你自己還懂你的喜好,AIGC讓內容生產變得唾手可得……我們似乎正步入一個由AI定義效率的黃金時代。
然而,一個更現實的問題也浮出水面:為什么許多企業在重金投入AI后,真正產生的價值卻遠不及預期?我們是否在不經意間,將本該屬于自己的、更重要的東西,比如判斷與責任也一并“外包”了出去?
![]()
人們常常混淆兩個概念:預測和判斷。AI真正擅長的是前者,而后者,必須由人類自己完成。AI可以基于海量數據,告訴你一個事件發生的概率,這是“預測”。但當你拿到這個概率后,要做出什么決策、愿意承擔何種后果,這是“判斷”。許多企業犯的錯誤,就是把本該自己做主的“判斷”也外包給了AI。
為什么?因為“預測”聽起來很科學,一個“10%的風險概率”能給人帶來一種理性的安慰感。但在這背后,可能隱藏著一種“免責”的心態:出了問題,可以追溯到“算法說的”。然而,真正的決策責任,永遠無法被代碼所承載。
![]()
理論或許抽象,但案例觸目驚心。2022年,多倫多市引入了一套AI系統,用于預測公共湖灘的水質,以決定是否開放游泳,避免游客因細菌超標而健康受損。系統聲稱預測準確率高達90%。然而現實是,在水質不達標的64%的時間里,海灘依然對公眾開放。
這套系統表面上是科學預測,實則成為市政府轉移責任的工具。它將一個復雜的社會問題——涉及社會容忍度、政治責任、公眾預期——簡化成了一個可量化的KPI。當預測模型替代了公共管理者的判斷,決策就變得“去人格化”了:報還是不報?閾值設在哪里?這些本應由人類權衡的難題,被悄悄塞給了算法。
![]()
企業為何如此熱衷于用AI做判斷?驅動力無非是幾個詞:效率、可復制、可量化,以及最關鍵的是可免責。以HR招聘為例。很多公司用AI模型篩選簡歷,因為這樣看起來客觀、高效、現代,一旦出錯,甚至可以追溯到算法。但這種“去人格化”的決策,也讓人類失去了一種最珍貴的品質“猶豫”。
這里的“猶豫”并非優柔寡斷,而是一種深思熟慮的反思。AI看到數據就會立刻執行指令,比如在量化交易中,所有模型在市場大跌時都會齊刷刷發出“賣出”信號。但如果所有人都照此操作,局部的理性將演變為整體的非理性,引發災難。這時,就需要一個擁有宏觀視野、能“猶豫”一下的人站出來,暫時按下暫停鍵。
在彭博《商業周刊》出品的播客「總之」中,主理人Freda 與《AI萬金油》一書的譯者、金融行業資深專家王勇博士對談,他們沒有談論AI的強大,而是以一個冷靜的觀察者視角,為我們劃清了AI的能力邊界,并揭示了在AI浪潮中,企業最易陷入的誤區,以及人類必須堅守的陣地。
![]()
![]()
在這個信息超載的時代,我們更需要的是清醒的思考,不追逐熱點,不隨波逐流。我們帶你預見未來趨勢,找到新的方向。
Lead,don’t follow,領先,不跟隨。
我們邀請各領域的思考者一起,穿透迷霧,把握本質,做出你自己的獨立判斷。
這里是彭博《商業周刊》【總之】。
![]()
主理人/王芳Freda
曾任捷豹路虎中國及奇瑞捷豹路虎聯合市場銷售與服務機構市場部執行副總裁、阿斯頓·馬丁中國區總裁、奔馳中國市場營銷總監。
【第二十三期】現已上線,歡迎收聽!
節目主播 / Freda
節目嘉賓 / 《AI萬金油》一書的譯者、金融行業資深專家王勇博士
收聽平臺 / 喜馬拉雅、小宇宙、Apple播客、Spotify
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.