![]()
新智元報道
編輯:傾傾
【新智元導讀】最積極推動AI落地的那批人,正在把自己的腦子拱手相讓!調(diào)查顯示,62%的高管用AI做大多數(shù)決策,70%的人一旦與AI意見相左,就開始懷疑自己判斷。推動AI最猛的人,反而是第一批被AI接管的人。
三年前,英國高管們沒有足夠數(shù)據(jù),不得不靠直覺做決策。
現(xiàn)在有了AI,情況變了——但不是變好了,而是變得更復雜。
Confluent委托3Gem的報告,訪問了200位英國私營企業(yè)主、創(chuàng)始人、CEO及C級高管,試圖回答:AI進入董事會之后,高管決策到底發(fā)生了什么變化。
![]()
數(shù)字令人不安。
92%的受訪高管說,過去三年里高層決策速度明顯加快。
而去年同類調(diào)查中,這個比例是83%,60%的人感覺可用于決策的時間比12個月前更少了。
![]()
速度在加快,時間在壓縮。在這個背景下,AI的出現(xiàn)給了高管們一個「出口」。
連招人開人,都開始問AI了
Confluent報告顯示,62%的高管現(xiàn)在用AI輔助做大多數(shù)決策,只有18%的人表示完全不用AI。
這個比例本身不算意外,真正值得關(guān)注的是AI滲透的深度。
79%的高管表示信任AI來支持復雜決策,27%的人已經(jīng)在用AI處理招聘與裁員這類人事決定。
![]()
一位創(chuàng)始人把員工去留的判斷交給算法,這件事放在五年前,大概會被當成科幻小說里的情節(jié)。
從高管們的反饋來看,AI確實有效。
88%的人說AI幫他們做決策更快了,83%的人表示有AI背書時壓力更小。
這兩個數(shù)字說明AI提供的不只是效率,還有一種心理上的確定感——在高度不確定的決策環(huán)境里,這是稀缺資源。
速度快、壓力小。從個體感受來看,這是一筆劃算的交換。
但報告里還有另一組數(shù)字:65%的高管認為,AI的介入讓決策變得不再那么協(xié)作。
過去需要和團隊反復討論的事情,現(xiàn)在越來越多地被交給了一個算法處理。
少了爭論,但也少了人氣,少了那些只有在討論中才會浮現(xiàn)的異見和盲點。
更微妙的是46%這個數(shù)字。將近一半的高管,現(xiàn)在對AI意見的依賴程度已經(jīng)超過了自己同事的建議。
一個高管團隊里,人與人之間的信任和協(xié)作關(guān)系正在被一個語言模型默默取代。
越依賴AI,越不信自己
70%的高管承認:如果自己的判斷和AI的建議產(chǎn)生沖突,他們會開始懷疑自己。
![]()
這些人是怎么走到今天這一步的?
他們靠自己的判斷力和決策能力爬到了英國私營企業(yè)的頂端,他們不缺自信。但面對一個算法給出的答案,七成人會動搖。
Futurism的報道用了一個相當準確的詞:outsourcing their thinking,把思考外包出去。
這個現(xiàn)象并非高管獨有。2025年,卡內(nèi)基梅隆大學與微軟聯(lián)合開展的一項研究發(fā)現(xiàn),越信任AI系統(tǒng)準確性的知識工作者,批判性思維能力越弱。
其中的邏輯并不復雜。當一個人確信某件事已經(jīng)被處理好了,他就會自然地退后一步,把主動權(quán)讓出去。
就像駕駛輔助系統(tǒng)足夠好用之后,很多司機開始不那么專注方向盤一樣。
更值得關(guān)注的是這種依賴的速度。高管們不是在某個特定決策上依賴AI,而是在大多數(shù)決策上依賴AI。
62%這個比例覆蓋的是日常決策的常態(tài),而不是偶發(fā)情況。
長期處于這種模式下,判斷力和AI之間的分工會逐漸固化——AI負責給出答案,人負責接受或拒絕。
但拒絕的次數(shù)越來越少,因為有70%的人一旦與AI意見相左,就會先懷疑自己。
![]()
丹麥精神科醫(yī)生S?ren Dinesen ?stergaard今年早些時候發(fā)出警告:
學術(shù)研究者如果長期把工作外包給AI,會積累一種「認知債務」(cognitive debt)——能力沒有被鍛煉,判斷力沒有被校準,時間久了,自主思考的肌肉開始萎縮。
這個描述放在每天面對數(shù)十項高風險決策的企業(yè)高管身上,分量只會更重。
一個普通員工判斷失準,影響有限;一個CEO的決策框架被AI悄悄重塑,影響的是整個組織的方向。
71%的數(shù)據(jù),到手時已經(jīng)過時
事實上,高管們也知道快決策有風險。75%的人承認曾經(jīng)后悔因為行動太快而犯下錯誤,71%的人則后悔過等待太久、錯過了機會。
快了悔,慢了也悔,左右為難。
![]()
面對這個兩難局面的根源,報告指向了一個更基礎的問題:數(shù)據(jù)質(zhì)量。
60%的高管說,在他們的層級上,數(shù)據(jù)太難獲取;71%的人表示,數(shù)據(jù)送到他們手里的時候已經(jīng)過時了;62%的人說根本沒有足夠時間在決策前分析完所有數(shù)據(jù)。
63%的高管認為自己沒有足夠的實時數(shù)據(jù)訪問權(quán)限。
信息在組織內(nèi)部流動需要時間,到了最頂端往往已經(jīng)是昨天的快照,而市場在今天已經(jīng)變了。
這就解釋了為什么AI的介入如此順理成章。當實時、準確的數(shù)據(jù)無法及時到達,AI至少給了一個「有根據(jù)」的答案。
哪怕這個答案是基于歷史數(shù)據(jù)訓練出來的,無法真正預判那些前所未有的情形。
報告對這一點的表述相當直白:
AI有它的盲區(qū),它依賴已經(jīng)發(fā)生的事,無法充分預判前所未有的、不可預測的、或者純粹屬于人類的東西。
于是形成了一個奇怪的閉環(huán):數(shù)據(jù)不夠好→高管靠直覺或AI→AI也依賴歷史數(shù)據(jù)→決策質(zhì)量依然存疑→89%的人希望有更多決策能基于數(shù)據(jù)→但數(shù)據(jù)還是來不及。
91%的高管表示,如果能獲取實時數(shù)據(jù),他們會對自己的決策更有信心。
信心的缺口是真實存在的,只是目前很多人選擇用AI來填補它,而不是用更好的數(shù)據(jù)。
兩者看起來都能解決「不確定感」,但解決的方式截然不同——一個是給你更多信息,另一個是幫你繞過信息不足的焦慮。
布道者,也沒能幸免
正是那些最積極向公眾和員工推銷AI的人,正在悄悄把自己的認知勞動外包給AI聊天機器人。
如果決策者本身的判斷框架正在被AI重塑,那他們對「AI應該用在哪里、用到什么程度」的判斷,本身是否也受到了影響?誰來審視那個審視者?
去年的一項調(diào)查發(fā)現(xiàn),64%的商業(yè)領(lǐng)袖曾向AI咨詢過關(guān)于裁員的建議。
今年這份報告里,27%的高管已經(jīng)在實際使用AI來處理招聘與解雇。方向很明確,速度也在加快。
88%的高管說AI確實讓決策更快了,這是真實的。
更關(guān)鍵的是,隨著AI的位置從「參考」變成「主導」,人的判斷力在這個過程扮演什么角色?
![]()
去年,卡內(nèi)基梅隆和微軟的研究給出了一個不太樂觀的答案——當人們高度信任AI的準確性,他們的批判性思維參與度會隨之下降。
這不是認知懶惰,而是人類面對可信系統(tǒng)時的自然反應。節(jié)省認知資源,專注其他事情。
問題在于,「其他事情」是什么?
如果日常決策越來越多地被AI處理,高管們把省下來的認知資源用在了哪里?
這是目前沒有數(shù)據(jù)回答的問題。
有一個細節(jié)值得注意:報告里把這種現(xiàn)象描述為「lonely leaders」,孤獨的領(lǐng)導者。
46%的高管更依賴AI而非同事,65%認為決策變得不再協(xié)作。
AI在提供答案的同時,異見、摩擦、校準,以及在爭論中形成的判斷也在悄悄消解。
如果一個決定最終被證明是錯的,是CEO的責任,還是算法的責任?
這個問題,目前沒有人給出清晰的答案。
但70%的高管已經(jīng)在用自我懷疑來回答它,只不過方向反了——
他們懷疑的是自己,而不是AI。
參考資料:
https://futurism.com/artificial-intelligence/ai-executive-thinking-surveyhttps://www.confluent.io/resources/report/quick-thinking-2026/
https://assets.confluent.io/m/74bc33b703672454/original/Quick-Thinking-Report.pdf
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.