文/陳根
在2026年的AI話語體系中,主流敘事已經高度固化,幾乎形成了一種默認共識:算力決定基礎設施上限,模型架構決定智能邊界,數據質量決定能力深度。這套“三位一體”的技術框架看上去邏輯嚴密、論證充分,但它系統性地忽略了一個真正決定成敗的隱形變量——組織是否具備真正的適應能力。
作為全球第一本關于ChatGPT一書的作者,一名長期在前沿科技與前沿醫學領域的觀察者,我在2025年的親身實踐中發現,AI能力的指數級躍升(如從GPT-4到Claude 4.5的迭代)與組織的線性響應形成鮮明不對稱。
技術,已經不是主要瓶頸。真正制約AI潛力的,是一個更深層的組織學命題:AI并非受限于“能做什么”,而是受制于“組織敢不敢讓它做”。
“30%”這個數字,真正暴露了什么?
這個判斷,源于一個在技術團隊中極為常見、卻很少被認真反思的數字——AI 生成代碼占比約 30%。這在行業中不算落后,甚至可視為進步。
但如果把它放入更寬廣的組織心理學視角,就會發現,它并不是技術能力的自然結果,而更像是一種人為設定的安全上限。這里反映的,其實是典型的“現狀偏差”:人類傾向于維持既有分工邊界,即便技術已經具備顛覆條件。
哈佛大學行為經濟學家卡尼曼的“損失厭惡”理論在此尤為貼切:組織往往更害怕“放手 AI”帶來的短期風險,比如錯誤被放大、職責邊界模糊、角色價值被挑戰,而不是去計算長期的系統性收益。這并不是效率問題,而是一種決策惰性,反映出工業時代遺留的路徑依賴如何鉗制AI時代轉型。
從系統論的角度看,組織本身是一個閉環系統。AI 作為強烈的外部擾動,如果沒有同步觸發內部反饋機制的變化——尤其是分工方式和決策結構的變化——系統就會自動回到一個“低效但穩定”的狀態。
于是,AI 被人為限制在一個看似安全、實則低效的區間內。這背后,其實是典型的“范式鎖定”。就像庫恩所說的“正常科學”,工業分工范式已經內化為組織的默認前提。AI 在技術層面挑戰了這些前提,但在制度和認知層面,卻被不斷邊緣化。結果就出現了一種悖論:技術越先進,組織反而越保守。
從制度經濟學的“制度變遷”視角,這種鎖定源于“交易成本”過高:變革需重塑契約與規范,短期內放大不確定性,導致組織偏好漸進式而非顛覆式適應。從哲學層面,這回響了海德格爾的“此在”概念:組織作為“在世存在”,沉淪于“常人”的平均狀態,畏懼“向死而生”的本真躍遷,寧愿固守熟悉的“現成性”,而非擁抱AI帶來的可能性。
于是就來到了第一個探討的問題,決策邊界的“隱形壁壘”——從30%到近100%的實踐啟示與“能力閾值悖論”的思考。
![]()
決策邊界,才是真正的隱形壁壘
當我在2025年初調研多支技術團隊時,幾乎都得到了同樣的答案:AI 完成代碼比例約 30%。這個數字本身“合理”,卻掩蓋了一個更重要的問題——為什么不是 70%,不是 90%?如果模型已經具備獨立生成復雜邏輯的能力,那么 30% 并不是技術極限,而是人為邊界。
為了驗證這一點,我和研究小組刻意搭建了一個極簡團隊,從零開始構建產品。在短短兩三周內,首版產品便可以穩定運行。回溯整個過程,代碼幾乎完全由 AI 生成。真正的變化,并不來自模型升級,而來自一個決定:移除人為分工的藩籬,最大程度信任 AI。
在傳統項目管理中,需求、開發、測試層層拆解,協作成本隨著角色增加而指數上升。但在 AI 原生流程中,我們把 AI 視為“整體生成器”:輸入問題框架,輸出可運行模塊,人類只在關鍵節點進行判斷與修正。
這一實驗揭示了“能力閾值悖論”:AI可將執行從0拉升至85分(高效但非完美),但從85到100分的躍遷,需要人類注入“價值定義”——何為卓越?如何權衡風險?
也就是說,從 85 到 100 分,恰恰是 AI 無法替代的部分——價值判斷、目標選擇、責任承擔。換言之,AI 放大了執行杠桿,同時也放大了對領導力的要求。在這個過程中,真正稀缺的資源,已經不再是編碼能力,而是問題如何被定義、結果由誰負責。
從行為經濟學角度,這涉及“錨定效應”(Anchoring Bias),即,組織往往錨定于“人類主導”的歷史規范,導致決策邊界固化。若組織固守“人必須主導”的心理壁壘,AI潛力將被人為壓縮至“安全區”,錯失指數級回報。
這就給我們帶來了一個更深層思考,也就是“代理問題”(Agency Theory)其在AI時代的變異——代理人(員工)傾向于保護自身角色,而委托人(領導)需重塑激勵機制,以打破“道德風險”循環。
進一步,從認知心理學(Amos Tversky的框架理論)看,這種悖論源于“框架效應”:將AI視為“輔助工具”而非“核心伙伴”,會系統性低估其潛力,導致“閾值鎖定”。未來,若不解決這一悖論,AI將加劇“技能極化”,就會演變為低階執行者邊緣化,高階定義者主導,形成新型組織階層。
這還隱含社會公平隱憂,導致轉型成本高企,弱勢群體易陷“技能陷阱”,放大不平等。從哲學視角,這呼應了薩特的存在主義:組織面臨“自由的焦慮”(Angst of Freedom),必須選擇“壞信仰”(Bad Faith)——假裝AI僅是工具,以逃避責任——還是擁抱“本真性”(Authenticity),通過大膽決策重塑自我。
![]()
工業分工的“協作陷阱”,正在吞噬 AI 紅利
工業時代的分工邏輯,源于泰勒制:角色碎片化、流程串聯、局部最優。但在高度不確定的環境中,這種結構會迅速陷入“協作摩擦”。每個人都在優化自己的部分,卻犧牲了整體效率。
從系統論視角,這種高耦合度(Tight Coupling)同時也正在放大風險。尤其是其中的單一節點故障(如溝通延誤)可級聯擴散,導致整體癱瘓。如果更進一步思考,我們就會發現Charles Perrow的“正常事故理論”在此適用——工業分工如“復雜互動系統”,AI擾動易引發不可預測連鎖失效。
反觀AI原生協作,更似“3D打印”:整體成型,邊界模糊。組織主軸從崗位分類轉向雙元互動——一元聚焦“問題理解、定義價值、結果交付”;另一元強調“經驗固化、可復用系統構建”。在代碼的生成場景中,團隊對AI評分從50分升至85分,便源于此,也就是AI處理標準化邏輯,人類介入抽象創新。
這一范式遷移并非零和博弈,而是“互補放大”。麥肯錫2025年報告顯示,AI嵌入工作流的企業,生產率提升25%以上,但前提是重構分工。否則,協作陷阱將吞噬AI紅利。
比如多角色會議紀要,這本可由AI一鍵生成,根本不需要人為記錄,卻因對AI的不信任,所謂的“邊界保護”而拖沓。這就讓我們看到,AI并不是取代人,而是重塑角色生態,提升效率。對于當前的組織而言,扮演著協調型中層的角色,將面臨邊緣化,而戰略型領導者更顯稀缺。這挑戰了傳統層級結構,預示“扁平化+責任擴散”將會是未來的組織形態。
從變革管理理論(John Kotter的八步模型)看,這促使我們從“緊迫感建立”入手,面對AI引發的實實在在的組織變革的挑戰。
可以從AI實驗入手,比如在組織內建立最小團隊項目,便是嘗試,并推動成為組織變革的催化劑,幫助組織跨越“變革谷底”。對于傳統組織而言,面對AI的挑戰,最大的隱憂在于,若耦合度未降,AI將放大“熵增”(系統無序),導致創新停滯,釀成“技術-組織失配”的結構性危機。
更進一步,從動態能力理論(David Teece)看,AI時代組織需培養“感知-抓住-轉型”的動態能力。也就是要具備,感知AI潛力,抓住重構機會,轉型為“學習型系統”。
否則,路徑依賴將演變為“能力陷阱”,鎖定于低效均衡。從哲學維度,這呼應了馬克思的“異化”理論:工業分工導致勞動者與勞動產品的疏離,AI原生模式則提供“去異化”潛力——通過整體生成,恢復人類對價值的掌控;但若固守舊范式,則異化加劇,人類淪為AI的“附屬”。
![]()
AI最終的瓶頸,其實在與人
我們必須要明白一個嚴肅的問題,那就是AI轉型的核心,非過去的信息化,或者IT升級與技能培訓,也不是簡單的效率提升,而是范式重塑。基于我在2025年的一些嘗試、觀察與思考,我想給大家提供以下幾點思考:
1、管理會轉型“AI推動會”:傳統會議聚焦KPI的評價與批評,我們可以定義為工業式“鞭策”。借助于AI,當我幫助一些企業開始轉向雙周AI會,強制聚焦業務價值(如客戶創新、新品研發)時。結果是新品周期從季度壓縮至月度。心理學上,這利用“錨定效應”——AI作為“中性錨點”,繞開變革阻力,轉化為共識工具。管理者從“監督者”變“杠桿使用者”,這就揭示出了AI的隱形價值。即AI并非單純的技術,而是催化組織活力催化劑。從資源依賴理論(Resource Dependence Theory)看,這減少外部依賴(跨部門協調),增強內部創新與韌性。同時,這也帶給了我們新的思考,就是AI的引入,本質上是體現了“社會構建主義”(Berger & Luckmann)。
也就是說,AI共識通過實踐重構“現實”,從工具演變為文化規范。從福柯的“權力-知識”理論看,這重塑的是組織的權力動態,即AI會作為“話語實踐”,顛覆層級權力,賦權于價值定義者。
2、培訓推動組織轉型:針對非技術人員,組織成員,引入培訓,比如對Cursor、Lovable、Dify、Claude等工具的使用培訓,來提升AI在工作中的使用深度。其實這種AI工具的培訓,不僅是技能傳授,更是“意愿篩查”。通過這種AI工具的培訓,愿意接受變革的主動學習者脫穎而出,成為潛在領導。
從組織行為學視角來看,這借鑒了“自我效能理論”(Bandura)。即借助于新的知識培訓,提升個體自信,從而放大集體適應。并從中篩出“變革先鋒”,避免全員強推的阻力反彈。
更深層的含義,就在于這隱含“社會資本理論”(Putnam)。培訓不止技能,而是構建“信任網絡”,緩解AI引入的“角色焦慮”。這就類似于“選擇性激勵”機制(Olson的集體行動邏輯),通過培訓,以及讓組織成員掌握這種新的工具,激勵個體參與變革。從德里達的“解構”哲學看,培訓解構“技術-人類”二元對立,揭示AI作為“補充”(Supplement),既取代又增強人類能力。
3、Non-Tech黑客松:比如,非技術組(如銷售+市場)用AI將300-600份PRD濃縮為一頁客戶語言,并在幾十秒內就完成的時候。所帶來的益處是顯而易見的,不僅快速的消除了翻譯層,還讓這種成果轉變為獲客“子彈”,是一種接近于零人力負擔的高效成果。
在系統論上,這減少“耦合度”——從高依賴轉向低摩擦閉環。黑客松不僅是創新,而是“剩余價值釋放”。AI最小化交付單元(如從數月項目縮至周級),解放人力用于更高階的創造。從創新擴散理論(Everett Rogers)看,這如“早期采用者”機制,即黑客松傳播AI規范,加速組織級擴散。進一步,從知識管理理論(Nonaka的SECI模型)看,這促進“隱性知識顯性化”。當AI濃縮PRD,將個體洞察轉化為可簡單、高效的復用資產。這種“超人”能力,就超越了當前的工業規范,擁抱的力量驅動AI,釋放創造潛力。
這些實踐都讓我們看到,AI加速最小閉環,形成“高內聚、低耦合”生態。協調成本下降,中層“尷尬癥”凸顯——他們需轉型為“AI賦能者”,否則被邊緣。領導力則獲得了升華,從“分配任務”到“定義邊界與負責”。
放眼全球,類似瓶頸普遍:OpenAI 2025年調研顯示,Fortune 500企業AI利用率平均35%,遠低于技術潛力。原因在于“路徑依賴”與“文化慣性”——發達國家如美歐,易陷“精英保守”;新興市場如中國,則需平衡速度與風險。從制度經濟學(Douglass North)看,這源于“制度粘性”。
也就是舊規范如“隱形契約”,阻礙新范式嵌入。但更深層次的思考,Acemoglu & Robinson的“包容性制度”理論在此適用——AI紅利依賴制度包容性。比如更加包容的國家(如硅谷生態)加速轉型,提取國家(如官僚體系)則放大鎖定。
從列維納斯的“他者倫理”看,全球分化隱含道德危機,AI若僅惠及強勢者,便忽略“他者”臉龐,釀成倫理異化,這也是目前正在發生的情況,AI將加速全球競爭力分化。
而這種分化的加速過程中,必然伴隨新的機遇。AI可作為“變革共識”起點,推動長期滯后的組織優化。麥肯錫預測,到2030年,適應AI的企業增長率將高出3倍。但隱憂是“兩極分化”:小企業敏捷轉型,大企業官僚拖累;發達國放大領先,新興國放大鴻溝。
這可能引發“馬太效應”——AI紅利集中于已強者,加劇全球不平等。從社會資本理論看,這破壞“橋接資本”(跨國網絡),放大地緣斷層。
因此,從政府層面來看,政府應推動“AI組織評估框架”,如歐盟AI法案擴展,評估企業適應度,提供轉型補貼。企業內部,則需“責任文化”重塑,激勵定義“100分”的勇氣,而非固守85分的舒適區。從可持續發展視角,這要求AI轉型融入ESG框架,以確保公平,避免“數字鴻溝”演變為社會斷層。而進一步,從全球治理理論(Keohane的制度主義)看,需國際框架(如聯合國AI公約)協調制度嵌入,防范AI成“地緣武器”。
AI瓶頸已非技術:算力充裕、模型成熟、數據海量。真正桎梏,是組織“勇氣閾值”——敢不敢移除邊界、重新設計分工?AI從0到85分易如反掌,但從85到100,需要人類回答:何為價值?為何值得?誰來負責?
這一命題不止于企業,而是人性鏡像:技術落地難在工具,重塑難在自我。從存在主義哲學(Jean-Paul Sartre的“自由與責任”)看,AI時代迫使我們直面“選擇的焦慮”——拒絕變革,便是自縛于工業遺影。更深層次的思考,則在于尼采的“權力意志”在此回響——AI放大人類意志,但需超越“奴隸道德”(保守規范),擁抱“主人道德”(大膽定義)。
2026年,AI時代已至;但唯有跨越心理壁壘,組織才能從“30%天花板”躍向無限可能。否則,再強的AI,也僅是工業遺物的裝飾。最終,瓶頸在人,而解鎖亦在人——這不僅是管理學命題,更是人類適應力的終極考驗,呼應海德格爾的“此在”(Dasein):在技術時代,我們必須“向死而生”,主動重塑存在以面對不確定性。從柏拉圖的“洞穴寓言”看,AI如陽光,照亮范式牢籠;但唯有哲人般的勇氣,方能走出陰影,擁抱真實。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.