當AI工具進入團隊,承諾的高效背后可能隱藏著協作危機。AI的“自信”錯誤不僅浪費資源,更會悄然瓦解成員間的信任,讓團隊陷入自我懷疑。問題的根源并非技術本身,而是我們錯誤地將團隊融合挑戰當成了技術問題。領導者需要運用人際協作智慧,為團隊構建能與AI健康共處的新規則。
![]()
你的團隊中可能正在發生一些令人不安的變化:盡管引入了AI工具以期提升效率,整體團隊績效卻不升反降。成員開始陷入自我懷疑,信任正以難以察覺的方式流失。
試想這個場景:市場團隊使用生成式AI分析營銷活動表現,AI基于看似可靠的數據分析自信地建議重新分配預算。結果因其對客戶分群的根本性誤讀,導致活動失敗、預算浪費。此時團隊成員不僅質疑AI的未來建議,甚至開始懷疑自己評估建議的能力。
隨著AI被快速整合到組織的工作流程中,領導者逐漸意識到,其帶來的挑戰不僅停留于技術層面,更深遠地影響著團隊的協作動態。那些以提高效率為承諾的AI工具,反而可能引發一系列可預見的團隊功能障礙——正如經典的“工作垃圾”現象:AI生成的產出無法推動項目進展,反而讓同事承擔額外的認知與情感勞動來修正重做。這不僅損害效率,更侵蝕同事間的信任。
問題的關鍵在于:多數領導者未將這些視為團隊融合挑戰,而是當作可通過工具升級或技能培訓解決的技術問題,忽略了這本質上需要運用人際協作原則來解決的團隊效能議題。
在我們的工作中發現,理解人機協作動態不僅關乎組織理論與實踐,更直接關系到預防重大失誤和維護團隊信任。
信任崩塌之處
信任對團隊效能至關重要,而AI正在改變這種動態。當AI提供自信但錯誤的信息時,就會產生“信任模糊性”——人們認為應當信任AI,卻缺乏實際信任感,且這種不信任往往難以言說。處于信任模糊狀態時,成員不僅對AI輸出失去信心,甚至開始質疑自身判斷力。研究表明,長期使用AI會削弱專業人士挑戰AI建議的信心,即使他們具備相關專業知識。這種模糊性直接威脅到團隊學習與績效的基石——心理安全感,因為它抑制了人們發聲的意愿。
再設想另一個場景:AI基于專利分析自信地推薦某項“突破性”可持續技術,卻誤將過期專利視為活躍創新,導致團隊圍繞過時技術展開投資討論。
這不僅是準確性問題,更是AI失誤在團隊中引發的連鎖反應——與人類犯錯的影響機制截然不同。當人類同事出錯時,團隊常通過集體意義建構來更新心智模型,理解彼此的認知邊界。
人們可以追問(“你參考了哪些數據?”“你的推理邏輯是什么?”)、理解情境(“你當時在趕截止日期”)、協作預防(“我們增加復核環節吧”)。這種相互學習與責任探究的過程,反而可能強化團隊凝聚力與學習能力。
生成式AI的失誤卻可能中斷這種團隊學習進程。當AI自信地給出建議時,團隊因“黑箱”特性無法進行協作式意義建構。這種不透明性使成員難以校準對AI的信任度,也難對其輸出建立信心。團隊可能因信任AI而簡化常規檢查與討論,導致錯誤決策。他們無法質疑AI的前提假設、檢驗其方法論或理解推理鏈條,從而產生歸因不確定性——團隊知道問題源于AI輸出,卻無明確路徑理解原因、降低不確定性或預防重演。
這種不確定性持續積累,最終形成信任模糊性。團隊開始質疑其他AI輸出(“既然這個錯了,還有什么是錯的?”),甚至懷疑自身判斷(“我們是否過度信任AI?或過度懷疑?如何校準?”)。與可通過團隊討論消化吸收的人類錯誤不同,AI錯誤會引發不斷擴散的懷疑循環,且沒有明確的解決路徑。
協作失調之處
最新研究表明,AI團隊成員可能通過破壞團隊動態對關鍵協作流程產生負面影響。例如某項研究發現,含AI成員的團隊因人類成員努力程度下降而出現更多協作問題,導致整體表現降低。
這揭示了一個普遍挑戰:團隊中AI的存在可能損害溝通協調等重要集體流程,同時影響努力程度與責任歸屬,導致成員間互動效能下降。
這與組織行為學已知結論一致:高效團隊協作需要流暢、自適應的配合,這建立在成員相互預判需求與行為的基礎上。AI以微妙卻顯著的方式干擾這一過程,影響信任建立與決策制定。與人類成員不同,AI無法捕捉情境線索、不會根據團隊動態調整溝通方式、也不能通過非正式關系建立有效連接。AI也不會為錯誤承擔后果。與按不同規則運作的“成員”協作,可能產生持續累積的隱性成本。
更值得注意的是,由于AI被視為擁有近乎無限信息的技術,人類成員可能對其能力過度自信,從而產生認知卸載。這導致成員放松責任意識與批判性參與,形成“人機監督悖論”。
![]()
將心理安全原則應用于AI整合
解決方案不是放棄AI或接受這些缺陷,而是將已驗證的組織行為原則應用于AI整合與相關變革管理。這需要將AI整合本質上視為團隊學習挑戰,而不僅是技術實施問題。具體方法如下:
1.重構認知:將AI整合視為學習過程而非執行過程
正如將工作定位為學習任務(而非單純執行)能建立心理安全感,成功的AI整合同樣需要將技術部署視為持續的實驗與動態學習過程。領導者應清晰傳遞這樣的理念:團隊必然會發現AI的局限性——這在任何新領域都并非失敗,而是寶貴的情報來源。早期AI的“誤判”,恰恰應成為團隊校準期望、優化協作機制的學習契機。
領導者不應只問“AI運行良好嗎?”,更應詢問成員:“與AI協作如何影響你們的合作方式?”“你們在何時信任AI、何時依靠人類判斷方面有何發現?”通過表彰發現AI錯誤的成員(而非盲目接受AI輸出者),將質疑AI塑造為良好判斷力的標志而非抗拒創新。
在3M研發部門開發生成式AI應用案例時,團隊沒有在推出工具后強制推行,而是邀請志愿者參與早期試點。此舉明確傳遞出團隊處于學習模式而非部署模式的信號。志愿者與組織都清楚,他們是在幫助理解如何有效應用,而非評估一個既定成品。團隊特別展示根據用戶反饋進行的改進,彰顯學習型思維。此外,他們不僅討論節省時間或自動化任務,更通過反饋與實證激發他人信心。
2.示范容錯精神與探索意識
領導者建立心理安全的方式之一,是承認自身可能犯錯。在AI語境下,這意味著公開承認不理解AI輸出或對其存疑。領導者應鼓勵負責任地使用AI,分享自己的AI失誤與心得,表明質疑AI不僅可接受更是被期待的。同時,他們應示范對AI工作原理及未來發展的好奇心,從而更好理解其局限、更充分發揮其優勢。可建立定期“AI行動后復盤”等學習機制,讓團隊討論成敗得失及原因。
在3M,團隊經常通過內部渠道分享新發現、意外洞見與遇到的AI局限。這種重構旨在改變技術社群對該工作的認知,讓他們清晰看到工具開發團隊正在與他們共同積極學習。許多分享都著眼于破除AI黑箱迷思——隨著更多技術人員理解AI是基于模式匹配而非“思考”,他們對AI局限性的好奇(而非盲目信任或完全排斥)日益增強。團隊還舉辦多次活動示范對AI的好奇探索,而非單純論證其使用合理性。
3.構建智能容錯機制
借鑒艾米《恰到好處的失敗》中的核心理念,團隊需明確區分不同類型的AI失誤。所謂“探索性失誤”——即在全新領域測試AI能力,或以可控方式謹慎探索其能力邊界(風險較低時)——應被視作珍貴的學習契機予以鼓勵。而“基礎性失誤”,如在已知存在局限的領域未對AI輸出進行驗證,則需通過流程優化加以系統性防范。
因此3M最初讓1-3位技術專家測試工具,并要求報告所有發現的問題。專家識別問題后廣泛分享,并具體說明采取了哪些改進措施——建立可見的“失敗-改進”循環。團隊還分階段謹慎擴展:先由小型專家團隊聚焦測試,再通過志愿者擴大試點與本地部署,隨后制定區域及全球推廣計劃,建立多重檢查點以捕捉失敗并從中學習。
4.強化人際連接
或許最關鍵的是,成功的AI整合需要有意識地維護人際連接。隨著AI處理更多常規任務,留存的人類工作將變得更復雜、更需相互依賴。這使得心理安全感愈發重要而非減弱。領導者需要為團隊成員開辟專屬的討論空間——讓純粹的、不依賴AI的人類智慧,得以充分探討團隊協作動態與AI整合過程中遇到的核心挑戰。他們需要識別并討論成員對AI取代人類價值的擔憂,強調AI如何增強而非削弱人類專業能力。
此外,將AI擬人化以增強信任可能產生反效果,造成對其能力的不切實際期望。當前AI系統尚不具備真正的智能,其本質是提供一種可輔助和增強人類能力的“程序化執行力”。然而調查顯示,大多數人仍傾向于將AI視為能夠獨立解決問題的工具。
領導者還應建立覆蓋機制,確保成員能輕松否決AI建議而無需過度辯解。有時人類直覺能捕捉AI分析遺漏的關鍵信息。
賦能團隊蓬勃發展
信任是人機協作不可或缺的要素。團隊必須在人人都能質疑AI表現的環境中運作。成員應能坦然承認對AI建議的困惑、報告AI錯誤、建議改進人機工作流程、表達對AI取代人類判斷的憂慮。領導者必須充分認識并應對AI干擾團隊協作的特殊模式——既包括因系統不透明性而阻礙觀點質詢的機制,也涵蓋為適應AI能力與局限性的快速迭代而需建立的持續學習機制。
未來工作的關鍵不在人類智能與人工智能間二選一,而在構建能讓兩者充分發揮潛能的團隊。重要的是,AI整合的成功不僅應以AI性能指標衡量,更應考察整體團隊效能、學習速度及優化利用人機智能的能力。但這要求將AI整合視為有效的團隊發展挑戰,而不僅是高效的技術部署。正如我們已認識到高效團隊協作需要未必與生俱來的技能,有效的人機協作也需要組織刻意培養的新能力。
值得慶幸的是,為盡可能降低信任模糊性,許多適用于人類團隊的協作原則——如心理安全感、清晰溝通機制以及從探索性失誤中持續學習——同樣可延伸至人機協作場景,只是其應用需更精細的校準與更智慧的部署。
關鍵詞:
杰什里·塞斯(Jayshree Seth)、艾米·C·埃德蒙森(Amy C. Edmondson)|文
杰什里·塞斯是3M企業科學家,擁有化學工程博士學位和81項專利,入選2025年Thinkers50雷達榜單,目前負責3M研發領域的生成式AI應用案例開發。艾米·C·埃德蒙森是哈佛商學院諾華領導力與管理學教授、《正確的錯誤:科學看待失敗》作者,專長團隊學習與心理安全領域研究。
周強|編校
聯系方式
投稿、廣告、內容和商務合作
newmedia@hbrchina.org
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.