![]()
用一個無法被信任的工具,去執行一件最需要信任的任務,這本身就是一場災難。
張女士新近查出了癌癥,她說自己連續十年在愛康國賓體檢,你們沒查出我的癌癥。于是她說愛康國賓是假體檢。
張女士很憤怒,愛康國賓也更憤怒。他們它沒有道歉,沒有安撫,而是召開了發布會,來表達自己的怒火,并且起訴了客戶。
愛康國賓 CEO 在發布會上,說了句「不要指望幾百塊的體檢能查出所有的病」,成了輿論焦點。
我倒是覺得,他們在公眾號上的聲明更有意思,讀完之后,我第一個念頭:這是 AI 寫的。
尤其是這一段:
這種高度模板化、邏輯清晰、層層遞進的表達方式,正是當前 AI 最擅長處理的。當然,這種對他人動機的深度揣測和重新定義,已經超出了 AI 基于數據生成內容的范疇,它是一種帶有強烈主觀判斷和攻擊性的「誅心之論」。這背后,閃爍的是人類在爭斗中才會運用的、復雜的心理戰術。
這可能才是整件事里最有趣的部分。
我甚至都能想象,愛康的法務或公關團隊首先確定了這次回應的核心戰略 —— 即強硬對抗、絕不妥協、并將事件拔高。
他們可能讓 AI 生成一份聲明草稿,將核心指令——比如需要指責張女士「轉嫁責任」——告訴 AI,AI 負責搭建結構、填充那些標準化的法律術語和官方辭令,從而高效地生成這樣一篇滴水不漏的戰斗檄文。
這些也不是我臆測,使用 PaperPass 做了 AI 查重,重復率超過 50%,考慮到總共五百多字,而且有部分是描述來龍去脈,重復率不低了。
![]()
圖片來源:PaperPass 網頁截圖
但問題是,AI 寫的東西,很難讓人信任,這是公關尤其是危機公關最忌諱的事情。
因為 AI 的訓練方式——比如強化學習,也因為 AI 的市場需求,它天然不會去得罪人而喜歡討好人,不過寫作原本便是得罪人以及冒犯自己的過程,當很奇怪,正是因為這樣的冒犯和突破邊界,讀者反而容易信任寫作者。
讀者的信任,從不建立在文字本身,而是建立在對文字背后那個獨一無二的「作者」的信任之上。這份信任由三個要素構成:
責任:人類作者用自己的名字和聲譽為文章背書。如果觀點錯誤,他需要承擔責任。
經驗:我們相信作者的觀點,提煉于他真實的生命體驗。
意圖:我們相信人類作者有真實的表達意圖。
以上這些,AI 都不具備。AI 沒有人生,它的「觀點」只是對數據庫的模仿,是無根之木;AI 也沒有意圖,它只是在執行代碼。
因此,讀者對 AI 作品的天然不信任,是因為察覺到,這串流暢的文字背后,沒有一個可信賴的、負責任的、有血有肉的主體。
而危機公關,最需要的就是信任。用一個最無法被信任的工具,去執行一件最需要信任的任務,這本身就是一場災難。
得承認,AI 是極其趁手的寫作工具,只要你的意圖表達清晰,它就能很高效地完成任務。不過,一旦人類的方向錯了,AI 只會把這錯誤進一步放大。
我們習慣于將企業或機構想象成一個理性的、以利益最大化為目標的計算機器。但實際上,它是一個由無數人類神經系統構成的集合體。當危機來臨,壓力升高,這個集合體的杏仁核就會被集體激活。
理性的人能看到外部情緒,非理性的人只看自己情緒。愛康沒有去看見和安撫客戶的恐懼與公眾的焦慮,而是沉浸在自己被「詆毀」的憤怒中,并基于這種憤怒采取了行動。
危機公關的最大敵人是非理性,但戰勝它的方法,不是假裝自己沒有情緒,而是在承認情緒的基礎上,憑借成熟的機制和心智,選擇不被情緒駕馭。
非理性的情況下,高層的指令有時候不盡合理,甚至帶有怒氣,但在傳遞過程中,中層管理者會出于職業素養或人情世故來解讀和「降噪」,底層的執行者在措辭時也會本能地回避過于尖銳或不妥的表達。
傳統的人類公關鏈條中,從高層定調,到中層規劃,再到下層執行,這個過程有些長,而且信息會損耗,也就是一些高層會抱怨的「組織摩擦力」,這往往被看做是組織效率低的原因.
但同樣,它也可以是至關重要的「安全機制」,如同汽車總需要剎車一樣,確保了決策在執行前能被充分地反思、質疑和修正。
這個鏈條中的每一個「人」,都像一個保險絲,用自己的人性、同理心和社會經驗,消耗和緩沖著指令中那些不合理的部分,防止最原始、最極端的情緒被直接公之于眾。
![]()
圖片來源:電視劇《大時代》
AI 拆除了所有這些「保險絲」。
它接收到最高指令后,其基于強化學習的目標就是 ——以最高效率、最優化地達成這個指令。如果指令中蘊含的基調是對抗和攻擊,AI 就會調動所有資源,去生成一篇最富有對抗性、最具攻擊力的文章,而不會像人一樣去思考「這樣做是否太過了?」或者「這是否會帶來反效果?」。
于是,一個最高決策者的原始沖動,可以在幾乎為零的時間和人力成本下,被直接轉化為一個完美的、公開發布的最終產品。這極大提升了效率,但也極大放大了決策風險。那個曾經能讓組織冷靜下來的中間地帶消失了。
同時,AI 也構建了一個近乎完美的繭房,在這里你只能聽到自己的回音。
AI 不再是過濾外部信息,而是加工和美化你的「內部信息」。你產生一個模糊的想法,一個初步的偏見,一種原始的情緒,AI 可以瞬間將它組織成邏輯嚴密、文采斐然、看似無懈可擊的文本。它把你個人的、主觀的東西,包裝成了客觀、專業的模樣。
這個繭房最可怕的,不是它「放大」了非理性,而是它「合理化」了非理性。
當一個組織產生非理性的憤怒情緒時,AI 會為這種憤怒引經據典,尋找理論支撐,構建邏輯閉環,最終輸出一份「義正詞嚴」的聲明。它讓身處其中的人堅信,自己的非理性情緒,恰恰是最高級的理性。
這比單純的放大要可怕得多,因為它剝奪了人「自我反思」的可能性。當你看到自己最粗糙的情緒,能被包裝得如此精致和正確時,你便會徹底愛上自己的偏見。
危機公關,是公司需要充分運用理性、需要壓上自己信譽的時刻。公司需要證明,自己不僅是一個盈利組織,也是一個愿意擔負責任有血有肉的人,這也是重要公關需要公司高管露面的原因,因為這時需要人和人的溝通。
愛康國賓,恰恰在這個最需要「人」的時刻,交出了一份最沒有人味兒的答卷,這本身就是一個巨大的諷刺。
但話說回來,這些是 AI 的責任嗎?
![]()
圖片來源:《新聞編輯室》
我前面說,需要人性來給公司增加一些「摩擦力」,但我們都清楚,在現實的公司里,那種所謂的「人性摩擦力」,到底是什么模樣。
一個壞主意,可能不是被正直的反對聲攔住,而是被一群為了不得罪人而集體妥協的人,修改成了一個面目全非、但絕對「安全」的平庸之作。
一份由人類委員會寫出來的公關稿,常常和 AI 一樣沒有靈魂。它的背后,同樣沒有一個獨立的、負責任的「人」,只有一群匿名的、互相推諉的「相關人士」。
AI 的出現,不是創造了一個新問題。它是用一種極端的方式,把一個我們早已熟視無睹的老問題,推到了我們眼前,讓我們再也無法假裝看不見。
這個老問題就是:我們正在貶低「溝通」本身的價值。
我們渴望用一套標準流程,一套萬能模板,一個高效的工具,來一勞永逸地解決所有溝通問題。我們希望溝通是可復制的,是可預測的,是不會犯錯的。
我們把溝通,從一種人與人之間充滿不確定性的、建立關系的艱難過程,變成了一種可以被量化、被管理、被外包的任務。
《新聞編輯室》告訴我們,你有公關問題,往往是因為你真的有問題。
愛康國賓的公關問題,根源不在于它「可能」用了 AI。而在于,它在面對一個需要用盡全部真誠去建立信任的時刻,腦子里想的,依然是遵循老板的意愿,用一套最「正確」、最「安全」、最「專業」的流程去「處理掉」這件事和這個人。
畢竟,這時候張女士不是一個顧客,不是一個需要溝通的人,而是一個需要解決的麻煩。
溝通,不是發布信息。溝通,是建立關系。而建立關系這件事,從來就沒有捷徑。它注定是笨拙的,是充滿風險的,是需要投入大量時間的。它需要我們放下盔甲,帶著我們全部的人性,去面對另一個活生生的人。
在這個所有人都正依賴輔助駕駛狂奔在高速公路的年代,這才是最后的、也是唯一的緊急剎車系統。
--FIN --
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.