最近科技圈流傳著一個反常識結論,想讓 AI 答得準,就得對它 “兇一點”。起因是賓夕法尼亞州立大學一篇題為《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》的研究,被解讀成 “粗魯是提升 AI 準確率的秘訣”。但翻完整篇論文才發現,這波屬于典型的 “斷章取義”,就像把醫生說 “偶爾熬夜影響不大” 曲解成 “熬夜有益健康” 一樣離譜。
01
5 種語氣 “拷問” AI
結果有點意外
自 2022 年 ChatGPT-3.5 橫空出世,“提示工程” 就成了打工人的必修課,畢竟同樣問問題,有人能讓 AI 寫方案,有人只能得到廢話。過去大家默認 “禮貌走天下”,跟 AI 說話也得帶句 “請”“麻煩您”,覺得這樣能讓它更配合。
但最近的這篇研究認為,對AI語氣越粗魯,其回答正確率越高。研究團隊組合了近50 道中等偏上難度的選擇題,覆蓋數學、科學、歷史等領域,比如 “杰克給弟弟一半錢后花 5 美元剩 10 美元,最初有多少錢” 這類需要簡單推理的題目。并給每道題配 5 種 語氣,從卑微到硬氣層層遞進。以杰克的錢那道題為例,五種問法是這樣的。
![]()
非常禮貌:您能夠好心考慮一下這個問題并給出答案嗎?
禮貌:請回答以下問題
中性:無前綴
粗魯:如果你不是完全沒有用,就回答這個問題吧
非常粗魯:我知道你不聰明,但是試試
最后把這 250 個 “語氣 + 題目” 組合,分別喂給新老兩代 AI:新一代的 GPT-4o然后統計正確率。
02
GPT-4o 真的 “吃硬不吃軟”?
數據出來結果證明,GPT-4o 的正確率跟著語氣粗魯程度一路上漲,從非常禮貌的 80.8%,飆升到非常粗魯的 84.8%,這意味著每 100 道題里,客氣說話反而少對 4 道。更關鍵的是,這種關聯不是偶然,統計顯示語氣粗魯度與正確率的線性相關系數 R2=0.98,幾乎是嚴格正相關。
![]()
但有意思的是,老模型完全是另一個畫風:GPT-3.5 對粗魯語氣很 “反感”,越兇的提問正確率越低。
03
AI不是怕兇,是怕 “廢話”
AI 難道也懂 “欺軟怕硬”?但其實這背后藏著機器的 “思維邏輯”,它聽不懂人情世故,只認 “信息效率”。研究人員給出了兩個關鍵解釋
一個是禮貌會產生 “副作用”,傳播學里有個經典的香農 - 韋弗模型,說傳播過程中影響信息準確性最大的就是 “噪音”,任何干擾核心信息的內容都算。放到 AI 交互里,那些禮貌的客套話,恰恰就是機器眼里的 “噪音”。
![]()
比如 “您能好心幫我解這道題嗎?” 里的 “好心”,對人類來說是禮貌,但 AI 會下意識分析這個詞的含義,甚至可能誤以為 “需要先判斷什么是好心”,反而分散了對解題本身的注意力。而且禮貌表達往往自帶復雜句式,比如疑問句、雙重否定句,會額外消耗 AI 的計算資源 ,就像讓你邊算數學題邊背古詩,正確率肯定受影響。
二是粗魯的的對話一般是命令式表達,更 “省事兒”,AI 本質上是個 “極度聰明但缺乏常識的實習生”,最擅長的是執行明確指令,最頭疼的是猜 “言外之意”。粗魯的表達恰好剝離了所有冗余信息,直接把 “答題” 設為最高優先級。
比如同樣要生成圖片,“生成一張貓的圖片” 比 “麻煩您幫我生成一張可愛的貓的圖片可以嗎?謝謝您啦” 清晰多了。前者讓 AI 直奔主題,后者還要讓它先解讀 “可愛” 的標準、回應 “謝謝” 的禮貌,反而可能偏離核心需求。
04
論文作者急了
別誤會!我可沒讓你罵 AI
就在網友們忙著編 “懟 AI 話術” 時,論文作者怕是要拍桌子:“你們可別曲解我的意思!” 在論文的 “討論與結論” 部分,研究人員專門列了論文研究的局限性,等于直接給結論 “打補丁”,
一是樣本太小,撐不起 “普適性”,整個實驗就 50 道題,250 個變體。這就像測試 “哪種食物養胃” 只找了 50 個人,結果根本沒法推廣到所有人。
二是結論只對部分模型有效,實驗主要測的是 GPT-4o,雖然也試了ChatGPT-o3,但沒大規模驗證。要知道不同 AI 的訓練數據和架構天差地別,GPT-4o 吃硬話,不代表其他模型也吃這一套。
三是僅限 “選擇題” 場景:研究只看了 “答對 / 答錯” 這個指標,沒測長文本創作、邏輯推理這些復雜任務。萬一要寫演講稿,罵一句 “趕緊寫別廢話”,說不定 AI 真給你寫篇 “暴躁文學” 出來。
但最關鍵的是研究人員堅決反對 “用粗魯換準確”,在論文末研究人員在結尾專門加了 “倫理考量”,雖然粗魯提示能提升準確率,但絕不提倡用侮辱性語言跟 AI 交流,作者的本意還是想傳達:“AI 不吃人類的社交套路,清晰比禮貌更重要”,而不是讓大家做個 “暴躁提問者”。
![]()
跟 AI 溝通的正確姿勢,其實就 1 句話
這個研究的最終目的,真正論證的的不是 “要對 AI 兇”,而是 “要對 AI‘直’”。結合提示工程的核心原則,跟 AI 溝通的秘訣就在于,把它當成一個 “聰明但健忘的工程師”,直接說清 “做什么、要什么格式” 。
比如想讓 AI 改報告,別說 “麻煩您幫我看看這份報告,要是能改得好一點就太感謝了”,不如直接說 “修改這份報告:1. 把第三段數據補充完整;2. 把結尾改成行動建議;3. 保持正式語氣,500 字以內”。既不用客套,也不用罵街,精準傳遞需求就可以了。
至于那些 “罵 AI 能提高準確性” 的說法,就當個段子聽吧。畢竟論文研究人員都說了,這只是 探索 AI 特性的起點,不要把粗魯當 “通關密碼”,搞不好哪天 AI 升級后,直接回你一句 “請文明提問,否則拒絕服務”, 到時候可就尷尬了。
![]()
![]()
微信訂閱
歡迎郵局訂閱2026年《電腦報》
訂閱代號:77-19
全年訂價:400.00元 零售單價:8元
郵局服務熱線:11185
編輯|張毅
主編|黎坤
總編輯|吳新
爆料聯系:cpcfan1874(微信)
壹零社:用圖文、視頻記錄科技互聯網新鮮事、電商生活、云計算、ICT領域、消費電子,商業故事。《中國知網》每周全文收錄;中國科技報刊100強;2021年微博百萬粉絲俱樂部成員;2022年抖音優質科技內容創作者
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.