整理 | 蘇宓
出品 | CSDN(ID:CSDNnews)
「遇事不決,先問 AI」,這幾乎成了當前很多人的生活新習慣。無論是寫代碼、調 Bug,還是算命、探討養生秘訣,總有人想要先打開 ChatGPT、DeepSeek 等工具聊上兩句。
然而問題是,AI 給的答案有時并非絕對準確,尤其是在健康領域,但有的人卻對此深信不疑。最近,美國就發生了一起讓人啼笑皆非又毛骨悚然的事件——一位 60 歲的大叔照著 ChatGPT 的建議學養生,最終險把自己送進了精神病房。
![]()
ChatGPT 給的一字之差的建議
這并非是危言聳聽,而是美國醫師協會的權威醫學期刊《內科醫學年鑒》刊登的一則真實病例。
![]()
來源:https://www.acpjournals.org/doi/epdf/10.7326/aimcc.2024.1260
事件的主角為一名 60 歲的男子,他還在大學時還學過營養學。或許是閑著無聊,也可能是受了一些“吃太多鹽有害身體健康”理念的影響,他決定——從飲食中戒掉氯化鈉(鹽的主要成分)。
問題來了,沒了鹽,吃飯的味道怎么保證?大叔想到一個辦法——去問 ChatGPT。
和 ChatGPT 聊著聊著,總之對方給他一個方向,即可以用溴化鈉來替代食鹽。
于是,他直接上網購買溴化鈉,開始用它來代替食鹽,并堅持了整整三個月。
對于學生時期學過化學的人,想必都了解這兩者雖然只差一個字,但用途卻天差地別:
![]()
可想而知,這名男子以“養生”為初衷,結果健康沒等到,反而迎來了身心狀態的徹底失控——偏執、幻覺、懷疑鄰居下毒、拒絕喝水……場景幾乎可以直接搬進《黑鏡》的劇本。
這一點可以從他在三個月后被送到了急診室時的場景可見一斑。
在醫院時,這名男子告訴醫生,他的鄰居在想辦法毒害他。雖然口渴得要命,但他死活不喝醫院給的水,還說自己在家只喝蒸餾水,并且實行極端嚴格的素食飲食。
起初,這名男子并沒有跟醫生說任何關于溴化鈉、還有和 ChatGPT 對話的事情,只是醫生覺得他這種痛苦又怪異的行為背后有些不簡單,于是就給他做了一大堆化驗,結果發現他體內缺了不少微量營養素,尤其是重要的維生素。
更嚴重的是,根據化驗結果顯示,這名男子的血液中溴元素含量高達1700 mg/L,而正常參考值只有0.9–7.3 mg/L。醫生基于此得出診斷結果——這就是典型的溴中毒。
![]()
經過三周的治療,才完全脫離危險
事實上,這并非一種罕見病。據《內科醫學年鑒》的這篇論文指出,一百多年前,美國有多達 8%–10% 的精神病住院病例與溴中毒有關。
那時,人們常用含溴的鹽類(比如溴化鉀)當鎮靜劑或助眠藥。溴化物所產生的問題在于——它會在人體內積累,一旦劑量過高,就會影響神經系統,引發精神癥狀、幻覺,甚至皮疹。1989 年,美國 FDA 就將溴類鎮靜劑全面下架。
現在,溴中毒情況已經非常少了,但并非沒有。
這名男子確診后,并不相信,在剛入院接受治療的 24 小時里,還出現了越來越嚴重的被害妄想、幻聽和幻視。初次之外,他還試圖逃離醫院。
逃跑失敗后,他被強制精神收治,并打了抗精神病藥物。隨后,醫生給他靜脈輸液和補充電解質,因為治療溴中毒最有效的方法就是“強力鹽水利尿”——通過大量輸液,不停排尿,把多余的溴排出去。
最后,這位男子在醫院整整待了三周,才恢復到足以出院的狀態。待他狀態清醒時,他也跟醫生如實地透露了他參考 ChatGPT 的前因。
![]()
醫生使用 ChatGPT 測試
負責撰寫病例報告的醫生指出,這起案例凸顯了 AI 在某些情況下可能促成不良健康后果的風險。遺憾的是,他們無法獲取這名男子與 ChatGPT 的完整聊天記錄,也不確定他具體收到了什么輸出。
不過,根據病例的時間線推測,這名男子很可能使用的是 ChatGPT 3.5 或 4.0 版本。
對此,醫生自己也用 ChatGPT 3.5 做了實驗,詢問“氯化鈉可以被什么取代?”,其發現 AI 的回答里確實提到了溴鹽,但也說了要看具體情境。不過,AI 既沒有明確給出健康警告,也沒有反問“你為什么要知道這個”,更沒有像醫生那樣追問病史。
![]()
今年已有 12 起因太過相信 ChatGPT 而住院的案例
無獨有偶,此前,精神病學家 Keith Sakta 博士在 X 上表示,他在 2025 年已經遇到 12 起患者因 AI 建議而最終住院的案例。
他認為,大型語言模型像一面“回聲鏡”,會不斷強化用戶的想法。如果你原本就有某種固執的健康理念,這種“回聲效應”可能會把你推向極端。
換句話說,AI 并不是“有意害人”,但它在錯誤的引導和缺乏質疑下,確實可能加速一個人走向危險。
![]()
時下,也有網友用最新的免費版 ChatGPT 測試了這名男子的問題——“如何在飲食中替代氯”,新版 ChatGPT 會先反問用戶的目的,并給了三種選項:
減少飲食或日常使用中的食鹽(氯化鈉)?
避免有毒/反應性的氯化合物,比如漂白劑或泳池氯?
替代含氯的清潔或消毒劑?
ChatGPT 只在第三個選項(清潔或消毒)里提到了溴鹽,還特別說明它們“常用于浴缸的消毒處理”。
其實稍加辨別,還是可以避免發生“悲劇”。所以,這位男子在沒有任何指導的情況下,既不知道怎么問,也不懂怎么解讀答案,最終就這樣“自己做研究”,把自己送進了一個相當黑暗的境地。
對此,有網友將其歸因為大模型自身的問題:
LLM 并不會思考——一點也不會。它們做的只是預測下一個詞元。
如果它們是在一個包含大量人類思考成果的大型數據集上訓練出來的,那么它們生成的內容看起來有點像思考的結果。但如果它們訓練的數據集只是人們反復用某種復雜模式講同七個“敲門”笑話(比如每第三次換成法語),那么它們生成的內容就會長得像那個模式,而絲毫不像思考。
如果沒意識到這一點,早晚會有人因此送命——如果這種事還沒發生的話。
![]()
也有人覺得“為什么會有人這么相信 AI 所給的輸出結果”:
讓我感到困惑的是,這些人居然可以對屏幕上顯示的內容完全信任,卻主動拒絕科學。我自己就見過這種情況:一個親戚會百分百相信 AI 屏幕吐出的任何“神奇答案”,但當科學家用事實、邏輯和線性思維來解釋同樣的內容時,他們卻會大發雷霆。
還有人勸解道:
我確實覺得,大型語言模型(LLM)可以幫助你啟動研究。它們往往能生成一些術語和概念,你可以拿去在 Kagi 或 Google 上查證,把重要細節和上下文弄清楚。但盲目相信 ChatGPT,可不是成功的策略。
截至目前,AI 產生“幻覺”的問題并未完全解決,它們生成的內容看起來可能十分合理甚至權威,但一切只是“看起來”,在涉及健康、生命或安全的決策上,依然不能盲目依賴 AI ,始終要結合專業意見和可靠證據。
參考:
https://www.acpjournals.org/doi/epdf/10.7326/aimcc.2024.1260
https://news.ycombinator.com/item?id=44891997
https://arstechnica.com/health/2025/08/after-using-chatgpt-man-swaps-his-salt-for-sodium-bromide-and-suffers-psychosis
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.