![]()
![]()
![]()
這種擔憂并非空穴來風,據健康報2025年12月報道,某三甲醫院曾開展AI輔助病歷書寫試點。一名實習醫生在書寫復雜肺部感染病例時,直接沿用AI生成的診斷描述,未發現其中遺漏了關鍵的并發癥提示。幸好上級醫生審核時及時糾正,才避免誤診風險。
![]()
當前AI技術仍存在幻覺問題,這在醫療領域可能引發嚴重后果。新手醫生由于臨床經驗不足,往往難以鑒別AI診斷的正誤。若形成路徑依賴,放棄主體思考,就可能陷入“反向規訓”的困境。
![]()
北京某醫院內科主任醫師透露,科室曾遇到過類似情況。一名工作兩年的年輕醫生,習慣用AI生成病歷并輔助診斷。一次接診罕見病患者時,AI給出了常見病癥的診斷建議,年輕醫生未加甄別便采納,導致診療方向偏差。后續經過科室專家會診,才修正診斷方案。
醫療環境的壓力也讓AI的過度使用存在隱患。醫者救死扶傷需與時間賽跑,若AI被系統引入病例實務,可能在求快求速中異變為決策主體。這種情況下,醫生的主導判斷權會被削弱,醫療質量難以保障。
![]()
![]()
上海某三甲醫院的實踐提供了參考。該院將AI用于病歷的初步整理和信息提取,醫生在此基礎上進行補充完善和診斷判斷。這種模式既提升了效率,又保留了醫生的主導權。
![]()
數據顯示,試點科室的病歷書寫效率提升30%,診斷準確率未出現下降。
人工思考與成長都來自摩擦褶皺。不歷經真實病例的錘煉,醫者難以從新手成長為獨當一面的專家。人類主體性最終決定了AI使用關系的邊界與走向,這是醫療行業智能化進程中必須堅守的底線。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.