在全民都在熱聊大模型、聊顛覆、聊替代的時候,在1月10日的香港高山書院十周年論壇上,一個神仙打架復興科學的地方,張文宏稱“拒絕把AI引入醫院病歷系統”,張醫生說的這些話,聽上去多少有點逆風而行的味道。
![]()
但如果你把他后面那幾句話拼在一起看,會發現,這是一個一線專家對行業根基的焦慮。
他真正擔心的,其實不是AI不夠強,而是醫生會不會變“笨”。
張文宏自己怎么用AI?他說得很直白,他會讓AI先把病例“看一遍”,然后他一眼就知道AI哪里錯了。
這話的潛臺詞是:前提是我本身的專業能力,要強過這個AI。
如果換成一個剛從學校出來的實習醫生呢?
![]()
同樣一份AI給出的診斷報告,專家一眼看出漏洞,實習醫生卻會當成標準答案抄在病歷里。
這就是他反對把AI直接嵌進病歷系統的核心原因。
不是怕AI,而是怕還沒長成的大夫,從一開始就學會偷懶,怕醫生的成長路徑會直接被改寫成“我負責抄,AI負責想”。
很多人會反駁:那就把AI當工具啊,又不是讓醫生全信。
問題就在這里——你憑什么保證一個沒有打過基礎的人,知道何時該信,何時該懷疑。
AI最大的危險從來不是“不會答”,而是“答得挺像那么回事”。
AI回答本質上仍然是基于搜索和統計,搜索本身并不評判真偽,加上大模型自帶的渲染效果,有時候錯誤反而被包裝得更像真理。
如果你腦子里沒有一條自己的診斷邏輯鏈,很容易被這種“像真的卻是錯的”牽著走。
再看現實應用。
![]()
現在很多地方的影像科已經在用AI讀片了,因為這一塊確實更適合機器——看到啥就說啥。
肺上有沒有結節,有。
多大。
長在哪里。
這些都是高度結構化的信息,訓練足夠多的數據,AI能幫放射科醫生分揀大量常規片子,挑出可疑的交給人類復核。
這一塊,AI不是搶飯碗,而是幫醫生從機械勞動中解放出來。
但臨床科室就完全不是一個難度級別。
一個發燒病人,你得問旅行史、接觸史、基礎病,還要結合當地流行病學、既往用藥史。
很多時候,真正決定診斷方向的,是一句“看起來不像那么簡單”的直覺。
這東西怎么喂給模型?
![]()
更現實的問題是:如果AI把一個罕見病看漏了,誰來背鍋。
可以類比自動駕駛的L3級。
符合標準的時候,車企背鍋;不符合的時候,車主背鍋。
那醫療AI呢?
你說你罕見病識別率有多高,你愿意為這條數字簽多少法律責任?
現在大部分供應商都留了一句安全墊:“僅供參考,最終診斷以醫生判斷為準。”
看起來很合理,但這意味著什么?
意味著真出事了,還是醫生背鍋。
那換個角度問:如果你不肯承擔實質責任,這套系統對提高罕見病診出率究竟有多大價值?
值不值得全國鋪開?
這就是很多臨床科室遲遲觀望的原因。
![]()
張文宏的擔心,其實直指一個問題:不能讓醫生從一開始就淪為技術的盲從者。
技術永遠可以出錯,所以行業必須保留一群有能力“看出技術錯哪兒了”的人。
醫學這一行,AI可以錯,設備可以壞,人可以補。但如果把最后一層人也訓練成只會點按鈕的小白,那整個系統在關鍵時刻就會全線崩塌。
那是不是說明,要把AI擋在醫院門外?
也不是。
一味拒絕,當然也有問題。
歷史車輪阻擋不了,科技創新是必然趨勢。
事實上,一些病癥的影像識別上,AI確實已經開始比普通醫生更準。
醫生本來就依賴各種診療設備:CT、核磁、超聲,機器給出初步結果,人再去判斷。
AI相當于新一代“診療設備”,問題不在用不用,而在怎么用。
回到最后那個問題,一個更大的圖景是:在哪些領域,專業判斷的價值遠遠高于AI輔助?
可以大致分幾類。
![]()
第一類,要求極致準確、又高度復雜的醫療場景。
比如心胸外科、神經外科、牙科精細操作。
術前規劃,AI可以給一堆參考路徑;術中突然大出血、組織結構和影像不符時,拿什么決策?
靠醫生多年積累的手感和現場判斷。
電工、水管工、汽車修理師也是類似道理。
車輛同樣一個異響,原因千奇百怪,沒有統一答案,需要“同病異治”的診斷經驗。
AI能做的是推薦最常見的幾種可能,但一旦情況超出樣本分布,它就懵了。
第二類,高度依賴人際博弈和主觀判斷的職業。
比如銷售。
產品是同一款,價格卻不是同一個價。
一斤菜和十斤菜是兩個價格,大宗采購還有另一個價格。
科技設備單機有統一報價,打包設計、施工、維保,又是另一套算賬方式。
面對不同客戶,話術、節奏、讓利空間,完全不一樣。
這些決策,既沒有通用模板,也很難量化成數據,全都系在對人性的把握上。
AI可以給你做話術推薦,但最后拍板,是人。
![]()
第三類,高度非標準化、充滿煙火氣的服務性工作。
社區工作者、幼兒園老師、志愿者,這些崗位每天遇到的問題,往往連“對”和“錯”都很難定義。
一個社區矛盾到底怎么調解,既要合法合規,又要人情世故。
AI可以給出理想化方案,卻很難站在“這個阿姨今天剛吵完架、那個大爺脾氣本來就沖”的現實場景里做平衡。
第四類,頂尖專家和高層決策崗位。
一個行業頂尖專家的價值,不是會多少知識,而是在巨大的不確定性里拍板的那一下。
AI非常依賴“大樣本數據”,而這些崗位面臨的問題,恰恰往往是“沒有先例”的。
疫情初期用不用某種新藥,新的收費模式要不要推向全國,這些問題根本沒有足夠數據可以訓,最后還是要落實到人的價值判斷。
從這個角度看,張文宏說的并不是“AI沒用”,而是給全體職場人提了個醒。
對結果要求極度準確,還牽涉重大風險的崗位,短期內極難被替代,但更要求你不斷精進,因為你要為機器兜底。
對結果可以模糊、只要差不多就行的內容,比如大量流水線式寫稿、簡單設計、模板化PPT,最容易被AI吃掉。
![]()
如果你每天的工作就是千篇一律、照抄照搬、不思進取,那么不需要AI,別人也可以隨時替代你。
真正的安全感,從來不是“不讓AI進來”,而是“AI進來以后,你依然有不可替代的判斷力”。
未來醫學AI一定會越來越強,大模型加上精準訓練,有一天很可能能達到一般專科醫生的平均水平。
那時,普通醫生會被拉到一個更高的起點:常見病由AI提速,疑難雜癥、人文溝通、復雜決策,交給真正有能力的人。
所以,當張文宏說“我拒絕把AI引入病歷系統”時,他捍衛的不是舊秩序,而是醫生的基本功和行業的最后防線。
技術可以幫助我們跑得更快,但方向錯了,只會更快沖向懸崖。
在AI洶涌而來的當下,最值得我們警惕的不是機器搶走工作,而是我們主動交出自己的思考權。
不論你做什么工作,記住一句話:如果你只是照著按鈕點、照著模板抄,那替代你的未必是AI,可能只是一個工資更便宜的人。
相反,只要你始終在打磨自己的判斷力,讓AI的每一次回答都變成你思考的起點而不是終點,它終究會成為你的工具,而不是你的主人。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.