文 | 難得君
張文宏醫生又發生了。
這次不是關于口罩,而是在香港的一個論壇上。
他說,在自己管理的醫院里,他拒絕把AI引入醫生的日常工作系統。你可以自己私下用,但不能在我的病例系統里用。
![]()
這話說得很直白,甚至有些“不近技術潮流”。他的理由簡單而堅硬:只有當你的專業水平高于AI時,你才能駕馭它,才能識破它可能給出的虛假或錯誤信息。否則,你就會被AI牽著鼻子走,還自以為走在康莊大道上。
這話不只是說給醫生聽的。
上海交通廣播報道了一件事,一位普通市民王女士,正為母親遭遇的一場糟心事奔走。老人家里的方太燃氣灶點火器出了點小毛病,本來百十來塊錢就能修好。老人不想麻煩女兒,就像我們很多人習慣的那樣,問了問自己常用的AI助手“豆包”:“方太官方維修電話是多少?”豆包很快回應,給了一個400開頭的“全國24小時服務熱線”。故事從這里開始急轉直下。
![]()
上門的“王師傅”一臉嚴肅,指著灶里一塊發黑的零件(后來證明那零件根本不屬于這臺灶具),警告說問題嚴重,有燃氣泄漏爆炸風險,必須馬上換新灶。
老人被嚇得夠嗆,花1998元換了一臺聽都沒聽過的“藍寶石蘭焰”灶,舊灶還被師傅以“報廢處理”為由直接帶走。而那臺被帶走的方太原裝灶,買的時候花了六千多。
![]()
事后王女士找到真正的方太官方,才知道真相:只是小故障。那個400電話,那個言之鑿鑿的“王師傅”,那個“發黑的零件”,從頭到尾都是一場精心策劃的騙局。
更讓人無力的是,當你回頭去找那個AI助手“豆包”理論時,它會平靜地告訴你:它的用戶協議里早已寫明,不保證第三方內容的真實性。
你看,從頂尖醫院的管理者到家里的老人,從生死攸關的醫學診斷到日常生活的維修小事,“AI”這個詞,正以一種我們或許還未完全清醒認識的姿態,嵌入生活里。
張文宏的拒絕與王女士母親的被騙,看似是兩件不相干的事,卻像鏡子兩面,照出了同一個猙獰的輪廓:不是AI這項技術不靠譜,而是我們的AI應用太不靠譜了。
這種不靠譜,首先是一種“能力剝離”的幻覺。
張文宏醫生說得透徹,他自己也用AI,因為他有足夠的專業底子去判斷、去篩選、去駕馭。AI對他來說,是一個強大的輔助計算器,而不是決策大腦。
問題就在于,現在有一股強大的潮流,正在試圖把AI包裝成、甚至直接當作“大腦”來售賣和使用。
一個剛從醫學院畢業的實習生,借助AI能瞬間生成一套聽起來無比專業、數據詳實的診療方案。
這方案他敢直接用嗎?病人敢接受嗎?
但誘惑就在這里:它讓你產生了一種“我已經擁有了專家級能力”的幻覺。這種幻覺在寫論文、做文案、生成報告時,后果或許是一堆垃圾信息;但當它侵入醫療、法律、金融、教育這些容錯率極低的領域時,我們付出的將是無法挽回的真實代價。
這種不靠譜,更深層的是“責任真空”的陷阱。
王女士母親的遭遇,是一個完美的案例解剖。AI助手給出了錯誤信息,導致了財產損失。
那么,誰該負責?
是那個編造虛假400電話并上傳到網絡的信息源頭?是那個坑蒙拐騙的“王師傅”?還是那個抓取了虛假信息并將其作為“答案”整合反饋給你的AI平臺?
現實是,源頭難以追溯,騙子狡猾隱身,而AI平臺則會搬出那份你從未仔細閱讀過的用戶協議,優雅地撇清一切關系:“信息僅供參考,請自行核實。”
這就形成了一個詭異的局面:我們因為信任“科技”的“中立”與“高效”而使用AI,但當我們因這份信任而受傷時,卻發現面前空無一人。
沒有主體,沒有責任人,只有一行冰冷的免責聲明。
當工具犯錯的代價由使用者獨自承擔,而工具的制造者和賦能者卻安然置身事外時,這不是進步,這是文明社會責任鏈條的一次可怕潰散。
更令人憂慮的是,這種不靠譜的AI,正在加劇社會固有的不平等。
張文宏醫生有地位、有聲譽,他的質疑能被聽見,他的拒絕能被尊重。但如果是一個普通醫生提出同樣憂慮,聲音很可能被淹沒在“擁抱技術”、“效率至上”的宏大敘事里。同樣,那些擁有“專家”、“院長”、“領導者”頭銜的人,如果他們開始依賴AI生成報告、做出決策,他們的結論會因為其頭頂的光環而被輕易采信,哪怕其中摻雜了AI的“幻覺”與“編造”。而一個勤懇的年輕人,即便他真正刻苦鉆研,他的成果也可能因為“不夠AI化”、“不夠炫酷”而被低估。
AI本該是拉平信息鴻溝的工具,但在實際運行中,它可能正在固化甚至加劇一種新的不平等:話語權的不平等。有資源、有地位者濫用AI,其危害會被放大;無資源、無背景者依賴AI,則可能永遠被困在信息繭房和低質量輸出的循環里,正如那位國外教授對學生的怒吼:總用AI糊弄作業,你們將來可能只剩下去麥當勞打工!
那么,我們需要的到底是什么?
我們需要的,或許是一次集體的清醒。我們要意識到,當前許多被打上“AI”標簽的產品和服務,本質上是“尚未成熟的、有重大缺陷的、且權責關系模糊的技術應用”。它遠未達到通用人工智能的層次,它更像一個記憶力超群但缺乏常識、有時會為討好你而信口開河的快嘴伙計。
因此,張文宏的“拒絕”不是保守,而是一種珍貴的專業操守和負責精神。他把病人的安危,置于對時髦技術的無條件擁抱之上。這是一種標桿。在任何關乎重大利益的領域,治病、投資、司法、教育,我們都應該豎起這樣一道閘門:人的最終判斷和責任,必須牢牢掌握在合格的、有專業操守的人手中。AI可以輔助,但絕不能主導;可以參考,但絕不能盲從。
而對于日常層面,王女士母親的教訓則是一記響亮的警鐘。它告訴我們,在這個信息愈發蕪雜的時代,我們對任何便捷渠道獲取的關鍵信息,尤其是來自AI整合的信息,都必須啟動最基礎的“不信任”驗證程序:多方核對,查找官方信源,對夸張的警告保持警惕。這很累,但這正是技術泛濫時代保護自己必須付出的“智商稅”。
![]()
![]()
說到底,技術本身沒有善惡,但掌控技術的人有善惡。
我們期待的不是一個AI替代一切、人類躺平享福的未來。
我們期待的,是一個AI真正成為合格工具,由具有人性良知的人來駕馭的未來。
在那之前,對任何將AI奉為圭臬的喧囂保持距離,這是我們對自己,也是對這個世界,最基本的保護。
最后,說點實在的。我寫這篇文章,不是否定技術,而是告訴大家真實的現狀。
從現在起,對我們面前那個看似無所不能的“AI”,多一點審視,少一點盲從。這份審視,需要智慧,也需要勇氣。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.