張文宏醫(yī)生又發(fā)生了。
這次不是關(guān)于口罩,而是在香港的一個論壇上。
他說,在自己管理的醫(yī)院里,他拒絕把AI引入醫(yī)生的日常工作系統(tǒng)。你可以自己私下用,但不能在我的病例系統(tǒng)里用。
![]()
這話說得很直白,甚至有些“不近技術(shù)潮流”。他的理由簡單而堅硬:只有當(dāng)你的專業(yè)水平高于AI時,你才能駕馭它,才能識破它可能給出的虛假或錯誤信息。否則,你就會被AI牽著鼻子走,還自以為走在康莊大道上。
這話不只是說給醫(yī)生聽的。
上海交通廣播報道了一件事,一位普通市民王女士,正為母親遭遇的一場糟心事奔走。老人家里的方太燃?xì)庠铧c(diǎn)火器出了點(diǎn)小毛病,本來百十來塊錢就能修好。老人不想麻煩女兒,就像我們很多人習(xí)慣的那樣,問了問自己常用的AI助手“豆包”:“方太官方維修電話是多少?”豆包很快回應(yīng),給了一個400開頭的“全國24小時服務(wù)熱線”。故事從這里開始急轉(zhuǎn)直下。
![]()
上門的“王師傅”一臉嚴(yán)肅,指著灶里一塊發(fā)黑的零件(后來證明那零件根本不屬于這臺灶具),警告說問題嚴(yán)重,有燃?xì)庑孤┍L(fēng)險,必須馬上換新灶。
老人被嚇得夠嗆,花1998元換了一臺聽都沒聽過的“藍(lán)寶石蘭焰”灶,舊灶還被師傅以“報廢處理”為由直接帶走。而那臺被帶走的方太原裝灶,買的時候花了六千多。
![]()
事后王女士找到真正的方太官方,才知道真相:只是小故障。那個400電話,那個言之鑿鑿的“王師傅”,那個“發(fā)黑的零件”,從頭到尾都是一場精心策劃的騙局。
更讓人無力的是,當(dāng)你回頭去找那個AI助手“豆包”理論時,它會平靜地告訴你:它的用戶協(xié)議里早已寫明,不保證第三方內(nèi)容的真實性。
你看,從頂尖醫(yī)院的管理者到家里的老人,從生死攸關(guān)的醫(yī)學(xué)診斷到日常生活的維修小事,“AI”這個詞,正以一種我們或許還未完全清醒認(rèn)識的姿態(tài),嵌入生活里。
張文宏的拒絕與王女士母親的被騙,看似是兩件不相干的事,卻像鏡子兩面,照出了同一個猙獰的輪廓:不是AI這項技術(shù)不靠譜,而是我們的AI應(yīng)用太不靠譜了。
這種不靠譜,首先是一種“能力剝離”的幻覺。
張文宏醫(yī)生說得透徹,他自己也用AI,因為他有足夠的專業(yè)底子去判斷、去篩選、去駕馭。AI對他來說,是一個強(qiáng)大的輔助計算器,而不是決策大腦。
問題就在于,現(xiàn)在有一股強(qiáng)大的潮流,正在試圖把AI包裝成、甚至直接當(dāng)作“大腦”來售賣和使用。
一個剛從醫(yī)學(xué)院畢業(yè)的實習(xí)生,借助AI能瞬間生成一套聽起來無比專業(yè)、數(shù)據(jù)詳實的診療方案。
這方案他敢直接用嗎?病人敢接受嗎?
但誘惑就在這里:它讓你產(chǎn)生了一種“我已經(jīng)擁有了專家級能力”的幻覺。這種幻覺在寫論文、做文案、生成報告時,后果或許是一堆垃圾信息;但當(dāng)它侵入醫(yī)療、法律、金融、教育這些容錯率極低的領(lǐng)域時,我們付出的將是無法挽回的真實代價。
這種不靠譜,更深層的是“責(zé)任真空”的陷阱。
王女士母親的遭遇,是一個完美的案例解剖。AI助手給出了錯誤信息,導(dǎo)致了財產(chǎn)損失。
那么,誰該負(fù)責(zé)?
是那個編造虛假400電話并上傳到網(wǎng)絡(luò)的信息源頭?是那個坑蒙拐騙的“王師傅”?還是那個抓取了虛假信息并將其作為“答案”整合反饋給你的AI平臺?
現(xiàn)實是,源頭難以追溯,騙子狡猾隱身,而AI平臺則會搬出那份你從未仔細(xì)閱讀過的用戶協(xié)議,優(yōu)雅地撇清一切關(guān)系:“信息僅供參考,請自行核實。”
這就形成了一個詭異的局面:我們因為信任“科技”的“中立”與“高效”而使用AI,但當(dāng)我們因這份信任而受傷時,卻發(fā)現(xiàn)面前空無一人。
沒有主體,沒有責(zé)任人,只有一行冰冷的免責(zé)聲明。
當(dāng)工具犯錯的代價由使用者獨(dú)自承擔(dān),而工具的制造者和賦能者卻安然置身事外時,這不是進(jìn)步,這是文明社會責(zé)任鏈條的一次可怕潰散。
更令人憂慮的是,這種不靠譜的AI,正在加劇社會固有的不平等。
張文宏醫(yī)生有地位、有聲譽(yù),他的質(zhì)疑能被聽見,他的拒絕能被尊重。但如果是一個普通醫(yī)生提出同樣憂慮,聲音很可能被淹沒在“擁抱技術(shù)”、“效率至上”的宏大敘事里。同樣,那些擁有“專家”、“院長”、“領(lǐng)導(dǎo)者”頭銜的人,如果他們開始依賴AI生成報告、做出決策,他們的結(jié)論會因為其頭頂?shù)墓猸h(huán)而被輕易采信,哪怕其中摻雜了AI的“幻覺”與“編造”。而一個勤懇的年輕人,即便他真正刻苦鉆研,他的成果也可能因為“不夠AI化”、“不夠炫酷”而被低估。
AI本該是拉平信息鴻溝的工具,但在實際運(yùn)行中,它可能正在固化甚至加劇一種新的不平等:話語權(quán)的不平等。有資源、有地位者濫用AI,其危害會被放大;無資源、無背景者依賴AI,則可能永遠(yuǎn)被困在信息繭房和低質(zhì)量輸出的循環(huán)里,正如那位國外教授對學(xué)生的怒吼:總用AI糊弄作業(yè),你們將來可能只剩下去麥當(dāng)勞打工!
那么,我們需要的到底是什么?
我們需要的,或許是一次集體的清醒。我們要意識到,當(dāng)前許多被打上“AI”標(biāo)簽的產(chǎn)品和服務(wù),本質(zhì)上是“尚未成熟的、有重大缺陷的、且權(quán)責(zé)關(guān)系模糊的技術(shù)應(yīng)用”。它遠(yuǎn)未達(dá)到通用人工智能的層次,它更像一個記憶力超群但缺乏常識、有時會為討好你而信口開河的快嘴伙計。
因此,張文宏的“拒絕”不是保守,而是一種珍貴的專業(yè)操守和負(fù)責(zé)精神。他把病人的安危,置于對時髦技術(shù)的無條件擁抱之上。這是一種標(biāo)桿。在任何關(guān)乎重大利益的領(lǐng)域,治病、投資、司法、教育,我們都應(yīng)該豎起這樣一道閘門:人的最終判斷和責(zé)任,必須牢牢掌握在合格的、有專業(yè)操守的人手中。AI可以輔助,但絕不能主導(dǎo);可以參考,但絕不能盲從。
而對于日常層面,王女士母親的教訓(xùn)則是一記響亮的警鐘。它告訴我們,在這個信息愈發(fā)蕪雜的時代,我們對任何便捷渠道獲取的關(guān)鍵信息,尤其是來自AI整合的信息,都必須啟動最基礎(chǔ)的“不信任”驗證程序:多方核對,查找官方信源,對夸張的警告保持警惕。這很累,但這正是技術(shù)泛濫時代保護(hù)自己必須付出的“智商稅”。
![]()
![]()
說到底,技術(shù)本身沒有善惡,但掌控技術(shù)的人有善惡。
我們期待的不是一個AI替代一切、人類躺平享福的未來。
我們期待的,是一個AI真正成為合格工具,由具有人性良知的人來駕馭的未來。
在那之前,對任何將AI奉為圭臬的喧囂保持距離,這是我們對自己,也是對這個世界,最基本的保護(hù)。
最后,說點(diǎn)實在的。我寫這篇文章,不是否定技術(shù),而是告訴大家真實的現(xiàn)狀。
從現(xiàn)在起,對我們面前那個看似無所不能的“AI”,多一點(diǎn)審視,少一點(diǎn)盲從。這份審視,需要智慧,也需要勇氣。而支持一個仍然愿意花費(fèi)時間、調(diào)用思考、背負(fù)責(zé)任去寫作的人,或許,就是守護(hù)這份智慧與勇氣的開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.