隨著 ChatGPT 等人工智能工具在醫療保健領域變得越來越普遍,亟需相關的應用指南。
為此,在2025年歐洲腫瘤內科學會2025 ESMO年會上,該組織公布了《在臨床實踐中使用大型語言模型指南》(ELCAP)。
這是全球首個將大型語言模型 (LLM) 安全集成到腫瘤學實踐中的結構化框架,提供了在腫瘤學中各環節使用人工智能的實用指南,旨在保護數據、確保臨床監督并支持決策。
這項研究由ESMO真實世界數據和數字健康工作組負責,將AI應用分為三類,并提出了具體的安全和治理建議:
![]()
ESMO 的全球網絡擁有45,000名腫瘤學專業人士,可以被視為在癌癥護理中負責任地采用人工智能的全球參考。
![]()
ELCAP 1 型:面向患者的工具
這類的代表是能提供癥狀信息或治療指導的聊天機器人和虛擬助手,研究中以基于 GPT-4 的乳腺癌患者聊天機器人舉例,由20位專家利用德爾菲法得到的結論如下表:
![]()
簡單概括就是,目前AI并不能取代正式的臨床建議,但可以提供額外的患者支持,這類工具必須在監督下進行操作,并且永遠不能取代專業的醫療建議。
同時指南提供了幾項關鍵建議,包括患者應清楚地表達他們的問題,以確保準確的 LLM 回答,同時強調了患者應該與醫生就大語言模型的建議保持公開對話,實現人工智能工具的互補性。
指南還指出,ELCAP 1 型人工智能系統理想情況下不應孤立運行,而應嵌入到人工指導的臨床工作流程中。
![]()
ELCAP 2 型:面向臨床醫生的工具
這類指的是腫瘤學家和醫護人員直接使用的系統,包括一些支持決策、文檔、翻譯的人工智能系統。
這類系統的主要用例是臨床決策支持軟件(CDSS),當醫護提出與患者相關的問題,例如“我應該如何治療該患者”,LLM 會提供回復;此外還能完成翻譯、起草文件等基本工作。
![]()
需要正式驗證和明確的問責制,是這部分工具面臨的關鍵問題。
同時該指南鼓勵使用大語言模型來減輕行政負擔,但也警告專業人員不要將患者溝通、治療計劃或診斷的最終責任委托給大模型。
![]()
ELCAP 3 型:后臺系統
第三種類型的大語言模型通常不會立即被患者或醫護人員看到,他們不直接與用戶交互,而是部署在醫療機構的“后臺”,例如電子健康記錄,用于數據提取或臨床試驗匹配等任務。
這類AI可以從半或非結構化醫療記錄或報告(例如病理或影像學報告)中提取結構化數據,例如癌癥診斷/分期、生物標志物和合并癥等;還能幫助篩選患者進行臨床試驗。
![]()
對這類AI,機構應確保臨床文檔完整準確,因為 LLM 生成的輸出在很大程度上取決于數據質量。
機構監督和持續監測也被多次強調。持續的性能監控對于檢測錯誤、偏差或模型隨時間變化的偏差至關重要,并要求每次修改工作流程或數據源時重新驗證人工智能工具。
原文鏈接:https://www.annalsofoncology.org/article/%20S0923-7534(25)04698-8/fulltext
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.