據央視新聞1月7日報道,國家安全部近日披露案例,個別單位因直接使用開源框架建立聯網大模型,導致攻擊者未經授權即可自由訪問內部網絡,從而引發數據泄露和安全風險。
案例顯示,某單位工作人員在處理內部文件時,違規使用開源AI工具,由于電腦系統默認開啟公網訪問且未設密碼,導致敏感資料被境外IP非法訪問和下載。
![]()
何為“開源大模型”?有哪些安全隱患?
剛才提到的開源框架大模型指的是什么?存在哪些安全隱患?我們來聽專家的解讀。
中國網絡空間安全協會人工智能安全治理專業委員會委員 王媛媛:開源大模型是指將模型的架構、參數、訓練數據公開給客戶免費使用的人工智能模型,目前互聯網上開放的開源大模型是非常多的,有的擅長推理,有的擅長編寫代碼,有的擅長處理文本,還有的擅長處理影像等等。比如說給它一個體檢報告,可以幫助我分析我的身體有什么樣的異常,應該如何進行調整,會給我一些非常專業的建議。
專家表示,網民在使用AI工具時,往往忽略了一個問題,就是AI工具有儲存數據的功能。網民投喂給AI的任何文件、圖片等數據,AI都會進行存儲。
![]()
王媛媛:數據安全其實是開源大模型最大的隱患,這很可能會被大家忽略。那么上傳到開源大模型的任何數據,大模型自身都會進行存儲,這是它的工作原理,因為只有這樣才能對數據做分析。如果把公司內部比較機密的一些數據上傳到開源大模型,實際上這些數據已經面臨了泄露的風險。
網民將敏感數據投喂給AI工具后,這些被AI存儲的數據是如何泄露的呢?
![]()
首先這些數據對AI工具的開發者是完全開放的,開發者可以利用權限看到這些數據。另外,目前AI工具很多都是開源的,黑客也會利用大模型本身漏洞攻擊入侵大模型后臺,獲得數據。
保護數據安全,切勿給AI工具投喂敏感數據
AI工具具有數據存儲功能,因此專家提醒,在日常使用中,切勿給AI工具投喂敏感數據。
王媛媛:一方面在日常作為普通的網民,在正常使用互聯網開源大模型的時候,要注意不要將個人的敏感信息、隱私信息上傳到開源大模型中。
另外企業在使用開源大模型的時候,在訓練自己的數據的時候,要注意一定要做到私有化部署的方式,也就是將所有的數據都保存在本地,這樣就不會把一些內部的數據上傳到互聯網上了。但是這樣的私有化部署的方式,相應地也要投入一些基礎設施和專業的團隊來進行維護。
來源:央視新聞
如有侵權 ,請聯系刪除

![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.