2025年,中國信息通信研究院發布了一份重磅研究報告——《數據治理研究報告:端側大模型數據治理法律要點研究(2025年)》,全文共49頁。這份報告深入剖析了AI大模型在手機、智能汽車、可穿戴設備等終端設備上的應用,聚焦其帶來的隱私保護、數據安全與法律合規挑戰,為我們揭示了“智能在端,風險也在端”的現實圖景。
一、市場現狀:AI已“潛入”你的生活
- 無處不在的終端設備:手機、手表、汽車、家居都已搭載“端側大模型”,實現離線語音助手、健康監測、個性化推薦等功能。
- 技術特點鮮明:本地化處理(數據不上傳)、輕量化部署(省電省流量)、個性化服務(更懂你)、端云協同(靈活調度資源)。
- 用戶態度復雜:既享受便利,又擔憂隱私——比如你的聲紋可能被還原,你的行為可能被預測。
二、核心風險:隱私與安全“暗流涌動”
- 數據泄露風險高:端側數據可能被逆向攻擊還原,設備丟失或遭黑客攻擊會導致敏感信息外泄。
- “告知-同意”規則失靈:AI訓練用了海量公開數據,無法一一征得用戶同意;一攬子授權又容易過度收集信息。
- 用戶權利難保障:你想刪除AI記憶里的個人信息?很難,因為數據分散在數十億模型參數里,刪不掉、改不了、移不走。
- 責任劃分模糊:終端廠商、模型開發者、APP服務方,到底誰該為數據泄露負責?目前法律還沒說清。
三、全球治理:歐美中各有“打法”
- 歐盟:嚴格保護個人數據,GDPR照用,但也在嘗試靈活處理AI場景。
- 美國:分行業、分場景監管,鼓勵企業自律,避免過度限制創新。
- 中國:在現有法律框架下探索,強調“告知-同意”、最小必要原則,司法案例也在逐步厘清責任。
四、治理建議:未來如何“管住AI”?
- 完善法律:分級告知、彈性適用最小必要原則、強化特殊群體(如兒童、老人)保護。
- 明確責任:制定多方責任清單,推行“舉證責任倒置”,降低用戶維權門檻。
- 技術工具跟上:開發輕量化脫敏工具、部署“監管沙盒”、推動隱私計算技術落地。
- 協同治理:政府、行業、技術機構三方聯動,建立動態評估與信息共享機制。
- 國際合作:推動制定國際數據安全準則,加強技術研發與經驗交流。
報告總結與啟示:
這份報告像一面鏡子,照出了AI時代“便捷與風險并存”的現實。它告訴我們:技術越智能,治理越要跟上。未來,我們需要在“鼓勵創新”和“保護隱私”之間找到平衡點,讓AI真正成為服務人、保護人、賦能人的工具,而不是隱私的“隱形收割機”。企業要合規,用戶要警惕,法律要完善,技術要向善——只有這樣,我們才能擁抱一個“智能在端,安全在握”的數字未來。
報告節選
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.