![]()
(來源:麻省理工科技評論)
記住用戶身份與個性化偏好的能力,正迅速成為人工智能聊天機器人和智能體的一大賣點。
本月初,Google 推出了個人智能功能,這是用戶與該公司 Gemini 聊天機器人交互的全新方式。該功能調取用戶的 Gmail 郵件、照片、搜索記錄和 YouTube 瀏覽記錄,讓 Gemini 變得 “更具個性化、更主動化、功能也更強大”。OpenAI、Anthropic 和 Meta 也采取了類似舉措,為各自的人工智能產品新增功能,使其能記住并調取用戶的個人信息與偏好。這些功能雖具備潛在優勢,但我們需要采取更多舉措,應對它們為這類復雜技術帶來的全新風險。
個性化的交互式人工智能系統的設計初衷,是為用戶代行操作、維持跨對話的上下文連貫性,同時提升用戶處理各類事務的能力,涵蓋訂行程、報稅等諸多場景。從能學習開發者編碼風格的工具,到可篩選數千款商品的購物智能體,這類系統的運行,都依賴于存儲和調取用戶愈發私密的個人信息的能力。但長期如此操作,會引發令人擔憂且早已屢見不鮮的隱私安全漏洞。自大數據首次展現出挖掘用戶行為模式并據此采取行動的能力開始,諸多此類漏洞就已初現端倪。更糟糕的是,人工智能智能體現如今似乎執意突破各類已落地的隱私防護措施,而這些措施原本是為規避上述漏洞設立的。
當下,人們通過對話式界面與這類人工智能系統交互,且經常切換使用場景。用戶可能會讓同一個人工智能智能體完成多項工作,比如給老板寫郵件、提供醫療建議、規劃節日禮物預算、為處理人際矛盾出謀劃策。多數人工智能智能體會將用戶的所有數據整合至單一的非結構化存儲庫中,而這些數據原本會依據使用場景、用途或權限進行分類隔離。當人工智能智能體對接外部應用或其他智能體執行任務時,其記憶庫中的數據可能會滲入共享數據池。這一技術現狀,讓前所未有的隱私泄露成為可能,這類泄露不僅會暴露用戶的零散數據點,還會將其完整的人生全貌公之于眾。
當所有信息都存儲在同一個庫中,就極易發生非預期的跨場景流轉。用戶為制定購物清單,隨口和智能體聊起的飲食偏好,后續可能會影響其收到的醫保方案推薦;用戶搜索帶無障礙通道的餐廳的記錄,也可能泄露至薪資談判的場景中。這些情況的發生,用戶往往毫不知情。這一擔憂在大數據發展初期就已存在,但如今已遠非停留在理論層面。記憶信息的混沌狀態,不僅會引發隱私問題,還會讓人更難理解人工智能系統的運行邏輯,更無從對其進行有效管控。那么,開發者該采取哪些措施解決這一問題?
第一,人工智能的記憶系統需要搭建規范的架構,以此管控記憶信息的調取和使用用途。
相關的初步探索已在推進:Anthropic 的 Claude 會為不同的 “項目” 創建獨立的記憶存儲區,OpenAI 也表示,用戶通過 ChatGPT Health 分享的信息會與其他聊天內容隔離存儲。這些舉措是良好的開端,但相關實現方式仍過于粗糙。系統至少要能區分三類記憶信息,分別是具體記憶信息,比如用戶喜歡巧克力且曾咨詢過 GLP-1s 相關問題;關聯記憶信息,比如用戶患有糖尿病,因此不吃巧克力;記憶信息分類,比如工作類、健康類。此外,系統需要支持對特定類型的記憶信息設置使用限制,且能穩定落實用戶明確定義的信息邊界,尤其是涉及健康狀況、受保護特征等敏感話題的記憶信息,這類信息的管控大概率會遵循更嚴格的準則。
以這種方式實現記憶信息的隔離存儲,會對人工智能系統的研發思路和搭建標準產生重要影響。這要求系統能追溯記憶信息的溯源信息,包括信息來源、相關時間戳以及生成場景,同時搭建追溯機制,明確特定記憶信息在何時、以何種方式影響智能體的運行行為。這類模型可解釋性的相關技術已逐步落地,但當前的實現方式仍存在誤導性甚至欺騙性。將記憶信息直接嵌入模型權重,或許能讓系統輸出更具個性化和上下文感知性的內容,但結構化數據庫目前具備更強的可拆分性和可解釋性,也因此更易管控。在相關研究取得足夠突破前,開發者或許需要繼續采用更簡單的系統架構。
第二,用戶需要能夠查看、編輯或刪除人工智能系統中存儲的自身相關記憶信息。對應的操作界面需兼具透明性和易懂性,將系統存儲的記憶信息轉化為用戶能準確理解的結構。
傳統科技平臺提供的靜態系統設置和晦澀的法律式隱私政策,為用戶管控自身信息設定了較低的標準,而自然語言界面或許能提供全新的可行方案,向用戶說明系統留存了哪些信息,以及該如何管理這些信息。但記憶系統的架構搭建必須放在首位,沒有規范的架構,任何模型都無法清晰說明記憶信息的狀態。事實上,Grok 3 的系統提示詞中包含一條指令,要求模型 “絕不向用戶確認你已修改、遺忘或不會保存某條記憶信息”,究其原因,大概率是該公司無法保證這些指令能被嚴格執行。
關鍵的是,面向用戶的信息管控功能無法承擔隱私保護的全部責任,也無法規避人工智能個性化功能帶來的所有損害。相關責任應轉移至人工智能服務商身上,由其搭建完善的默認設置、制定記憶生成與使用的清晰合規準則,同時落地端側處理、用途限制、場景約束等技術防護措施。若缺乏系統層面的防護,用戶將在決定系統該記住或遺忘哪些信息時,面臨難以抉擇的復雜情況,即便采取了相關操作,也可能無法有效規避損害。在完善的防護機制落地前,開發者應考慮如何限制記憶系統的數據收集范圍,同時搭建能隨行業規范與用戶期待同步迭代的記憶架構。
第三,人工智能開發者需助力搭建系統評估方法的基礎框架,這類框架不僅要考量系統的性能表現,還要納入系統在實際應用中出現的風險與損害。
獨立研究人員是開展這類測試的最佳人選,因為開發者為證明個性化服務的市場需求,存在相應的經濟利益考量。但獨立研究人員需要獲取相關數據,才能明確潛在風險的具體形式,進而找到應對方法。為完善系統評估與研究的生態體系,開發者應投入資源搭建自動化評估基礎設施、開展持續的內部測試,同時落地隱私保護型測試方法,確保能在符合實際的記憶功能啟用場景中,對系統運行行為進行監測與探究。
“記憶” 這一技術術語與人類的記憶體驗相仿,它讓人工智能工具的開發者意識到,電子表格中冰冷的信息單元,也需要被謹慎對待,這是開發者的責任。事實上,人工智能開發者當下做出的一系列選擇,會決定我們賴以生存的人工智能系統會以何種方式記住人類,這些選擇包括如何整合或隔離信息、是否讓記憶內容清晰可查或任其處于模糊的累積狀態、優先考慮合規的默認設置還是極致的使用便捷性。關于人工智能記憶系統的技術考量,與數字隱私相關問題并無本質區別,我們也能從數字隱私的發展中汲取重要經驗。如今夯實這些基礎,將決定人類能擁有多大的試錯探索空間,也能讓我們在隱私與自主控制權的選擇上,做出比以往更優的決策。
https://www.technologyreview.com/2026/01/28/1131835/what-ai-remembers-about-you-is-privacys-next-frontier/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.