近日,媒體熱議有博主在使用Kimi時,系統(tǒng)向其返回了一份陌生人的完整簡歷,包含姓名、電話、郵箱等真實敏感信息的事件。被泄露者此前使用Kimi潤色簡歷,與爆料網(wǎng)友使用時間僅間隔約6小時。Kimi運營方月之暗面公司稱系AI幻覺。這一泄露事件直接暴露出AI在狂飆突進中的數(shù)據(jù)安全隱患,而且隨著使用Open Claw(俗稱"養(yǎng)龍蝦")的興起,此類安全風險會被急劇放大。
一、隱私協(xié)議的提示不能為Kimi兜底
先說下平臺為什么會留存用戶輸入的信息,因為這些信息可能會被用于優(yōu)化模型,也就是訓練AI。《Kimi隱私政策》規(guī)定:“對話信息:您在使用我們的產(chǎn)品和服務過程中輸入和產(chǎn)生的文本、語音、圖片、視頻等內(nèi)容。這些信息有助于我們優(yōu)化模型,并了解您的需求和偏好,以便為您提供更精準的服務和支持。”從權利義務對等的角度,Kimi的基礎服務是不收費的,使用用戶輸入內(nèi)容改善大模型并不過分。但既然留存了,就要好好保管,把信息泄露給其他用戶就是Kimi的責任了。
雖然《Kimi隱私政策》也已提示用戶:請謹慎上傳個人信息,尤其是敏感個人信息。但此次泄露仍涉嫌違反多項法律規(guī)定,《個人信息保護法》明確規(guī)定:個人信息處理者不得公開其處理的個人信息,除非取得個人單獨同意。Kimi將用戶A的簡歷直接輸出給用戶B,屬于未經(jīng)同意的公開披露。
《生成式人工智能服務管理暫行辦法》規(guī)定,AI服務商對使用者的輸入信息和使用記錄應當履行依法保護義務,不得非法向他人提供使用者輸入信息和使用記錄。所以即使使用者主動上傳隱私信息,AI服務商仍負有保密義務,技術故障不能成為免責理由。
二、養(yǎng)龍蝦模式下海量數(shù)據(jù)投喂AI的致命風險
其實這次事故的性質(zhì)并不復雜,用戶文件串臺是因為Kimi的數(shù)據(jù)沒有隔離好,但它的嚴重性,遠不止一個技術上的Bug。當前,大模型應用正走向具備底層操作權限的AI Agent(智能體),Open Claw即科技圈俗稱的“養(yǎng)龍蝦”非常走紅。為了讓龍蝦執(zhí)行效率更高、成為更懂業(yè)務的數(shù)字分身,大量用戶開始將海量的本地核心數(shù)據(jù)直接通過API接口喂給人工智能去學習和處理。
這種深度的喂養(yǎng)面臨著極高的法律與安全風險。養(yǎng)龍蝦本質(zhì)上不是技術問題,而是一次對數(shù)據(jù)控制權的讓渡。養(yǎng)龍蝦需要導入的數(shù)據(jù)往往包含了個人隱私的聊天記錄、涉及商業(yè)機密的內(nèi)部財務報表和研發(fā)文檔,甚至是國家秘密。尤其是當養(yǎng)龍蝦進入企業(yè)級應用場景時,數(shù)據(jù)規(guī)模更大、敏感度更高。一個企業(yè)可能同時處理數(shù)萬份包含員工個人信息的人力資源文檔,或者涉及核心技術秘密的研發(fā)資料。
在這樣大規(guī)模、無差別的數(shù)據(jù)上傳場景下,如果人工智能服務商在后臺不做嚴密的脫敏處理,直接利用這些包含了核心機密的原始語料進行模型訓練,一旦發(fā)生類似本次事件的技術故障,風險是毀滅性的。
三、訓練數(shù)據(jù)政策缺乏透明度
回到Kimi,用于API接口服務的《Kimi開放平臺隱私政策》對使用用戶信息訓練AI的規(guī)定和《Kimi隱私政策》條款上一模一樣,可以使用這些信息優(yōu)化模型,訓練AI。這意味著企業(yè)級開發(fā)者接入大模型處理業(yè)務數(shù)據(jù)時,如果發(fā)生類似事故,企業(yè)的核心底牌隨時可能在其他用戶的對話框中被意外吐出。
匿名化處理作為一種隱私保護技術手段,在理論上能夠有效降低個人信息泄露的風險。所以也有AI企業(yè)承諾用戶匿名化訓練,比如《智譜清言隱私政策》就告知用戶,會對個人信息采取技術措施處理,使其無法重新識別特定個人且不能復原,然后進行匿名化的研究、統(tǒng)計分析和模型優(yōu)化迭代。
但絕對的匿名化往往只是一種技術迷思。在缺乏第三方審計和認證機制的情況下,如何定義并實現(xiàn)徹底的匿名化,權限完全掌握在服務商手中。如果系統(tǒng)設計留有數(shù)據(jù)回溯的后門,或者傳統(tǒng)的脫敏手段根本無法抵御大模型日益增強的碎片化關聯(lián)推理能力,泄密風險始終高懸。
四、哪些文件可以投喂AI
對于哪些文件可以上傳到AI的問題,筆者有個建議:這份文件,你不愿意出現(xiàn)在陌生人電腦里的,就不要上傳,不管這家公司叫Anthropic還是月之暗面。其實這兩家公司的技術很好,也很有節(jié)操,但人為失誤和技術漏洞是防不勝防的:
2026年3月,Anthropic公司因人為失誤導致Claude Code超50萬行源代碼泄露,暴露核心架構和未發(fā)布功能,類似失誤,他們13個月內(nèi)發(fā)生了兩次。近日,Anthropic的頂級安全模型Mythos還被未授權用戶用非黑客手段輕易破解訪問權限,2026年4月,Kimi的運營者月之暗面也發(fā)生了本文討論的誤把用戶簡歷發(fā)給第三方的事故。
如果實在要上傳的,也應該將數(shù)據(jù)控制權掌握在自己手中。對涉及商業(yè)秘密的內(nèi)容應當去除,對個人信息則應脫敏。目前有專門的數(shù)據(jù)凈化工具,可以對文檔中的姓名、身份證號、聯(lián)系方式等敏感信息進行自動或手動的脫敏處理。在功能相近的情況下,優(yōu)先選擇像騰訊元寶那樣默認不使用用戶信息進行模型訓練的AI工具。
最后,養(yǎng)龍蝦確實能提高工作效率,但安全養(yǎng)龍蝦的前提從來不是多喂,而是你的龍蝦缸,是否真的防漏。
本文作者:游云庭,知識產(chǎn)權律師。Email: yytbest@gmail.com,本文僅代表作者觀點。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.