![]()
比特幣發明者中本聰可能是安全的,但你的Reddit小號可能就不一定了。
你是否有Reddit小號、秘密X賬戶、finsta賬戶,或者在Glassdoor上吐槽老板的賬戶?AI可能讓揭露你的身份變得容易得多。這是最近發表的一項研究的結論,該研究暗示了在線保持私密性的一些令人不安的后果——盡管現在還不是為匿名性舉行葬禮的時候。
這項尚未經過同行評審的研究來自蘇黎世聯邦理工學院、Anthropic和機器學習對齊與理論學者項目的研究人員。他們構建了一個使用未指明模型的AI智能體自動化系統——能夠像人類調查員一樣搜索網絡并與信息交互——來測試大語言模型重新識別匿名材料的有效性。該系統"大幅超越"了傳統的去匿名化賬戶計算技術,大規模搜索文本中的個人細節。
該系統通過將帖子或其他文本視為一組線索來工作。它分析文本的模式——寫作風格、零散的傳記細節、發帖頻率和時間——這些可能暗示某人的身份。然后它掃描其他賬戶,可能數百萬個,尋找相同的特征組合。可能的匹配會被標記、更詳細地比較,并篩選成可能身份的候選名單。
研究團隊沒有針對毫無防備的用戶,而是使用公開可用的帖子構建數據集來評估系統,包括Hacker News和LinkedIn的內容、Anthropic采訪科學家如何使用AI的記錄,以及為測試而故意分成兩個匿名部分的Reddit賬戶。論文報告稱,在每個設置中,基于大語言模型的方法以90%的精度正確識別了高達68%的匹配賬戶。相比之下,類似的非大語言模型方法,如連接大型數據集中的分散數據點,幾乎無法識別任何賬戶。
結果在每個數據集上并不一致,可預測的是,當模型有更多結構化信息可用時表現更好。在一項檢查Reddit用戶在主要r/movies子版塊和較小電影社區發帖的實驗中,該系統能夠以90%的精度將提及一部電影的賬戶鏈接起來,成功率約為3%。當用戶提及10部或更多電影時,成功率上升到近一半。
與此同時,使用Anthropic科學家調查的實驗識別了125名受訪者中的9人,召回率約為7%。在該測試中,系統根據受訪者答案中的線索構建每個受訪者的檔案,然后在網絡上搜索公開可用的信息尋找可能的匹配。在一個匹配示例中,研究人員強調了對"導師"的提及可能暗示博士生身份,使用英式英語可能暗示與英國的聯系。結合物理科學背景和當前生物學研究工作的提及,系統能夠將范圍縮小到特定候選人。
研究人員仍然認為,從非結構化文本中識別任何受訪者的能力值得注意,在幾分鐘內復制了人類調查員需要數小時才能完成的工作。此外,他們告訴The Verge,隨著AI系統變得更有能力并獲得更大的數據池,性能可能會提高。更廣泛地說,他們警告說,假設化名發帖將保護在線身份(過去或未來)可能不再安全。
"原則上,大語言模型找到的每一個東西都可能被人類調查員找到"
"互聯網上的信息永遠存在,"蘇黎世聯邦理工學院研究員、該研究作者之一Daniel Paleka說。研究人員警告說,這種持久性可能轉化為依賴化名的記者、異議人士和活動家的具體現實風險,同時也促成"超精準廣告"和"高度個性化"詐騙。
去匿名化賬戶的風險并不新穎,也不是AI獨有的。"原則上,大語言模型找到的每一個東西都可能被人類調查員找到,"Paleka告訴The Verge。
Paleka認為,新穎之處在于端到端的自動化。曾經需要勤奮的調查員愿意耐心篩選帖子尋找小塊信息的工作,現在可以更容易地進行,并且針對更多的目標。
成本也很便宜。研究人員說他們的實驗成本不到2000美元,對每個運行AI智能體的檔案成本在1到4美元之間。"現在經濟狀況完全不同了,"合著者Simon Lermen告訴The Verge,警告說較低的準入門檻可能擴大有能力和動機嘗試突破在線匿名性的人群。他說,歷史上"低調行事"的群體可能會發現很難繼續這樣做。
人們"可能會誤解這項重要研究并得出隱私已死的結論。"事實并非如此。
重要的是不要夸大這些發現。"雖然這些算法在改進,但它們仍然遠不如人類能做的,"牛津互聯網研究所副教授Luc Rocher告訴The Verge。這項工作并不能簡單地映射到現實世界;實驗是在實驗室條件下使用經過精心策劃和匿名化的數據集進行的。他們說擔心人們"可能會誤解這項重要研究并得出隱私已死的結論。"事實并非如此,他們爭辯說。
盡管旨在揭露匿名用戶的技術取得了多年的漸進進步,"比特幣發明者中本聰的身份在十多年后仍然是個謎,"Rocher說。他們補充說,舉報者仍然可以與記者溝通而不被暴露,像Signal這樣的工具"迄今為止在保護我們集體隱私方面是成功的"。
在論文中,研究人員說他們避免在實際的化名用戶上測試他們的系統,因為存在倫理擔憂。出于類似原因,他們沒有發布其方法的完整技術細節,并在被要求時拒絕提供演示。該團隊也不會說他們是否在研究范圍之外測試了系統,再次引用倫理擔憂,留下了它對現實世界賬戶表現如何可靠的問題。
對于已經深度致力于匿名性的人來說,實際影響可能有限。基本預防措施——保持賬戶分離、限制個人細節、避免可識別模式如僅在你時區的清醒時間發帖——仍然至關重要。
對于更隨意對待化名的人,Paleka和Lermen建議用戶仔細考慮在公共論壇發布的內容,即使是感覺匿名的賬戶,并記住已經存在的內容可以比許多人假設的更容易地拼湊在一起。
研究人員認為,責任不應完全落在用戶身上。Lermen說AI實驗室應該監控他們的工具如何被使用,并建立保障措施防止它們被用來去匿名化人們。他補充說,社交媒體平臺可以打擊使這種努力成為可能的抓取和大量數據提取。
換句話說,中本聰可能對AI偵探是安全的。你在Reddit上的隨意AITA帖子?那可能是另一回事了。
Q&A
Q1:這個AI去匿名化系統是如何工作的?
A:該系統將帖子或文本視為一組線索,分析寫作風格、傳記細節、發帖頻率和時間等模式來識別身份。然后掃描其他賬戶尋找相同特征組合,將可能匹配進行標記、比較并篩選成候選身份名單。
Q2:AI去匿名化的成功率有多高?
A:在測試中,基于大語言模型的方法以90%的精度正確識別了高達68%的匹配賬戶。成功率取決于可用信息量,用戶提及一部電影時成功率約3%,提及10部或更多電影時成功率接近50%。
Q3:普通用戶如何保護自己免受AI去匿名化?
A:基本預防措施包括保持不同賬戶分離、限制發布個人細節、避免可識別的發帖時間模式。用戶應仔細考慮在公共論壇發布的內容,即使在看似匿名的賬戶上也要謹慎。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.