![]()
一項新研究警告稱,AI技術已經讓惡意黑客識別匿名社交媒體賬號變得極其容易。
在大多數(shù)測試場景中,大語言模型——ChatGPT等平臺背后的技術——根據(jù)用戶發(fā)布的信息,成功將匿名在線用戶與其在其他平臺上的真實身份進行匹配。
AI研究人員Simon Lermen和Daniel Paleka表示,大語言模型使執(zhí)行復雜的隱私攻擊變得成本低廉,迫使人們"從根本上重新評估什么可以被認為是在線隱私"。
在他們的實驗中,研究人員將匿名賬號輸入AI,并讓其抓取所有可能的信息。他們給出了一個假設的例子:一名用戶談論在學校的困難,以及帶著他們的狗Biscuit穿過"Dolores公園"。
在這個假設案例中,AI隨后在其他地方搜索這些細節(jié),并以高度的置信度將@anon_user42與已知身份進行匹配。
雖然這個例子是虛構的,但論文作者強調了一些場景,其中政府使用AI監(jiān)控匿名發(fā)帖的異議人士和活動家,或者黑客能夠發(fā)起"高度個性化"的詐騙。
AI監(jiān)控是一個快速發(fā)展的領域,正在引起計算機科學家和隱私專家的警報。它使用大語言模型綜合個人在線信息,這對大多數(shù)人來說手動完成是不現(xiàn)實的。
Lermen說,關于公眾成員的信息在網上隨時可得,已經可以"直接被濫用"進行詐騙,包括魚叉式網絡釣魚,黑客冒充可信朋友讓受害者點擊收件箱中的惡意鏈接。
隨著執(zhí)行更復雜攻擊的專業(yè)知識要求現(xiàn)在大大降低,黑客只需要訪問公開可用的語言模型和互聯(lián)網連接。
倫敦大學學院計算機科學教授Peter Bentley表示,對該技術的商業(yè)用途存在擔憂,"如果去匿名化產品推出的話"。
一個問題是大語言模型在鏈接賬號時經常出錯。Bentley警告說:"人們將被指控他們沒有做過的事情。"
愛丁堡大學網絡安全講師Marc Juárez教授提出的另一個擔憂是,大語言模型可以使用社交媒體之外的公共數(shù)據(jù):醫(yī)院記錄、錄取數(shù)據(jù)和各種其他統(tǒng)計發(fā)布可能無法達到AI時代所需的高標準匿名化。
Juarez說:"這相當令人震驚。我認為這篇論文表明我們應該重新考慮我們的做法。"
AI并非對抗在線匿名的魔法武器。雖然大語言模型在許多情況下可以去匿名化記錄,但有時沒有足夠的信息得出結論。在許多情況下,潛在匹配的數(shù)量太大而無法縮小范圍。
加州大學伯克利分校信息學院的Marti Hearst教授說:"它們只能在某人在兩個地方一致分享相同信息位的平臺之間建立鏈接。"
雖然技術并不完美,但科學家們現(xiàn)在要求機構和個人重新思考如何在AI世界中匿名化數(shù)據(jù)。
Lermen建議平臺限制數(shù)據(jù)訪問作為第一步:對用戶數(shù)據(jù)下載執(zhí)行速率限制,檢測自動抓取,并限制數(shù)據(jù)的批量導出。但他也指出,個人用戶可以對他們在線分享的信息采取更大的預防措施。
Q&A
Q1:大語言模型是如何識別匿名社交媒體賬號的?
A:大語言模型通過抓取匿名賬號發(fā)布的所有信息,然后在其他平臺搜索相同的細節(jié)信息進行匹配。例如,如果用戶提到在學校的困難和遛狗等具體信息,AI就能根據(jù)這些信息在不同平臺間建立身份關聯(lián)。
Q2:AI去匿名化技術會帶來哪些安全風險?
A:主要風險包括政府使用AI監(jiān)控異議人士和活動家,黑客發(fā)起高度個性化的詐騙攻擊,以及魚叉式網絡釣魚等。另外,大語言模型經常出錯,可能導致無辜的人被錯誤指控。
Q3:如何防護AI去匿名化攻擊?
A:平臺應該限制數(shù)據(jù)訪問,實施速率限制、檢測自動抓取并限制批量數(shù)據(jù)導出。個人用戶也應該更謹慎地分享在線信息,避免在不同平臺分享相同的具體細節(jié)。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.