來源:IT之家
2月15日消息,當(dāng)?shù)貢r間 2 月 12 日,谷歌稱其 AI 聊天機(jī)器人 Gemini 正遭遇大量“蒸餾攻擊”(distillation attacks)—— 即通過重復(fù)提問誘導(dǎo)聊天機(jī)器人泄露內(nèi)部機(jī)制。
谷歌表示,這些攻擊者試圖通過反復(fù)提問不斷試探其模型輸出模式與邏輯,探測其內(nèi)部機(jī)制,從而“克隆”該模型或強(qiáng)化攻擊者自己的 AI 系統(tǒng),其中一場攻擊活動對 Gemini 的提示次數(shù)超過 10 萬次。
谷歌在周四發(fā)布的報告中表示,這些攻擊主要由“商業(yè)動機(jī)行為者”發(fā)起。公司判斷其幕后人員多為希望獲得競爭優(yōu)勢的 AI 私企或研究機(jī)構(gòu)。谷歌發(fā)言人向 NBC News 表示,此次攻擊源來自全球多個地區(qū),但拒絕披露更多關(guān)于嫌疑方的信息。
![]()
谷歌威脅情報小組(Threat Intelligence Group)首席分析師約翰 · 霍特奎斯特(John Hultquist)指出,“針對 Gemini 的攻擊規(guī)模表明,此類攻擊很可能已開始或即將蔓延至小型企業(yè)的定制 AI 工具領(lǐng)域。”他將谷歌的處境形容為“煤礦里的金絲雀”,意味著大型平臺的遭遇可能預(yù)示更廣泛的行業(yè)風(fēng)險。
谷歌強(qiáng)調(diào),此類蒸餾攻擊屬于知識產(chǎn)權(quán)盜竊。科技公司已投入數(shù)十億美元開發(fā) AI 聊天機(jī)器人(IT之家注:指大語言模型),其核心模型的內(nèi)部機(jī)制被視為高度重要的專有資產(chǎn)。盡管各大廠商已部署能夠識別與阻斷蒸餾攻擊的機(jī)制,但由于主流大模型服務(wù)面向所有人開放,所以其本質(zhì)上仍易受攻擊。
谷歌還提到,多數(shù)攻擊旨試圖套取 Gemini 的“推理”算法,即其信息處理決策機(jī)制。霍特奎斯特警告,隨著越來越多公司開始訓(xùn)練面向內(nèi)部業(yè)務(wù)的定制 LLM,且這些模型可能包含敏感數(shù)據(jù),蒸餾攻擊的潛在危害會更大。他舉例稱,如果某家公司的 LLM 學(xué)習(xí)了其“100 年來交易的思維方式”,理論上也可能被蒸餾手段逐步提取出關(guān)鍵知識秘密。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.