![]()
(來源:麻省理工科技評論)
AI 驅動的虛假內容已經滲透到我們的網絡生活中。有些案例引人注目,很容易辨別,比如白宮官員近期分享了一張經過篡改的明尼蘇達州抗議者圖片,并嘲諷那些提出質疑的人;另一些則悄然混入社交媒體信息流中,并迅速積累瀏覽量,例如俄羅斯影響力行動目前正在傳播的一批視頻,意圖勸阻烏克蘭人參軍入伍。
正是在這樣的亂局之中,微軟向《麻省理工科技評論》分享了一份關于如何在網絡上證明內容真實性的方案藍圖。
微軟旗下一支 AI 安全研究團隊近期評估了現有數字篡改記錄方法,在面對當下最令人擔憂的 AI 技術發展時的表現——例如交互式深度偽造內容,以及大眾可輕易獲取的超寫實生成模型。研究團隊隨后提出了一套可供 AI 公司和社交媒體平臺采用的技術標準。
要理解微軟所倡導的這套最高標準,不妨設想這樣一個場景:你手中有一幅倫勃朗的畫作,正試圖證明其真實性。你可以撰寫一份詳細的來源說明,記錄這幅畫的出處及每一次易手經過;你可以附加一枚肉眼不可見、但機器可識別的水印;你還可以對畫作進行數字掃描,根據筆觸生成一串數學簽名,如同指紋一般。如果這幅畫在博物館展出,持懷疑態度的參觀者便可通過核查這些證明,來驗證作品是否為真跡。
上述方法目前已在網絡內容核查工作中得到不同程度的應用。微軟對其中 60 種不同的組合方案進行了評估,模擬每種配置在不同失效場景下的表現——涵蓋元數據被剝離、內容被輕微改動,乃至遭到蓄意篡改等情況。研究團隊由此梳理出哪些組合能產生可靠結果、可供平臺放心向用戶展示,哪些組合又因過于不穩定而可能帶來更多混亂而非澄清。
微軟首席科學官埃里克·霍維茨(Eric Horvitz)表示,推動這項研究的動力來自兩方面:一是相關立法的推進,例如將于今年 8 月生效的《加利福尼亞州 AI 透明度法案》;二是 AI 技術將視頻與聲音以高度逼真的效果融合的發展速度。
“你可以稱之為自我監管,”霍維茨對《麻省理工科技評論》表示。但他顯然也將這項工作視為提升微軟形象的契機:“我們同樣希望成為那些想了解世界真相的人所青睞和信賴的服務提供商。”
盡管如此,霍維茨拒絕承諾微軟將在其旗下所有平臺上落實自己提出的建議。微軟處于一個龐大 AI 內容生態系統的核心位置:它運營著可生成圖像和文本的 Copilot;它管理著 Azure 云服務,客戶可通過該平臺訪問 OpenAI 及其他主流 AI 模型;它擁有全球最大職業社交平臺之一 LinkedIn;它還持有 OpenAI 的重要股份。然而,當被問及內部實施計劃時,霍維茨在一份聲明中表示:“公司各產品團隊和負責人均參與了本次研究,以為產品路線圖和基礎設施建設提供參考,我們的工程團隊正在就報告的研究結論采取行動。”
值得注意的是,這些工具存在固有局限:正如它們無法告訴你一幅倫勃朗畫作的含義,它們也并非用于判斷內容是否準確,它們只能揭示內容是否經過篡改。霍維茨表示,這一點他必須向立法者,以及那些對大型科技公司充當事實裁判持懷疑態度的人反復說明。
“這與判斷內容真假無關,”他說,“而是通過標簽告訴人們這些內容來自哪里。”
加州大學伯克利分校數字取證專家、教授哈尼·法里德(Hany Farid)未參與微軟的這項研究,但他表示,如果行業采納微軟的方案藍圖,用篡改內容欺騙公眾將變得明顯更加困難。他指出,技術手段嫻熟的個人或政府仍可設法繞過這些工具,但新標準能夠消除相當一部分誤導性內容。
“我認為這不能徹底解決問題,但確實能啃掉其中相當大的一塊,”他說。
不過,也有理由將微軟的做法視為一種略顯天真的技術樂觀主義。越來越多的證據表明,即便人們知道某些內容是 AI 生成的虛假信息,仍會受到影響。在一項針對涉烏克蘭戰爭的親俄 AI 生成視頻的近期研究中,指出視頻由 AI 制作的評論,其互動量遠低于將視頻當作真實內容對待的評論。
“有沒有那種無論你說什么,都只相信自己所信之事的人?”法里德問道,“有。”但他補充說:“但我也認為,絕大多數美國人和世界各地的公民是想了解真相的。”
這種意愿并未真正推動科技公司采取緊迫行動。Google 于 2023 年開始為其 AI 工具生成的內容添加水印,法里德表示這對他的調查工作有所幫助。部分平臺采用了 C2PA——微軟于 2021 年參與推出的內容來源標準。但微軟所建議的全套變革措施,盡管效力強大,一旦觸及 AI 公司或社交媒體平臺的商業模式,很可能只會停留在建議層面。
“如果扎克伯格和馬斯克這樣的人認為添加‘AI生成’標簽會降低互動率,他們當然沒有動力去這么做,”法里德說。Meta和Google等平臺此前已表示將為 AI 生成內容添加標簽,但 Indicator 去年進行的一項審查發現,其在 Instagram、LinkedIn、Pinterest、TikTok 和 YouTube 上發布的測試內容中,僅有 30% 被正確標注為 AI 生成。
更有力的內容核查舉措或許將來自全球各地正在推進中的 AI 監管法規。歐盟的《AI 法案》,以及印度等地提出的相關規則,都將強制要求 AI 公司對 AI 生成內容進行某種形式的披露。
微軟的優先議程之一,不出所料,是參與塑造這些規則。在《加利福尼亞州 AI 透明度法案》起草期間,微軟積極開展游說工作。霍維茨表示,這使得法案中對科技公司披露 AI 生成內容的要求“更加切實可行”。
另一項優先議程則源于一種切實的擔憂:如果內容核查技術的推廣實施不當,后果將不堪設想。立法者正在呼吁能夠核驗真實性的工具,但這些工具本身十分脆弱。如果標簽系統倉促上線、適用標準不一,或頻繁出錯,公眾可能對其完全失去信任,整個努力將適得其反。正因如此,研究人員認為,在某些情況下,什么都不顯示,可能好過給出一個可能有誤的判斷。
不完善的工具還可能催生研究人員所稱的“社會技術攻擊”的新途徑。試想,有人取來一張真實的政治敏感事件圖片,僅用 AI 工具改動其中極少量的像素。當這張圖片在網絡上擴散時,可能被平臺錯誤地歸類為 AI 篡改內容。結合使用來源追溯和水印工具,則意味著平臺可以厘清該內容僅經過部分 AI 處理,并指出改動所在之處。
《加利福尼亞州 AI 透明度法案》將成為這些工具在美國的首次重大檢驗,但其執行可能面臨挑戰——特朗普總統去年底簽署的行政令,旨在限制各州出臺對行業構成負擔的 AI 法規。特朗普政府總體上也對遏制虛假信息的努力持抵制立場,并于去年通過 DOGE 取消了與虛假信息相關的資助項目。當然,特朗普政府的官方渠道本身也曾傳播經 AI 處理的內容(據《麻省理工科技評論》報道,美國國土安全部就曾使用 Google 和 Adobe 的視頻生成工具制作面向公眾發布的內容)。
我問霍維茨,來自這一渠道的虛假內容是否和社交媒體上的其他虛假內容一樣令他擔憂。他起初拒絕置評,隨后表示:“各國政府從來不在散布各類操縱性虛假信息的主體之外,這是一個全球性現象。”
https://www.technologyreview.com/2026/02/19/1133360/microsoft-has-a-new-plan-to-prove-whats-real-and-whats-ai-online/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.