全球網絡安全領導企業卡巴斯基近日發布2026年網絡安全趨勢報告,指出人工智能(AI)的迅猛發展正從根本上重塑個人與企業的網絡安全格局。大語言模型(LLMs)在強化防御能力的同時,也為威脅行為者創造了更多攻擊機會,推動網絡攻防博弈進入全新的智能對抗時代。
深度偽造技術主流化,高逼真度音頻與低創作門檻成關鍵變量
報告強調,深度偽造(Deepfake)技術正在成為主流,相關認知將持續提升。企業正日益重視合成內容風險,通過員工培訓降低受害概率;普通用戶也因頻繁接觸虛假內容,對這類威脅的認知程度顯著提高。卡巴斯基專家指出,深度偽造已成為安全議程中的固定議題,亟需系統化的培訓體系與內部政策應對。
技術演進方面,深度偽造的視覺質量已達到較高水平,而逼真音頻將成為未來提升的核心領域。更值得警惕的是,內容生成工具的易用性持續提升——非專業人士僅需點擊幾次即可創建中等質量的深度偽造內容,這使得技術門檻大幅降低,平均質量不斷上升,不可避免地被網絡犯罪分子利用。盡管實時人臉與語音交換技術仍需高級技術能力支撐,難以廣泛普及,但在針對性場景中,其日益增強的真實感與通過虛擬攝像頭操控視頻的能力,將使攻擊更具迷惑性。
AI內容標識與模型治理成全球監管焦點
針對AI生成內容的標識問題,報告指出目前仍缺乏可靠識別合成內容的統一標準,現有標簽易被繞過或移除,尤其是在開源模型場景下。這一現狀正推動全球范圍內新的技術與監管舉措涌現。
開源權重模型(Open-weight models)的發展同樣引發關注。報告顯示,這類模型在諸多網絡安全相關任務上正快速接近頂級閉源模型,而其缺乏嚴格管控的特性帶來了更多濫用風險。盡管閉源模型仍具備更嚴格的控制機制與安全防護,但開源系統在功能上的快速追趕,使得兩者在惡意利用方面的界限逐漸模糊。OpenAI近期研究表明,經惡意微調的開源模型雖尚未超越閉源模型的風險水平,但已展現出在網絡安全領域的潛在威脅。
AI貫穿攻擊鏈全流程,防御側迎來SOC范式革新
在攻擊應用層面,AI正成為跨攻擊鏈的核心工具,滲透至多數攻擊階段。卡巴斯基專家觀察到,威脅行為者已利用LLMs編寫代碼、構建基礎設施并自動化運營任務,未來這一趨勢將進一步強化——從攻擊準備、通信,到惡意組件組裝、漏洞探測與工具部署,AI將全面賦能攻擊流程。更嚴峻的是,攻擊者正致力于隱藏AI參與痕跡,增加攻擊分析難度。
防御側同樣迎來變革,AI正成為安全分析的常用工具并重塑安全運營中心(SOC)工作模式。基于智能體(Agent)的系統能夠持續掃描基礎設施、識別漏洞并為調查收集上下文信息,大幅減少人工常規工作。這使得安全專家從手動數據搜索轉向基于預置上下文的決策制定,同時安全工具正逐步過渡到自然語言接口,支持通過提示詞(Prompts)而非復雜技術查詢進行操作。
虛擬與現實邊界模糊催生新挑戰,彈性防御成企業核心策略
![]()
報告特別指出,AI生成內容的合法與欺詐邊界正日益模糊。一方面,AI已能生成精心設計的詐騙郵件、具有說服力的視覺身份與高質量釣魚頁面;另一方面,主流品牌在廣告中廣泛采用合成素材,使AI生成內容變得"眼熟"且視覺上"正常化",這使得用戶與自動化檢測系統區分真偽的難度劇增。
面對AI驅動的安全新格局,卡巴斯基專家建議個人與企業采取多層防御策略:加強員工AI安全意識培訓,建立系統化的深度偽造應對機制;密切關注全球AI內容標識監管動態,提前部署合規解決方案;評估開源模型使用風險,建立嚴格的模型治理框架;投資AI賦能的SOC工具,提升威脅檢測與響應效率。"2026年的網絡安全不再是單點的技術對抗,而是智能能力與彈性體系的綜合較量,"卡巴斯基全球研究與分析團隊(GReAT)的高級安全研究員JinYe表示,"只有將AI作為防御體系的核心能力,同時建立完善的業務連續性保障機制,才能在智能化高速發展的時代搶占先機。"
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.