本報記者馬俊
“十五五”規劃建議作出了“推進全國一體化算力網等建設和集約高效利用”“搶占人工智能(AI)產業應用制高點”等一系列重要部署,前瞻布局了我國AI發展需要的基礎設施,并指明了AI技術應用方向。如今AI與社會生活的關系日益緊密,但它帶來的安全風險也越來越受到關注。全國政協委員、360集團創始人周鴻祎在今年全國兩會期間重點關注了智能體公共服務平臺建設以及安全智能體規模應用等方向。接受《環球時報》記者采訪時,周鴻祎明確表示,隨著技術發展,AI自身風險加劇,一旦與業務系統深度結合,可能帶來更復雜的安全隱患等問題,因此需要“以AI對抗AI”。
推理算力的重要性日益凸顯
近年來,全球越來越多的AI業內人士承認,由于大模型訓練和使用會產生巨大的電力消耗,因此電力供應成為制約AI發展的關鍵因素。在周鴻祎看來,中國的電力優勢正持續轉化為通用算力。通用算力分為訓練算力和推理算力,但算力本身并不直接創造產業價值。只有消耗推理算力運行的智能體,才能將通用模型能力轉化為懂行業、懂場景的“專用智力”,再由“懂AI又懂業務”的專業人才進行規劃與治理,并在安全能力護航下運行,最終形成穩定、可持續的生產力。在這一轉化鏈條中,智能體成為連接各要素、推動生產力形成的關鍵引擎。
周鴻祎尤其關注的是推理算力的發展。推理算力是指AI大模型在實際應用中響應用戶請求的計算能力,其核心需求是低延遲、高實時性、隱私保護。與集中式、高能耗、長周期的訓練算力不同,推理算力更強調“實時響應”——當用戶通過終端(如手機、機器人等)發起請求時,可快速完成數據處理與結果輸出。
隨著百億級智能體進入產業場景,推理算力的重要性日益凸顯。當前我國訓練算力穩步提升,但面向推理任務的專用集群仍存在結構性缺口,專用推理芯片能力亟需突破。周鴻祎表示,幾年前行業重視訓練算力是合理的,因為當時大模型還沒有訓練好,出現了“百模大戰”現象,訓練算力在此階段變得很重要。但從去年開始,國產大模型的性能過了及格線,基座模型的能力足夠了,就不用再重復訓練模型。如今AI進入到雙線進化時代,一方面是大模型的進化,一方面是智能體的進化,其中智能體就需要用到大量的推理算力。
周鴻祎認為,從趨勢上看,推理算力的需求已從“云端集中”轉向“邊緣分布”。將來很多智能硬件需要依靠邊緣計算進行預處理,不但減少了海量數據傳輸的帶寬消耗,而且降低了敏感信息泄露的風險。例如機器人依靠本地算力處理日常事務,只有復雜的任務才交給云端算力。推理算力與邊緣計算的結合,對于智慧城市、智能工廠的加速建設以及對于機器人產業、自動駕駛產業都有重要的戰略意義。
周鴻祎就此建議,應在全國一體化算力體系框架下出臺推理算力布局指導政策,建立“全國統籌+區域細化”的布局體系,在重點產業區域建設低時延、高密度的推理算力集群,通過調度機制提升資源利用效率。同時鼓勵專用推理芯片國產化發展,實現產業鏈自主可控,支撐智能體技術的深度應用。
安全領域需要“以AI對抗AI”
周鴻祎認為,當前網絡安全領域面臨三方面挑戰:一是傳統安全措施與運營智能化不足。網絡安全從漏洞防護、模擬攻擊滲透等防御環節,到安全報警、分析、溯源等運營環節,都需要加快智能化升級。例如,面對海量代碼,傳統的漏洞檢測手段主要靠“規則匹配”“人工審查”,難以智能化識別隱蔽性強的高危漏洞,安全漏洞“發現難、修復慢”。
二是“黑客智能體”威脅加劇。利用黑客經驗和能力打造“黑客智能體”,只要有算力就可以批量復制、不眠不休、自動攻擊。從全球網絡安全監測情況來看,“黑客智能體”已成為網絡攻擊的重要手段,這讓安全從過去的“人和人”對抗,升級為“人和機器”的不對稱對抗。
三是AI自身存在安全問題。AI自身存在漏洞、價值觀對齊等問題。大模型出錯,可能導致內容錯誤、價值觀幻覺,而智能體一旦出錯會帶來嚴重后果,甚至借助汽車、機器人、無人機等,讓威脅從數字世界延伸到物理世界。
面對這些挑戰,周鴻祎建議加快推行“以模治模”,用AI治理AI。他表示,包括360集團在內,國內外安全企業都已經廣泛使用大模型和智能體協助強化網絡安全防護,甚至可能產生根本性變革。他舉例說,經過專門訓練的智能體,對于尋找程序的各種漏洞、后門和弱口令(例如密碼是12345)等缺陷的效率遠高于人類。此前尋找漏洞和安全滲透的人才都很稀缺,但專門培訓的大模型和智能體“能夠7×24小時不睡覺地在重要機關單位的程序中尋找各種漏洞和后門,以及是否存在弱口令的問題,進而協助改進”。
需訓練發現程序漏洞的智能體
周鴻祎判斷,隨著AI編程水平的快速發展,“未來人類可能會徹底放棄對代碼的管理權,全部由AI編寫、AI管理、AI維護”。因為AI編寫的代碼數量之多、速度之快,遠遠超過了人類的維護能力。但AI編寫的程序也存在漏洞,完全依靠人類專家在AI編寫的海量程序里挖掘漏洞,顯然不可行。“這種局面必須解決,否則海量的代碼里充滿了沒人能懂、沒人能維護的漏洞,萬一AI編寫的代碼爆出一個大雷,人類后悔都來不及了。想要解決這個問題,就需要專門訓練用來發現程序漏洞的智能體。”
這些專門用于發現程序漏洞的智能體得到廣泛應用之后,可能對整個網絡安全領域產生革命性的影響。周鴻祎解釋稱,網絡安全業內原本的共識是,大型程序動輒是由數百萬行甚至更多代碼構成,涉及多模塊、多組件的協同交互,其邏輯復雜度遠超人類可完全掌控的范圍,因此“程序里的漏洞是不可避免、不可能完全消除的”,所有安全公司的思路都是“黑客利用漏洞攻進來之后如何防守”。但專門發現程序漏洞的智能體得到廣泛應用后,它們可以以遠超人類專家的效率發掘新編寫的與舊程序中的大量漏洞,“如果確實通過AI把程序漏洞的數量減少了一半,剩下的一半如果AI挖不出來,黑客也不一定能挖得出來,這樣網絡安全的格局就完全不一樣了”。
如何更好地利用AI
周鴻祎認為,隨著智能體能力的提升,它可能會代替App成為新的服務核心入口。通俗地說,大模型像“知識豐富的大腦”,能回答問題、寫文章、編代碼,但不會“動手”做具體的事。智能體是用大模型當“大腦”,通過調用App、控制機器人,自己完成“從想法到行動”的全流程。比如下達“幫我訂杯咖啡”的指令,大模型會提醒“打開外賣App下單”,但不會自己打開App、選咖啡、付錢。而智能體會自動拆解步驟,完成打開外賣App,選常喝的口味、填寫地址并支付,全程不用人類自己動手。周鴻祎表示,OpenClaw等智能體不但能調用電腦上的所有工具,還可以根據任務需要下載新工具,而且所有的文件都會存在電腦上,“能在電腦上建立起個人的數據記憶,使用越多,將來智能體可能就越有機會改進得更好、更符合個人習慣”。
?很多人目前還停留在將AI助手當個聊天機器人的程度。周鴻祎認為,想要用好AI,可以嘗試用“角色扮演”的方式。他舉例說,如果問AI:公司業務應該怎么發展?通常給出的答案都是泛泛而談。“如果先告訴AI,你對企業商業模式特別有研究,這樣AI在尋找訓練數據的時候,就會圍繞著企業發展和企業商業模式搜集相關材料,答案的思考深度明顯提升。”他解釋說,這是因為大模型已基本學到了全球絕大部分知識,但如果不約束到專業方向,AI給出答案時就會什么知識都試圖加一點,顯得平淡無奇。使用者通過“角色扮演”,AI才會更高效地去尋找相關專業的訓練數據。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.