
人類如何與AI智能體共處
編者按
新質策源導刊的第二期,我們聚焦AI智能體(AI Agent),不僅僅因為它當下的熱度,更因為我們看到了它對未來的影響。我們深度訪談行業頂級專家、資深研究人員、國內外知名企業,盡力描繪當下AI時代的真實圖景,展望未來的各種可能性,在不確定性中尋找確定性。
這個領域創新不斷,猶如科幻即將照入現實。我們想知道的不只是近在咫尺的明天會怎樣,更想知道今天我們做的一切,會對不遠的未來產生什么樣的影響,誠邀您和我們一起,探索新AI時代。敬請關注本期策劃——“人類如何與AI智能體共處”。
![]()
——訪中國工程院院士鄔賀銓
![]()
■中國經濟時報記者張一鳴 王彩娜
人工智能正從大模型的通用問答階段,邁向智能體場景落地的全新階段,深度融入千行百業,持續重塑生產生活方式,卻也隨之帶來權限管控、隱私保護、責任認定等一系列新挑戰。人類該如何與AI智能體共處,把握技術發展與安全規范的平衡,讓人工智能真正服務于社會發展與美好生活?中國經濟時報記者日前獨家專訪了中國工程院院士鄔賀銓,圍繞AI智能體的本質特征、潛在風險及治理之道展開深度對話。
從“被動助手”到“主動代理”:AI智能體帶來了什么?
中國經濟時報:AI智能體的出現讓人工智能與人類的關系發生了怎樣的本質變化?
鄔賀銓:大模型如今已經廣泛應用,在信息問答、文檔創作等方面展現出強大能力,但其本質還是語言模型,局限性十分明顯,主要靠數學計算尋找概率最大的答案,缺乏對物理世界的真實感知和理解,容易產生幻覺,更重要的是,它難以落地到具體的產業場景中完成實際任務。而AI智能體正是為解決大模型的局限性而誕生的,它從大模型演進而來,卻不追求通用性,而是聚焦特定任務優化。
AI智能體有兩個大模型不具備的關鍵能力,一是閉環迭代,能通過持續實踐形成經驗記憶,總結完成任務的可行路徑,避免重復犯錯;二是工具鏈集成,可調用外部數據庫、其他模型等資源,突破自身能力邊界,這讓它對單一任務的處理更精準、更可靠,也因為輕量化設計降低了算力需求,能真正走進千行百業。
更重要的是,AI智能體實現了從“被動助手”向“主動代理”的轉變。工業生產中,各環節AI智能體能協同優化供應鏈、生產、銷售全流程。這種自主性和協同性,讓AI智能體不再是單純的工具,而是成為了人類的全新協作伙伴。
中國經濟時報:AI智能體成為人類協作伙伴的基礎是什么?它的落地又讓我們看到了哪些新的可能性?
鄔賀銓:AI智能體能成為人類協作伙伴,核心基礎是它既保留了大模型的智能優勢,又補足了落地應用的能力短板,還能與人類形成能力互補——人類擅長高階決策、情感判斷和創新思考,AI智能體則擅長重復性工作、多資源協同和精準執行。而且AI智能體的輕量化特性,讓它能下沉到手機、可穿戴設備等各類終端,讓AI智能體的協作能力真正貼近人類的生活和工作場景。
它的落地讓我們看到了諸多新可能:消費端,旅游規劃智能體能自動協調機票、酒店、路線,解放人類的煩瑣安排;工業端,智能體協同能大幅提升生產效率,減少人工干預;城市治理端,多智能體聯動能讓應急處置、公共服務更高效。可以說,AI智能體的出現,讓人機協作的場景變得更具體、更廣泛。
![]()
圖片來源/新華社
隱私、安全、責任:AI智能體帶來的三大挑戰
中國經濟時報:您認為AI智能體發展目前面臨的核心風險有哪些?
鄔賀銓:AI智能體現階段的發展面臨多重挑戰,這些挑戰既來自技術不成熟,也來自管理和制度的滯后。首先是技術層面的問題,一是自主學習可能產生偏見,智能體缺乏對學習內容的有效甄別能力,容易兼收并蓄不實信息,形成錯誤的判斷邏輯;二是協作穩定性不足,多智能體協同過程中,容易出現決策沖突和資源競爭,甚至產生錯誤的傳導效應,影響任務執行。
其次是權限和責任的問題,智能體的自主性容易帶來越權風險,可能超越人類授權范圍自作主張;而一旦出現問題,責任認定難度極大,問題溯源可能涉及大模型訓練、工具鏈調用、智能體記憶偏差,甚至人類指令表述不清等多個方面,很難界定具體責任主體。
再者是安全放大效應,智能體作為數字世界的新入口,統一調度后端的App、數據庫、工具鏈等所有資源,這個入口一旦被黑客攻擊,會牽連后端所有系統,造成系統性安全風險;同時,智能體深度掌握用戶的習慣和隱私信息,若數據管理不當,極易引發隱私泄露問題。
還有生態協調的挑戰,智能體屏蔽了傳統App的界面,成為用戶和App之間的中間層,這就涉及App開發者的利益分配問題:開發者投入大量資源獲取用戶,智能體的介入讓其與用戶的直接聯系被切斷,若沒有合理的利益分配機制,會引發生態矛盾。這些風險的根源,本質上是智能體的技術發展速度超過了制度規范、生態協調的速度,也超過了人類對其的管理能力建設速度。
中國經濟時報:面對這些風險,人類該如何守住安全底線,應對思路是什么?
鄔賀銓:面對AI智能體發展的諸多挑戰,我們不能因噎廢食,核心思路是在發展中規范,通過制度約束和技術手段,把AI智能體的“權力關進籠子”,同時建立漸進式的信任機制。
第一,明確權限約束,建立智能體權限管理制度,智能體的授權范圍必須清晰界定,不同的任務賦予不同的權限,比如簡單的信息查詢可完全授權,涉及資金、隱私的操作則要設置嚴格的權限門檻。
第二,完善審計追溯機制,對智能體的決策過程、工具鏈調用、記憶更新等所有行為進行全程記錄,一旦出現問題,能快速溯源,明確責任主體,這是實現有效管理的基礎。
第三,推行漸進式授權,人與智能體的協作需要一個磨合過程,就像與人相處一樣,先從低風險、簡單的任務開始,逐步建立信任,再根據實際情況擴大授權范圍,不能一開始就將所有權力交出去。
第四,推進標準建設,制定智能體間的通信協議、接口標準,讓多智能體協同有規可循,減少決策沖突;同時規范用戶數據調用的權限邊界和同意機制,明確原始數據、加工數據的共享范圍,保護用戶數據隱私。
另外,對于普通用戶而言,也可以掌握自主管控的主動權,比如讓智能體先提供方案而非直接執行,由人類做最終決策,降低操作風險。歸根結底,智能體的可控性,離不開人類的全程參與和有效管理,我們要始終掌握人機協作的主導權。
共處之道:平衡發展與規范,構建多方協同的新生態
中國經濟時報:人類與AI智能體和諧共處,需要構建一個怎樣的產業生態?
鄔賀銓:人類與AI智能體和諧共處,需要構建一個多方協同、利益共享、安全可控的產業生態,核心是平衡智能體開發者、App開發者、用戶和監管部門四方的利益,缺一不可。
對于用戶,要建立嚴格的數據保護規范,明確智能體對用戶數據的使用范圍、加工方式和共享邊界,所有數據調用必須以用戶授權為前提,保障用戶的隱私和數據主權;對于App開發者,要建立合理的利益分配機制,智能體作為中間層,不能無償占用開發者的資源和用戶資源,要通過商業規則、技術接口等方式,讓開發者能從智能體的生態中獲得相應收益,避免生態矛盾;對于智能體開發者,要強化行業自律,遵守數據規范和安全要求,與上下游產業形成良性互動;對于監管部門,要出臺針對性的政策法規,明確各方的權利和義務,同時推進智能體的識別和監管,防止惡意智能體傳播,維護生態安全。
中國經濟時報:從長遠來看,實現人類與AI智能體和諧共生的關鍵是什么?
鄔賀銓:從長遠來看,AI智能體會“潤物細無聲”地融入人類的生活和工作,人機協同會成為未來社會的主流生產和生活方式。而人工智能的終極發展方向,是從語言模型向世界模型演進,讓智能體真正具備對物理世界的真實認知,讓人機協作更精準、更自然,但這個過程需要長期的技術積累,目前還沒有明確的技術路徑和時間表。
實現人類與AI智能體和諧共生的關鍵,始終在于把握“人為主導、技術向善、規范發展”的原則。首先,人類要始終掌握人機協作的主導權,智能體的發展是為了讓人類的生活更美好,而非替代人類,所有的技術研發和制度設計,都要圍繞這個核心;其次,技術發展要堅守向善的底線,讓智能體始終服務于人類的共同利益,避免技術被濫用;最后,要堅持發展與規范并重,在技術研發的同時,同步推進制度建設、生態協調和能力培養,讓智能體的發展速度與社會的適應能力相匹配。
![]()
總 監 制丨王列軍車海剛
監 制丨陳 波 王 彧 楊玉洋
主 編丨毛晶慧 編 輯丨蔣 帥
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.