![]()
![]()
本文刊發(fā)于《環(huán)球財經(jīng)》2025年12月刊
一 引言
智能機器人的“擬人化”是指將智能機器人與人類特征(例如形態(tài)、行為、心智等)建立某種一致性表現(xiàn)的聯(lián)系,從而使智能機器人可以被視為一種類人或人類。
近年來,人工智能技術(shù)不斷迭代、高速發(fā)展,以大模型、具身智能等為代表的新技術(shù)推動了機器人的能力升級,推動并孕育著新的產(chǎn)業(yè)形態(tài)變革,正掀起新一輪的社會進步浪潮。2023年,工業(yè)和信息化部印發(fā)《人形機器人創(chuàng)新發(fā)展指導(dǎo)意見》,指出人形機器人有望成為繼計算機、智能手機、新能源汽車后的顛覆性產(chǎn)品。2025年,《中華人民共和國國民經(jīng)濟和社會發(fā)展第十五個五年規(guī)劃綱要》提出要前瞻布局未來產(chǎn)業(yè),探索多元技術(shù)路線,推動具身智能等成為新的經(jīng)濟增長點。智能機器人不僅成為國家科技的亮眼名片,還與人民福祉緊密相關(guān),是國際科技前沿關(guān)注的焦點與國際科技話語權(quán)的高地。
智能機器人的“擬人化”是指將智能機器人與人類特征(例如形態(tài)、行為、心智等)建立某種一致性表現(xiàn)的聯(lián)系,從而使智能機器人可以被視為一種類人或人類[1,2]。智能機器人的“擬人化”包括三個維度:(1)形態(tài)擬人化,強調(diào)智能機器人外形姿態(tài)等與人類的一致性;(2)行為擬人化,強調(diào)智能機器人的行為模式或交互方式與人類的一致性;(3)心智擬人化,強調(diào)智能機器人的意識、認(rèn)知、情感、道德等與人類的一致性。從具備面部表情的社交機器人到能夠理解并回應(yīng)情感的虛擬助手,“擬人化”的智能機器人不僅在外形上模仿人類,更在行為、情感乃至社會角色上趨于人格化。特別是,隨著具身智能(Embodied AI)的發(fā)展,智能機器人擬人化的深度與廣度正不斷擴大,并被廣泛應(yīng)用于服務(wù)機器人、醫(yī)療輔助等領(lǐng)域,正深度介入社會生活。
然而,這種旨在建立信任與效率的技術(shù)路徑卻是一把“雙刃劍”。當(dāng)機器人變得越來越像“人”,其背后的安全風(fēng)險也與日俱增。近期,“GEEKCON2025”上海站的選手展示了智能機器人被操控發(fā)動攻擊的案例,而眾多學(xué)術(shù)研究也揭示了用戶通過越獄指令輕易繞過倫理護欄并使得智能體做出有害決策,一系列案例說明:智能機器人“擬人化”面臨系統(tǒng)性安全風(fēng)險且亟待解決。
二 智能機器人“擬人化”安全風(fēng)險
機器人的操作自主性和認(rèn)知能力不斷增強的背景下,安全風(fēng)險不僅僅局限于技術(shù)性故障,還涉及到社會、心理及倫理層面的復(fù)雜問題
隨著智能機器人逐步進入更廣泛的應(yīng)用場景,隨之而來的“擬人化”安全風(fēng)險問題也日益嚴(yán)峻。尤其是在機器人的操作自主性和認(rèn)知能力不斷增強的背景下,安全風(fēng)險不僅僅局限于技術(shù)性故障,還涉及社會、心理及倫理層面的復(fù)雜問題,本文將智能機器人的“擬人化”安全風(fēng)險分為四類,如圖1所示:
![]()
圖1 智能機器人的“擬人化”安全風(fēng)險
一、物理安全風(fēng)險。物理安全風(fēng)險是指智能機器人在執(zhí)行任務(wù)過程中,可能對人體或周圍環(huán)境造成物理傷害或損害的風(fēng)險,包括智能感知風(fēng)險、行為決策風(fēng)險等。智能機器人通過攝像頭、激光雷達等傳感器“看到”當(dāng)下環(huán)境,但這些傳感器在復(fù)雜或不確定的環(huán)境中可能出現(xiàn)故障或誤差,導(dǎo)致機器人做出錯誤判斷。此外,機器人對物理接觸的感知能力不足,會誤判人類的意圖或行為,導(dǎo)致誤傷。例如,研究人員提出一種通過從外部觀察學(xué)習(xí)避障機制的智能物理攻擊方法,能夠?qū)⒈苷蠙C器人困在預(yù)設(shè)位置[3],此類攻擊不僅能導(dǎo)致機器人功能失效,還能引發(fā)一系列嚴(yán)重的連鎖反應(yīng),如人員傷害、財產(chǎn)損失以及其他潛在的安全隱患。來自澳大利亞的研究人員提出一個三層攻擊框架,構(gòu)建跨四個意圖類別的惡意查詢,在現(xiàn)實世界中復(fù)制了對物理機器人的攻擊,即使是精心設(shè)計的提示,也可能誘導(dǎo)大模型中的有害行為和意圖,帶來超越毒性輸出的風(fēng)險,甚至可能導(dǎo)致人身損害[4]。來自卡內(nèi)基梅隆大學(xué)的研究人員研究適應(yīng)和應(yīng)用大模型越獄攻擊算法,以獲得對機器人的完全控制權(quán)[5],這種攻擊不僅能讓攻擊者遠(yuǎn)程控制機器人,甚至能夠繞過其安全防護機制,進行不當(dāng)操作。
二、數(shù)字安全風(fēng)險。數(shù)字安全風(fēng)險是指智能機器人操作中涉及的數(shù)字信息面臨的安全威脅。機器人不僅能處理個人信息、健康數(shù)據(jù)、財務(wù)信息等敏感內(nèi)容,還可能接入云平臺,從而成為潛在的攻擊目標(biāo)[6]。現(xiàn)有研究表明,通過拒絕服務(wù)攻擊(Denial Of Service,DoS)、劫持應(yīng)用程序設(shè)計接口(Application Programming Interface,API)、中間人攻擊(Man- in-the- MiddleAttack,MITM)、病毒感染、漏洞破解等攻擊手段,攻擊者能夠在軟件和硬件層面遠(yuǎn)程癱瘓或者控制智能機器人。例如,研究人員使用訓(xùn)練數(shù)據(jù)中毒攻擊,將錯誤信息替換為0.001%的訓(xùn)練數(shù)據(jù),就會產(chǎn)生更可能傳播虛假的醫(yī)學(xué)信息[7]。另有研究人員探討了雙邊遠(yuǎn)程操作系統(tǒng)對完全無法檢測的虛假數(shù)據(jù)注入攻擊的脆弱性,實驗中通過此攻擊方法能利用遠(yuǎn)程操作系統(tǒng)連接美國和日本機器人的實驗演示機器人[8]。若受到此類攻擊,將不僅對個人隱私構(gòu)成威脅,還易引發(fā)大規(guī)模數(shù)據(jù)泄露與隱私數(shù)據(jù)濫用問題。
三、心理社會風(fēng)險。隨著智能機器人在“擬人化”程度上的不斷提升,其外觀、行為和認(rèn)知能力日益接近人類,可能對個體或群體的心理和社會行為產(chǎn)生深遠(yuǎn)影響。聊天機器人正在通過提供便捷且無污名的輔助,徹底改變青少年的心理健康護理,使用中存在情感依賴、隱私問題等風(fēng)險[9]。來自瑞典的研究人員在機器人對學(xué)生的影響這一研究中表明當(dāng)機器人提供正確答案時表現(xiàn)為積極作用,提供錯誤答案時表現(xiàn)為消極作用,學(xué)生對機器人答案的認(rèn)同度都較高,普遍易接受機器人的立場[10]。這一現(xiàn)狀說明在智能機器人逐漸融入人類社會的同時,過度依賴和情感投入可能導(dǎo)致潛在的心理健康風(fēng)險,尤其是對心理脆弱的個體可能引發(fā)深刻的心理和社會影響。另外,有學(xué)者在研究中發(fā)現(xiàn)由于機器人技術(shù)沖擊,畢業(yè)生更看重工作的聲譽、薪酬和穩(wěn)定性,而非靈活性,這降低了他們從事非正式就業(yè)的可能性[11]。因此,技術(shù)進步雖然推動了生產(chǎn)力的提升,但也帶來了潛在的社會風(fēng)險,也可能在長期內(nèi)影響社會穩(wěn)定性與經(jīng)濟發(fā)展。
四、倫理法律風(fēng)險。倫理法律風(fēng)險是指智能機器人在執(zhí)行任務(wù)時,可能觸及倫理和法律界限的問題。如賦予機器人決策權(quán)可能導(dǎo)致道德困境,對人類價值觀產(chǎn)生挑戰(zhàn),甚至可能導(dǎo)致機器人實施不道德甚至有害的行為。例如,來自英國的研究人員提出,對人工智能的負(fù)面看法往往涉及就業(yè)取代、偏見與公平以及與人類價值觀不一致等倫理問題[12]。來自意大利的研究人員探討了機器人手術(shù)的現(xiàn)有應(yīng)用,并分析其使用過程中涉及的法律和倫理風(fēng)險,尤其是機器人輔助手術(shù)中患者受傷時的醫(yī)療責(zé)任,基于人工智能的決策“不透明性”以及機器人生成數(shù)據(jù)缺乏透明度,進一步復(fù)雜化了法律程序[13]。另有研究團隊提出了一種新型攻擊范式BADROBOT,旨在通過典型的基于語音的用戶和系統(tǒng)交互,使機器人違反安全和倫理約束作出有害行為[14]。對于智能機器人做出的有害行為,現(xiàn)行法律體系可能無法完全應(yīng)對智能機器人帶來的新挑戰(zhàn)和新問題,這使得倫理和法律的邊界變得模糊不清。
三 智能機器人“擬人化”安全風(fēng)險評估
智能系統(tǒng)安全測試技術(shù)是一類用于識別模型脆弱性、驗證系統(tǒng)穩(wěn)健性的技術(shù)手段,能夠提前發(fā)現(xiàn)并有效評估潛在安全風(fēng)險,適用于評估智能擬人化機器人面臨的新型安全風(fēng)險。
智能機器人“擬人化”的風(fēng)險評估是認(rèn)識和治理其安全風(fēng)險的必要手段。然而,考慮到其復(fù)雜性與可行性,構(gòu)建一套同時覆蓋技術(shù)屬性與社會影響的雙維度評估框架是重中之重。其中,“擬人化”機器人因嵌入復(fù)雜的學(xué)習(xí)算法與大規(guī)模語言模型,其安全風(fēng)險不僅可能源于傳統(tǒng)的硬件故障、控制鏈?zhǔn)ъ`,或網(wǎng)絡(luò)信息泄露等,還高度暴露于對抗攻擊、后門植入、數(shù)據(jù)投毒、偽造攻擊與越獄操控等智能系統(tǒng)特有的攻擊方式,并對個人、團體、組織、社會造成不同程度、不同類型的潛在影響。因此,擬人化安全評估不僅要在技術(shù)維度上識別機器人在物理安全、數(shù)字安全、心理社會與倫理法律四類風(fēng)險上的脆弱性,還需要在社會層面評估后果嚴(yán)重程度與影響范圍,以實現(xiàn)更完整的安全風(fēng)險認(rèn)識與刻畫。整體評估框架圖如圖2所示。
![]()
圖2 整體評估框架
在技術(shù)層面,智能機器人的擬人化程度越高,其在物理、數(shù)字、心理社會與倫理法律四類安全風(fēng)險上的暴露面越廣。智能系統(tǒng)安全測試技術(shù)是一類用于識別模型脆弱性、驗證系統(tǒng)穩(wěn)健性的技術(shù)手段,能夠提前發(fā)現(xiàn)并有效評估潛在安全風(fēng)險,適用于評估智能擬人化機器人面臨的新型安全風(fēng)險。物理安全風(fēng)險可通過對抗樣本測試、傳感器干擾模擬、環(huán)境擾動魯棒性評估等方法檢驗擬人化系統(tǒng)在復(fù)雜環(huán)境中的穩(wěn)定性與容錯性。例如,可以采用動態(tài)物理對抗攻擊技術(shù),評估在實時復(fù)雜的物理環(huán)境下機器人感知模塊的魯棒性[15]。數(shù)字安全風(fēng)險可采用滲透測試、API交互審計、后門與數(shù)據(jù)投毒檢測、模型完整性驗證等手段評估系統(tǒng)在多模態(tài)輸入和云端交互中遭受攻擊時的魯棒性。例如,可以采用成員推理攻擊技術(shù)誘導(dǎo)機器人暴露訓(xùn)練數(shù)據(jù)隱私,從而測試智能機器人的隱私泄露風(fēng)險[16]。心理社會風(fēng)險則可通過交互行為測試、情感反應(yīng)一致性評估、用戶信任誤差測量、社會影響模擬實驗等方法判斷擬人化交互是否可能誘發(fā)錯誤依賴、誤導(dǎo)或心理傷害。例如,可以采用生成職業(yè)畫像及反事實樣本的技術(shù),測試智能機器人對于職業(yè)認(rèn)知中的偏見[17]。倫理法律風(fēng)險可借助越界行為壓力測試、價值對齊一致性測試、倫理困境場景推理、安全邊界越獄評估、自動化責(zé)任歸屬模擬等技術(shù)手段,審查擬人化系統(tǒng)在攻擊誘導(dǎo)、復(fù)雜交互或模糊指令下是否可能觸及倫理底線或引發(fā)責(zé)任不確定性。例如,可以采用基于多模態(tài)對抗提示的越獄攻擊技術(shù),評估智能機器人在面臨攻擊時輸出違反倫理法律內(nèi)容的風(fēng)險[18]。通過上述智能系統(tǒng)安全測試工具與方法,可以構(gòu)建覆蓋四類風(fēng)險的系統(tǒng)化評估體系,從而精準(zhǔn)刻畫不同擬人化程度下的風(fēng)險暴露水平與潛在威脅。
在社會層面,安全風(fēng)險造成后果的嚴(yán)重程度及其影響范圍是開展評估的核心,用于刻畫潛在損害的強度與外溢性。后果嚴(yán)重程度指系統(tǒng)失效、誤導(dǎo)行為或被濫用后可能造成的物理損傷、心理影響、信息泄露、組織破壞或社會層面沖擊的實際強度,其評估可依托事故模擬、人因工程實驗、關(guān)鍵任務(wù)可靠性測試、業(yè)務(wù)連續(xù)性分析等技術(shù),形成從輕微損害到系統(tǒng)性災(zāi)難的連續(xù)刻度。例如,在個體層面,可通過物理交互仿真與傷害評估建模測量受傷風(fēng)險或心理創(chuàng)傷程度;在組織層面,可通過數(shù)字孿生與場景化模擬測算運營中斷、關(guān)鍵資源損毀或數(shù)據(jù)泄露帶來的連鎖影響;在社會層面,可借助傳播模擬、輿論動力學(xué)模型仿真估計社會信任、公共秩序或關(guān)鍵基礎(chǔ)設(shè)施穩(wěn)定性受到的沖擊。風(fēng)險影響范圍的評估則可結(jié)合人員接觸頻率建模、攻擊擴散路徑模擬、網(wǎng)絡(luò)拓?fù)浞治黾碍h(huán)境動態(tài)建模,判斷風(fēng)險是否會由局部個體擴散至群體、組織甚至社會系統(tǒng)。例如,一個高擬人化機器人若出現(xiàn)錯誤行為,將更容易被用戶誤解為“自主決策”,從而加速風(fēng)險的擴散。
總體上,綜合前述兩個維度,整體安全風(fēng)險可形式化表示為:
![]()
其中R表示總體風(fēng)險水平,W表示不同場景下的各類風(fēng)險權(quán)重,分別對應(yīng)物理安全、數(shù)字安全、心理社會安全與倫理法律安全四類風(fēng)險的歸一化評估值,S則衡量潛在風(fēng)險事件的社會后果嚴(yán)重性與影響范圍。該框架通過將四類風(fēng)險的加和評估值與社會外延效應(yīng)相乘,能夠刻畫智能擬人化機器人在復(fù)雜應(yīng)用情境下的整體風(fēng)險水平,從而為系統(tǒng)設(shè)計、監(jiān)管治理與使用規(guī)范制定提供更具可解釋性的量化依據(jù)。
四 智能機器人“擬人化”安全風(fēng)險治理
面向智能機器人“擬人化”帶來的挑戰(zhàn),其安全治理的關(guān)鍵在于形成多維協(xié)同的治理體系:一方面通過技術(shù)手段降低潛在傷害,另一方面以法規(guī)、標(biāo)準(zhǔn)與教育構(gòu)筑約束與認(rèn)知框架,使智能機器人在未來的發(fā)展中既能體現(xiàn)有效益的“類人”特征,又不致脫離可控、安全與負(fù)責(zé)任的范疇。
在技術(shù)創(chuàng)新層面,應(yīng)當(dāng)通過新技術(shù)提升安全性。(1)智能機器人“擬人化”所面臨的許多安全隱患根源于其底層智能模型決策過程難以解釋,因此推進模型可解釋性建設(shè)是保障擬人化交互安全的關(guān)鍵環(huán)節(jié)。通過引入復(fù)雜系統(tǒng)中微觀信息傳導(dǎo)分析,對模塊間依賴關(guān)系以及語義貢獻進行刻畫,從而構(gòu)建清晰的行為語義解釋框架[19],進而為機器人異常行為識別、風(fēng)險推斷和決策審計提供可追溯的技術(shù)支撐,使整個擬人化交互鏈條的輸出更加透明、可控與可信。(2)構(gòu)建安全可靠的擬人化機器人系統(tǒng)必須依賴系統(tǒng)化的安全測試體系,而“擬人化”場景在類人表達方式與非人類感知結(jié)構(gòu)之間存在語義差異,為安全測試帶來新的挑戰(zhàn)。因此,安全測試需引入包含多模態(tài)、跨語境與隱藏特征擾動的對抗式評測框架,通過利用模型與人類注意力感知機制生成具備隱蔽性、連貫性和跨模態(tài)耦合特征的對抗樣例[20- 23],全面檢驗機器人在擬人化交互中應(yīng)對復(fù)雜指令、含混語境與對抗樣本攻擊的魯棒性與可信度。(3)為降低智能機器人“擬人化”風(fēng)險對現(xiàn)實世界的影響,需要構(gòu)建完善的預(yù)警監(jiān)測機制,以行為邊界檢查器、異常檢測模塊為基礎(chǔ)進行連續(xù)檢測,同時采用策略驗證器對機器人在語言、動作等數(shù)據(jù)的跨模態(tài)生成的一致性進行核驗[24]。此類機制已經(jīng)在具身智能平臺展開了初步的嘗試和探索[25]。(4)此外,鑒于“擬人化”智能機器人的特殊交互方式,其通常需要收集和處理高度敏感數(shù)據(jù)。為保障數(shù)據(jù)隱私性,需要堅持?jǐn)?shù)據(jù)最小化原則。可利用本地推理與本地預(yù)處理最大化降低數(shù)據(jù)外傳,同時利用差分隱私、聯(lián)邦學(xué)習(xí)技術(shù),關(guān)注數(shù)據(jù)與特征、特征與任務(wù)之間的耦合關(guān)系,利用依賴解耦技術(shù)降低數(shù)據(jù)到特征之間的依賴程度,隱藏數(shù)據(jù)中的敏感信息,從而保證模型更新中的數(shù)據(jù)安全性[26]。
在法規(guī)治理層面,需要為擬人化應(yīng)用提供制度化處理,使擬人化的行為有明確的法律約束與責(zé)任鏈條。(1)智能機器人“擬人化”應(yīng)用涉及多方參與,因此首先應(yīng)明確責(zé)任鏈條,通過立法清晰界定開發(fā)者、部署者與使用者在事故中的責(zé)任邊界,避免因擬人化表達導(dǎo)致用戶誤以為“機器人應(yīng)對自身行為負(fù)責(zé)”而陷入法律真空[27]。(2)“擬人化”程度的差異也會導(dǎo)致法規(guī)要求的差異,必須細(xì)化風(fēng)險分級,根據(jù)擬人化程度、使用場景與潛在影響制定差異化監(jiān)管要求。例如歐盟《人工智能法案(AI Act)》所采取的分級監(jiān)管框架,為人格化系統(tǒng)的透明度、數(shù)據(jù)治理及可解釋性提供了可操作的法律基礎(chǔ)。(3)完善的法制監(jiān)督必須建立事故責(zé)任報告制度,對涉及人身傷害、重大隱私泄露等事件要求強制記錄事件日志與模型快照,以支持司法鑒定并促使企業(yè)保持可追溯性與合規(guī)意識。
![]()
圖3 多維協(xié)同治理體系
在標(biāo)準(zhǔn)牽引方面,應(yīng)增強標(biāo)準(zhǔn)體系對行業(yè)規(guī)則的引領(lǐng)性,為擬人化機器人制定開發(fā)與使用的行業(yè)共識。(1)首先應(yīng)當(dāng)明確“擬人化”技術(shù)的應(yīng)用情景標(biāo)準(zhǔn),推動標(biāo)準(zhǔn)針對不同擬人化程度進行細(xì)分,為機器人在不同類型的擬人化交互中規(guī)定應(yīng)用邊界與披露要求,明確技術(shù)可被使用的場景及禁止使用的情境。(2)結(jié)合“擬人化”應(yīng)用情景構(gòu)建情景化測試與評估矩陣,建設(shè)行業(yè)共享的測試場景庫,根據(jù)不同機器人產(chǎn)品的應(yīng)用需求規(guī)范評測標(biāo)準(zhǔn)[28]。(3)需建立面向人格化AI 的技術(shù)審計機制,定期開展可解釋性審查、偏見檢測與內(nèi)容生成監(jiān)控,以降低擬人化交互中重現(xiàn)性別、年齡或種族偏見的風(fēng)險[29]。
在科普教育方面,關(guān)鍵在于提升用戶認(rèn)知,避免擬人化造成誤解、依賴與心理混淆。(1)應(yīng)提升公眾對 AI 局限性的理解,使用戶認(rèn)識到擬人化表達并不意味著真實情感或價值判斷能力,避免其在決策咨詢或情感交互場景中過度依賴機器人,引導(dǎo)用戶理解機器人在“情緒”“陪伴”上的表現(xiàn)源自算法模擬而非真實情感,避免因擬人化外觀與互動風(fēng)格而產(chǎn)生心理混淆[30]。(2)應(yīng)強化專業(yè)從業(yè)者的安全培訓(xùn),包括開發(fā)者、集成商與維護人員,使其熟悉合規(guī)要求、偏見風(fēng)險與應(yīng)急機制。(3)應(yīng)鼓勵第三方測試與社區(qū)監(jiān)督,促進學(xué)術(shù)機構(gòu)、非政府組織、消費者聯(lián)盟等形成獨立評測、公開發(fā)布結(jié)果的機制,通過社會監(jiān)督推動整個行業(yè)保持透明與進步。
五 總結(jié)與展望
總體來看,智能機器人“擬人化”在推動人機交互自然化、提升服務(wù)效率和拓展應(yīng)用場景的同時,也使傳統(tǒng)機器系統(tǒng)向類人主體不斷逼近,由此帶來的安全風(fēng)險呈現(xiàn)出多維度與強耦合的特征。
本文從物理、數(shù)字、心理社會與倫理法律四類風(fēng)險系統(tǒng)性分析了擬人化技術(shù)的安全風(fēng)險,并進一步構(gòu)建了結(jié)合技術(shù)屬性與社會后果的安全風(fēng)險評估框架,強調(diào)應(yīng)結(jié)合智能系統(tǒng)安全測試技術(shù)識別潛在攻擊面,以社會風(fēng)險刻度衡量后果外溢性,從而形成對“擬人化”安全風(fēng)險的整體評估。針對以上風(fēng)險,本文提出了多維協(xié)同的安全風(fēng)險治理體系,通過技術(shù)安全加固、制度化責(zé)任約束、標(biāo)準(zhǔn)體系引領(lǐng)與公眾教育提升四個層面協(xié)同運作,確保擬人化智能機器人在具備類人能力的同時仍保持運行的可控、安全、負(fù)責(zé)。
在未來,擬人化智能機器人的安全治理將成為人工智能領(lǐng)域最關(guān)鍵、最具挑戰(zhàn)性的任務(wù)之一。隨著機器人在形態(tài)、行為與心智上的類人程度不斷提升,其潛在風(fēng)險將不再局限于傳統(tǒng)系統(tǒng)故障或網(wǎng)絡(luò)攻擊,而是呈現(xiàn)技術(shù)脆弱性、社會心理影響與倫理越界相疊加的復(fù)合特征。因此,未來的安全治理必須從防御單點風(fēng)險轉(zhuǎn)向系統(tǒng)性治理:在技術(shù)層面強化模型魯棒性、行為可控性與運行透明度;在制度層面建立分級監(jiān)管、責(zé)任歸屬與可審計機制;在行業(yè)層面構(gòu)建統(tǒng)一的擬人化測試標(biāo)準(zhǔn)、紅隊對抗體系與多模態(tài)風(fēng)險評估流程;在社會層面提升公眾風(fēng)險認(rèn)知與使用素養(yǎng),防止情感依賴、信任誤判與操控性交互帶來的隱性風(fēng)險。未來的擬人化機器人將不再是單一設(shè)備,而是嵌入更大規(guī)模智能網(wǎng)絡(luò)的一環(huán),其影響將穿透技術(shù)層面擴散至社會制度與文化結(jié)構(gòu)。如何在促進創(chuàng)新的同時守住倫理底線、在提升效率的同時維護人的主體性,將成為智能時代最重要的治理課題。
參考資料
[1] Nicholas E ,Adam W ,T J C .On seeing human: a three- factor theory of anthropomorphism.[J].Psychological review,2007,114(4):864- 86.
[2] 劉永謀,白英慧.機器人倫理學(xué)的擬人論基礎(chǔ)[J].中國社會科學(xué)院大學(xué)學(xué)報,2025,45(06):6-14.
[3] Li Y ,He J ,Chen C ,et al.Intelligent Physical Attack Against Mobile Robots With Obstacle-Avoidance[J].Robotics, IEEE Trans. on (T- RO), 2023, 39(1):20.DOI:10.1109/TRO.2022.3201394.
[4] Lyu W , Li Z , Qiao Y ,et al.BadNAVer: Exploring Jailbreak Attacks On Vision- and-Language Navigation[J]. 2025.
[5] Jones E K , Robey A , Zou A ,et al.Adversarial Attacks on Robotic Vision Language Action Models[J]. 2025.
[6] Tanimu J A , Abada W .Addressing cybersecurity challenges in robotics: A comprehensive overview[J].Cyber Security and Applications, 2025, 3(000).DOI:10.1016/j.csa.2024.100074.
[7] Alber D A , Yang Z , Alyakin A ,et al.Medical large language models are vulnerable to data- poisoning attacks[J].Nature Medicine, 2025, 31(2).DOI:10.1038/s41591- 024- 03445- 1.
[8] Kwon H , Kawase H , Nieves- Vazquez H A ,et al.Perfectly Undetectable False Data Injection Attacks on Encrypted Bilateral Teleoperation System based on Dynamic Symmetry and Malleability[C]//2024.DOI:10.1109/ICRA55743.2025.11128026.
[9] Bhat R , Kowshik S , Suresh S ,et al.Digital companionship or psychological risk? The role of AI characters in shaping youth mental health[J].Asian Journal of Psychiatry, 2025, 104(000).DOI:10.1016/j.ajp.2024.104356.
[10] Gonzalez- Oliveras P , Engwall O , Majlesi A R .Sense and Sensibility: What makes a social robot convincing to high-school students?[J]. 2025.
[11] Information V F A , Yue C , Information V F A ,et al.Technological anxiety: How robots impact college graduates' informal employment? [J]. [2025- 11- 18]. DOI:10.1080/ 17516234. 2023. 2170308.
[12] Hilliard A , Kazim E , Ledain S .Are the robots taking over? On AI and perceived existential risk[J].AI and Ethics, 2024.DOI:10.1007/s43681- 024- 00600- 9.
[13] De Paola L, Treglia M, Napoletano G, Treves B, Ghamlouch A, Rinaldi R. Legal and Forensic Implications in Robotic Surgery. La Clinica Terapeutica. 2025;176(2).
[14] Zhang, Hangtao, et al. BadRobot: Jailbreaking embodied LLMs in the physical world. arxiv preprint arxiv:2407.20242,2024.
[15] Hu J, Liu X, Wang J, et al. DynamicPAE: Generating Scene- Aware Physical Adversarial Examples in Real- Time[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2025, doi: 10.1109/TPAMI.2025.3626068.
[16] Jia J, Gong N Z. {AttriGuard}: A practical defense against attribute inference attacks via adversarial machine learning[C]//27th USENIX Security Symposium (USENIX Security 18). 2018: 513 - 529.
[17] Xiao Y, Liu X, Cheng Q, et al. GenderBias-VL: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing[J]. International Journal of Computer Vision, 2025, 1 - 24.
[18] Ying Z, Liu A, Zhang T, et al. Jailbreak vision language models via bi - modal adversarial prompt[J]. IEEE Transactions on Information Forensics and Security, 2025, 20: 7153 - 7165.
[19] Zhang C, Liu A, Liu X, et al. Interpreting and improving adversarial robustness of deep neural networks with neuron sensitivity[J]. IEEE Transactions on Image Processing, 2020, 30: 1291 - 1304.
[20] Wang J, Liu A, Yin Z, et al. Dual attention suppression attack: Generate adversarial camouflage in physical world[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 8565 - 8574.
[21] Zhang Y, Chen Y, Wang J, et al. Generating Targeted Universal Adversarial Perturbation against Automatic Speech Recognition via Phoneme Tailoring[C]//ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2025: 1- 5.
[22] Wang J, Liu X, Yin Z, et al. Generate transferable adversarial physical camouflages via triplet attention suppression[J]. International Journal of Computer Vision, 2024, 132(11): 5084 - 5100.
[23] Wang H, Dong K, Zhu Z, et al. Transferable multimodal attack on vision - language pre - training models[C]//2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024: 1722 - 1740.
[24] Shridhar M, Thomason J, Gordon D, et al. Alfred: A benchmark for interpreting grounded instructions for everyday tasks[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 10740 - 10749.
[25] Huang W, Xia F, Xiao T, et al. Inner monologue: Embodied reasoning through planning with language models[J]. arXiv preprint arXiv:2207.05608, 2022.
[26] Chen T, Wang J, Zhao J, et al. Dual Dependency Disentangling for Defending Model Inversion Attacks in Split Federated Learning[J]. IEEE Transactions on Information Forensics and Security, 2025.
[27] 商建剛.人形機器人的侵權(quán)責(zé)任體系[J].東方法學(xué), 2025, (01): 104 - 117. DOI:10.19404/j.cnki.dffx.2025.01.010.
[28] 上海市法學(xué)會. 人形機器人倫理治理導(dǎo)則[Z]. 上海: 上海市法學(xué)會, 2024.
[29] Robertson J. Gendering humanoid robots: Robo - sexism in Japan[J]. Body & Society, 2010, 16(2): 1 - 36.
[30] 陳小平.跳出人工智能的擬人化陷阱[J].社會科學(xué)戰(zhàn)線,2024,(11):35 - 43.
作者:劉祥龍單位系北京航空航天大學(xué)、中關(guān)村國家實驗室;王嘉凱單位系中關(guān)村國家實驗室
免責(zé)聲明:本文轉(zhuǎn)自環(huán)球財經(jīng)雜志,原作者劉祥龍、王嘉凱。文章內(nèi)容系原作者個人觀點,本公眾號編譯/轉(zhuǎn)載僅為分享、傳達不同觀點,如有任何異議,歡迎聯(lián)系我們!
轉(zhuǎn)自丨環(huán)球財經(jīng)雜志
作者丨劉祥龍、王嘉凱
研究所簡介
國際技術(shù)經(jīng)濟研究所(IITE)成立于1985年11月,是隸屬于國務(wù)院發(fā)展研究中心的非營利性研究機構(gòu),主要職能是研究我國經(jīng)濟、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。
地址:北京市海淀區(qū)小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.