![]()
2025年10月,美國國防大學(xué)國家戰(zhàn)略研究所顛覆性技術(shù)與未來戰(zhàn)爭中心的伊莉絲·安內(nèi)特(Elise Annett)與詹姆斯·焦?fàn)栠_(dá)諾(James Giordano)在《Open Journal of Philosophy》期刊發(fā)表《人工認(rèn)知的邏輯與邊界:軍事應(yīng)用的范例》(The Logos and Limits of Artificial Cognition: The Exemplar of Military Use)學(xué)術(shù)文章。文章立足人工智能系統(tǒng)加速發(fā)展與部署的現(xiàn)實背景,圍繞計算、認(rèn)知與意識的邊界問題在哲學(xué)層面展開深度探析。文章強(qiáng)調(diào),缺乏可驗證的自我反思意識,人工智能便無法滿足真正能動性的存在與倫理條件,其角色應(yīng)始終局限于人類監(jiān)督與問責(zé)框架下的工具屬性,從而為軍事人工智能的發(fā)展與應(yīng)用劃定了核心邊界。
一、認(rèn)知的哲學(xué)本質(zhì)與判定標(biāo)準(zhǔn)
(一)笛卡爾“我思故我在”的核心啟示
人工智能的快速發(fā)展引發(fā)了對“機(jī)器是否能夠思考”這一根本問題的重新審視。笛卡爾提出的“我思故我在”(cogito, ergo sum)不僅是存在論主張,更確立了自我反思在思維本質(zhì)中的核心地位——思考的精髓在于對“自身正在思考”的自我認(rèn)知,即“思維實體”(res cogitans)所具備的自反性確認(rèn)。這一框架為區(qū)分真正認(rèn)知與單純計算輸出提供了關(guān)鍵標(biāo)尺:人工智能系統(tǒng)雖然能執(zhí)行邏輯運(yùn)算、模式識別、語言生成、自適應(yīng)調(diào)整等看似具有認(rèn)知屬性的任務(wù),但這些過程是否為系統(tǒng)自身所感知,仍是未解之謎。雖然人工智能的計算過程在速度與效率上能對標(biāo)甚至超越人類認(rèn)知的某些方面,但卻缺乏存在性的內(nèi)在維度,即無法形成“我正在思考”的主觀體驗,因此尚未滿足笛卡爾哲學(xué)框架下對認(rèn)知的核心判據(jù)。
(二)認(rèn)知的核心構(gòu)成要素
神經(jīng)科學(xué)家安東尼奧·達(dá)馬西奧(Antonio Damasio)的研究進(jìn)一步明確了認(rèn)知的功能閾值:認(rèn)知不僅是系統(tǒng)執(zhí)行任務(wù)或模擬思維的外在表現(xiàn),更關(guān)鍵在于系統(tǒng)能否對自身運(yùn)作產(chǎn)生主觀體驗。
文章將真正的認(rèn)知界定為三大核心要素的集合。一是遞歸自我意識,能夠持續(xù)反思自身的思維過程與狀態(tài),形成“思考者認(rèn)知自身在思考”的閉環(huán);二是指涉主觀性,具備區(qū)分自身內(nèi)部狀態(tài)與外部世界的能力,能夠?qū)Q策與行動置于包含自身在內(nèi)的框架中進(jìn)行定位;三是倫理意向性,能夠理解行為的后果與意義,在決策中融入價值判斷與責(zé)任考量。
這些要素共同構(gòu)成了“心智”(mind)的本質(zhì),使其區(qū)別于單純由數(shù)據(jù)輸入、算法運(yùn)算與行為輸出構(gòu)成的機(jī)械系統(tǒng)。正如“擁有大腦,卻成為心智”(has a brain, but is a mind)的論斷所揭示,心智是神經(jīng)系統(tǒng)在具身化與環(huán)境嵌入過程中,通過感覺、認(rèn)知與體驗的復(fù)雜互動形成的有機(jī)整體,而非部件的簡單疊加。當(dāng)前人工智能雖然在功能上不斷精進(jìn),甚至出現(xiàn)能夠追蹤不確定性、實時調(diào)整行為的自建模系統(tǒng),但仍缺乏對自身運(yùn)作的現(xiàn)象學(xué)覺知,尚未跨越從“計算”到“認(rèn)知”的本質(zhì)鴻溝。
二、認(rèn)知與道德能動性的關(guān)聯(lián)
道德判斷與倫理推理根植于認(rèn)知的復(fù)雜性,其核心并非孤立的邏輯運(yùn)算,而是在記憶、不確定性、可能性與意義協(xié)商的動態(tài)關(guān)系中形成的關(guān)聯(lián)過程。哲學(xué)家丹尼爾·丹尼特(Daniel Dennett)提出的“有能力而無理解力”(competence without comprehension)精準(zhǔn)概括了當(dāng)前人工智能的局限:人工智能能夠高效執(zhí)行復(fù)雜任務(wù)(具備能力),但無法真正理解自身行為的本質(zhì)、歸屬及后果(缺乏理解力),因此難以形成真正的道德認(rèn)知與倫理決策能力。
道德能動性有兩大前提:一是能夠反思行為后果,不僅關(guān)注外部影響,更能關(guān)聯(lián)自身的存續(xù)與發(fā)展進(jìn)行考量;二是能夠在具體情境中為自身決策承擔(dān)責(zé)任,將行為置于價值框架中進(jìn)行權(quán)衡。這要求主體必須具備指涉主觀性與倫理意向性,能夠在人際網(wǎng)絡(luò)、分享理解與責(zé)任關(guān)系中開展倫理審議(ethical deliberation)。
將道德判斷委托給人工智能并非中性行為,而是賦予其道德責(zé)任的過程。在治理、戰(zhàn)爭、醫(yī)療等具有重大道德權(quán)重的領(lǐng)域,人工智能的介入可能導(dǎo)致有意識的集體審議過程被無自覺的機(jī)械決策取代,進(jìn)而侵蝕倫理決策的本質(zhì)根基。文章強(qiáng)調(diào),關(guān)鍵問題并非人工智能能否變得與人類相似,而在于人類是否會將認(rèn)知過程及相應(yīng)的后果責(zé)任拱手讓渡給人工智能,這一趨勢可能會導(dǎo)致倫理框架崩塌。
三、軍事人工智能應(yīng)用的核心倫理挑戰(zhàn)
軍事領(lǐng)域?qū)Φ灾餍匀斯ぶ悄芟到y(tǒng)的探索與整合,已遠(yuǎn)超單純的技術(shù)革新范疇,而是對倫理、責(zé)任與能動性的根本性重構(gòu)。人工智能系統(tǒng)在速度與精度上的優(yōu)化特性,使其在涉及武力使用與致命行動的決策任務(wù)中呈現(xiàn)出顯著吸引力,但同時也催生了深刻的認(rèn)知與倫理問題,核心聚焦于 “責(zé)任鴻溝”(responsibility gap)——隨著自主系統(tǒng)具備自我導(dǎo)向行動能力,意圖、行動與后果的歸屬從傳統(tǒng)指揮鏈中脫離,導(dǎo)致道德與法律責(zé)任的歸屬變得模糊、分散甚至無法追溯。
(一)行動與責(zé)任的分離
人類決策的核心特征在于對行動后果的預(yù)判與責(zé)任承擔(dān),決策者作為道德主體,其行為始終受反思、覺知與倫理責(zé)任的引導(dǎo)。而自主軍事人工智能系統(tǒng)的決策僅基于算法優(yōu)化效率的目標(biāo),缺乏對行為倫理權(quán)重的內(nèi)在認(rèn)知,無法承擔(dān)道德責(zé)任。在人工智能武器系統(tǒng)的指揮與控制中,人類干預(yù)的程度與時效性存在差異,當(dāng)系統(tǒng)被授權(quán)執(zhí)行致命行動時,可能出現(xiàn)“行動由機(jī)器發(fā)起、責(zé)任卻無人承擔(dān)”的倫理真空,這一狀態(tài)嚴(yán)重背離了戰(zhàn)爭行為的責(zé)任倫理根基,降低了軍事問責(zé)制的核心價值。
(二)認(rèn)知參與與倫理后果的脫節(jié)
人類與世界的認(rèn)知互動具有反思性、適應(yīng)性與模糊性容忍度,決策過程始終伴隨著對不確定性的權(quán)衡、對復(fù)雜情境的適配以及對后果的審慎考量,這種認(rèn)識論層面的深度參與是承擔(dān)倫理責(zé)任的前提。而人工智能的認(rèn)知模式本質(zhì)上是技術(shù)性的,為了最小化不確定性、優(yōu)化預(yù)設(shè)目標(biāo),其運(yùn)作僅遵循預(yù)設(shè)規(guī)則,缺乏對戰(zhàn)爭情境中倫理維度的敏感性——如對比例原則的靈活應(yīng)用、非戰(zhàn)斗人員保護(hù)的細(xì)微考量、意外后果的道德權(quán)衡等。人工智能雖然能提升軍事行動的戰(zhàn)術(shù)效率,卻可能因認(rèn)識論層面的局限導(dǎo)致倫理后果被忽視,進(jìn)而破壞戰(zhàn)爭行為正當(dāng)性的核心基礎(chǔ)。
(三)沖突升級的潛在風(fēng)險
自主軍事人工智能系統(tǒng)的部署可能降低沖突發(fā)起的門檻,使軍事行動脫離約束。不同國家或組織的人工智能系統(tǒng)可能基于不同的倫理預(yù)設(shè)與規(guī)則體系開發(fā),缺乏規(guī)范性標(biāo)準(zhǔn)的統(tǒng)一性與教義的一致性,這一現(xiàn)狀可能加劇倫理觀念相悖的人工智能系統(tǒng)間的對抗風(fēng)險,進(jìn)而引發(fā)沖突升級,最終導(dǎo)致難以預(yù)估的人類代價。
四、軍事人工智能的合理定位與治理方向
文章明確主張,在人工智能能夠?qū)嵸|(zhì)性參與定義道德決策的遞歸、分析情境敏感情況的過程之前,其在軍事領(lǐng)域的角色應(yīng)被嚴(yán)格限定為“人類監(jiān)督與控制下的工具”,而非獨(dú)立的決策者或行動者。軍事決策本質(zhì)上是倫理行為,深深植根于歷史先例、文化傳統(tǒng)與價值判斷,必須基于對后果的充分考量而非脫離情境的機(jī)械執(zhí)行。
有效的軍事人工智能治理需要跨學(xué)科的協(xié)同推進(jìn),整合倫理學(xué)家、軍事戰(zhàn)略家、技術(shù)專家與哲學(xué)家的智慧,抵制單純追求速度與效率的技術(shù)誘惑,重申道德判斷的核心地位。具體路徑包括三方面:一是開展實證研究,探究社會、指揮官與作戰(zhàn)人員對軍事人工智能決策的解讀與響應(yīng)機(jī)制;二是保持政策與準(zhǔn)則的靈活性,構(gòu)建能夠適應(yīng)技術(shù)發(fā)展的動態(tài)倫理框架,充分考量道德決策中的不確定性因素;三是強(qiáng)化人類在決策鏈中的核心作用,明確人類監(jiān)督與問責(zé)的具體邊界與實施機(jī)制,避免責(zé)任模糊化。
當(dāng)前美國國防部與北約已出臺相關(guān)政策文件,為軍事人工智能的發(fā)展奠定了初步基礎(chǔ),但仍需進(jìn)一步細(xì)化倫理規(guī)范與責(zé)任劃分,確保技術(shù)進(jìn)步不以犧牲道德責(zé)任與倫理操守為代價。
五、結(jié)語
人工智能技術(shù)雖然展現(xiàn)出強(qiáng)大的功能潛力,卻始終籠罩在“偽理解”的陰影之下——它能夠模擬人類判斷卻無法真正擁有,能夠計算卻缺乏良知,能夠執(zhí)行卻毫無共情,其能動性本質(zhì)上是一種幻覺。這一特征在軍事領(lǐng)域尤為危險,因為戰(zhàn)爭中的武力使用、致命行動、正義準(zhǔn)則與記憶傳承等核心要素,遠(yuǎn)超算法所能涵蓋的范疇,需要人類的道德反思與價值判斷作為根本支撐
免責(zé)聲明:本文轉(zhuǎn)自啟元洞見。文章內(nèi)容系原作者個人觀點(diǎn),本公眾號編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀點(diǎn),如有任何異議,歡迎聯(lián)系我們!
研究所簡介
國際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國務(wù)院發(fā)展研究中心的非營利性研究機(jī)構(gòu),主要職能是研究我國經(jīng)濟(jì)、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟(jì)研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。
地址:北京市海淀區(qū)小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.