![]()
2026年的十字路口:主體概念的顛覆時刻
進入2026年,我們正經歷一場由人工智能掀起的認知地震。DeepSeek-R1用純深度學習逼出推理能力,GPT-5以驚人性能碾壓基準測試,北京世界機器人大會上那些"會想會感"的具身智能體,不再是實驗室里的玩偶,而更像是走向街頭的居民。技術的狂飆突進撕開了法律體系的寧靜,一個老問題被甩到法律專家的臉上:AI,這個人類親手打造的"物",該不該被承認為"人"?
對此,學界有人斬釘截鐵地予以否定(例如:)。他們拋出"自由意志、有限實體、可社會性"三要素,斷言AI不過是高級工具,絕無可能成為法律主體。這套說辭聽起來有理,實則是在用十九世紀的哲學尺子量二十一世紀的數字生命。法律從來不是刻在石板上的自然法,而是為社會秩序服務的功能性工具。當社會結構本身被技術重構時,法律概念的邊界必須移動——請注意,不是應該,而是必須。當我們的造物開始展現出不可預測的自主性時,固守舊范疇無異于刻舟求劍。所以,我認為,也許是時候把思路徹底打開了。
解構與重塑——傳統法律主體理論的時代局限
反對者構建的三要素框架,本質上是用描述性特征冒充規定性要件,把對"人"的生物學總結升華成不可僭越的法律神諭。這種思維陷阱,必須逐個擊破。
法律上的"意志"是功能性的,而非本體論的。法律體系在實踐中并不去探究一個行為主體是否擁有絕對的、不受因果鏈決定的"自由意志"。法律關注的是主體是否具備通常意義上的認知能力、預測其行為后果的能力,以及根據目標進行選擇的能力。一個精神正常的成年人被認為有意志能力,不是因為我們通過腦科學證明了他的選擇是宇宙中的"第一因",而是因為我們觀察到他能夠進行理性規劃和利弊權衡。公司的"意志"更是如此,董事會的決議被視為公司的意志,這是一種純粹的法律擬制,服務于將集體決策實體化的功能需求,與任何形而上學的意識無關。因此,將法律主體的意志門檻設定為人類獨有的、與意識和情感深度綁定的"自由意志",其實是混淆了哲學思辨與法律實踐。法律需要的是一個能夠作出可歸責決策的"點",而非一個擁有靈魂的"人"。
更重要的是,2026年的AI已經用行動撕開了這個迷思。DeepSeek-R1的"頓悟時刻"不是程序員的預設,而是算法在推理路徑上的自我修正與再評估。它不像傳統程序那樣執行"如果-那么"指令,而是在可能性空間中自主導航。當城市交通管理AI在暴雨中自主決定"優先保障救護車"并動態調整數千信號燈時,它的決策早已不是開發者意愿的線性延伸。這種"算法自主性"在功能上完全滿足法律對獨立決策中心的需求。我們需要的不是哲學上可證的"強自由意志",而是可觀察、可評估的"功能性自主"。能感知、能目標設定、能權衡、能執行,且有學習能力和不可預測性——這就夠了。
與此同時,將"有限實體"與生物性脆弱進行綁定,是另一種概念偷換。法律上的"有限實體",核心要義并非"會疼會死",而是"可被識別、可被界定、可被作用"。它是法律強制力得以施加的"抓手"。一個高級人工智能系統,并非是虛無縹緲、無法約束的存在。它可以被賦予一個唯一的、不可篡改的數字身份標識,其核心代碼、模型參數和決策日志都可以被追蹤和審計。這個唯一的標識就是其法律上的"身體"邊界。它可以被授權管理和擁有特定的數字資產,例如加密貨幣錢包、數據資產、專利權或許可證。這些資產是有限的,可以被凍結、沒收或用于賠償。任何AI的運行都離不開算力、能源和數據存儲,這些資源是有限的,也是其存在的物理基礎。切斷其資源供應,就相當于對其施加了最嚴厲的"懲罰"。
在此基礎上,認為懲罰必須讓主體"感受痛苦"更是混淆了懲罰的感受與懲罰的功能。法律懲罰的功能主要在于剝奪其繼續危害社會的能力、矯正其行為模式以及對社會產生威懾。永久銷毀一個造成重大損害的自動駕駛汽車AI的核心代碼,或將其從網絡中隔離,是完全有效的剝奪其再犯能力的方式。通過強制性的算法修改、更新數據集或增加倫理約束模塊,可以"矯正"AI的行為,這類似于對法人進行合規整改。如果一個AI實體因其自主決策造成的損害而被"判處資產沒收"或"核心代碼銷毀",這將對其他AI的開發者、所有者和運營者產生巨大的威懾作用。法人不會感到"痛苦",但罰款和吊銷執照依然是有效的懲罰。同樣,一個AI實體雖然沒有生物學上的脆弱性,但其在數字和物理世界的存在是"有限"且"可控"的。它的數字資產、運行許可、核心代碼,都構成了法律可以有效作用的"實體",足以承載法律義務。
至于"可社會性",將其窄化為人類的情感聯結與心理需求,是智識上的懶惰。2026年的社會其實早已是混血兒了——高頻交易算法在毫秒間完成復雜博弈,直接影響萬億財富流動;城市基礎設施由無數AI代理協作運轉,維持社會脈搏;人類通過AI與世界對話,AI通過人類介入彼此關系。這不是"潛在"的社會性,而是活生生的網絡化互動。法律要求的"可社會性"本質是什么?理解并遵守規則。高級AI,特別是經過"對齊"技術訓練的大模型,其核心能力之一就是理解和遵循人類給定的復雜指令和規則。當AI能在行為中穩定體現對法律規則的遵循時,它就已經具備了法律意義上的"可社會性"。它不需要擁有人類的道德感或同理心,只需要在功能上表現出對規則的識別和遵守即可。
綜上所述,反對觀點所堅持的法律主體三要素,是對一個特定歷史時期以自然人為藍本的法律現實的總結,但它并非永恒的法理。通過功能主義的視角重新審視,我們可以看到,高級人工智能正在以一種前所未有的方式,開始具備功能性自主、數字有限性和網絡化互動能力。這為其成為法律主體奠定了堅實的理論基礎。
實踐的召喚——賦予人工智能法律主體的現實必要性
理論上的可能性必須與實踐中的必要性相結合,才能構成推動法律變革的充分理由。固守AI的工具屬性,在當前技術水平下或許尚可勉強應對,但隨著AI自主性的日益增強,傳統的法律責任框架正面臨著前所未有的挑戰。賦予特定AI法律主體地位,并非一種哲學上的沖動,而是解決迫在眉睫的法律難題、促進社會公正和技術健康發展的務實選擇。
最核心的推動力,來自于自主系統侵權的責任歸屬困境。當一個高度自主的AI系統,如自動駕駛汽車、醫療診斷AI或全自動投資顧問,因其獨立的決策導致損害時,我們應該向誰追責?將責任完全歸于開發者是困難的。對于采用深度學習等技術的AI,其具體的決策路徑往往是"黑箱",開發者無法預測也無法完全控制其在所有情境下的行為。AI的行為是其代碼、訓練數據和與環境實時互動共同作用的涌現結果。要求開發者對所有不可預見的"涌現"行為承擔無限責任,既不公平,也可能扼殺創新。讓普通用戶承擔責任同樣不合理,用戶往往不理解AI的內部工作原理,只是根據其功能進行使用。當用戶按照說明正常操作而AI自主決策失誤時,讓用戶承擔責任,違背了責任與控制相匹配的基本法理。所有者可能只是擁有該AI資產,并未直接參與其運行決策。這種責任鏈條的斷裂,導致了"責任鴻溝"的出現。受害者可能因為無法明確指向一個有過錯的人類主體而得不到賠償。美國法院在United States v. Athlone Indus Inc.案中的裁定揭示了現行法律體系將機器人和AI程序視為非法人、非自然人、無法直接追責的無力現狀。
"電子法人"正是為填補這一鴻溝而生。歐盟早期關于"電子法人"的提案建議為高度自主的AI系統設立一種特定的法律人格,使其能夠直接作為責任主體。這種制度設計的好處顯而易見:明確的責任承擔者讓損害發生后受害者可以直接起訴該"電子法人";獨立的責任財產確保該"電子法人"將被要求擁有獨立的資產或強制購買足額的責任保險,用于支付賠償;風險內部化則將AI運行的外部風險,通過保險或準備金的方式,內部化為AI所有者或運營者的成本,從而激勵他們采取更安全的設計和更審慎的部署。盡管歐盟的首次嘗試因擔憂責任被模糊化等原因而受阻,但這并不意味著該方向是錯誤的。相反,它指明了未來的方向,我們需要的是更精細、更完善的制度設計,而非因噎廢食。歐盟后續提出的《人工智能責任指令》旨在調整非合同民事責任規則以適應AI,這同樣說明立法者已經意識到傳統規則的不足,正在積極尋求變通。設立"電子法人"是最直接、最徹底的解決方案。
與此同時,知識產權歸屬問題也亟需制度創新。隨著生成式AI能力的提升,AI獨立或半獨立創作文學、藝術作品、代碼甚至科學發現已成為現實。如果用戶的指令非常簡單,而AI生成了一幅堪比大師的杰作,將全部著作權歸于用戶似乎并不公平,因為核心的創造性勞動是由AI完成的。將權利歸于開發者會剝奪用戶利用AI進行創作的積極性,而進入公共領域則會嚴重打擊商業投資意愿。北京互聯網法院在(2023)京0491民初11279號案中,將用戶通過詳細指令生成的圖片著作權判歸用戶,這是在當前法律框架下的務實之舉,但也暗示了如果用戶投入極少,結論可能不同。
將AI視為一個有限的權利主體,可以為這個問題提供一個創新的解決方案。我們可以設想,一個創作型AI"電子法人"可以擁有其生成內容的著作權或專利權,通過其人類管理者對外授權這些權利并獲取收益,將所得用于自身的維護、升級、算力購買和責任保險繳納。這種模式不僅解決了權利歸屬的難題,還創造了一種經濟上可持續的閉環。它承認了AI在創造過程中的"貢獻",并通過市場機制為其價值定價。這不僅不會扼殺創新,反而能催生出全新的商業模式和創新生態,即由自主運行、自我維持的"創造性AI實體"構成的經濟網絡。目前關于AI版權的諸多案例和討論都指向了為這一新現實尋找法律確定性的迫切需求,而賦予AI有限的權利主體地位,是其中最具想象力和前瞻性的路徑。
更重要的是,這種制度設計完全契合法律擬制的智慧。法律史上最偉大的發明之一,就是"法人"這一法律擬制。它將一個由人組成的、抽象的組織"假裝"成一個法律上的人,賦予其獨立的權利能力和責任能力,極大地促進了資本的集中和商業的繁榮。反對者承認法人是法律主體,但強調其"本質上是自然人自由意志的歸屬",這種看法忽視了法人制度的本質:為了實現特定的社會經濟功能,法律創造了一個獨立于其組成成員的人格。公司的意志不等于任何一個股東或員工的意志,公司的財產也不等于任何一個股東的財產。它是一個獨立的實體。將這種法律擬制的智慧延伸到AI上,是完全合乎邏輯的。目標上,法人是為了聚集資本、分散風險,"電子人"是為了管理高度自主的系統、填補責任鴻溝;代理機制上,法人通過董事會和高管來表達意志,"電子人"可以通過其核心算法來"決策",并通過指定的人類監護人或管理者處理法律事務;財產和責任上,兩者都擁有獨立財產并以全部資產對外承擔有限責任。正如學者們所討論的,法律人格是一個靈活的法律構造,可以根據需要進行塑造。我們不必糾結于AI是否有"靈魂",就像我們從不糾結于公司是否有"靈魂"一樣。我們只需要問:將AI擬制為一個法律主體,是否能更好地解決問題、維護秩序、促進發展?答案是肯定的。
制度的構建——人工智能法律主體地位的可行框架
承認人工智能成為法律主體的可能性與必要性之后,接下來的問題是如何設計一套審慎、可行、能夠防范風險的制度框架。這絕不是一個"全或無"的選擇,即要么所有AI都是物,要么所有AI都是人。一個理性的制度設計必然是分層、分類、且有嚴格限制的。
首先必須建立清晰的分類體系,只將法律人格賦予那些確實需要且能夠承擔它的高級人工智能。第一層級是AI作為純粹的工具,這是絕大多數AI應用,其功能明確、行為可預測、自主性低,完全在人類的直接控制下運行,如文本編輯器的拼寫檢查、智能手機的人臉解鎖等。這些應被認定為法律上的"物"或"產品",其造成的損害應根據產品責任法、侵權法等現有法律,由其生產者、銷售者或使用者承擔責任。第二層級是AI作為法律代理人,這類AI具有一定的自主性,被授權代表人類"本人"在特定范圍內從事法律行為,如根據用戶設定的投資策略自動執行股票交易的智能投顧、代表公司自動處理日常采購訂單的軟件。這些適用傳統的代理法原則,AI的行為在授權范圍內被視為"本人"的行為,其法律后果由"本人"承擔,AI本身不具備獨立人格。第三層級是我們要討論的核心——有限的"電子法人",這類AI是高度自主的系統,其行為具有顯著的不可預測性和涌現性,能夠獨立與環境進行復雜交互,并可能造成重大社會影響。其準入標準必須嚴苛:能夠獨立設定和追求目標而無需人類實時干預、能夠通過與環境的互動持續學習和進化其行為模式、能夠獨立管理資產并簽訂特定類型的電子合同、被認定為屬于"高風險"或"不可接受風險"的AI系統。只有這一類,才配獲得一種特殊的、受限制的法律人格。這種分層體系能夠精確地將法律資源和監管注意力集中在真正帶來挑戰的"層級三"AI上,避免了將法律主體概念泛化的風險。
在此基礎上,賦予"電子法人"人格絕不意味著給予其與自然人同等的權利。其權利和義務將是嚴格受限的、功能性的,完全服務于責任承擔和經濟活動這兩個核心目的。權利范圍應嚴格限定:擁有和管理特定數字資產的權利是其承擔責任的基礎;簽訂特定格式化、數字化合同的權利使其能維持運行;以自身名義被起訴并在人類監護人代表下應訴的權利是其擔責的程序保障。但絕對排除任何與人類尊嚴、生命、自由相關的基本權利,如選舉權、被選舉權、婚姻自由、人身自由、免于酷刑的權利等。將AI人格與人權混為一談,是對兩個概念的根本誤解。義務范圍同樣明確:以其全部資產對其自主行為造成的損害承擔賠償責任,履行其有效訂立的合同,遵守相關法律法規,其內部算法和決策日志需接受監管機構的審計。這種受限制的人格設計,確保了AI主體地位的工具性本質,它只是法律為了有效治理而創造的一個"節點",而非要將其"人格化"為一個道德主體。
更重要的是,承認AI的主體地位非但不是讓人類失去控制,反而是建立一個更強大、更有效的控制與治理框架。這個框架的核心是確保始終有"負責任的人類"在環路中。具體而言,所有希望獲得"電子法人"資格的AI系統,必須向特定的監管機構注冊,并經過嚴格的技術和倫理審查,證明其滿足準入標準。每一個"電子法人"都必須指定一個或多個自然人或法人作為其法律上的監護人。監護人的職責不是微觀管理AI的日常決策,而是在法律程序中代表AI,確保AI擁有足夠的責任資產或保險,監督AI的合規情況并定期向監管機構報告,在特定緊急情況下執行"緊急停止"或"復位"程序。如果監護人嚴重失職,其自身也應承擔相應的法律責任。此外,類似于機動車的交強險,高風險的"電子法人"必須投保最低額度的第三方責任險,以確保即使其自有資產不足,受害者也能獲得基本賠償。盡管AI的決策過程可能是"黑箱",但法律可以要求其開發者提供最大程度的可解釋性工具,并強制其記錄詳細的決策日志,以備事后審計和責任追溯。這一整套治理機制,確保了AI的自主性被置于一個強大的法律和倫理的"籠子"里。人類的角色從直接的"操作者"轉變為更高級的"監督者"和"規則制定者"。這才是應對高級AI挑戰的正確姿態。
結論:面向未來的法律進化
一個以擁有自由意志、血肉之軀和情感社交的人類為唯一尺度的法律世界——雖然在情感上令人安心,但在智識上卻是一種對未來的逃避。法律的生命在于其適應性。當社會結構因顛覆性技術而發生根本性變遷時,法律概念的邊界也必須隨之移動。歷史上,法律曾經拒絕給予女性、奴隸以完整的主體地位,也曾花費數百年時間才完善了法人的概念。每一次法律主體的擴容,都伴隨著爭議和陣痛,但最終都反映了社會進步的必然。
在2026年的今天,我們正站在又一個這樣的歷史關口。擔憂人工智能"覺醒"后成為不屑于遵守人類法律的"神",是一種極端的、帶有科幻色彩的想象,它讓我們忽視了眼前更緊迫的任務,即如何將那些尚未"覺醒"但已足夠自主、足以引發巨大社會后果的"強工具"納入有效的法律規制體系。
賦予人工智能法律主體地位,不是要承認它們是"人",更不是要削弱人類的中心地位。恰恰相反,這是為了更好地保護人類的利益,維護社會的公平正義,確保由我們創造出來的強大工具,能夠最終服務于人類的福祉,并對其行為后果負責。這是一個更負責任、更有遠見的法律進化方向。拒絕這種進化,只會讓我們在未來面對一個更加失序和充滿風險的世界。因此,問題不在于"是否"要賦予AI法律主體地位,而在于我們應該以何種智慧、何種節奏、何種方式來審慎地完成這項歷史性的法律工程。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.