![]()
作者:解志勇(中國政法大學比較法學院教授,法學博士);吳夢玉(中國政法大學比較法學院博士研究生)
出處:《比較法研究》2026年第1期
目次
一、引言
二、人工智能基礎模型提供者的法律定位
三、基礎模型提供者系統安全保護義務的提出
四、系統安全保護義務的設定邏輯
五、系統安全保護義務的體系化建構
六、結語
??
摘要:人工智能基礎模型提供行為連接著基礎技術系統與下游應用系統,面臨著潛在的規模性、傳導性、脆弱性、不透明性和非場景性特征的“系統性安全風險”。對此類風險的有效防范,已超出純粹技術系統的能力范疇,必須依托法律系統的加持,通過義務和責任設計,確保人工智能發展的安全、可靠、可控。鑒于不同提供者的自身保障能力存在著局限性和差異性,其所承擔“系統安全保護義務”的內容亦有所不同。從技術角度看,應在鼓勵發展的導向下,設定合理的風險容忍度;在技術可行的前提下,設定可靠的義務適配度。從內容層面上看,應以共同善的權利義務觀為指導,建構層次分明的義務體系:一是以技術義務、倫理義務和公共責任為內容的“基礎性義務”;二是側重于系統間交互關系的信息共享、行為協助等“互動性義務”;三是提供者對下游應用的控制能力足夠強時,可能要承擔的監管審核、風險管理等“管理性義務”。
關鍵詞:人工智能;基礎模型;網絡安全;數據安全;大語言模型
??
01引言
數字文明時代,以人工智能為代表的新質生產力正驅動人類社會加速轉型。“人工智能+”已成為賦能千行百業邁向數字時代的關鍵動力。從技術角度來看,基礎模型(foundation model)是人工智能應用系統的上游技術支撐,憑借多模態數據處理能力、模塊化架構設計以及強大的泛化能力,已從解決單一任務的技術工具,演進為適用于多種場景的元技術。一方面,基礎模型作為通用技術,已成為數字產業發展的核心引擎與衡量國家數字競爭力的關鍵標尺。黨的二十屆四中全會強調“加快高水平科技自立自強,引領發展新質生產力”。這要求必須高度重視基礎模型的發展。另一方面,基礎模型固有的偏差復制和風險傳導特性,亦使其成為人工智能生態中系統性風險的潛在源頭。這意味著,發展必須是安全內嵌式的發展,需通過法律規范實現風險的可控可治。《國務院關于深入實施“人工智能+”行動的意見》也強調,要統籌推進“模型算法、數據資源、基礎設施、應用系統等安全能力建設”。基礎模型在發展與規制方面的特殊性,決定了其規范框架必須獨立于下游應用系統。因此,法律應對“基礎模型提供者”與“人工智能服務提供者”作出明確區分和界定,并據此設定差異化的義務與責任規范。
但目前,現有立法和學術研究對基礎模型的關注相對不足。在立法層面,我國關于人工智能的一般性立法未單獨規范基礎模型提供者。如《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”)的規范對象主要為面向用戶的生成式人工智能服務。雖然《暫行辦法》第7條提及基礎模型,但其義務主體仍為服務提供者。此外,《互聯網信息服務算法推薦管理規定》的規范對象是算法推薦服務提供者,并未涵蓋模型提供者。《互聯網信息服務深度合成管理規定》雖區分了服務提供者和技術支持者,但其定義的“技術支持者”與“基礎模型提供者”的概念并不完全等同,且該規定中往往將技術支持者與服務提供者并列,進行統一的義務設定。在學術研究層面,涉及基礎模型的研究主要呈現出三種路徑:一是從主體視角探討人工智能價值鏈治理模式,涉及基礎模型提供者的角色定位;二是基于分層治理的理念,提出“基礎模型—專業模型—服務應用”的分層治理思路;三是研究高風險人工智能系統的規制路徑,將基礎模型納入高風險人工智能系統中。由此可見,現有研究多側重于宏觀架構,缺乏對基礎模型提供者具體義務的針對性探討。少數研究雖已注意到基礎模型所帶來的技術變革,并指出其提供者應承擔抽象性義務的啟發性觀點,但缺乏系統性的論證分析,也未能形成體系化的義務內容。
鑒于此,有必要聚焦于基礎模型提供者這一主體,明確其概念內涵與法律定位,并基于其在人工智能價值鏈中的特殊地位,分析其面臨的系統安全風險。在此基礎上,結合基礎模型提供者的控制能力,將其承擔的法律義務界定為“系統安全保護義務”。進而,厘清該義務設定的基本前提、規范重點與義務邊界,最終進行義務的體系化建構。
02人工智能基礎模型提供者的法律定位
設定人工智能基礎模型提供者的法律義務,必須首先界定基礎模型、基礎模型提供者的概念,分析基礎模型提供者區別于應用系統提供者的特殊屬性。
(一)基礎模型的法律界定
在對新型技術事物進行法律界定時,需先關注本體維度,在明確關鍵技術要素和功能的基礎上,結合其法律影響進行定義。
1.本體維度:遷移學習與通用性
從本體維度來看,基礎模型是指通常依托自監督預訓練機制構建,包含超大規模參數且具備通用功能的模型。其與基座模型(base model)這一概念經常交疊使用,但二者側重不同:前者強調模型類別,通常指一類模型的技術范式,而后者主要用于描述模型在開發流程中的階段,特指完成無監督預訓練、尚未經過對齊與微調的原始模型。在實際部署中,基礎模型通常在參數與算力上可達到“大模型”量級,且具備通用功能,因此在部分研究中也將其表述為大模型(large model)或通用目的人工智能模型(general-purpose model)。但從嚴格角度來講,三者的定義邊界并不相同。
從技術發展的譜系觀察,早期的模型主要聚焦于特定任務學習,高度依賴人工標注和特征提取。隨后出現的遷移學習打破了這一局面:在保持模型主體架構不變的情況下,可復用模型從其他領域和任務中學到的知識來解決目標任務。加之自監督預訓練技術的發展,使得模型能夠直接從海量無標注的原始數據中自動學習內在結構和表示。這不僅極大降低了預訓練的數據門檻,也顯著提升了模型的訓練效率和可擴展性。在此基礎上,進一步引入針對特定下游任務的微調(fine-tuning),可有效提升模型在特定任務中的性能表現,使其輸出更貼合應用需求。這種“預訓練+微調”的模式,使基礎模型得以突破單一任務的限制,具備了跨領域的適應能力。
從基礎模型的類型上來看,其早期聚焦于自然語言,如今已逐漸從文本、語音、視覺等單一模態向多模態融合發展。在具備分類、生成等能力的基礎上,進一步展現出預測與涌現能力。未來,隨著空間智能的發展,此類模型還會包括能夠理解和模擬復雜環境的世界模型。故而,基礎模型不應以某一具體模態來界定,而應從其“基礎性”的內涵出發予以理解,即通過規模化預訓練形成的通用任務適應能力。當然,這種“基礎性”往往離不開大規模參數的支撐,這在部分法規中也有所體現。例如,歐盟《人工智能法》以1025 FLOPS的算力閾值區分系統型與非系統型基礎模型。參數規模作為關鍵技術指標,具有兩方面意涵:其一,其根本價值在于支撐模型形成通用認知能力及強大的知識遷移潛力,且具體的參數或算力閾值會隨硬件和算法進步而動態變化;其二,不同類型的基礎模型對參數需求的內容也有所不同,例如多模態模型往往更需要動態、交互式的參數體系。
2.法律維度:公共性風險
僅從本體維度界定基礎模型的法律概念過于狹隘。法律肩負著防范社會風險、完成特定任務的使命,且監管資源有限。因此,法律定義需內嵌價值理念,通過概念本身來劃定調整對象、調控社會關系。當前國際實踐對基礎模型的法律定義普遍采取“本體維度”與“風險維度”相結合的模式。例如,美國拜登政府時期的行政命令中將“基礎模型”定義為,通過自我監督在廣泛數據上訓練、包含至少數百億參數、具有廣泛適用性,且可能對國家安全、國家經濟安全、國家公共衛生或其組合構成嚴重風險的模型。這一定義前半部分屬于對基礎模型本體的界定,后半部分則直接描述了其潛在的社會風險。歐盟《人工智能法》將基礎模型定義為“能夠勝任各種不同任務,并可集成到各種下游系統或應用”的模型。這是一種純本體特征的描述,但法案中同時說明,當基礎模型被集成到高風險系統或自身被認定為具有系統性風險時,需遵守額外義務。可見,歐盟雖未直接描述風險,但通過“風險歸屬”模式來整合風險考量,并配套了系統性風險的評估程序。
我國界定基礎模型的法律概念,也宜采取“本體+風險”的模式,并對風險作出直接描述。這主要是基于兩方面的考量:其一,歐盟的風險歸屬模式是為適應其原有立法草案規定的風險分級布局,這種模式可能導致義務區分不合理,間接導致基礎模型提供者為下游應用風險擔責;其二,系統性風險的評估方式整體較為模糊,參數化標準難以有效識別那些規模有限但影響廣泛的模型。因此,我國有必要通過定性描述與列舉限定相結合的方式,明確核心風險的類別。在對風險的描述上,歐盟側重于個人基本權利風險,體現了其個人權利本位的立法傳統;而我國則應聚焦于國家安全、社會公共安全等公共性風險,這既符合我國以社會為本位的治理邏輯,也契合當前引領發展新質生產力的內在需求。具體而言,基礎模型作為具有廣泛賦能效應和基礎設施屬性的底層技術,其技術特性與產業生態決定了其具備顯著的公共屬性,因而風險的描述應突出公共維度。同時,在安全內嵌式的發展需求下,危及政治安全、社會穩定與發展大局的公共性風險應成為規制重點,其他方面則應著眼于促進創新與保障產業健康發展。因此,法律風險的描述應直接聚焦于社會公共風險。
綜合本體維度和法律維度,可將基礎模型定義為“依托自監督預訓練機制構建,參數規模超大,其開發與應用活動可能對國家安全、社會公共安全等重大公共利益構成系統性風險的通用人工智能模型”。在此,法律概念雖采取了定性列舉的模式,但在具體判斷風險的嚴重程度時可引入輔助性的評估要素,如模型能力、潛在應用廣度等,并且根據技術發展進行動態更新。
(二)基礎模型提供者的概念廓清
基礎模型提供者是開發基礎模型,或委托開發基礎模型,并以自己的名義或商標將其投放市場或提供服務的組織。該類主體可分為四種類型,且在某些商業模式下可能出現身份復合的現象。
1.提供行為
“提供行為”是基礎模型提供者這一概念的核心,從規范要素出發,其是“開發+投放/提供”這兩種要素的結合,具有三重規范特征。其一,提供行為的本質是以市場供給為目的的技術輸出活動,包括無償供給,但純私人或內部使用不包括在內。在供給形式方面不作限制,只要允許第三方訪問或調用、復用模型能力,就屬于提供行為的范疇。其二,行為主體須以自身名義或商標進行服務標識。在數字化產業去中心化的趨勢下,基礎模型的形成過程往往涉及多方主體,包括模型思想提供者、模型設計者、模型制造者以及模型代工者等。但為明確義務與責任歸屬,必須在去中心化的價值鏈條中找到中心化的控制主體。在此過程中,品牌歸屬是一項關鍵的判斷標準。因此,服務提供行為不僅是一種技術交付,更代表著一種品牌承諾。其三,提供行為在時間維度上呈現出“雙層結構”。一方面,投放市場是一次性節點,即模型特定版本首次被提供的時間點,投放行為的合規與否也往往鎖定這一時間點進行判斷;另一方面,雖然此后同一版本模型的流通不再重新觸發新的投放行為,但提供行為具有連續性,會延伸為一個持續的義務鏈條,成為提供者法律義務的起點。
2.主體類型
基于歐洲政策分析中心(CEPS)對人工智能價值鏈的七類劃分標準,并結合提供行為的規范特征,可將基礎模型提供者細分為四類主體:其一,原創研發機構,其主導基礎模型的架構設計、預訓練及工程實現,擁有模型的知識產權,通常通過閉源API或商業平臺完成首次市場投放。其二,開源主導者和商業托管平臺,前者以自主品牌發布開源基礎模型;后者通過自有品牌提供基礎模型API或云服務,通過控制服務接口與輸出構建“模型即服務”(MaaS)生態系統。其三,模型微調服務商,其基于原創模型進行通用能力優化,并將優化后的模型作為獨立產品投放市場。其四,模型集成商,其整合多個基礎模型構建新系統,并以集成系統名義投放市場。值得注意的是,后兩類主體的提供對象必須是通用模型而非領域模型。從事領域微調的應用集成商,不屬于這一范疇。
3.身份復合
在復雜的人工智能產業實踐中,基礎模型提供者的身份并非總是單一的,也可能出現多重身份交織的復合特征。這種身份復合的情形可以概括為兩種類型:其一,基礎模型提供者與應用系統提供者的身份重合。比如,在“模型即服務”模式下,模型開發者直接面向終端用戶提供生成式人工智能服務,從而同時兼具“模型提供者”與“應用服務提供者”的雙重身份。其二,基礎模型提供者與使用者的身份重合。在某些情況中,基礎模型的開發者不僅是技術的提供者,還會使用自己的人工智能產品或服務。比如特斯拉作為自動駕駛系統的開發者,同時還使用研發的模型來實現汽車的自動駕駛功能,從而融合了“提供者”與“使用者”的雙重身份。
(三)基礎模型提供者的基本特征
基礎模型提供者的基本特征也是其與人工智能應用系統提供者的區別所在。
1.技術屬性
相較于人工智能應用系統提供者,基礎模型提供者在技術屬性上具有復雜性。這種復雜性既源于其技術發展導向,亦因其處于人工智能生態中的關鍵地位。一方面,基礎模型是國家核心技術競爭力的重要體現,亦可能演變為數字社會的關鍵基礎設施。因此,其提供者的技術開發應立足于長遠發展的視角,所承擔的技術使命也不同于人工智能應用系統提供者,相應的責任與義務體系亦應有所區分。另一方面,基礎模型在監管角色方面具有特殊性。由于基礎模型的通用屬性,通過規范少數基礎模型提供者,即可高效實現對下游應用底層技術架構的間接治理。這種治理模式使得在對下游應用的規制中,只需重點關注特定應用領域的專項風險,從而顯著降低全行業的合規成本。
2.少數屬性
基礎模型的涌現能力和推理能力均建立在超大規模參數的基礎上,唯有當參數規模突破特定臨界閾值時,模型方能通過思維鏈提示的訓練,實現真正的泛化能力。這種技術范式對數據和算力均提出了較高要求。在數據方面,不僅需要海量數據,更需要高質量數據。而高質量數據往往被少數頭部企業所掌握,其憑借先發優勢,通過“數據采集—模型性能改進—用戶參與反饋”的循環機制不斷提煉高質量數據,形成難以復制的專有數據集。后發參與者因缺乏用戶生態積累,在數據規模與質量方面均受到發展限制。在算力方面,大模型預訓練亦需要巨額投入。這種高資源門檻使得基礎模型提供者呈現出“少數屬性”。相比之下,應用系統提供者可基于基礎模型進行場景化微調,即使自研模型,單個場景的數據和算力需求也相對可控,因此數量較多。
3.利益屬性
相較于以市場導向為主的應用系統提供者,基礎模型提供者的利益屬性具有復雜性,需要綜合考量公共價值、技術價值等因素。單就商業利益而言,基礎模型提供者必須在“封閉盈利”與“開放賦能”間艱難抉擇。一方面,基礎模型的研發需巨額算力與數據投入,封閉盈利有助于其快速收回成本。但另一方面,基礎模型的技術價值又依賴于開源或開放接口以擴大生態,在下游應用中創造衍生價值。這種內在張力,使得基礎模型提供者的利益屬性呈現出復雜性。而在公共性層面,鑒于基礎模型具有“潛在數字社會基礎設施”的公共屬性,其設計、開發與制造行為均不得僅以商業價值為單一導向,還需要立足公共利益,納入更多的社會規范和公共價值考量,將公共責任內嵌于技術實踐之中。
03基礎模型提供者系統安全保護義務的提出
確定一項法律義務,首先需要考量其是否“應當”。這種“應當”根植于社會共識的價值判斷,通常是作為權威的立法者基于理性權衡,將日常生活中人們普遍認可的行為準則制度化、法律化的結果。對于基礎模型提供者而言,其義務的“應當”,源于其在價值鏈中的特殊地位及面臨的特殊風險。這類風險具有規模性、傳導性、脆弱性和不透明性等特征,可稱為“系統性安全風險”。雖然基礎模型提供者對該風險具備一定的控制能力,但鑒于其作為私主體保障能力的局限性,故而將其所承擔的義務定位為“安全保護義務”。
(一)基礎模型提供者的特殊地位
明確基礎模型提供者在人工智能價值鏈中的具體地位是設定其法律義務的先導步驟。
1.沿價值鏈判斷基礎模型提供者的地位
當前,學界對人工智能價值鏈的主體劃分存在多種模式:既有以歐盟《人工智能法》為參照的“通用模型提供者+應用系統提供者+應用系統部署者+受影響者”的四元結構,也有串聯核心義務主體的“基礎模型提供者+專業模型研發者+生成式內容服務提供者”結構,還包括“技術開發者+技術提供者+技術應用者+受技術影響者”鏈條。雖然價值鏈條的呈現形式有所不同,但主體過程均遵循人工智能技術從底層研發到終端應用的規律。無論采取何種價值鏈模式,在以基礎模型為核心的人工智能開發模式下,基礎模型的設計和開發均是人工智能價值鏈的技術原點。作為一種相對封閉的技術系統,基礎模型通過接口開放和場景化部署進入實際應用領域,完成了從技術系統向社會系統的轉化。在此過程中,其技術提供行為具有雙重效應:一方面,這些行為界定了技術系統的功能邊界,決定了技術系統本身的安全水平;另一方面,這些行為通過建立技術使用規范和框架,塑造著社會系統接納人工智能技術的路徑依賴和底層技術安全。正是這種獨特的樞紐地位,使基礎模型提供者位于特殊地位。
2.將基礎模型提供者的義務定位于耦合結構
基礎模型提供者位于連接技術系統與社會系統的特殊地位,其既需要確保提供行為瞬間的技術安全,也需在后續應用中維持技術原點的安全。鑒于基礎模型的不安全可能引發下游應用系統的風險,對終端用戶產生實質性危害,基礎模型提供者必須履行相應的風險防范義務。然而,這并不完全是技術系統能夠指涉的領域。技術系統的核心運作遵循著“功能/故障”或“工作/失效”等內在二元砝碼,本質上是價值無涉的。這種專注于系統內部效能最大化的邏輯,難以有效調和外部社會系統所承載的多元價值要求。當技術目標與社會價值目標出現偏離時,技術提供者容易產生相應的道德風險。因此,技術系統自身無法充分實現風險的分散,亟需法律系統通過規范性干預提供支撐。在系統論法學的視角下,這種規范性干預功能的發揮需要經由恰當的耦合結構。
所謂耦合結構,是兩個系統共同涉及的連接點,其中一個系統的運作或多或少地通過某種機制指向另一個系統的運作,經由各系統特有的二元符碼,持續地將外部規范要求轉化為系統內部的運作參數。例如,法律與經濟系統的耦合通過所有權與契約實現,法律與政治系統的耦合則通過憲法完成。故而,尋找恰當的結構耦合是法律介入技術系統的必要前提。這里面臨的首要問題是,確立法律與技術系統能共同識別與交互的連接點。“安全”正是這樣一個恰當的連接點。在技術系統中,安全體現為系統的可靠性、可預測性等屬性,內嵌于“功能/故障”的二元判斷中;而在法律系統中,安全則體現為對社會公共利益的保障,蘊含于“合法/非法”的規范判斷之內。正是這種共同但異質的指向,使得“安全”具備了成為系統間連接點的實質基礎。但安全尚不足以構成完整的結構耦合,需要進一步將其轉化為具備制度化、程序化功能的耦合形式。根據盧曼的理論,耦合結構需要滿足三個要素:抽象性、切斷共識需求以及能夠作為系統之間持續且穩定的“激擾”。將這一理論置于人工智能價值鏈中,可將基礎模型提供者的安全義務作為耦合點。
首先,安全義務是一個高度抽象的法律概念,直接承載法律系統的規范性要求,涵蓋基礎模型從設計、開發、測試到提供的全流程。它能夠包容各類具體風險,使基礎模型提供行為均可由“合法/非法”的二元符碼所判斷。其次,履行安全義務是技術系統進入社會系統的準入條件。法律將原本需與海量下游主體反復協商且難以達成共識的價值判斷,前置為具備外部可觀察性和法律可評價性的一般義務。只要提供者履行該義務,便意味著基礎模型在“原點”滿足了內在品質與整體安全的要求。下游應用提供者亦可據此建立初始信任,將注意力集中于各自場景中的具體風險。再次,安全義務實現了技術系統的“可行性”與法律系統的“合法性”之間的結構耦合。通過將其定位為耦合結構,法律系統得以運用“合法/非法”的二元符碼,對提供者設定事前的規制要求。這些要求并非直接干預技術細節,而是作為一種外部“激擾”,促使技術系統將安全義務具體化下的一系列規范要求轉化為可操作的技術指標。在此過程中,兩個系統分別以不同的代碼觀察并塑造著安全義務,使其成為一個穩定的結構耦合點。
(二)特殊地位的系統性安全風險
要設定精確合理的安全義務,必須明確基礎模型提供者所面臨的具體風險。當少數主體憑借技術壟斷形成生態控制時,容易引發“規模性”風險,也易導致同質化問題。顯性同質化會使風險具有“傳導性”,而隱形同質化則可能導致歧視、偏見等內容更易滲透,使得模型更具“脆弱性”。此外,基礎模型的涌現能力更是引發了預測困境,使得模型的運作過程具有高度的“不透明性”。綜合上述風險特性,可將基礎模型提供者所面臨的風險稱為“系統性安全風險”。
1.技術壟斷下的生態控制
基礎模型的技術壟斷正在形成一種具有顯著規模效應的生態控制模式,這主要源于技術優勢的自我強化機制。由于少數頭部企業掌握著核心的技術優勢,絕大多數的人工智能系統均依賴于少數、同質化的基礎模型,從而在算法、數據和組織這三個層面形成集中效應。這種集中效應不僅表現為傳統的市場支配力,更體現為隱形的技術控制力,沿著縱向和橫向兩個維度展開。從縱向維度來看,模型提供者通過技術架構設計,能夠在各類應用場景中預先植入技術標準與功能偏好,構建起以基礎模型為核心,連接下游平臺、關聯業務商家等多方主體的生態系統,形成自上而下的生態主導力。從橫向維度來看,基礎模型已具備顯著的多模態性,其應用場景遠超傳統市場交易的范疇,會在社交、汽車等更廣泛的社會生產領域產生影響。這種橫向跨界,使得模型提供者得以在不同行業間建立依賴關系,形成輻射式的生態控制模式。
2.同質化下的風險傳導
技術壟斷在造成生態控制的同時,也會引發人工智能領域前所未有的同質化現象。目前市場上大量的專用模型與場景化應用,本質上都是對基礎模型進行微調或衍生開發的結果。即使部分應用開發者自研基礎模型,但受限于算力瓶頸與數據壁壘,亦無法撼動基礎模型主導的同質化格局。顯性同質化最明顯的效應即為偏差復制和風險傳導。當所有人工智能系統都植根于同源基礎模型時,原始模型潛藏的知識幻覺、數據噪聲等技術缺陷將被精準復制到下游應用,使得風險呈現出傳導性。同時,當技術生態過度依賴于少數基礎模型時,整個系統將陷入依賴關系網絡,形成類似金融系統“大而不能倒”(too big to fail)的“過度關聯而不能倒”(too connected to fail)困境,呈現出顯著的脆弱性。
除了顯性同質化之外,在少數基礎模型算法單一文化的影響下,應用系統輸出的選擇或判斷會逐漸趨同,形成隱性同質化的現象。這種同質化的表現不是如同缺陷、偏差傳導般的顯性強制,而是一種難以被察覺的隱性價值觀傳遞。這些價值觀既可能根植于歷史數據中固有的社會偏見,也可能在應用系統間的動態互動中自發形成。這意味著,同源基礎模型不僅賦予了應用系統高度相似的底層認知邏輯,更預設了它們在真實場景中會以相似的方式“思考”與“行動”。這使得集體偏見不再依賴于初始指令,而會在動態交互中自動涌現。以自動化簡歷篩選為例,各大企業基于相似基礎模型開發的篩選系統,不僅會延續歷史數據中的既有偏見,更可能在系統間相互參照的過程中,形成并固化一套趨同且未經審視的新標準。具體而言,某個偶然被多個系統初始采納的篩選傾向,可能會在交互中被標記為“有效經驗”。在底層邏輯相似的基礎上,各系統會以相同的方式解讀并學習這一“經驗”,從而逐漸排斥其他可能性。當此類趨同標準被企業廣泛采用,會導致人才多樣性降低,最終損害整體人才資源的質量。這種風險猶如“溫水煮青蛙”,長久以往,這些在動態中形成并被強化的歧視、偏見和缺陷,將被隱性嵌入政治、經濟、公共服務等基礎模型接入的各種社會場景中,成為一種組織規范乃至國家制度安排,演變為一種系統性歧視和缺陷。
3.涌現能力下的預測困境
在規模參數的驅動下,基礎模型展現出顯著的涌現能力(emergent abilities)。這種特性既是模型創新的重要源泉,也意味著模型行為與潛在故障難以預測,存在高度的不確定性。更為復雜的是,當涌現能力與模型同質化相互疊加,通過微調傳遞至下游應用時,會引發難以預見的交互效應,產生三重預測困境。其一,不可觀察性帶來的預測困境。這一不可觀察性是指人類難以理解模型輸出的內在機制,導致在模型應用中無法提前識別潛在風險,也無法迅速采取措施以應對風險。其二,不可解釋性帶來的預測困境。相較于一般模型,基礎模型對“提示”更具敏感性,細微的參數改動可能引起輸出結果的巨大變化,而當多變量協同作用時,各因素間的復雜交互更使得因果追溯幾乎不可行。其三,不可控制性帶來的預測困境。傳統專家系統遵循確定性邏輯,具體的輸入指令往往會導向預期的控制效果,而基礎模型因內在的復雜運作,即便輸入看似精確的調控指令,其輸出仍可能偏離預設軌跡,致使控制目標無法實現。這三重預測困境在人工智能價值鏈中形成了多重信息壁壘,不僅應用系統提供者、使用者與基礎模型提供者之間存在信息不對稱,甚至基礎模型提供者與基礎模型本身之間也存在著信息不對稱。
(三)系統性安全風險下的系統安全保護義務
面對系統性安全風險,設定基礎模型提供者的安全義務應回歸風險控制、收益匹配與合理期待的義務承擔邏輯。鑒于基礎模型提供者的技術控制地位及營利屬性,其具備承擔安全義務的正當性。同時,考慮到其能力的局限性,將這一義務界定為“安全保護義務”。
1.安全保護義務之正當性
基礎模型提供者篩選訓練數據、編制算法架構、控制模型性能,既是風險中心,亦是控制中心。從數據源頭的甄別、核心算法的構建到最終模型的優化,提供者實際直接控制了模型的知識邊界、價值取向、推理邏輯和優化目標,間接控制了下游應用系統的數據范圍、數據內容、算法模式和輸出質量,始終把控著技術系統內部的安全閾值。作為兼具技術權威與風險管控能力的主體,提供者對模型、算法與數據均具有控制能力,不僅能夠憑借其專業能力判斷模型存在的內生風險,更能通過專業手段主動防范潛在危害。這種從源頭構建到終端輸出的控制能力,以及與之對應的風險識別能力,是確立其承擔安全義務的法理基礎。
基礎模型提供活動的營利性進一步強化了提供者義務承擔的正當性。在這一點上,開源模型與閉源模型的義務承擔邏輯略有不同。當前閉源模型的商業運行通常是通過許可、授權等合同條款限制模型的使用權限和功能,以期通過技術壁壘實現模型獨占并獲取直接的經濟回報。由此可見,閉源模型提供者天然依賴直接的經濟回報機制,基于利益與風險對等原則,其應當履行相應義務以維持技術系統內部的安全。而開源模型的營利則是通過構建生態、提升品牌價值或提供后續商業化服務等間接方式實現。盡管商業模式不同,但其本質依然符合營利性質。營利活動天然會伴隨社會責任的產生,基礎模型提供者作為核心技術的輸出方與受益者,在獲取商業利益的同時,理應承擔相應的安全保護義務。
2.安全保護義務之合理性
為何將基礎模型提供者的義務概括為安全保護義務而非安全保障義務?其緣由在于“保護”與“保障”的法義分野。“保障”一詞作為謂語,較多出現在憲法條文的表述當中,與“人權”“國有經濟”“各少數民族合法權利和利益”等內容銜接,指向的是一種“國家運用政權力量來保證相應目標實現”的含義;“保障”一詞作為名詞則較多與“基本權利”“物”等概念相聯結,義務主體明確指向國家,強調國家意志、公權力介入及結果的確定性。由此可見,“保障”蘊含著高度的結果導向責任,而基礎模型的風險來自多重因素的銜接錯位,某些風險的徹底消弭受制于復雜的社會條件及其對應制度的構建與完善。同時,數據基礎設施、算力資源等戰略性要素的供給保障,本質上應屬于國家治理責任的范疇。
相較之下,“保護”一詞更能精準表述基礎模型提供者作為私主體所應承擔的法律義務,且具有明確的法律規范基礎。盡管我國現行法律尚未對基礎模型提供者的法律義務作出專門規定,但以《中華人民共和國網絡安全法》(以下簡稱“《網絡安全法》”)、《中華人民共和國數據安全法》(以下簡稱“《數據安全法》”)等法律為核心的法律體系,已為其確立了安全保護義務的基本框架。一方面,《暫行辦法》雖主要面向服務提供者,但其相關規定可為基礎模型提供者的義務設計提供重要參考。該辦法第13條所要求的“安全、穩定、持續”服務,即為整個領域確立了安全的價值導向,也可作為基礎模型提供者保護義務的間接依據。另一方面,《網絡安全法》與《數據安全法》分別確立了網絡運營者和數據處理者的網絡安全保護義務與數據安全保護義務。基礎模型提供者作為同時涉及網絡運行與大規模數據處理的主體,理應同時承擔上述兩項義務。在此基礎上,基礎模型提供者法律義務的概括需立足基礎模型系統性風險的特征,對現有法律規范進行整體性解釋與適用。通過將《暫行辦法》所確立的“安全”價值導向,與《網絡安全法》《數據安全法》等法律規定的具體的“安全保護義務”相結合,對基礎模型提供者的義務進行必要的延伸與整合,從而推導出其承擔“系統安全保護義務”的結論。該義務要求基礎模型提供者從整體上確保技術系統的安全、穩定與持續,并在其能力范圍內防范系統性風險的發生。
04系統安全保護義務的設定邏輯
法律義務的設定除了考慮價值層面的“應當”外,還需以一定的行為模式為基礎,以可能的法律責任為保障。以一定的行為模式為基礎須明確系統安全保護義務的規范重點;以“可能的法律責任”為導向則需要考量義務設定的外延,厘清義務的合理邊界。
(一)義務設定的基本前提
基礎模型提供者系統安全保護義務的設定,應遵循兩個基本前提:在鼓勵發展的導向下,設定合理的風險容忍度;在技術可行的前提下,設定可靠的義務適配度。
1.發展導向下風險容忍的合理性
基礎模型是人工智能的底層技術支撐,屬于國家重點發展的領域,需在“引領發展新質生產力”的政策指引下,設定合理的風險容忍度。這一立場具有憲法和法律兩個層面的依據。首先,我國憲法第20條規定“國家發展自然科學和社會科學事業,普及科學和技術知識”。該條款作為國家目標規范,以原則性的方式確立了科技發展的憲法地位,屬于“目的程式”,在法律解釋和適用過程中,應遵循“禁止過度”原則,避免對以創新發展為本質的科技事業施加不當限制。因此,對于基礎模型發展過程中可能伴生的風險,行政機關與社會公眾均應保持合理容忍。其次,《網絡安全法》《數據安全法》等法律法規也體現了積極利用、促進發展的理念,要求鼓勵技術創新與應用。由此可見,從憲法目標到具體法律規范,我國法律體系已為技術發展構建了鼓勵創新的制度環境,對基礎模型提供者的義務設定也應秉持這一理念。
2.技術可行性下的義務適配性
基礎模型提供者的義務設定需要尊重技術可行性原則,在技術限制的范圍內實現風險預防。一方面,對基礎模型提供者的義務設定不能以過渡損害模型本身為代價,即需要尊重技術運作的內在邏輯,不得要求提供者剝離模型運行所必需的核心數據要素,否則可能破壞技術系統的完整性,加劇風險傳遞。另一方面,對基礎模型提供者的義務設定須以現有技術能力為基準,既不能滯后于現有技術發展水平,也不應超越現階段可實現的合理預期,在現實可行和能力可及的條件下設定標準。對于當前技術條件下難以全面落實的規范義務,可采取漸進式路徑,通過倡導性規范引導技術創新方向,為技術迭代預留合理空間。同時,建立階段性評估機制,待技術成熟度提升后逐步強化義務要求。
(二)義務內容的規范重點
設定基礎模型提供者的系統安全保護義務,需尋找適應數字時代的權利義務觀,在此基礎上厘清相應的義務內容和規范重點。
1.以“共同善”為基礎的權利義務觀
在法學理論中,對法律義務的探討多附著于法律權利的概念。主流理論進一步將“個體權利保護”視為法律義務的核心目的與正當性基礎。這一理論在數字時代面臨一定的挑戰。首先,以個人主義為內核易忽視權利的社會嵌入性與實現所需的共同體支持。數字時代下,個體權利的行使深度嵌套于由他者行為與技術架構構成的網絡之中。就人工智能生態而言,基礎模型提供者、應用系統提供者與用戶之間不是簡單、單向度的影響與被影響關系,而是一種共同發展的關系。用戶的知情權依賴于基礎模型所開放的解釋能力;下游應用提供者的服務質量,根本性地受制于其所調用的基礎模型的性能。其次,個體權利受損呈現出“低損害、涉眾性”的特征,輕微損害的可救濟性不足在一定意義上形成了一道廣泛的“免責屏障”,導致由個體權利所串聯的義務與責任,難以有效地向責任方傳遞。就人工智能系統而言,不透明的算法黑箱、難以證明的因果鏈條均阻礙了個體救濟的有效性,大量與個體權利相對的義務被虛置,繼而導致“微量損害”的違法成本被外部化。再次,某些權利是否可以被視為個體權利這一問題本身存在爭議,權利歸屬與具體內容的模糊,致使相應的義務設定缺乏依據。
因此,必須重構對“權利基礎”的理解以回應時代需求。拉茲的共同善權利觀為此提供了法理基礎。該理論將焦點從個人維度轉移到社會或集體面向,主張集體維度也應該構成理解權利的內在要素。其背后與義務的關聯性在于構建了“個人利益+共同善—權利的重要性—義務”這樣的邏輯鏈條。這意味著,權利本質上是共同體為促進共同善而認可并保障的規范性主張。相應地,法律義務的設定可以基于更廣泛的社會利益和系統穩定性。共同善權利義務觀并非是空洞的,它在不同情境中有具體的內涵,核心在于識別那些為社會成員的合作與協調提供意義基礎的關鍵因素。
這一理論與復雜、自適應的人工智能生態具有內在的契合性。首先,有效應對人工智能所固有的“彌散性損害”問題。相較于個人權利觀所表現出的反應性特征,共同善權利義務觀更具塑造力,其授權監管機構從整體利益出發實施必要的事前規制。同時,監管機構可以代表眾多微小損害的主體對違法者提起公益訴訟,將外部化的違法成本重新內部化。其次,共同善權利義務觀有助于破解“責任主體模糊”的困境。為應對復雜的人工智能價值鏈條,其考慮“誰最有責任去維護相關的共同善”這一問題。據此,可沿人工智能價值鏈,根據不同主體的角色為其分配相應的義務。再次,共同善權利義務觀為價值權衡提供了更具說服力的論證框架。它強調,某些義務的設定旨在“促進個體權益與共同體的整體福祉”。將這一觀點應用于人工智能生態中,各主體在維持追求其自身目標所需的基礎條件這一點上都具有一定利益,這種條件即可概括為“維護一個免于系統性風險的人工智能生態”。在此關系下,保護個體的相關權利不僅是為了個體利益本身,更是為了維護“可信的人工智能環境”這一共同善目標。
2.“共同善”權利義務觀下的義務重點
要在共同善權利觀下進行義務設定,需要關注兩個重點。其一,在預防治理的理念下,更加注重事前風險的防范,依托外部規范來構建秩序。共同善義務觀以建立互惠性數字關系和防范系統性風險為目標,在義務設定上必然更強調事前義務。在義務內容方面,區別于傳統部門法下的義務劃分,數字關系中的各類義務需要協同化發展,囊括公共責任、技術義務與倫理義務。就公共責任而言,基礎模型提供者主導模型價值與技術標準的制定,具有明顯的公共屬性。因此,其義務設定既需要尊重個體,也需要從共同體的整體利益出發。外部規范中應包含公共責任,以回應國家安全、社會公共利益等目標。就倫理義務而言,共同善義務觀要求主體主動構建安全的技術環境,但這并不意味著可以不分場景、不顧法的安定性而隨意擴張相關主體的義務范圍。倫理的適用范圍大于法律,且以義務作為根本性概念。故而可將倫理義務納入外部規范的范圍,倫理中的“不損人”原則能夠補充法律中的消極義務,為相關主體設定行為底線;而“利他”導向則可彌補積極義務的不足,讓相關主體在共同善的價值追求中,形成一種共同的秩序。同時,基于共同善的價值導向,倫理規則還能推動社會輿論的形成,在強化外部規范效力的同時,構建一種可持續的技術約束機制。就技術義務而言,在人工智能生態網絡中,技術義務能夠協同多方主體,使其能夠依托各自的能力與專長,共同參與并實現價值創造。同時,安全義務的耦合結構地位也要求其內含相關的技術標準與規范,以指涉并塑造技術系統內部的安全。其二,注重互動性義務的設定,強調系統間的互動關系。人工智能上下游系統在知識與實踐層面均呈現出顯著的共享性、共同體特征與相互依賴性。整個生態的健康發展,高度依賴于價值鏈各環節之間高頻、雙向的互動質量,風險與價值均在互動過程中生成。因此,義務設定必須關注人工智能各價值鏈主體間的溝通、交往與互動關系,以引導整個生態良性發展。
(三)義務設定的合理邊界
系統安全保護義務應有合理邊界。一方面,由于技術系統風險與具體場景風險在認知層面存在本質差異,該安全保護義務不及于下游具體應用的場景化風險。另一方面,為確保義務設定的精準性,需以各主體的控制能力為依據,劃定義務邊界。當基礎模型提供者對下游應用的控制能力足夠強時,需要承擔額外的管理性義務。
1.風險認知偏差下的提供者義務邊界
系統安全保護義務原則上僅限于對技術系統內部整體安全的保護,不及于下游具體應用場景。從設計初衷來看,基礎模型以通用為導向,不預設特定應用場景。這意味著基礎模型提供者的義務應聚焦于系統內在機制的安全性,而非外部的場景化風險。從風險屬性的角度而言,技術系統的內部風險與具體場景風險存在本質區別,前者是一種技術風險,往往以技術指標作為評價標準,后者則高度依賴于特定場景下的具體社會規范與使用方式,會輔助其他專業標準進行綜合評價。以基礎模型的翻譯任務為例,翻譯中的精度偏差本屬技術指標問題,但當模型應用于醫療場景時,這一通用風險就轉化為具有特定危害性的場景化風險,任何細微的偏差均可能危及人身安全。這種風險的防范,不僅依賴于模型本身的技術指標,更取決于醫療領域的專業知識與監管要求。因此,將此類下游風險歸咎于基礎模型提供者實屬不妥。從責任分配的合理性出發,應用系統提供者處于人工智能價值鏈的中端,往往直接面向用戶,因而更了解具體應用場景與用戶使用模式,更有能力對相關風險進行識別與控制。因此,基礎模型提供者應更注重技術原點安全的內在評價,應用系統提供者更應注重特定應用場景的具體風險。
2.控制能力差異下的提供者義務邊界
基礎模型提供者不直接承擔下游應用的具體風險,并不意味著其對下游系統完全無所作為。其義務范圍的確定,須以“控制能力”為基礎進行合理判斷。基礎模型的部署方式決定了提供者對模型控制權的轉移程度,這是劃分相關法律義務的核心節點。實踐中,基礎模型的部署方式主要有開源和API兩種,但控制力的強弱并非簡單的二元界定。一方面,在法學視野下,開源這一概念本身就意味著完全封閉和完全開放之間的梯度可能,模型架構、模型權重、訓練代碼等任何組成部分的開放均可稱之為開源。另一方面,API服務模式亦存在多樣形態,既包括提供標準化調用接口的固定功能服務,也包括云服務商模式,后者還可進一步區分為只訪問和可微調的形式。因此,需要根據具體部署情形,關鍵聚焦兩個方面進行判斷:其一,部署環境的可控性,即提供者是否對模型運行的基礎設施具有控制力。其二,模型調用方式與透明度,即提供者是否能掌握模型調用過程與關鍵數據。當二者兼具時,屬于“強控制模式”,典型如云端即服務(SaaS),此時下游請求與模型輸出均處于提供者的控制范圍內,其需承擔全面的管理義務。而在二者均不具備時,如私有化部署模式,模型提供者與下游服務提供者之間的互動一次完成,模型提供者對模型的直接控制力較弱,形成“弱控制模式”。此時模型提供者不承擔管理義務。而位于二者之間的中間模式,其法律義務結構更為復雜,需要根據具體情況和服務協議,以控制元素為標準履行差異化的管理義務。
05系統安全保護義務的體系化建構
現行法律規范雖提供了基礎模型提供者系統安全保護義務的規范框架,但未形成體系的、完整的義務內容。在共同善權利義務觀的指引下,系統安全保護義務應構建為三重義務體系:一是以技術義務、倫理義務和公共責任為內容的“基礎性義務”;二是側重于系統間交互關系的“互動性義務”;三是提供者對下游應用的控制能力足夠強時要承擔的“管理性義務”。
(一)基礎性義務
基礎性義務是所有基礎模型提供者均須承擔的共性義務,旨在確保技術系統內部的安全。由于技術義務、倫理義務與公共責任在內容上存在交叉,故而圍繞基礎模型的兩大核心要素,即模型與數據,來系統闡述基礎性義務。具體而言,包括模型安全保護義務、數據安全保護義務、倫理提示與價值對齊義務。
1.模型安全保護義務
模型安全保護義務的重心在于防范技術缺陷的下游傳導,包括模型品質一般保證義務、模型監測與準入義務和事后修復義務三部分。模型品質一般保證義務是指基礎模型提供者應當通過科學嚴謹的算法設計、高質量的數據集構建及規范的訓練流程,確保模型具備基礎的技術合理性和公平性。這一義務內含算法透明與算法公平的要求,旨在從源頭上防止偏見的產生和傳導。模型監測與準入包含最初模型準入環節的測試,也包括模型準入后運行過程中的監測。最初準入環節的測試主要要求模型在投入使用前必須經過嚴格的對抗測試,以確保其不存在可識別的技術缺陷,這一點在歐盟《人工智能法》第55條中亦有明確規定。運行過程中的監測是指模型提供者應開展持續性評估,根據風險監測信息,及時優化調整。事后修復義務則是指在模型運行出現問題時,其應當承擔及時修復的義務,包括但不限于及時就相關問題進行補救,避免損失擴大,最大限度地保護有關人員的權利等。
2.數據安全保護義務
基礎模型提供者在研發過程中需處理海量數據,其數據安全保護義務主要包括數據收集與存儲的安全性、數據來源的合法性與公平性以及數據質量的可控性三方面。其一,數據收集與存儲的安全性。一方面,提供者應以《數據安全法》《網絡數據安全管理條例》為基準,構建數據分類分級保護制度,對重要數據采取相應的技術措施并定期開展風險評估。另一方面,提供者需要確保數據收集與聚合的可控性。由于數據處理場景的復雜性,行政監管難以預設統一的行為標準,需側重程序性規制,引導研發者將個人信息保護要求內化為數據處理的設計原則,借助規范化的內部管理程序實現數據的合理收集與聚合。其二,數據來源的合法性與公平性,模型提供者需要確保數據來源合法,尤其需要對開源數據集、外采數據以及通過自動化技術采集的數據進行嚴格的合規審查。同時,模型提供者還需對數據可能存在的偏見采取適當的緩解措施,以確保數據的公平性。其三,數據質量的可控性。基礎模型訓練數據的失真是人工智能幻覺的源頭,其中蘊含的偏見與結構性不平等,將在下游應用中疊加傳遞,影響整個智能生態的數據流。因此,基礎模型提供者有義務使用高質量的數據訓練模型,根據《暫行辦法》第7條列舉的要求,保障數據的真實性、準確性、客觀性與多樣性。
3.倫理提示與價值對齊義務
當前,主流的人工智能基礎模型普遍具備語言輸出和價值導向功能。為應對其潛在的倫理失當風險,提供者應履行相應的倫理義務,確保模型的輸出符合社會倫理規范并完成“向善”的價值觀引導,主要通過倫理提示與價值對齊的方式實現。基礎模型在大規模參數的驅動下具有“提示敏感性”,而該“提示”行為并非僅僅終端用戶可以進行操作,基礎模型提供者和應用系統模型提供者均會使用“提示”功能,對基礎模型進行義務設定。因此,這種“提示”實質上是一種對基礎模型的技術約束力。基礎模型提供者在訓練模型時,往往會以通過自然語言“提示”調控基礎模型。這種調控應當植入基于我國刑法、民法典、國家安全法等法律法規構成的內容安全監管框架,明確禁止模型生成任何危害國家安全、破壞社會穩定或傳播虛假信息的有害內容。同時,針對可能存在的歷史觀扭曲、意識形態偏差和價值觀誤導等潛在風險,以及具有普遍性的倫理問題,都應當建立篩查機制。價值對齊旨在通過技術手段使模型學習并內化人類社會的價值準則,從而確保輸出內容符合倫理規范。然而,人類價值觀具有多層次、復雜化的特征,尤其是一些蘊含人文情懷的價值理念,往往帶有模糊性與情境依賴性,難以通過算法路徑進行精準轉化。因此,現階段基礎模型提供者需要承擔一般有益價值的“弱”對齊義務,而對于那些涉及價值權衡的內容,可在形成一定共識的基礎上予以推進。
(二)互動性義務
互動性義務立足于數字時代各主體間的利益共生關系,要求基礎模型提供者履行透明度報告義務、信息共享義務與行為協助義務,確保與下游應用主體之間的溝通、交往和互動,以營造系統交互層面的信任安全。
1.透明度報告義務
作為信息共享的關鍵因素,透明度有助于緩解“黑箱”效應,從而揭示并驗證潛在于參數張量中的歧視、偏見及其他風險。基礎模型提供者的透明度報告義務主要面向監管機關與公眾,其根本目的在于通過信息傳遞實現一定的監督控制。因此,該報告義務不僅涉及信息的披露,還需對相關內容進行解釋。對于一般的基礎模型提供者,其報告義務主要限于技術系統固有的基本信息,比如提供者名稱、模型訓練數據的來源、內外部測試的說明,以及可能存在的系統性風險等。若模型提供者同時承擔服務提供者的角色,其報告義務還需包括《暫行辦法》規定的生成內容的標識等。此外,透明度報告義務在面向監管機構和用戶與公眾時,應進行差異化設置。對監管機構而言,透明度報告是一種備案手段,旨在為監督與問責提供依據。當基礎模型在下游應用中因微調引發缺陷時,可借助模型提供者在透明度報告中披露的信息進行測試,追溯缺陷來源。在內容方面,鑒于監管機構具有更強的保密性,報告可更為詳盡,但也應遵循比例原則,將披露負擔及可能引發的風險控制在合理范圍內。對于公眾而言,由于其專業認知能力和信息保密條件均弱于國家機關,報告方式應更注重通俗易懂,內容上則應剔除可能對模型提供者權益造成重大影響的信息。值得注意的是,透明度義務受制于模型提供者的技術水平與實際情況,完全的透明既不現實亦不可能。
2.信息共享義務
透明度報告義務主要面向監管機關與公眾,而信息共享義務主要針對下游應用開發者,主要保證下游應用系統提供者知曉基礎模型的必要信息,以便更好地利用基礎模型。具體包括以下三方面內容:其一,編制技術文檔,說明模型性能與能力限制并制定使用指南,確保下游開發者能夠充分理解基礎模型的技術特性與功能邊界。當然,由于面向的是專業的技術主體,故而可無需將計算機語言進行轉換,只要信息可理解即可。其二,當基礎模型出現重大技術缺陷或安全隱患時,應當及時告知下游應用系統。其三,當基礎模型提供者明確知曉該模型應用于高風險場景時,需額外提供專項技術說明。需要注意的是,信息共享的廣度和深度與基礎模型下游部署方式有關。特別對于閉源模型而言,基礎模型提供者僅需披露確保系統安全所必需的最小化技術參數,而無需開放核心算法細節或訓練數據等內容。
3.行為協助義務
人工智能基礎模型提供者的行為協助義務,是指當基礎模型技術系統出現運行缺陷、功能異常或需要特定技術支持時,提供者應當履行技術協助與調試的義務。這一義務的核心在于確保基礎模型的穩定性和可靠性,同時保障下游開發者或用戶能夠有效利用模型完成預期任務。該義務具體包括三項子義務:其一,缺陷修復義務,即當基礎模型存在如安全漏洞或性能異常等技術缺陷時,提供者應及時響應,協助解決問題。其二,調試支持義務,即若用戶因技術能力不足或系統兼容性問題需要提供者介入調試,提供者應在合理范圍內提供必要的技術支持。其三,為事后解釋提供協助。透明度報告義務主要為事前解釋,即在人工智能系統投入應用前,對系統的基本要素進行說明;而事后解釋,則是在人工智能作出具體決策后,圍繞具體決策進行解釋。事后解釋通常由下游服務提供者履行,但若其因系統專業性而需要基礎模型提供者協助時,后者應當提供必要的專業支持。
(三)管理性義務
管理性義務是對技術系統風險和明顯不當行為的管理,并不意味著對下游場景化應用的具體風險承擔責任。根據基礎模型提供者控制能力的不同,“強控制”模式下其需承擔全面的管理義務;中間模式下,需要根據具體情況判斷控制內容,承擔受限的管理義務。
1.全面管理義務
在“強控制”模式下,基礎模型提供者基于對部署環境與模型調用流程的完整控制力,需承擔涵蓋事前、事中與事后環節的全面管理性義務,包括監管審核義務與風險管理義務。監管審核義務屬于事前義務,包括API準入審查與特定高風險領域的盡職調查。前者要求設置專門的安全管理機構,對下游開發者的資質進行審核。資質審核內容應涵蓋但不限于合理的內容過濾機制、數據安全管理制度、個人信息保護措施等。后者要求在模型提供者明知或應知模型將被應用于高風險場景時,開展更為嚴格的資質審核與使用場景評估。其中,高風險場景指可能對“重大安全”產生實質性損害的領域,主要包括三類情形:一是攸關人身安全與生命健康的領域,如診療服務、自動駕駛等;二是關涉個體重大發展權益、不利影響難以恢復的領域,如教育就業、司法系統等;三是塑造公共認知與社會秩序的領域,如新聞服務、授益給付等。風險管理義務偏向于模型運行中的持續監管與事后響應,包括動態監控義務與應急處置義務。動態監控義務不同于基礎性義務中關于模型本身運行的監測義務,而更強調對下游應用系統提供者的監測,通過分析API調用模式、輸入及輸出內容,識別諸如虛假信息生成、仇恨言論傳播、規避安全措施的“越獄”等異常使用行為。應急處置義務則指建立應急預案、對嚴重違規行為采取即時斷流等應急處置措施。
2.受限管理義務
受限管理義務適用于介于“強控制”與“弱控制”之間的中間模式,具體的義務范圍需要根據模型調用情況,以控制元素為標準進行差異化設置。若基礎模型提供者僅控制部署環境而允許下游對模型進行微調時,其因不接觸具體數據流而喪失內容干預能力。此時,提供者的監管審核義務退化為形式上的API準入審查,而無法實施基于內容的高風險審查。其風險管理義務中的動態監控,也僅限于分析API調用頻率、錯誤率等技術數據以識別系統層面的異常,無法觸及虛假信息等內容風險;相應的應急處置也僅針對基礎設施安全事件,無法對內容安全進行干預。更為常見的情形是,提供者通過合同約定與技術工具保留不同程度的間接控制力,此時其義務范圍需依據這些控制點的實際內涵具體判斷。例如,若其通過服務條款禁止特定用途并保留了關停違規賬戶的權利,則其負有相關義務。因此,受限管理義務的本質,是在不具備全鏈條直接控制的前提下,履行與其所保留的特定控制點相匹配的、局部的、且常常是間接的管理責任。
06結語
以基礎模型為代表的新一代人工智能正加速推動人類社會的數字化進程。基礎模型提供者位于人工智能價值鏈中的特殊地位,其“提供”行為連接技術系統與下游應用系統,面臨的是剝離場景化風險的系統性安全風險。基于基礎模型提供者的技術控制地位與模型提供活動的營利屬性,其具有履行系統安全保護義務的正當性與合理性。該義務的設定應遵循兩個基本前提:在鼓勵發展的導向下,設定合理的風險容忍度;在技術可行的前提下,設定可靠的義務適配度。就義務邊界而言,需要判斷其是否承擔對下游應用的管理性義務。根據下游應用部署模式的不同,義務范圍應有所區分:在“強控制”模式下,基礎模型提供者需要承擔涵蓋事前、事中與事后環節的全面管理性義務;而在“弱控制”模式下,基礎模型提供者僅需維持技術原點的安全性,履行基礎性義務與互動性義務。未來,隨著空間智能等前沿方向的發展,基礎模型將持續迭代并可能出現新的形態,需要持續跟蹤技術發展,并結合多樣化的下游部署場景,動態調整義務框架,構建兼顧安全與發展的義務與責任體系。
*本文章僅限學習交流使用,版權歸原作者所有。
??
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.