<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      周智博:生成式模型嵌入數字政府的技術躍遷與法治調適 | 北方法學202505

      0
      分享至

      【作者】周智博(天津財經大學法學院講師)

      【來源】北大法寶法學期刊庫《北方法學》2025年第5期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


      內容提要:當前,以DeepSeek為代表的生成式模型正處于高度迭代期,厘清技術躍遷背后的“技術賦能—科技風險—法治調適”框架無疑是數字政府建設的重要議題。DeepSeek技術躍遷在一定程度上驅動了數字政府的內容生成、數據共享、人機互動及算法決策,成功推動了數字政府功能形態的轉型升級。然而,在賦能數字政府建設的同時,DeepSeek也隱含行政公共架構消解、歸責鏈條斷裂、程序正當侵蝕及公民權利侵犯等新型風險。由此,基于組織法治,應以公共利益導向增強生成式模型的算法公共性,以權責統一原則增強生成式模型的技術責任性,以算法解釋機制增強生成式模型的程序規范性;基于權利法治,應將法律保留原則與比例原則結合,從形式和實質兩個維度構建一個虛實兼備的權利法治調適體系。

      關鍵詞:生成式模型;數字政府;技術躍遷;法治調適

      目次 一、問題的提出:技術躍遷視域下的數字政府建設 二、生成式模型技術躍遷賦能數字政府建設 三、生成式模型技術躍遷隱含算法風險機理 四、生成式模型技術躍遷背景下的組織法治調適 五、生成式模型技術躍遷背景下的權利法治調適 六、結語

      問題的提出:技術躍遷視域下的數字政府建設

      縱觀歷史發展,政府治理形態演進往往伴隨著技術范式革命,每一次科技迭代都會深刻影響數字政府建設。近年來,生成式模型的技術變革效應尤為明顯。如何透過技術躍遷表象,將技術賦能與風險規制融入法治框架,對于數字政府建設的良性發展無疑具有重要意義。2022年年底,OpenAI推出全球首個對話型通用人工智能,即ChatGPT。基于Transformer架構與人類反饋的強化學習(RLHF)技術,ChatGPT在創造性思維測試中展現出與人類頂尖專家相當的推理能力,重構了人機交互的認知范式。就在美國生成式模型技術一路突飛猛進的同時,2025年初,中國深度求索公司順利發布了開源模型DeepSeek-R1,再一次掀起了技術躍遷的浪潮。不同于OpenAI的“算法封閉”體系,DeepSeek另辟蹊徑,憑借著廣開源、低成本、強適配、深推理的技術屬性,重塑了全球人工智能產業格局,由此將大模型技術躍遷推向一個新的臺階。隨著DeepSeek的廣泛應用,越來越多的地方開始將其嵌入數字政府建設。例如,2025年3月,安徽省級政務“云果斷”進行了DeepSeek滿血版(671B)部署,本次部署集成公文寫作、數據分析報告、語音轉文字、人機互動等16項典型政務應用,為當地數字政府建設開辟了全新局面。

      不過,面對生成式模型在數字政府場域中的高歌猛進,理論上在強調技術賦能的同時,也應透過現象看本質,對生成式模型嵌入數字政府的技術躍遷、風險形態以及法治調適加以系統性思考。這不僅關系到數字政府建設的合法性與正當性,更直接影響著技術賦能與風險規避的邏輯統一。自DeepSeek發布之后,學界圍繞DeepSeek在教育教學、科技創新以及國際傳播等應用領域展開了大量研究,無疑為本文提供了重要的智識基礎。然而,當視線聚焦于數字政府建設,則發現既有研究多聚焦于DeepSeek的技術躍遷表象,鮮有學者系統解構生成式模型與數字政府治理的深層互動。這集中表現為:一方面,技術賦能與風險調適的綜合統籌缺失。既有文獻多將DeepSeek視為推動數字政府建設的一次全新契機,認為DeepSeek能夠有效推動政務服務、政務傳播、知識生產的范式升級,但在一定程度上忽視了生成式模型技術躍遷背后賦能與風險的“雙刃劍”效應,這種偏重一面的研究思路很可能給算法權力異化埋下隱患。另一方面,法治調適理論的供給不足。在數字政府建設過程中,數字政府法治化和法治政府數字化始終是繞不開的議題,然而,相比于法治規范,學界更強調將DeepSeek融入相鄰可能性、技術規制等治理框架,并未將法治范式貫徹于生成式模型運行始終,在一定程度上形成了“法治真空”與“技術超載”并存的悖論。更重要的是,現有研究僅僅聚焦于DeepSeek的范式革命,并未透過現象看本質,建構一套更具時空性和延展性的理論。其直接后果是,學術探討始終局限于DeepSeek技術工具論的窠臼中循環論證,既不能完整闡釋生成式模型對政府權力體系的重塑,也不能建構一套包容未來技術躍遷的動態坐標系。

      本文認為,DeepSeek對于數字政府建設無疑具有重大賦能意義,但作為一種科學技術,DeepSeek本質上并未擺脫生成式模型的固有缺陷。唯有立足于法治視角,將視線聚焦于本體論意義上生成式模型的治理價值和規制框架,才能讓DeepSeek嵌入數字政府更具延展性、滲透性和解釋力。無論生成式模型發生何種迭代,深度學習、人機交互、內容生成始終是其最為核心的算法架構,唯有透過現象看本質,剖開從ChatGPT至DeepSeek的技術變遷表象,著重研究更為本質的生成式大模型與數字政府的內在互動機理,才能揭示技術迭代背后恒定的治理范式轉型規律。換言之,對DeepSeek的觀察必須超越具體模型性能比較,轉而關注公共性算法、算法責任、正當程序、法律保留以及權利保障等元命題,方能使理論建構適應生成式模型技術迭代表象下的治理范式轉型,進而形成指導數字政府建設的持久性認知框架。有鑒于此,本文立足于法治思維,對以DeepSeek等生成式模型嵌入數字政府的技術躍遷、風險機理、法治規范進行系統研究,從而完成數字時代行政理性的路徑重構,并最終創設一套兼具解釋力與預見性的法治調適框架。

      生成式模型技術躍遷賦能數字政府建設

      時下,以DeepSeek為代表的生成式模型技術躍遷,有效驅動了數字政府的內容生成、數據共享、人機互動以及算法決策,將數字政府建設推向了一個更高的臺階。

      (一)內容生成:從機械演繹到模態生成的場景拓展

      在電子政務時期,政務文本生成高度依賴規則引擎與模板填充,這種機械演繹模式雖能保障政策表達的有序性,卻難以應對復雜治理場景中的非結構化需求。生成式模型技術躍遷推動了數字政府從單模態語言生成向多模態場景建構的范式突破,為政府數字化轉型提供了全新的技術底座。

      首先是多模態場景政務文本的技術賦能。傳統電子政務在文本生成過程中,輸出內容被嚴格限制在結構化數據庫與模板填充的線性框架內。生成式模型的嵌入直接擺脫了原有電子政務的現實困境。以DeepSeek為例,基于深度學習和多模態生成技術,政務處理可以突破傳統機械場景,將預設規則與跨模態語義理解相結合,形成集圖片、文字、視頻、音像為一體的協同生成模式,進而驅動政務信息表達形式與治理場景需求的動態耦合。這種多模態生成模式突破了傳統單一文本生成模式的局限性,使多維信息要素實現立體化結合,由原本固定的文字傳達模式升級為全息化的場景再現,從而在技術層面完成了政務文本內容生產從“機械復制”向“智能涌現”的范式更新。

      其次是多模態場景政務知識的生產賦能。傳統政務搜索知識庫更多是經驗性符號化表達,很難在分散邏輯規則中建立起系統的知識圖譜。DeepSeek等生成式模型通過多模態知識圖譜與分布式認知架構的深度融合,有效突破了傳統政務信息系統的線性知識建模邏輯,重塑傳統政務知識獲取方式、概念關聯模式與學科邊界感知,成功構建了一個知識要素組合、推理與涌現的政務知識共創系統。同時,當深度語義理解能力與多模態生成技術相結合,政務知識便突破了文本載體的物理約束,轉化為場景自適應的立體化知識服務體系,實現了從“經驗驅動的知識封裝”到“數據驅動的知識涌現”的飛速跨越。

      再次是多模態場景政務知識的傳播效能。傳統電子政務系統受限于政府工作人員預設的模板邏輯,其所輸出的文本信息只能停留在符號表意層面,無法對多維完整的政策信息進行全方位傳播。而DeepSeek等生成式模型通過跨模態對齊技術,能夠將原本一維文本傳播模式躍升為視覺、聽覺等多感官皆可感知的具象化表達。這種兼顧視覺與聽覺的多模態信息介質,重塑了政策制定者、知識傳播者與信息接收者的價值共創網絡,實現了政務信息傳播效能的質變。例如,在無錫市城市運行中心,DeepSeek通過將文字、語音通話記錄、會議錄音、攝像頭畫面等多模態信息融合,成功重塑了城市數字治理的智能化版圖。

      (二)數據共享:從科層管理到算法協同的模式重構

      一方面,生成式模型可以充當數據整合的橋梁。當前,數字政府建設或多或少存在“數據孤島”現象,這不僅體現在物理層面分散的數據存儲,同時也表現為行政系統內部知識表達的分裂。依托于規模化的數據處理和算法開源技術,DeepSeek能夠將不同部門數據納入統一框架,當生成式模型接收到市場監管部門的準入登記數據、稅務部門的征收記錄、環保部門的監測報告等信息時,系統可以自動探尋各數據間的潛在聯系,建立認知關聯網絡。也正是意識到這一點,遼寧省沈陽市通過DeepSeek模型的本地化部署,有效打破了政府部門間的信息藩籬。從這一意義上講,生成式模型的創新性知識重組機制,本質上是對原本分散行政數據流的形式化統一與邏輯化重組,能夠有效突破傳統數據整合中的淺層耦合局限,推動政務數據從科層管理向協同治理轉型。

      另一方面,生成式模型能夠實現知識的動態重組。基于深度學習與內容生成式算法,生成式模型不僅能夠實現同維數據整合,還能驅動實現異源異構數據的知識對齊與邏輯貫通。傳統科層制體系下的數字政府建設,在遇到諸如政策文件、審批記錄、監管報告等異質化數據時,只能將多元數據轉變為機器可接收的語義內容,實現物理上的疊加處理和表層融合。而DeepSeek以“注意力重塑機制”為基底,能夠充分扮演好翻譯者和組織者的雙重角色,經由算法深度加工,原本分散于各行政部門的數據流可以轉化為不間斷的知識場域,通過高維空間中的語義嵌入與關聯映射,形成跨越部門邊界的動態知識圖譜。總之,生成式模型既能將不同領域的專業術語轉化為通用語義表征,又能在動態更新的知識網絡中建立跨域關聯規則,使科層制背景下分散的行政數據突破組織邊界,在算法驅動語義空間內實現系統性的知識整合。

      (三)人機交互:從單向輸出到智能交互的形態嬗變

      伴隨著生成式模型的技術躍遷,數字政府人機交互范式也發生轉變。基于生成式模型在語義理解、場景建構與認知增強領域的技術支持,政府服務逐漸從程式化應答向智慧化交互演進。

      一方面,從單向輸出到雙向對等。在傳統電子政務場景中,政府與行政相對人的信息傳遞多以單向輸出為主,交互本質是將制度文本通過機械渠道加以線性輻射。這種模式將政府設定為信息發射源,公眾降格為被動接收終端,政務交互過程中的政策解釋與民意反饋往往被割裂為兩個獨立回路。其間,政府更習慣于將各類政策和法規平鋪于政府網站之上,公眾對于信息的探察只能借助搜索引擎,時常陷入知其然而不知其所以然的尷尬境地。但隨著生成式模型的嵌入,傳統單向輸出為主的機械性交互場景被打破。依托于語義理解、上下文關聯及意圖預判能力,生成式模型在一定程度上重新定義了人機交互的邏輯框架。立足于平等交互范式,DeepSeek能夠以高度擬人化和富于親和力的方式幫助公眾與政府主體開展溝通交流,在此情況下,政策咨詢與人際互動不再是單向式、機械式、命令式的匹配,而是轉變為雙向型、友好型、協商型的場景對話。典型如為深化政務人機交互,深圳市寶安區基于“騰訊混元+DeepSeek”上線“小寶”助手,結合寶安區專屬知識庫,“小寶”可以實時掌握最新辦事指南、政策信息等,并通過深度思維鏈分析理解辦事意圖,確保咨詢服務精準可靠。

      另一方面,從籠統交互到精準適配。傳統數字政府人機交互過程中,受限于算法技術支撐不足,系統只能將公眾訴求加以“籠統應對”以及“泛化響應”。事實證明,這種有限預設規則與通用交互模板雖然能滿足公眾基礎性交互需求,但在應對公眾多樣化政策訴求上愈發捉襟見肘。相比之下,基于規模化的數據處理和深度化的內容學習能力,生成式模型可以構建起政策語義的動態映射空間,使人機對話突破表層信息交換局限,讓政務交互進階為“一對一”的量身定制場景。以DeepSeek為例,在人機交互過程中,每一次人機互動,DeepSeek都能夠結合上下文洞悉用戶的精準需求,同時在結果輸出中,DeepSeek也能夠根據用戶特有的身份特征、歷史行為數據及實時交互語境為用戶搭建個性化的政務畫像。例如,依托于DeepSeek,深圳市福田區專門設置了70名“AI數智員工”,涉及11大類240個政務場景,標志著DeepSeek垂直知識譜系正式邁向行政場域。

      (四)算法決策:從經驗驅動到數據賦能的范式躍遷

      生成式模型具備強大的信息推理能力,依托于深度模擬學習系統,能夠在大量訓練中自主學習各類數據知識,利用深度學習算法適配數字政府決策需求。

      一方面,從靜態決策到動態決策的范式躍遷。傳統行政決策多遵循經驗主義推理邏輯,受限于持續反饋與迭代能力缺乏,這種靜態推演已經愈發不適應高度復雜化和變動化的行政決策需求。相比之下,依托于深度學習和數據推演能力,生成式模型能夠在最短時間內在海量數據中精準提取信息,針對以自然語言形式呈現的問題或提示,根據關鍵詞進行回答,全程自主完成目標文本的生成工作。申言之,通過多源異構數據的融合解析與隱性關聯挖掘,生成式模型可以構建一個“監測—評估—調適”的閉環系統,賦予行政決策以實時進化和動態更迭能力。以DeepSeek為例,憑借海量語料訓練形成的語義理解能力,DeepSeek能夠穿透政策文本的表層邏輯,系統揭示不同制度要素間的非線性關聯。同時,通過跨模態知識蒸餾技術,DeepSeek還能將分散的行政數據轉化為動態演進的決策圖譜,運用因果推理識別政策效果的真實歸因,使決策認知突破經驗歸納的認知邊界,形成“數據穿透—模式發現一規律提煉”的智能決策回路。

      例如,湖南省長沙市通過將CS-DeepSeek植入城市智能安全管理領域,可以實時分析城市運行數據,有效提高政府的動態預警監測能力、動態風險分析能力和動態應急處置智能化水平。

      另一方面,從局部優化到系統統籌的治理躍升。受限于局部領域的知識壁壘,經驗驅動型決策很難破解跨域協同的系統性難題,這不僅表現為跨區域行政事務,同時也表現為跨領域行政事務。生成式模型通過全域知識關聯與多目標平衡算法,能構建起系統的決策架構,有效打破部門間的信息孤島,揭示政策協同的潛在空間。作為數據挖掘領域的一種重要工具,DeepSeek在一定程度上受到生物神經網絡的啟發,通過將信息數據輸入神經網絡中,DeepSeek可以自行開展數據運行、調整等一系列活動。在超高體量的數據“喂養”以及持續性的算法模型優化基礎上,DeepSeek能夠根據政府指令及時作出反饋,為政府決策提供全方位、實時性的數據和法規支持。例如,“DS都江堰”整合了水利行業相關的法律法規、政策文件、水利大百科全書、灌區地理數據、工程檔案及各類專家知識庫等各類多模態數據,極大釋放了算法決策的智慧效能。可想而知,當決策系統既能深度解構單一領域的運行規律,又能精準把握跨域協同的涌現效應時,政策制定便得以跨越單維零和思維的取舍邏輯,在經濟發展、生態保護與民生改善間尋找動態平衡點,將行政決策一舉推向“全局洞察—系統設計一動態均衡”的新階段。

      生成式模型技術躍遷隱含算法風險機理

      技術賦能與科技風險往往相生相隨,DeepSeek等生成式模型在賦能數字政府建設的同時,也隱含著行政公共架構消解、歸責鏈條斷裂、程序正當侵蝕以及公民權利侵犯等新型風險。

      (一)公共風險:生成式模型躍遷消解行政公共架構

      1.生成式模型侵蝕政府價值公共性

      數字政府建設是以公共利益為導向的,但在生成式模型語境下,算法研發、算法運營以及數據輸入卻隱含著公共導向偏離的風險。

      首先,就算法研發而言,算法中立僅僅是一種幻想,在生成式模型算法研發過程中,算法研發人員對效率、精確性與可擴展性等技術理性的追求,往往優先于對公平性、包容性與公共性的價值理性考量。在算法黑箱的加持下,這些價值滲透往往隱匿于算法代碼之下,這進一步增加了公共價值的異化風險。

      其次,就算法運行而言,無論是ChatGPT抑或DeepSeek,都是由平臺運營和維護的,在將其嵌入數字政府的過程中,市場逐利價值觀與政府公共價值天然存在張力。受限于政府在技術和專業性上的不足,公共利益導向很可能會隱性讓位于算法平臺的價值判斷。

      再次,就算法數據輸入而言,生成式模型內容生成往往建立在數據分析基礎之上,數據的公正性、客觀性、代表性將直接影響算法結果輸出。作為物理世界多元價值觀的映射,歷史行政數據的結構性偏見、社會群體的數字化鴻溝以及信息采集的技術性盲區,會共同形塑算法認知的扭曲透鏡。此前,ChatGPT就被證明存在種族歧視,即當輸入“生成律師、高管等白領圖片”的指令時,均以白種人為主,黃種人和黑種人寥寥無幾,這充分反映了源自數據的結構性偏見。可想而知,一旦DeepSeek歷史數據中存在錯誤或偏見,生成式模型的內容生成難免偏離公共價值觀,并最終讓數字政府從價值共同體異化為技術專利體系。

      2.生成式模型侵蝕政府權力公共性

      一方面,算法權力侵蝕行政民主正當性。基于民主原則,行政權的公共性在很大程度上植根于民主授權與民主監督的制度安排,這種事前和事后的民主制衡機制可以確保行政權始終在民主軌道內運行。但隨著生成式模型的嵌入,算法對行政權的掌控并非經由民主授權,而是建立在數據建模與概率計算的數學法則之上,以至于既有的民主正當性論證悄然轉移至缺乏民意基礎的算法系統。同時,在算法黑箱影響下,算法權力的運行軌跡也讓人捉摸不透,公眾很難像以往那樣借助民主選舉、行政公開、民主參與等民主監督機制介入行政權的運行,既無從知曉DeepSeek的具體生成邏輯,更難以通過代議制渠道實施有效監督。公眾的選舉權、知情權和參與權在效率至上的技術敘事中褪色,行政權力的民主鏈條也被迫陷入中斷。

      另一方面,算法權力侵蝕行政權力邊界。隨著生成式模型的技術嵌入,行政自主性與算法依賴性的關系變得愈發緊張。表面上看,行政機關工作人員利用生成式模型提升行政效能,但殊不知,從數據導入到結果輸出,占據主導權的從來都不是行政機關,而是隱匿于背后的算法。時下,不少地方政府將生成式模型嵌入自動化決策系統,利用DeepSeek自主作出行政處罰等行政行為;但當DeepSeek模型能夠通過法律代碼轉譯,自主生成具有規范效力的行政行為時,算法權力已然開始僭越固有的行政權力,從行政輔助者蛻變為實質決策者。當技術系統能夠自主定義問題范疇、生成解決方案并驗證執行效能時,政府權力便從公共意志的實踐工具異化為技術理性的附庸,形成“技術系統制定規則、行政機關執行算法”的權力倒置格局。

      (二)責任風險:生成式模型躍遷引發歸責鏈條斷裂

      不同于此前權責明晰的行政責任秩序,隨著生成式人工智能模型嵌入,責任追究的模糊挑戰和避責風險大幅增加。

      一方面,算法行政責任追究的主體模糊性。此前,行政責任追究更多遵循“政府一行政相對人”的框架,只要構成對相對人權益的侵犯,即可通過行政復議、行政訴訟機制對政府課以法律責任。但隨著DeepSeek嵌入,傳統固定的法律責任模式開始朝著“政府—DeepSeek—相對人”的三方框架演變。這種三方框架不同于傳統行政協議,算法復雜性導致責任追究路徑模糊,在應對權力轉移與責任混同問題時更是捉襟見肘。在這一三元法律責任框架內,實際履職者已經悄然發生變化,不再是固有的政府機關工作人員,而是蛻變為更具隱匿性的生成式算法模型。申言之,生成式模型自主性使得“誰在決策”的命題失去意義,當一個行政決策由生成式模型算法作出,那么究竟是平臺承擔責任,還是政府承擔責任,十分混沌,其結果很可能是既無法追溯至具體開發者,也難以歸因于使用DeepSeek模型的行政機關。這種責任彌散化直接沖擊了行政責任法制的倫理基礎,使得傳統“權責一致”原則在生成式模型語境下淪為虛設。

      另一方面,算法行政責任的因果鏈條隱秘性。傳統行政責任建立在“行為一結果—過錯”的線性歸責邏輯之上,核心是將行政行為、危害后果與責任承擔相聯系。然而,隨著DeepSeek等生成式模型嵌入數字政府,算法實時性的深度學習與內容生成機制徹底瓦解了這一歸責機制的因果根基。這種因果斷裂體現為:其一,責任因果鏈條模糊。傳統行政歸責機制很大程度上依賴于事實鏈與結果鏈的關系,算法黑箱使得決策輸出與輸入數據間呈現出非連續、非線性的復雜關聯。正如有學者強調,在算法黑箱的加持下,算法行政實質上以工具理性取代了責任理性,行政權“算法卸責化”已不可避免。其二,因果鏈條不可解釋性。通常情況下,法律責任的因果關系不僅要確定,同時還要具備可解釋性和還原可能性。但在生成式模型語境下,DeepSeek技術演進多遵循相關關系,每一次深度學習與內容生成,都會遮蔽因果關系的線性演化。當算法決策的“技術真相”無法轉化為法律事實時,行政責任難免陷入認知論的死循環之中。

      (三)程序風險:生成式模型躍遷架空程序正當原則

      1.生成式模型躍遷架空說明理由制度

      根據說明理由制度,行政機關作出任何行政行為,尤其是不利于行政相對人的行政行為,必須對背后的依據、事實、理由以及救濟機制進行說明。典型如《行政處罰法》明確規定行政機關在作出行政處罰決定之前,應當告知當事人擬作出的行政處罰內容及事實、理由、依據。然而,隨著DeepSeek等生成式模型嵌入行政決策,說明理由制度可能會面臨不同程度的侵蝕。

      一方面,算法黑箱的不可解釋性。不同于行政公務員在行政執法過程中有著明確的主客觀表現,算法以代碼為外觀,即便DeepSeek奉行算法開源,但技術架構仍存在難以穿透的結構性黑箱。其一是Transformer架構多頭注意力機制通過高維空間映射實現語義關聯,公眾限于專業壁壘無法逆向解析算法黑箱。其二是DeepSeek訓練數據的清洗規則、標注策略及采樣偏差本身存在不透明性、不可逆性以及不可解釋性,即便開源代碼仍無法揭示數據預處理中的價值篩選過程,以至于最終因為算法黑箱陷入“失語”境地。

      另一方面,深度學習的實時動態性。生成式模型的動態和非線性特性也在一定程度上導致算法難以解釋。盡管DeepSeek以技術開源主義著稱,但其深度學習和內容生成卻建立在動態的數據處理之上,深度學習等算法機制的存在,使得人工智能可以在一定程度上自發學習和演進,其決策過程變得更加撲朔迷離。在這種情況下,如果要對這種動態深度學習能力說明理由,存在困難。

      2.生成式模型躍遷架空陳述申辯制度

      一方面,技術邏輯對程序邏輯的主導。基于深度學習與內容生成技術,DeepSeek模型能夠瞬時生成邏輯自洽的論證文本,系統也可以自主推演法律事實的因果鏈,一旦這種“模式化”的自動處理技術深度嵌入行政自動化,個案的特殊性便會趨于虛無,將相對人的程序性表達權湮沒于千篇一律的算法演繹之下。此時,即便賦予行政相對人陳述申辯制度,但其溝通和對話主體已不再是具備獨立思考和價值判斷能力的行政主體,而是蛻變為一個標準化、冰冷化的算法應答裝置,這種對話看似程序正當,殊不知已陷于“偽對話界面”場景之下,很難觸發實質性的程序考量。

      另一方面,瞬時算法對申辯時間的侵蝕。陳述申辯權的法律根基源自行政相對人與政府的平等對話,但在生成式模型嵌入后,其瞬時性特質很難給陳述申辯權留有時間余地。由于缺乏雙向互動和交涉的可能,相對人在尋求事前救濟到事后糾正過程中的程序性權益極為脆弱。以自動化交通警察為例,拍照、定位和處罰幾乎是同時作出,在此期間,行政相對人幾乎沒有陳述申辯的機會,只能采取事后救濟。久而久之,當DeepSeek演化為行政決策的支配性力量,算法工具理性取代陳述申辯的程序理性,陳述申辯制度也會從平等對話的法治場域退化為技術權威的單向宣告。

      (四)權利風險:生成式模型躍遷侵犯公民相關權利

      1.算法歧視引發的平等權侵蝕

      一般情況下,當本質相同的個體或群體受到區別對待,或本質不同的個體或群體受到同等對待時,便會引發平等權問題。在將生成式模型嵌入數字政府的過程,難免存在算法歧視現象,一旦對本質上相同的個體或群體進行差別待遇,或是對本質上不同的個體或群體進行同等待遇,就會侵犯公民的平等權。這種侵犯集中表現為以下方面:

      一方面,算法代碼歧視侵犯公民平等權。生成式模型算法化約的本質是將不特定行政相對人抽象為計算機可理解的二進制邏輯,當不同平等場景通過用戶畫像體系轉變為“客觀”的數據變量,形式平等與實質平等的分類標準也難免趨于消解。當DeepSeek算法將某些特定群體的數據輸入與“典型”或“異常”建立關聯,“法律面前人人平等”便會異化為統計學意義上的正態分布,部分群體的權利保障必然會被算法自動邊緣化。

      另一方面,數據偏差歧視侵犯公民平等權。在深度學習過程中,生成式模型在數據采集、標注、分析、處理等環節中難免將多元的價值判斷嵌入其中,一旦歷史偏見數據被轉化為算法開發和訓練的基礎元素,相關算法決策便會放大不平等因素。更嚴峻的是,DeepSeek對于歷史數據的依賴程度極強,在出現算法歧視之后,偏見不僅不會消失,反而會在迭代訓練中被固化和放大,久而久之,數據歧視便將歷史不公永久編碼為技術系統的“自然法則”。

      2.算法支配引發的隱私權侵蝕

      一方面,生成式模型對隱私權的范式解構。傳統隱私權為防止公權力對私權利的侵入性干預,利用物理空間和信息邊界的二元劃分,建立起相對完整的保護范式。但生成式模型利用數據的深度處理與行為軌跡建模,碎片化的個人信息集合為可預測的人格圖譜,完全解構了公共領域與私人空間的物理界限。更為嚴重的是,在算法黑箱內,公民的多元信息被深度交織重組,個人信息被完全納入“數字投影”之中,這進一步加劇了公民隱私權的暴露。此時,即便嵌入知情同意規則,DeepSeek全景式數據攫取模式也不免讓公民隱私權淪為技術的犧牲品,致使最小化信息暴露原則消解。

      另一方面,生成式模型對隱私權的內容消融。生成式模型的深度推理能力也對傳統隱私保護的制度性防線構成挑戰。生成式模型在對原有數據進行分析的基礎上,能夠將分散數據進行關聯,從而分析預測未來的行為軌跡,這使得對隱私權的保護不僅局限于“現實侵害防御”,還擴展到了“未來風險預防”層面,知情同意原則被迫陷入“失語”境地。同時,DeepSeek數據處理的不可逆性也會形成新型枷鎖,公民私人信息一旦進入算法系統,便會脫離數據權利掌控,永久性進入到DeepSeek數據循環和再生產的鏈條中。總之,當個人信息蛻變為生成式模型的數據資源,數據權主體便再也無法對自身數據進行實質性約束。

      生成式模型技術躍遷背景下的組織法治調適

      基于組織法治框架,今后必須以公共利益導向增強生成式模型的算法公共性,以權責統一原則增強生成式模型的技術責任性,以算法解釋機制增強生成式模型的程序規范性,從而實現從算法風險到組織調適的法治躍遷。

      (一)公共利益導向增強生成式模型的算法公共性

      1.以合法化鏈理論強化生成式模型的民主公共性

      合法化鏈理論強調將算法行政運行融入民主意志的完整鏈條之中。依照“合法化鏈理論”,行政機關作為執法機關,必須保證自身職權的合法性,在此過程中,至少需要通過功能與制度合法化、人事與組織合法化以及事務與內容合法化這三個維度追溯至代議機關。

      首先,就功能與制度的合法化而言,行政機關嵌入生成式模型,必須在價值和目標上符合行政法治要求,生成式模型功能設定必須由代議機關通過組織法、程序法嚴格把關。無論是DeepSeek的人機互動、自動決策、知識傳播還是信息共享,這些功能模塊均需通過民主的審查驗證。其次,就人事與組織合法化而言,每一位行政公務員的錄用和辭退都應該通過選舉和任命兩種方式追溯至代議機關。在數字政府語境下,行政機關應避免全盤技術外包,始終保持對技術開發、應用和維護的組織控制力,這樣,代議機關便可以經由對行政機關的人事和組織合法化,確保算法系統的演進方向始終服務于民主意志而非技術自主。再次,就事務與內容的合法化而言,立法是民主控制行政的最有效手段。遵循“法無授權即禁止”的制度邏輯,生成式模型應始終在人大的立法和授權框架內運行,確保每一個算法決策都能夠追溯到法律規范,否則同級人大及其常委會有權進行實質性糾偏。

      2.以算法倫理審查強化生成式模型的價值公共性

      首先,就算法審查對象而言,政府應對生成式模型的運行代碼、訓練數據以及內容生成進行全面審查。其一,生成式模型運行代碼。代碼往往潛藏著算法研發人員的價值觀,應著重審查生成式模型代碼的價值優先級,將DeepSeek算法參數設置中潛在的偏見風險降到最低。其二,生成式模型訓練數據。數據往往是多元價值觀的載體,數據源的覆蓋范圍、代表權重分配以及真實客觀性直接決定著后續價值生成,因此,必須對DeepSeek深度學習期間的數據加以重點關注,將偏離公共價值觀的噪聲數據進行有效剔除。其三,生成式模型內容生成。作為價值觀的直接外化,生成式模型在政務知識宣傳端、人機政務互動端、行政決策分析端等公共領域的內容生成必須接受公共利益的優先審查,從而有效降低技術理性對價值理性的不良扭曲。

      其次,就審查程序而言,作為一種價值審查,公共倫理審查需要遵循算法全生命周期理念,將審查覆蓋算法研發、數據收集以及內容生成在內的各個階段,有效阻斷生成式算法在政務應用中潛藏的公共價值異化風險。其中,就事前預審查而言,事前預審查應置于生成式模型嵌入數字政府之前。為了兼顧技術創新性與公共倫理性,可采用監管沙盒模式,允許生成式模型服務提供者進行實驗性糾錯。就事中審查而言,事中持續監測強調靜態審查和動態審查相結合,可以引入實時價值偏離預警系統,對生成式模型輸出進行連續語義分析。就事后審查而言,鑒于事后追責通常在實際應用效果之后,因此可以運用區塊鏈技術,建立逆向審查機制,進而鎖定公共價值失序的代碼根源。

      再次,就審查標準而言,倫理審查的標準需超越技術中立性,建構以公共理性為基底的復合評價框架。其一,公共倫理審查應當遵循正義標準。正義是社會秩序和公平的基石,生成式模型應接受更嚴格的審查,確保從數據輸入到內容輸出都符合正義的價值目標。其二,公共性倫理審查應遵循共同善標準。“共同善”將焦點從個人層面轉移到社會維度,在強調社會公共利益的同時,也承認個人自主的獨立意義。

      (二)權責統一原則增強生成式模型的技術責任性

      根據權責統一原理,基于生成式模型的算法行政理應輔之以健全的責任秩序,在此,可以將穿透式責任與分布式責任相結合,視情形進行算法責任追究。

      1.以穿透式責任為主

      作為大數據時代下的一種新型責任追究方式,穿透式責任強調通過技術加持穿透算法黑箱,突破傳統責任認定的形式主義屏障,確立最具備實質控制能力的責任主體。相比于一般意義上因果責任斷定,穿透式責任具有如下意義:一方面,有助于以技術規訓技術。區別于傳統簡單因果判定的責任模式,穿透式責任主張通過植入算法審計、數據溯源等手段,有效實現“代碼即規則”的技術解構,進而清晰揭示算法行政背后的人類意志介入節點。另一方面,有助于精準確定責任主體。根據技術控制力與利益關聯度,穿透式責任能夠構建多層責任識別體系,在行政機關承擔首要責任的前提下,向算法開發者、數據供應商、第三方技術運維者等主體進行精準的責任傳導。典型如當DeepSeek因訓練數據偏見導致歧視性執法時,穿透式責任可追溯至數據清洗環節的技術服務商,避免因主張技術中立而產生的責任推諉。

      盡管穿透式責任大有裨益,但其適用卻存在嚴格的邊界。其一,穿透式責任適用于簡單的行政算法構造。穿透式責任的實現高度依賴技術可解釋性,面對算法線性規則、有限變量與靜態參數構建的個案決策,穿透式責任往往能夠取得立竿見影的效果,但當算法高度復雜之時,穿透式責任則很難打破算法黑箱,即便借助局部可解釋性工具,也難以準確還原算法行政的責任鏈條,進而導致責任穿透始終無法觸及算法權責分配的核心結構。其二,穿透式責任需有先進的技術支撐。若將算法的可解釋性視為抵御責任逃逸的“制度之盾”,那么穿透式責任則高度依賴兼具精準性與穿透性的“技術之矛”。這意味著在技術穿透力不足的背景下,很可能誘發責任分散效應,導致“人人有責卻無人擔責”的集體行動困境。

      2.以分布式責任為輔

      當算法行政高度復雜,分布式責任主張遵循責任均衡原理,讓多元責任主體按比例、按環節進行責任承擔,從而克服穿透式責任在算法黑箱面前的無力境地。

      其一,去中心化的責任主體構建。算法行政行為的鏈條性決定了責任的分布性,諸如監管者責任、算法研發者責任、服務提供者責任、保險人責任等都可能構成分布式責任的一環。當算法行政責任從單一責任演化為多元責任之時,責任鏈條的去中心化也成為必然。因此,在橫向維度,可依托“責任契約關系”實現政府與平臺的責任分配,即通過行政協議在事先明確不同階段的責任主體、責任內容和責任形式;在縱向維度,則應積極嵌入公眾參與、第三方專業評估制度,在持續對話中形成責任分配的最優解。

      其二,比例性的責任權重配置。在去中心化的責任結構下,雖然理論上各方主體都可能構成責任主體,但不同責任主體在責任承擔比重和形式上并不能一概而論,而是比例性的演繹。依據“權力一能力”標準,“權力”通常指向特定主體在算法行政行為過程中的法定權能與事實支配力,典型如算法設計的話語權、數據輸入的篩選權、決策輸出的干預權等制度性權力,反之“能力”則代表著技術的可控性、風險的預見可能性以及損害防控的有效性。以DeepSeek為例,遵循“權力一能力”標準,應綜合不同主體在算法行政中所扮演的角色,構建一個動態適配的責任配比體系。

      其三,動態化的責任鏈條演繹。相比于穿透式責任的靜態性,分布式責任主張遵循算法系統的動態進化場景,構建責任配置與算法運行同頻共振的彈性責任體系。一個算法行政行為的作出,至少經過了算法研發、算法嵌入、數據收集、深度學習以及內容生成等幾個環節,不同環節的主體往往扮演著不同的角色,相應的責任主體也應在政府、平臺、第三方技術服務商之間實現動態配置。這就意味著需要構建一套“監測—反饋—調適”的動態責任體系,運用區塊鏈技術對DeepSeek的算法全生命周期進行可驗證記錄,對每一個算法行政行為進行技術逆向工程,據此實現責任權重的實時記錄和分配,進而保證“源頭可溯、過程可查、效果可評、責任可追”。

      (三)算法解釋機制增強生成式模型的程序規范性

      算法解釋強調在算法與受眾之間構筑一個交互界面,以一般人能夠理解的標準,闡明算法在何種程度、何種情形下會影響自身的基本權益,也由此成為程序正當原則的重要支撐。

      1.構建軟硬兼施的算法可解釋性標準

      算法解釋并非渾然一體,根據解釋的專業性和正式性,可以將算法解釋類型化為軟解釋和硬解釋。前者意在闡明生成式模型的宏觀算法運行機理,后者則旨在對生成式模型的個案因果關系進行闡明。不同的場景下,算法解釋的軟硬程度也差別迥異。

      一方面,硬解釋主要面向生成式模型的核心算法說明,要求向特定主體系統展開生成式模型的算法運行機理。以DeepSeek為例,硬解釋需要闡明生成式模型的Transformer架構、本地存儲機制、算法開源機理、內容生成原理等議題。從這一意義上講,硬解釋在一定程度上超越了生成式模型的個案場景,具有更強的專業性和普適性。但由于生成式模型的不可逆性,硬解釋通常只能進行宏觀理論闡釋,并無法清晰展現出生成式模型的個案運行情況。同時,這種過高的專業性也或多或少面臨算法鴻溝隱患,稍有不慎就會淪為普通公眾的理解禁區。

      另一方面,軟解釋指向個案輸入與輸出的因果敘事,主張根據期待可能性原理,將復雜的算法敘事轉化為“理性人可預見性”標準,以符合公眾認知慣性的方式呈現生成式模型的決策依據。申言之,軟解釋無需專業性的算法術語,允許解釋者通過生動、形象的解說方式,向不具備專業知識和能力的相對人進行個性化解釋和說明。從這一意義上講,軟解釋更加適配DeepSeek嵌入后的說明理由制度,有助于重建公民對算法行政的合理預期。

      2.事前算法解釋與事后算法解釋結合

      依照正當程序原則,無論是說明理由制度還是陳述申辯制度,均是在行政行為行使“過程中”進行的。但算法解釋則不同,由于生成式模型的“瞬時性”特質,無論是算法平臺抑或政府,都很難在算法行政行為過程中履行解釋義務,對應的算法解釋只能在算法行政行為作出之前或者之后進行。

      一方面,事前算法解釋義務。作為一種預防性解釋說明機制,算法事前解釋核心在于構建一套前置性的透明機制,明確政府在將生成式模型技術部署前,面向不特定行政相對人圍繞算法運行機理、訓練數據透明性、算法決策合法性等要素進行系統性解釋,從而證明技術工具與行政目標的實質性關聯。當前,歐盟和加拿大是事前算法解釋的典型代表。前者確立了“高風險系統事前透明度規則”,要求公共機構在部署AI系統前提交技術文檔解釋模型的社會影響;后者則主張通過算法影響評估工具(AIA)強制行政機關量化披露系統偏差率與權利敏感度。對此,我國應構建“法律—標準一技術”三位一體框架,即在立法層面增設算法解釋專章,明確重大行政決策場景的強制解釋范圍;在標準層面應遵循“硬解釋”原理,由標準化組織制定可解釋性分級指引,區分監督學習與生成式模型的不同披露要求;在技術層面則需研發符合國家密碼標準的解釋工具鏈,實現敏感參數脫敏與決策路徑可視化的平衡。

      另一方面,事后算法解釋義務。事后算法解釋義務聚焦于算法決策的個案救濟功能,強調通過回溯性說明機制重建公民對不利決定的理解可能性與異議能力。如果說事前算法解釋是算法行政行為作出之前的籠統解釋,那么事后算法解釋則是行政行為作出之后的個案性說明。基于事后解釋,如果算法行政行為對行政相對人的權益造成侵害,那么理應立足于具體算法決策場景,按照算法解釋“軟解釋”標準進行系統說明。需要注意的是,基于程序的延展性,行政相對人在事后解釋過程中仍然享有陳述申辯權,允許相對人基于DeepSeek基準模型對比結果、數據分布偏差檢測報告等進行合法抗辯,從而讓算法解釋貫穿算法行政決策全程。

      生成式模型技術躍遷背景下的權利法治調適

      鑒于生成式模型技術躍遷對公民平等權以及隱私權的侵犯,應將法律保留原則與比例原則相結合,構建一個形式與實質兼備的權利法治調適框架。

      (一)法律保留原則作為生成式模型的形式審查標準

      傳統法律保留原則多用于立法機關和行政機關之間,強調對于涉及基本權利等基本的立法議題,立法者不能授權行政機關立法,而應該親自就相關重要事項進行規定。同時,對于一些非基本立法議題,即便要進行立法授權,也應遵循授權明確性原則。大數據時代下,將DeepSeek嵌入數字政府決策,雖不涉及立法機關與行政機關之間的權力讓渡,卻存在行政機關與DeepSeek的權力轉移,因此,彼此之間的權責界限在一定程度上仍然可以借助“法律保留”原則思路加以廓清。

      1.形式意義上行政權的核心領域

      基于功能主義法律保留,立法者對于國家權力的配置必須與國家的任務目標相契合,尤其要綜合國家機關的組織、人員和程序進行全面考量,從而將之轉交給最合適的機關。憲法根據國家機關組織結構和職能特點,事先劃定了不同國家機關的職權范圍,這些職權的“典型任務”絕不允許被其他機關或者工具隨意剝奪。在此,行政權的核心領域就是對自身權力行使的話語權、主導權和控制權。例如,當前德國《聯邦行政程序法》修正案已引入“自動化行政行為的特別程序”,要求關鍵算法決策節點必須保留人工介入端口。從這一意義上講,法律保留確定了公共決策適用算法時“原則禁止,例外允許”的關系模式。因此,算法行政只能在有限范圍內介入行政權的行使,其適用通常限于細節性和技術性事項;對于涉及公共利益處置、公民基本權利限制等事項的權力處分,則屬于傳統行政權的“核心領域”。同理,在DeepSeek與行政權的互動中,必須確立“法律授權為體、技術工具為用”的基本原則,通過動態授權機制綜合考量DeepSeek的功能邊界,從而將算法行政權的行使納入法律保留的框架之下。

      2.實質意義上基本權利的核心領域

      基于“本質內容保留”,基本權利核心領域具有絕對保護屬性,國家不得以任何形式干預,個人亦不可自愿放棄。因此,在數字政府建設中,既要從形式意義上防止生成式模型對行政權的不當僭越,更要從實質意義上禁止行政機關通過生成式模型對公民基本權利進行的實質性侵害。其一,明確基本權利核心領域的范圍。基本權利核心領域并非靜態權利清單,而是動態的價值輻射體系。從宏觀層面講,基本權利核心領域以“人的尊嚴”為價值原點,不僅包括生命權、人身權等古典自由權,亦包括數字時代衍生的新型數字權利。從微觀層面上講,每一項基本權利都隱含著自身特有的核心領域,同時在不同個案中,基本權利本質內容也處于動態變化之中,一旦國家權力介入過深,即構成對尊嚴的實質性威脅。這就要求DeepSeek等生成式模型不得消解基本權利的本質內容,更不得侵入個體人格的自主發展空間。其二,堅持人類最終決策權。對于涉及公民基本權利核心領域的治理場景,立法機關應通過特別授權明確禁止任何形式的算法自動化決策,將此類事項永久排除于技術工具的適用范疇之外。明確算法行政僅能承擔事實信息整理、決策方案模擬等技術中性任務,嚴禁代替人類進行價值權衡與權利處分。考慮到算法行政對于基本權利的傷害往往具有不可逆性,因此必須嚴格遵循“人類決策者最終控制原則”。

      3.堅持算法行政介入的授權明確性

      基于法律保留原則,算法行政必須遵循“授權明確性原則”,明確生成模型參與行政決策的目標、時限、形式、手段及程序等要素。同時,這種明確性并非一成不變,而是處于動態調整之中,越是對于重要性事項的授權,對應的明確性標準也就越高。在此,德國聯邦憲法法院為了減少審查恣意而尊重立法者的形成空間,曾將審查密度依次類型化為明顯性審查、可支持性審查和強烈內容審查,三者在審查密度上逐級加強,同時也暗示著立法者的立法形成空間逐級減少。當然,具體采用何種審查密度,應該在審查過程中根據基本權利的侵害強度進行個案衡量,如果DeepSeek算法行政行為嚴重侵犯公民基本權利,那么就必須采用強烈內容審查這一標準,授權情形必須十分明確合理、清晰可行,從而最大程度保障公民的基本權利。

      (二)比例原則作為生成式模型的實質審查標準

      為保障行政相對人的主體性,避免算法行政行為過度限制公民基本權利,理應將其置于比例原則框架內,確保算法行政行為對公民基本權利的限制始終處于憲法所認可的狀態。

      首先,就目標正當性而言,算法行政對于公民基本權利的限制,在目標上必須被憲法所認可。通常情況下,提升行政效能,優化行政服務體系往往是算法行政的初衷所在。此外,目的正當性還意味著算法行政目標必須適配不同時期數字政府的戰略選擇,而不得恣意進行目標劃定。

      其次,就適合性原則而言,要求算法行政行為必須有助于實現所要追求的公共目標。言外之意,在算法行政領域下,將DeepSeek等生成式模型嵌入數字政府必須有助于實現數據共享、高效便民、科學決策、安全治理等公共價值目標。當然,適合性原則本身也存在一定邊界,原因在于生成式模型本質上是輔助性工具,而并非直接價值判斷載體,否則國家在很多情況下將可以擺脫憲法約束,以DeepSeek“技術中立性”為由隨意擴張算法權力邊界,侵害公民基本權利。

      再次,就必要性原則而言,要求當存在若干同樣能夠達到目標的手段可供選擇時,必須選擇對基本權利限制強度最小的手段。在數字政府建設過程中,除了生成式模型嵌入這一手段之外,還可以尋找替代性手段,如采用輕量化數據分析工具或人工復核主導的混合決策模式,以降低生成式模型算法黑箱對公民基本權利的不確定性影響。更深層次約束在于國家任務必要性的動態評估,即行政機關需定期審查生成式模型的任務存續正當性,因為在一些情況下,借助市場反而能夠更出色地完成公共任務,這就避免了因算法行政介入而侵害公民基本權利的風險,因此更具優越性。

      最后,就狹義比例原則而言,算法行政所追求的利益與其損害的利益必須成比例,不能顯失均衡。此處需要將追求的利益與損害的利益進行理性權衡,算法行政尤其不得為了實現特定公共利益而過度侵害公民的基本權利。這意味著必須深入剖析DeepSeek等生成式模型介入后的利益格局。以稅務機關算法行政為例,一般情況下,DeepSeek介入不僅涉及國家和受惠主體,還包括因此而增加負擔的數字弱勢群體,必須把國家、受惠主體、受損主體以及其他受影響主體的利益均納入考量范疇,進行多元利益的層次均衡審查。理想的方案是在對某類主體給予算法便利時,適當給予其他受數字弱勢群體主體以一定程度的算法幫扶,糾正生成式模型介入后的利益失衡格局。

      結語

      數字政府建設往往伴隨著生成式模型的技術迭代,DeepSeek的橫空出世標志著我國數字政府建設進入了一個新時期。但從本質上講,DeepSeek并未超越生成式模型的固有缺陷,唯有將技術賦能與風險規制融入法治框架,才能讓“生成式模型嵌入數字政府建設”更具延展性、預期性和解釋性。生成式模型技術躍遷推動數字政府建設實現從機械演繹到模態生成的場景拓展、從科層管理到算法協同的模式重構、從單向輸出到智能交互的形態嬗變以及從經驗驅動到數據賦能的范式躍遷。與此同時,生成式模型介入也隱含著行政公共架構消解、歸責鏈條斷裂、程序正當侵蝕以及公民權利侵犯等新型風險。為了將數字政府建設融入法治軌道,今后必須立足于組織法治和權利法治對生成式模型進行系統規制。總之,關于生成式模型的理論探討應持續進行,無論技術發生何種迭代,深度學習、人機交互、內容生成始終是其最為核心的算法架構,唯有剖開DeepSeek的技術變遷表象,將視線聚焦于更為本質的算法權力重塑,才能揭示技術迭代背后恒定的治理范式轉型規律,將數字政府建設融入法治軌道之中。

      -向上滑動,查看完整目錄-

      《北方法學》2025年第5期目錄

      【專題一:數字法學研究】

      1.論生成式人工智能服務提供者的過錯推定責任

      張新寶、卞龍

      2.全國一體化數據市場建設背景下數據產權登記的程序構造

      許多奇、盛宏偉

      3.生成式模型嵌入數字政府的技術躍遷與法治調適

      周智博

      4.政府數據開放的利益衡量及其邏輯展開

      王真平

      5.數字檢察賦能行政公益訴訟的價值、困境與出路

      劉少軍、鮑家琴

      【專題二:刑事法學專論】

      6.“蹭吸”型代購毒品行為的類型劃分與司法認定

      李立豐、王一帆

      7.區分互毆與防衛的歸責之解

      蔡燊

      【專題三:法學前沿】

      8.情誼行為致害責任的教義學構造

      馮德淦

      9.心理學視域下商標功能的理論闡釋與制度調適

      姚鶴徽

      10.涉外司法能動性的運行機理與制度應對

      何志鵬、于方唯

      《北方法學》雜志是經國家新聞出版總署批準,面向國內外公開出版發行的專業法學學術期刊,雙月刊,逢單月15日出版。《北方法學》由黑龍江大學主管主辦,稟持開放辦刊之理念,邀請國內外著名法學專家及資深教授組成編委會,打造國內一流法學期刊。國家新聞出版總署批復《北方法學》的辦刊宗旨為:“繁榮法學研究,服務法制建設,加強學術交流,培養法律人才”。《北方法學》雜志目前設置的主要欄目有:理論法前沿、部門法專論、專題研究、外國法研究、中外法史研究、實踐論壇、名家講壇、博士生論壇、學術綜述、譯評文叢、學術問題爭鳴、比較法論壇等。

      點擊進入下方小程序

      獲取專屬解決方案~

      責任編輯 | 郭晴晴

      審核人員 | 張文碩 王曉慧

      本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      北大法律信息網 incentive-icons
      北大法律信息網
      法律綜合性網站
      11530文章數 17549關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 日本不卡在线一区二区| 亚洲高清无码人妻| 999久久久国产精品消防器材| 9999国产精品欧美久久久久久| 无码人妻一区二区三区av| 久久人妻少妇嫩草av无码专区| 亚洲色大网站www永久网站| 中文字幕av无码不卡| 亚洲精品国产自在现线最新| 99zyz| 免费A级毛片无码免费视频120软件| 97精品国产97久久久久久| 成人AV一区二区三区在线观看| 色色图区| 欧美色aⅴ欧美综合色| 国产精品青青在线观看爽香蕉| 免费超爽大片黄| 碰碰免费视频| 91精品国产综合久久久蜜臀酒店| 久久久精品人妻久久影视| 女邻居夹得好紧太爽了av| 国模少妇无码一区二区三区| 国产精品久久欧美久久一区| 毛葺葺老太做受视频| 艳妇荡女欲乱双飞两中年熟妇| 日产精品久久久一区二区| 漯河市| а√天堂最新版在线资源| 精品国产AV二区| 亚洲综合av色婷婷| 韩国无码av片在线观看| 内射巨臀欧美在线视频| 91视频在线观看网站| 欧美3P视频| 日韩淫片毛片视频免费看| 国产精品综合久久久久久久免费 | 亚洲精品国产av一区二区| 久久99精品国产99久久6尤物| www.熟女| 亚洲成av人片在www鸭子| 亚洲无码一|