AI審判或許已不再是未來的幻想。2026年初上映的電影《極限審判(MERCY)》描繪了一個近未來世界,由于兇惡犯罪激增,為了維持治安,司法判斷被交由AI來執行。在現實世界中,AI的引入也已悄然開始。那么,真正由AI作出判決的社會是否真的會到來?關于司法中AI導入的現狀與未來可能性,日本明治大學法學部太田勝造教授如是說。
![]()
日本東京大學榮休教授、明治大學特聘教授太田勝造先生
現任明治大學法與社會科學研究所所長、上海交通大學中國法與社會研究院學術咨詢委員會委員,兼任日本法律經濟學會會長、司法可及性學會理事長、民事糾紛處理研究基金會理事長,并任日本法務省法律教育推進委員會委員、文化廳文化審議會著作權分科委員會委員等。研究領域涵蓋法律社會學、法律經濟學、法律統計學、AI法及民事紛爭解決論。主編《現代日本的糾紛過程與司法政策》(2023年)、《AI時代的法學入門》(2020年日文版/2024年中文版)等著作。
一、簡單案件由AI作出判決的時代或將到來
AI技術正在各個領域加速應用。2025年5月,日本最高法院院長在記者會上表示:“作為數字化改革的一環,有必要對此(AI審判)進行思考。”在日本司法領域,關于引入AI的討論也正在積極展開。那么,如果引入AI,日本的司法體系會發生什么變化?太田教授指出,其主要優勢包括:
“1.能實現全國統一的法律判斷,減少不同法院、不同法官之間的裁量差異。
2.能基于科學方法,更準確地認定事實。
3.減少虛假或不準確證言、證據所帶來的負面影響。
4.裁判結果不再過度受委托律師能力高低的影響。
也就是說,由人作出判斷必然產生的“偏差”將被大幅削減。
此外,AI還能減少司法文書的制作時間,從而降低訴訟成本、縮短審理周期,使人們更容易利用司法制度——這一點尤為重要。
人類法官不可避免會受到個人偏見的影響,而AI可以基于數據作出相對客觀的判斷。如果能在證據整理、事實關系梳理等方面有效利用AI,就能減少對嫌疑人或被告不利的遺漏。也有可能比現在更準確判斷被告人的“自白”是否出于自愿,這或許能緩解日本刑事司法中備受詬病的“人質司法”問題。
說到底,即使是民事訴訟,如今在費用和時間上的門檻也太高了。如果低成本、快速的AI審判得以實現,將能救濟大量原本無法依靠司法的人群。”
當然,AI的引入并非只有益處,也伴隨著風險。例如:系統漏洞導致的誤判、個人信息泄露、黑客攻擊等技術風險。此外,AI所學習的既往判例中,很可能隱藏著人類法官的偏見與歧視。在期待與不安并存的狀態下,AI的社會化應用正在緩慢但確實地推進著。
二、阻礙日本司法AI化的“紙文化”
如果將視線投向海外可以發現,雖然各國發展進度不同,但在案件管理、判例檢索、判決書草稿生成等方面,生成式AI已被廣泛用作“輔助法官判斷的工具”。
相比之下,日本雖然已有AI用于律師業務效率提升,但法院內部幾乎沒有正式導入AI。其原因之一,是日本存在根深蒂固的“紙文
化”。
“起訴狀、答辯書、判決書及其他書面材料等,法院的各種文件至今仍以紙質為主。律師提交材料時,傳真件也依然非常常見。
雖然法院已引入名為‘mints’的民事訴訟在線提交系統,但庭審時仍以紙質記錄為基礎,法院內部的運作模式仍是紙本導向,最終還是不得不打印出來。
此外,美國從二戰前就開始公開判決數據,而日本電子化的判例數據量,在數量級上與其完全無法相比。”
在缺乏充足在線判決數據的情況下,讓AI系統性地學習司法實務幾乎不可能。不過,日本并非完全停滯不前。
2026年是日本司法數字化的轉折點。預計于2026年5月施行的《民事訴訟程序數字化》系列制度,將成為日本司法數字化的重要里程碑,AI的應用也將分階段推進。
“最先被引入的,應該是事實關系整理的輔助功能。在訴訟中,原被告雙方律師會提交大量事實和證據,法官必須從中提煉爭點、找出分歧所在。實際上,這一‘要件整理’是實務中最繁重的工作。只要AI能協助這一點,法官的負擔就能大幅減輕。
下一步,就是判決書草稿。AI生成多個判決方案,法官從中選擇最合理的一個,加以修正、補充,最終形成正式判決。”
那么,AI真正“判案”的那一天會到來嗎?乍一看,AI裁判仿佛仍是科幻情節,但太田教授認為:
“我認為,AI作出判決的階段終究會到來。尤其是在判決模式高度固定的領域,AI的優勢非常明顯。例如:簡易(基層)法院管轄的涉案金額在60萬日元以下的小額案件、交通事故、按月收費服務糾紛、押金返還、貨款拖欠、個人之間的金錢借貸可能會采取這樣的模式:先由AI作出判決,如當事人不服,再上訴由人類法官重新審理。但這種系統在日本完全落地,可能還需要30年左右。”
事實上,在eBay、Amazon等電商平臺中,“在線糾紛解決機制(ODR)”早已被廣泛使用。配送問題、商品質量、費用糾紛等,往往通過在線表單與AI仲裁機制半自動處理;若用戶不接受AI的判斷,還可轉由人工客服介入。
三、一定要為人類判斷留下空間
![]()
即便如此,并非所有判決都能交給AI。在需要價值判斷、倫理考量、無法完全用規則切割的領域,人類仍不可或缺。
“例如量刑問題。假設依照既往判例,殺人案件判處20年有期徒刑,那么為什么3年太短、40年又太長?這一點很難用完全理性的方式說明。這里不可避免地包含了社會感受與價值觀。
此外,AI所學習的數據本身就反映了人類社會的偏見——性別歧視、種族歧視、年齡歧視等。如果不加控制,AI只會照單全收并再生產這些偏見。因此,必須保留由人類進行最終檢查的流程,即堅持‘Human in the Loop(HITL)原則’。”
各國價值觀不同,對AI司法的接受程度也不同。像電影中那樣完全由AI掌控司法的世界,現實中并不太可能出現。但作為輔助人類判斷、在部分領域自動給出結論建議的“搭檔型AI裁判”正穩步走向現實。
本文來源:集英社online2月1日報道
(作者:福永洋一;譯者:馬敬,西北師范大學法學院副教授,明治大學法學部客座研究員)
編輯:中法研
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.