日前召開的全國高級法院院長會議強調,要依法有力懲治新型犯罪,用好線索移送、司法建議等制度機制,促進依法治理、綜合治理。這包括對利用網絡信息技術和人工智能實施的新型犯罪的懲治,對“高科技”專業團伙犯罪、網上臨時聯絡實施犯罪等的從嚴打擊。
網絡信息技術和人工智能的快速發展是一把雙刃劍,既可以提高社會生產力,也給社會治理帶來新的挑戰,并且風險幾乎可以觸及社會各領域。同時,網絡信息技術和人工智能迭代的速度遠超過執法部門和司法部門的反應速度,對相關違法犯罪行為,即使是在刑事領域也面臨與時俱進的問題。
顯然,此類新型犯罪正在受到高度重視。最高法提出,利用網絡信息技術特別是人工智能實施的新型犯罪,往往隱蔽性更強、主觀惡性深、社會危害大,總體要依法從嚴,促進實現公平正義。對“高科技”專業團伙犯罪、網上臨時聯絡實施犯罪等,在從嚴打擊的同時,要深度揭露犯罪手段、本質和危害,教育警示社會面。
不過,一個很重要的問題是,此類新型犯罪審理還有一些待解決的問題。
以生成式AI為例,可能導致三類犯罪風險發生:數據處理不透明性可能引發侵犯個人信息等犯罪風險,生成內容不可控性可能引發侮辱、誹謗或傳播違法信息等犯罪風險,以及技術濫用被直接用于詐騙或間接輔助犯罪的風險。若風險變成了犯罪現實,對相關主體的合法權益造成嚴重危害,從偵查到檢察起訴,再到法院判決,當前都面臨著許多新情況、新問題。
今年1月初,上海市靜安區人民檢察院在通報近三年數據安全刑事犯罪檢察辦理情況時,提到首例利用深度合成技術“AI換臉”突破人臉驗證的新型網絡犯罪。并總結道:總體來看,網絡犯罪手段趨向技術性、隱蔽性,犯罪對象向多樣化、高價值化演進,犯罪空間體現跨域性、交織性,犯罪團伙呈現產業化、鏈條化,這些給檢察機關辦案帶來了更大挑戰。
上述全國高級法院院長會議也提到,在審判過程就有利用人工智能質證辯論甚至偽造證據對抗正當程序、司法審查的現象發生。
在執法領域同樣存在此類問題,其中一個很重要的問題是“人”和“機”的責任問題。其中存在的困惑,一是主體認定困境,人工智能能否承擔刑事責任存在爭議,這需重構刑事責任體系;二是行為定性難題,算法推薦違法內容的責任主體是誰?現有過失犯罪理論難以適應AI產品事故,需調整主觀責任認定趨向嚴格責任。
為此,清華大學法學院院長、全國人大常委會委員、憲法和法律委員會副主任委員周光權曾強調:犯罪一個現實的功能就是讓我們在發展人工智能技術的同時,要想到這個技術有可能有什么漏洞,可能被犯罪分子利用,那就要把這些補丁都打出來,這對于法律的發展,無疑起著推動的作用。
也因此,無論人工智能技術多么強大,都不能成為獨立的犯罪主體或是獨立承擔侵權責任。包括刑事責任在內的各種責任,最終還是要以明確的法律規定落實到“人”身上。再高級的人工智能,追根溯源仍然是人的價值取向與選擇。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.