<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      新質策源導刊丨鄭玉雙:法律如何回應AI智能體治理挑戰?

      0
      分享至


      人類如何與AI智能體共處

      編者按

      新質策源導刊的第二期,我們聚焦AI智能體(AI Agent),不僅僅因為它當下的熱度,更因為我們看到了它對未來的影響。我們深度訪談行業頂級專家、資深研究人員、國內外知名企業,盡力描繪當下AI時代的真實圖景,展望未來的各種可能性,在不確定性中尋找確定性。

      這個領域創新不斷,猶如科幻即將照入現實。我們想知道的不只是近在咫尺的明天會怎樣,更想知道今天我們做的一切,會對不遠的未來產生什么樣的影響,誠邀您和我們一起,探索新AI時代。敬請關注本期策劃——“人類如何與AI智能體共處”。


      ——訪中國政法大學法學院教授、中國法學會法理學研究會理事鄭玉雙

      ■中國經濟時報見習記者 姚俊臣

      作為人工智能(AI)技術迭代的最新產物,AI智能體正實現從理解能力向行動能力的關鍵突破。這一突破也帶來了深刻的治理挑戰:如何理解AI智能體的主體性?如何界定其法律責任?如何優化治理能力?中國經濟時報記者日前就上述問題專訪了中國政法大學法學院教授、中國法學會法理學研究會理事鄭玉雙。

      AI智能體引發主體性的躍升

      中國經濟時報:從目前來看,您認為AI智能體是否具有主體性?

      鄭玉雙:這是一個比較難的問題,關鍵在于我們如何理解“主體性”。在哲學意義上,主體性通常以“人”為參考,具有理性判斷、自主決策與獨立意志等特征。無論是生成式人工智能還是AI智能體,雖然在技術層面已經具備了一定程度的理解、決策和執行能力,但從法律層面來說,還是很難將其認定為真正的權利主體。

      不過,AI確實引發了主體性的躍升。在AI出現之前,人類之外并不存在真正意義上的智能主體。但隨著算法能力和算力規模的提升,AI智能體也呈現出類似主體的功能和外觀,不能僅僅視為簡單的“工具”,否則可能會低估其在現實場景中產生的復雜影響。

      尤其是在責任分配的問題上,AI智能體的決策鏈條往往涉及算法開發者、系統部署者、數據提供方以及實際使用者等多方主體,其運行結果又可能在一定程度上脫離具體個人的直接控制。在這種情況下,傳統以“工具使用者”為核心的責任框架,是很難完全覆蓋新的風險結構的。


      圖片來源/新華社

      現有法律框架對于AI智能體還相對滯后

      中國經濟時報:從法律層面來說,不同類型的AI智能體是不是也有不同的主體責任?

      鄭玉雙:從當前的技術實踐來看,AI智能體確實出現了分化的趨勢,既有以移動端應用為代表的“軟件型智能體”,如嵌入手機或各類智能設備的應用程序,也有與實體設備深度結合的“硬件型智能體”,如各類醫療機器人、養老機器人以及工業場景中的自動化系統等。

      在法律適用上,這兩者也存在明顯差異。總體而言,現有法律制度仍將人工智能及各類AI智能體納入“產品”范疇,主要適用產品責任相關規定。這一框架雖然可以在一定程度上覆蓋軟件類智能體的部分風險分配問題,但對于具備實體行動能力的智能體,責任究竟應由生產者、算法提供者、系統運營者還是使用者承擔,現有法律仍然在不斷完善之中,存在一定的滯后性。

      一般來說,法律責任涉及兩個層面:一是民事責任,主要與產品緊密相關;二是刑事責任,主要是在AI智能體造成嚴重危害時如何認定責任主體并確定刑責。但是目前民事責任和刑事責任的認定都還相對傳統,也就是說針對AI智能體,尤其是可以在一定程度上脫離人類控制的AI智能體,還缺乏明確的法律依據。

      在鼓勵創新的同時要動態治理

      中國經濟時報:當前,法律相對滯后這個問題應該如何解決?

      鄭玉雙:在我看來,人工智能治理面臨的法律滯后性,并不是簡單的制度失靈。新技術發展具有高度的不確定性和多樣性,立法程序很難在前期就對所有可能情形作出詳細的規定。而且,如果在技術沒有成熟的時候就進行過度前瞻性的立法,反而可能導致規范失準,甚至抑制創新活力,破壞法律制度的穩定性。

      因此,更行之有效的方式還是在發展中治理,在應用中完善,在鼓勵創新的同時要動態治理。一方面,在問題出現時及時回應,進行制度性的修正;另一方面,可以更多地運用“多元參與、多元治理”的軟法機制,通過部門協同以及政產學研之間的有效溝通,形成更加靈活的治理結構。

      必須確立不可突破的治理底線

      中國經濟時報:AI智能體治理的底線應該如何確定?

      鄭玉雙:人類社會發展至今,技術不斷取得突破。我們從技術中受益,也不能讓技術失控。因此,必須確立不可突破的底線,這個底線一般來說是“倫理的底線”。這可以從廣義和狹義兩個方面加以理解。

      從廣義來看,技術不能對人類的整體安全構成威脅,也不能突破人類社會的基本秩序,這是一種生存性、價值性的底線,就是要維護人的主體地位。從狹義來看,主要是一些與AI智能體的技術特性緊密相關的問題。一是AI智能體的運行高度依賴數據支撐,要劃定數據收集和處理的邊界,保障數據被合法、正當、必要地使用;二是AI智能體的運算過程具有不可控和不透明的特征,要盡可能實現決策過程的透明、可控。


      總 監 制丨王列軍車海剛

      監 制丨陳 波 王 彧 楊玉洋

      主 編丨毛晶慧 編 輯丨蔣 帥



      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      中國經濟時報 incentive-icons
      中國經濟時報
      國研中心主辦的綜合性經濟日報
      41741文章數 64069關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版