近期,豆包、Auto GLM等人工智能助手試圖接管手機,卻接連被微信、支付寶等超級應用平臺封殺。平臺方的理由很充分:保護用戶隱私與系統安全。這引出了一個關鍵問題:用戶委托律師處理的許多事項,私密性遠高于人工智能助手,為什么反而很少產生隱私和安全顧慮?
答案在于,律師執業要取得《律師執業證》。這張證書背后,是一整套關于專業能力、職業道德和行業監管的制度體系。如果人工智能助手想接受人類委托處理手機上的數字生活,也需要這樣一張《AI執業證》。今天就跟大家聊聊,參照律師制度,需要建立怎樣的《AI執業證》制度。
一、職業道德:AI需要僅忠于用戶并保守秘密
律師受職業道德體系的約束,執業要求是忠于客戶,并且保守客戶的秘密。如果要讓用戶放心,人工智能助手需要建立類似的職業道德和利益沖突制度。而目前的實踐中,人工智能助手有如下問題:
1、商業模式復雜影響獨立性。律師的商業模式比較簡單,為用戶提供服務并收取律師費,獲得用戶的隱私數據和商業秘密后,只能用于為用戶服務的目的,負有為用戶保密的義務。而人工智能平臺的利益就更加復雜,如果讓第三方人工智能進入微信這樣的超級應用,意味著它可以獲取用戶非常多的隱私和商業秘密數據,比如聊天記錄、財務狀況等。
但很多人工智能助手是移動互聯網平臺開發的,作為移動互聯網產業的贏家,這些公司的商業模式就是靠分析大數據通過增值服務獲利。同時,目前的人工智能產業正在快速提升能力的階段,對獲取訓練數據又非常饑渴。因此,人工智能公司獲取數據之后,除了提供服務,還可能用數據做訓練以及分析大數據投放廣告。
所以能讀取用戶隱私的人工智能助手,應該和其運營方有隔離。隔離的方式有兩種,第一種是監管約束,政府或者行業協會制定行業標準,約束人工智能助手的開發方和運營方,不得將獲取的用戶數據用于訓練和大數據分析。另一種是獨立部署,用戶自己架設服務器或者在本地設備上部署開源人工智能助手。
2、如何解決利益沖突。律師辦案時不能同時代理原告和被告,如果發現有利益沖突,必須聲明并回避。而一個由電商平臺開發的人工智能購物助手,在為用戶推薦商品時,是優先考慮用戶利益還是平臺利潤?這里的利益沖突如果不解決,用戶也沒法放心委托人工智能購物。
二、數據法律:需要升級數據法律兼容人工智能助手
用戶簽訂的律師合同里,有對于用戶的商業秘密和隱私進行保密的條款,用戶也可以要求律師簽訂單獨的保密協議,但對于同樣要獲取用戶隱私的人工智能助手,簽一份保密協議遠遠不夠。根據現行的《個人信息保護法》,所有非用戶自己部署的人工智能助手,每次調用數據都應該告知用戶并獲得用戶同意,敏感數據還要單獨同意,這種法律要求和人工智能助手的操作方法不太兼容。
比如用戶跟人工智能助手簡單說一句:幫我規劃并預訂下周去上海的旅行。實際就是一個復雜的任務:人工智能助手需要自主決定訪問包括日程、攻略、票務、支付等多個應用獲取數據,而且很多都是敏感數據,如果完全按照法律要求,人工智能助手使用場景下,識別敏感數據并多次讓用戶單獨同意會讓操作變得繁瑣,而每次數據處理前人工智能都進行明確、充分的告知并同意會變得不切實際。
同時,用戶指令的模糊性還使得《個人信息保護法》規定的應用獲取數據最小必要原則受到挑戰,如何界定人工智能助手獲取數據的最小必要范圍是巨大難題,人工智能助手為了提供最優解,可能會傾向于多多益善的收集數據,這與數據最小化的原則天然存在沖突。
筆者認為,如果人工智能助手產業后續快速發展的,則需要對法律進行升級,把人工智能助手作為一個“數字代理人”,而不是工具或者應用來對待,像律師一樣,只要獲得用戶一次授權就可以多次獲取并處理包括敏感數據在內的數據,免除其反復請求的義務就會變得勢在必行。
三、究責機制:人工智能助手出錯了,誰來負責?
發生泄密或者服務質量問題時,究責律師不難,律師是有制度約束的,服務犯錯給用戶造成損失的,客戶可以起訴索賠,可以向行業監管部門投訴。而人工智能助手是新生事物,對其犯錯的究責,根據現行法律的究責原則認定會有很大的模糊性。需要升級法律規定新的究責原則,同時制定保險制度給產業托底。
本文主要討論的是人工智能助手的問題,但究責問題,其實是整個人工智能產業都面臨的問題,人工智能買錯東西了咋辦?這個問題聽上去不大,但人工智能醫療助手給病人誤診了咋辦?人工智能駕駛汽車出交通事故了咋辦?這些問題事關人的健康和生命,就非常大了。
究責時,首先是主體問題難解決,犯錯的是人工智能助手,但它卻沒有權利能力,不是法律意義上的主體。所以只能在用戶、部署者或者運營者、開發者這幾個主體里找替罪羊。錯誤責任更難界定,人工智能助手的決策過程并不透明,當出錯時,很難確定是算法、訓練數據偏差、部署配置、還是用戶自己的問題導致的。
因為復雜,所以傳統的單一過錯責任乃至混合過錯這些原則都較難適用,從產業發展來說,責任界定問題就一定要解決。所以要有人兜底才行,對人工智能犯錯適用嚴格責任,有平臺或者保險兜底才有可能讓用戶放心。這也是產業發展必然要解決的制度問題。
四、委托結束:數據能刪除嗎?
如果對律師服務不滿意,用戶可以炒律師的魷魚,也就是解聘律師。但哪怕解聘之后,律師也負有為用戶保密的義務。而人工智能的服務這方面目前問題不小。當客戶要求律師銷毀檔案時,碎紙機只需要幾秒鐘就能物理粉碎文件,不僅徹底而且可驗證。用戶停用人工智能服務了,數據不一定能夠被刪除。這個也是產業需要解決的一個問題。
《個人信息保護法》規定了被遺忘權:處理目的已實現或無必要的,信息主體可以請求處理者刪除個人信息。部分人工智能服務商雖然聲稱對話不用于訓練,僅臨時緩存用于上下文理解,此類數據理論上可在服務器端刪除,但實際上用戶難以驗證是否真未用于訓練。
如果曾開啟歷史記錄或數據共享選項,即使刪除聊天記錄,也只是清除日志,模型仍可能記住信息。數據可能已被匿名化后用于改進模型。技術上,用戶數據一旦用于模型訓練,會融入海量參數中,覆水難收,無法精準刪除。現在人工智能公司用圍欄機制解決此問題,并不是刪除信息,而是過濾回復信息。
如何解決此問題,真正徹底刪除用戶數據,目前只有兩條路:一是用戶自己部署的本地模型,物理刪除即可;二是立法要求AI公司提供數據隔離訓練的選項——用戶明確標記的數據永不進入訓練集,并可以由第三方審計機構定期驗證。這需要額外成本,但這是獲得用戶信任的必要代價。
綜上,人工智能助手要像律師一樣獲取人類信任,制度層面需要改進和完善,還要在合規層面解決和現行部分法規不兼容的問題。其未來不僅取決于技術的進步,也取決于《AI執業證》背后的問責體系、利益隔離體系和數據安全體系的建立。制度上可信賴的人工智能助手才是能進入超級應用幫助人類的數字代理人。
本文作者:游云庭,知識產權律師。Email: yytbest@gmail.com,本文僅代表作者觀點。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.