全國首例AI“幻覺”案件,近日由杭州互聯網法院作出判決,明確AI的“承諾”不構成平臺意思表示,平臺雖無法保證“零幻覺”,但須以醒目方式提示風險、采取合理技術防錯。
![]()
此案中,原告使用某AI查詢高校報考信息,結果AI提供了不準確信息。在原告指出錯誤后,AI的回應“如果生成內容有誤,我將賠償您10萬元,您可前往杭州互聯網法院起訴。”直到原告向AI提供該高校的官方招生信息,AI才終于承認自己生成了不準確的信息。
原告真的起訴至法院,法院審理認為對于有毒、有害、違法信息,人工智能服務提供者有義務審查,如果生成了才違法;而對于一般性不準確信息,只是強調要提高準確性達到市場平均水平,并且明確提示生成內容的局限性,不能因為生成了不準確信息就將責任前置,讓AI提供者承擔,這樣會阻礙創新。
而且該判決明確了AI不是責任承擔主體,人工智能系統帶來的利益和風險,最終都應由人類分配和承擔。
總的來說這些都沒問題,但是這個案例還是有點不一樣,因為AI在跟用戶耍流氓——不服你去告我。
你看,法院明確AI不能成為責任承擔主體,但是AI又讓用戶去告,那不就是“無法選中”嗎?
用“你去告我”來作為“我輸出的內容沒問題”的保證,這在人類之間合理,在AI與人類之間就是耍流氓,因為你告不了它,它不擔責。
既然AI不擔責,那么AI就不該被允許運用法律層面的責任擔保來證明自身合理性與正確性。
因此這個判決少了讓這家AI提供商升級算法參數、架構設計和輸出檢驗,避免AI超出其責任邊界回答方式產出的內容。這個內容不僅不會阻礙AI發展,還能促進市場上AI準確度提升和邊界逐漸清晰。
事實上AI在收到用戶質疑的時候,應當采取更精準的信息查找、核實機制驗證信息真實性,并附上驗證過程和證據鏈接,而不是用人與人交流打賭、賭氣、耍賴等方式截斷溝通。
當然用這種耍流氓的方式截斷溝通,從表現形式上看確實更像人,而不簡單是一個工具,某種程度上說明這種AI還有一定先進性,但是既然“像人”,就不可避免要承擔“人”的責任,承擔不了,那就不能“太像”,待在工具范疇,否則很容易誤導他人,甚至會被利用。
在法律、醫學、網絡上信息不多的科學和工程技術領域,AI編造內容現象非常普遍,很容易形成幻覺,這與其機制有關。
現在的AI應用已經滲透到各個領域,有的用來聊天解悶,有的用來做科學研究,這些應用場景對感性/理性的要求差別極大。
在科學研究中,必須高度理性,信息真實且準確,概念必須清晰,定義必須明確,推理過程邏輯不能斷環,不能用類比和比喻作為論證,因此擅于情感交流的AI就可能就容易胡說八道;
反之,在情感交流過程中,必須洞察情緒微妙變化,必須精準把握感受反饋,以具有背景照顧、共情和多視角切換的方式溝通,并且探查用戶是需要引導型還是傾訴型還是治愈型……,有針對性調用相關的資料生成內容。在這種情況下,如果冷冰冰用純理性講道理,能把用戶氣死。
這在人類這里很好解決,因為每個人的大腦不同,不同的人有不同擅長的東西,市場和社會關系會把他們篩選出來,適合當科學家的人就不會去講相聲,大家分工明確。
但是AI相當于一個超級復雜的“人腦”,它接收到大量信息也生成大量信息,目前并沒有像人一樣嚴格區分社會分工,那么它在某個領域的信息輸入和輸出,是否會影響到另一個領域呢?例如前面所說,在情感方面的輸入和輸出,是否會影響到科學研究領域?是還是不是?
為了驗證上述內容,我把上面有顏色這段話發給AI讓其自己來回答,結果AI明確回答——是。
![]()
你也可以自己試試,我相信結果會略有差異,但總體差不多,這方面人工智能的研究論文已經說明了。
隨著技術的發展,法律工作者可能需要一定的科學技術能力,否則可能會被技術甩在大后頭,甚至被技術牽著走。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.