![]()
“如果事故無法避免,AI 應(yīng)該優(yōu)先保護(hù)駕駛者,還是追求社會利益最大化?”
這個問題,看起來像一道技術(shù)倫理題,
但其實更像一面鏡子:照見的是我們對“責(zé)任”和“犧牲”的真實態(tài)度。
先說一個不太討喜的結(jié)論:
在現(xiàn)實世界里,幾乎沒有系統(tǒng)會主動選擇“犧牲使用者”。
原因并不高尚,也不復(fù)雜。
從法律角度看,駕駛者是與系統(tǒng)形成直接責(zé)任關(guān)系的一方。
車是他買的,系統(tǒng)是為他服務(wù)的,風(fēng)險責(zé)任也是圍繞他建立的。
如果一個系統(tǒng)在關(guān)鍵時刻選擇主動傷害駕駛者,
那它在法律上、商業(yè)上、心理上,都幾乎無法成立。
這不是技術(shù)問題,而是契約問題。
很多人喜歡用“社會利益最大化”來討論這個議題,
但現(xiàn)實是:社會并不會為被犧牲的那個人承擔(dān)責(zé)任。
輿論會同情,哲學(xué)會贊美,
但賠償、追責(zé)、訴訟,最終都會落到具體主體身上。
而這個主體,不可能是一個抽象的“社會”。
所以,如果一定要在兩者之間選,
AI 的默認(rèn)設(shè)計,一定更接近“對駕駛者負(fù)責(zé)”。
但這并不意味著它可以無視他人安全。
真正可行的路徑,從來不是在“最后一秒做道德選擇”,
而是在事故發(fā)生之前,把“不可避免”的概率降到最低。
這也是為什么,真正嚴(yán)肅的自動駕駛系統(tǒng),
幾乎不會把倫理難題寫進(jìn)決策邏輯,
而是極力避免進(jìn)入這種場景。
因為一旦進(jìn)入,
任何選擇都會被解讀為“價值排序”。
而價值排序,本身就是風(fēng)險。
更深一層看,這個問題之所以引發(fā)爭議,
是因為我們潛意識里希望把“該由人類承擔(dān)的道德壓力”,
轉(zhuǎn)交給機(jī)器。
如果是 AI 做的決定,
那我們就不用面對“如果是我,我會怎么選”的殘酷自問。
但現(xiàn)實是,
技術(shù)只能執(zhí)行規(guī)則,不能承擔(dān)道德后果。
所以,與其反復(fù)爭論“AI 應(yīng)該犧牲誰”,
不如承認(rèn)一個更現(xiàn)實的事實:
任何系統(tǒng)的第一責(zé)任對象,
永遠(yuǎn)是它的直接使用者。
而社會的責(zé)任,不是要求機(jī)器變得更高尚,
而是通過規(guī)則、基礎(chǔ)設(shè)施和管理,
讓這種極端選擇盡量不發(fā)生。
當(dāng)我們把希望寄托在 AI 的“道德判斷”上時,
其實已經(jīng)默認(rèn)了失敗。
真正成熟的技術(shù),
不是會做艱難選擇的技術(shù),
而是讓你不必面對這種選擇的技術(shù)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.