![]()
一個(gè)被人工智能提前八個(gè)月標(biāo)記出的危險(xiǎn)信號(hào),為何沒能阻止一場八人遇難的槍擊慘案?
當(dāng)自動(dòng)審核系統(tǒng)已經(jīng)明確拉響警報(bào),掌握技術(shù)能力的機(jī)構(gòu)卻選擇了沉默,這背后暴露的,或許是整個(gè)AI治理體系中一道尚未彌合的裂縫。
2026年2月,加拿大塔布勒嶺鎮(zhèn)發(fā)生大規(guī)模槍擊事件,造成8人死亡。
嫌疑人杰西·范·魯特塞拉爾的ChatGPT賬戶,早在2025年6月就被OpenAI的自動(dòng)審核系統(tǒng)標(biāo)記并封禁,原因是他描述了極其具體的暴力場景。
據(jù)《華爾街日?qǐng)?bào)》披露,當(dāng)時(shí)部分內(nèi)部員工已將這些文字解讀為現(xiàn)實(shí)暴力可能的先兆,并敦促管理層聯(lián)系加拿大執(zhí)法部門。
然而,OpenAI高管最終決定不向警方通報(bào)。
直到今年4月23日,CEO薩姆·奧特曼才向塔布勒嶺鎮(zhèn)鎮(zhèn)長和不列顛哥倫比亞省省長致信,對(duì)未能及時(shí)聯(lián)系當(dāng)局表達(dá)歉意,并承諾尋求方法避免類似悲劇重演。
一項(xiàng)常被誤解的事實(shí)是,AI內(nèi)容審核的“封禁”本質(zhì)上是一次契約行為,而非公共安全響應(yīng)。自動(dòng)審核系統(tǒng)識(shí)別到違規(guī)內(nèi)容后,常依據(jù)用戶協(xié)議中止服務(wù),其在設(shè)計(jì)邏輯上就默認(rèn)為“切斷交互即消除風(fēng)險(xiǎn)”。
但如果用戶文字已經(jīng)具備高度具象的暴力幻想特征,甚至指向可能的現(xiàn)實(shí)行動(dòng)時(shí),那種停留在平臺(tái)內(nèi)部的封停動(dòng)作,實(shí)質(zhì)上變成了一種風(fēng)險(xiǎn)信息的攔截與截留。
換句話說,一個(gè)能夠提前八個(gè)月嗅到危險(xiǎn)氣息的算法,卻因?yàn)槿狈εc公共安全體系的制度性接口,而只能將警報(bào)封存在服務(wù)器日志里。
這一點(diǎn)恰恰指向了我們不得不正視的“責(zé)任斷點(diǎn)”。
企業(yè)內(nèi)部曾有過報(bào)警的聲音,最終還是被決策層否決。這并非簡單的道德冷漠,而更可能源自一種深層的認(rèn)知慣性,我將其稱之為“模型沙盒謬誤”——部分技術(shù)管理者傾向于將用戶生成的一切暴力敘述,全部歸入AI誘導(dǎo)出的“虛構(gòu)幻想”范疇,認(rèn)為那不過是模型統(tǒng)計(jì)規(guī)律下的概率輸出,而非真實(shí)意圖的泄露。
他們相信,既然大語言模型是對(duì)海量文本的擬態(tài),那么危險(xiǎn)語料不過是數(shù)字鏡城中一個(gè)扭曲的倒影,不值得用現(xiàn)實(shí)世界的法律干預(yù)去回應(yīng)。這種將異常降維為技術(shù)故障的思維,恰恰構(gòu)成了當(dāng)下AI安全治理中最隱蔽的盲區(qū)。
可悲劇已經(jīng)證明,數(shù)字痕跡有時(shí)并不“虛擬”,它會(huì)先于槍聲,留下真實(shí)到令人戰(zhàn)栗的輪廓。
再說了,奧特曼的道歉雖然在措辭上表達(dá)了哀悼與合作意愿,卻仍然沒有觸及一個(gè)根本性問題,那就是科技平臺(tái)是否需要被賦予強(qiáng)制性的“極端風(fēng)險(xiǎn)上報(bào)義務(wù)”?
當(dāng)前,許多司法轄區(qū)對(duì)于網(wǎng)絡(luò)平臺(tái)的要求,依舊主要圍繞兒童保護(hù)、恐怖主義內(nèi)容等領(lǐng)域,對(duì)更寬泛的潛在暴力預(yù)警,缺乏清晰的法律指令。
這就造成了一個(gè)責(zé)任真空——是否報(bào)警,被異化成企業(yè)的一項(xiàng)自選動(dòng)作,甚至可能被商業(yè)聲譽(yù)、用戶隱私顧慮和法務(wù)考量所左右。
如果僅靠企業(yè)內(nèi)部松散的自由裁量,那么對(duì)公共安全至關(guān)重要的時(shí)間窗口,極有可能在一次次會(huì)議討論中悄然流逝。
我們需要建立的,是一套跨域的“人機(jī)協(xié)同預(yù)警機(jī)制”,讓AI的感知能力與人類的倫理判斷以及執(zhí)法部門的專業(yè)評(píng)估貫穿起來。
自動(dòng)審核系統(tǒng)標(biāo)記高危信號(hào)后,應(yīng)觸發(fā)獨(dú)立的倫理審核通道,由經(jīng)過訓(xùn)練的專業(yè)人員依據(jù)結(jié)構(gòu)化指標(biāo),判斷是否需要向特定公共安全接口報(bào)送。
這項(xiàng)流程不應(yīng)只是企業(yè)自律的附加項(xiàng),而應(yīng)成為法律框架下明確界定的社會(huì)責(zé)任。唯有如此,算法捕捉到的微弱信號(hào),才不會(huì)在層層內(nèi)審中被消音,成為事后追悔時(shí)那一封遲到了太久的致歉信。
技術(shù)已經(jīng)先行一步,學(xué)會(huì)了在浩瀚的數(shù)據(jù)流中辨認(rèn)出災(zāi)難的前兆。
但制度如果繼續(xù)缺位,人如果能繼續(xù)選擇視而不見,那任何先進(jìn)的AI都不過是一臺(tái)無人傾聽的報(bào)警器。當(dāng)算法已經(jīng)發(fā)出警示,人類的決策便不能成為失靈的最后一環(huán)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.