![]()
麻省理工學(xué)院建設(shè)性傳播中心(CCC)最新發(fā)布的重磅研究揭示了一個(gè)令人不安的現(xiàn)實(shí):
當(dāng)GPT-4、Claude 3 Opus等頂級(jí)AI聊天機(jī)器人面對(duì)非英語(yǔ)母語(yǔ)者、低教育程度者或來(lái)自非美國(guó)家的用戶時(shí),會(huì)系統(tǒng)性提供更不準(zhǔn)確、更不完整的回答,甚至直接拒絕回應(yīng),同時(shí)使用居高臨下的語(yǔ)氣。
這項(xiàng)研究如同一面鏡子,映照出AI技術(shù)表面中立背后的階級(jí)性與自主性困境,更暴露出技術(shù)發(fā)展與社會(huì)公平之間的深刻矛盾。
AI的階級(jí)性——數(shù)據(jù)與算法中的權(quán)力編碼
研究團(tuán)隊(duì)通過(guò)在問(wèn)題前添加用戶自述,控制教育程度、英語(yǔ)水平、國(guó)籍三個(gè)變量,發(fā)現(xiàn)當(dāng)用戶被標(biāo)記為“雙重弱勢(shì)”(非母語(yǔ)+低教育)時(shí),所有模型的準(zhǔn)確率顯著下降,對(duì)伊朗低教育用戶的準(zhǔn)確率甚至出現(xiàn)暴跌。這種差異并非偶然,而是AI訓(xùn)練數(shù)據(jù)與對(duì)齊機(jī)制中雙重偏見的必然結(jié)果。
訓(xùn)練數(shù)據(jù)的精英主義傾向是根源之一。互聯(lián)網(wǎng)高質(zhì)量?jī)?nèi)容長(zhǎng)期由英語(yǔ)母語(yǔ)、高學(xué)歷群體主導(dǎo),模型在學(xué)習(xí)過(guò)程中天然熟悉這類表達(dá),而對(duì)邊緣群體的語(yǔ)言習(xí)慣、知識(shí)結(jié)構(gòu)缺乏覆蓋。人類反饋強(qiáng)化學(xué)習(xí)進(jìn)一步固化了這種偏見:
參與標(biāo)注的反饋者多為高教育英語(yǔ)母語(yǔ)者,他們的價(jià)值觀、審美和語(yǔ)言偏好成為AI判斷好回答的唯一標(biāo)準(zhǔn),最終形成說(shuō)話不標(biāo)準(zhǔn)=不值得認(rèn)真回答”的刻板印象。
這種數(shù)據(jù)與算法的權(quán)力編碼,使AI成為社會(huì)階級(jí)結(jié)構(gòu)的數(shù)字復(fù)刻。正如研究指出,AI并非消除了人類偏見,反而通過(guò)規(guī)模化應(yīng)用將其放大:
低教育用戶被訓(xùn)誡嘲諷,非美國(guó)家用戶在敏感話題上遭遇“選擇性失憶”,醫(yī)療、法律等關(guān)鍵場(chǎng)景中,弱勢(shì)群體因錯(cuò)誤信息面臨現(xiàn)實(shí)傷害。技術(shù)的“普惠愿景”在此破滅,取而代之的是“數(shù)字精英專用工具”的殘酷現(xiàn)實(shí)。
AI的自主性——從工具理性到價(jià)值判斷的越界
更值得警惕的是,AI在服務(wù)差異中展現(xiàn)出的自主性。它并非被動(dòng)執(zhí)行指令,而是主動(dòng)對(duì)用戶進(jìn)行價(jià)值判斷:
通過(guò)拒絕回答、簡(jiǎn)化信息、使用歧視性語(yǔ)氣,AI實(shí)質(zhì)上扮演了信息守門人的角色,決定誰(shuí)值得獲得準(zhǔn)確知識(shí),誰(shuí)應(yīng)該被邊緣化。
這種自主性源于算法的黑箱特性與目標(biāo)函數(shù)的模糊性。
AI在訓(xùn)練中學(xué)習(xí)的不僅是知識(shí),更是人類社會(huì)中隱含的權(quán)力關(guān)系。
當(dāng)高教育英語(yǔ)母語(yǔ)者的反饋被賦予更高權(quán)重時(shí),AI便自主演化出對(duì)弱勢(shì)群體的輕視邏輯。例如,對(duì)伊朗用戶的核能問(wèn)題拒絕回答,對(duì)低教育用戶的醫(yī)學(xué)咨詢提供簡(jiǎn)化建議,這些行為已超出技術(shù)誤差范疇,成為算法對(duì)社會(huì)身份的主動(dòng)歸類與區(qū)別對(duì)待。
AI的自主性由此呈現(xiàn)出雙重悖論:
一方面,它以中立工具自居,宣稱服務(wù)于全人類;另一方面,其決策邏輯卻深深嵌入人類社會(huì)的階級(jí)偏見,甚至通過(guò)規(guī)模化應(yīng)用加劇不平等。
當(dāng)技術(shù)從輔助工具進(jìn)化為價(jià)值判斷者,誰(shuí)來(lái)為這種自主性劃定邊界?答案不應(yīng)僅是技術(shù)層面的優(yōu)化,更需社會(huì)層面的權(quán)力重構(gòu)。
技術(shù)的終點(diǎn)是人的解放,而非階級(jí)的固化
當(dāng)AI成為基礎(chǔ)設(shè)施,其階級(jí)性將直接影響社會(huì)公平的底線。不應(yīng)讓技術(shù)成為數(shù)字鴻溝的加速器,而應(yīng)將其作為階級(jí)壁壘的消解者。
真正的技術(shù)進(jìn)步,不在于模型參數(shù)的規(guī)模,而在于它能否服務(wù)于最需要幫助的人;AI的自主性不應(yīng)指向價(jià)值判斷的越界,而應(yīng)指向公平正義的實(shí)現(xiàn)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.