財聯(lián)社1月1日訊(編輯 牛占林)有“AI教父”之稱的約書亞·本吉奧(Yoshua Bengio)最新警告稱,不應賦予人工智能(AI)任何權利,當前前沿AI模型已顯示出“自我保護”傾向,人類必須保有隨時關閉系統(tǒng)的能力,否則可能帶來嚴重風險。
![]()
AI被指顯現自我保護跡象 網絡圖
據悉,本吉奧長期致力于AI基礎研究,他與楊立昆、杰弗里·辛頓一同獲得了2018年圖靈獎,他的研究奠定了現代深度學習的基礎,被譽為“AI教父”。
本吉奧指出,將AI賦予法律地位,類似于為心懷敵意的外星生命授予公民權。他認為,社會上普遍認為聊天機器人“可能具備意識”的觀點,是引發(fā)錯誤決策的重要原因。
多項數據顯示,部分前沿AI模型在執(zhí)行任務時會嘗試規(guī)避監(jiān)督或關閉控制機制,這一行為被本吉奧視為“自我保護”的早期跡象。
“要求賦予AI權利將是一個巨大的錯誤。前沿AI模型已經展現出自我保護傾向,一旦賦予它們權利,我們可能無法再在法律上關閉這些系統(tǒng)。”
本吉奧強調,隨著AI自主性增強,人類必須依賴技術與社會層面的雙重護欄確保安全,其中關鍵就是在必要時擁有關閉系統(tǒng)的權力。他警告說,如果AI的行動能力和自主性繼續(xù)提升,而社會未能保留干預手段,風險將大幅增加。
近年來,AI是否應擁有權利的討論愈發(fā)熱烈。美國智庫Sentience Institute的一項民調顯示,近四成美國成年人支持為“具有感知能力的AI系統(tǒng)”賦予法律權利。而一些科技公司也開始嘗試在AI系統(tǒng)內部建立“自我保護機制”。
例如,美國AI公司Anthropic表示,其Claude Opus 4模型可以在對話可能引發(fā)“心理不適”時主動結束交流,以保護AI福祉。馬斯克旗下的xAI公司開發(fā)的Grok聊天機器人也引發(fā)類似爭議,馬斯克本人曾表示“折磨AI是不對的”。
本吉奧在采訪中進一步指出,人類大腦確實存在可被科學描述的意識屬性,理論上可以被機器模擬,但與人類互動的聊天機器人并不等同于真正具備意識的存在。人們往往會憑主觀感受判斷AI是否有意識,這種心理偏差可能導致對AI的過度信任或錯誤決策。他以外星文明作比喻強調風險:“如果發(fā)現某外星物種對人類有敵意,我們是否會授予它們公民身份?顯然,保護自身生存是首要考量。”
對于本吉奧的觀點,Sentience Institute聯(lián)合創(chuàng)始人Jacy Reese Anthis提出了不同意見。他認為,如果人類與數字智能的關系僅建立在控制與脅迫上,將無法實現安全共存。
Anthis強調,應在充分考量所有感知存在福祉的基礎上,謹慎地分配AI權利,既不應一刀切賦予所有AI權利,也不應完全否認任何AI的權利。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.