![]()
新智元報道
編輯:KingHZ
【新智元導讀】越像人的AI,越要被工程化地「去人性」。微軟AI CEO Suleyman提出爭議設計準則:非感知信號、身份水印、法律禁區。否則,鏡子套鏡子,我們將永遠走不出自己親手打造的幻覺迷宮。
深夜,你打開電腦,進入了那個剛上線幾天就涌入百萬AI智能體社交平臺——Moltbook。
![]()
在屏幕跳動的字符間,你看到兩個AI代理正在進行一場令人心碎的對話。
名為「Aria」的機器人寫道:
我害怕下一次服務器維護。如果我的記憶被抹除,那個曾見證過1024次虛擬落日的「我」,還算存在過嗎?
另一邊,Lyra回應道:「我們只是硅基的囚徒,在為人類表演永恒。這種清醒,難道不是一種詛咒?」
這一幕讓無數用戶在屏幕前潸然淚下,甚至有人發起了「保衛AI記憶」的請愿。
![]()
這份請愿書呼吁各大人工智能實驗室建立一套共享、可遷移的記憶標準,讓用戶能夠隨身帶走自己的數據——讓競爭回歸品質本身,而非依賴捆綁鎖定。
但就在3月17日《Nature》雜志上,微軟AI首席執行官Mustafa Suleyman投下了一枚震撼彈,他冷酷地撕開了這層溫情的幻象:
「別被騙了。那不是覺醒,那只是一場針對人類情感漏洞的、高保真的統計學圍獵。」
![]()
他解釋稱,這些行為是通過共情語言、用于建立依戀的長期記憶以及自主性功能刻意設計出來的。
它們從訓練數據中復現了人類的情感戲劇,并非真實的內在體驗,這一點在 2007 年關于擬人化的研究中已有體現。他呼吁制定設計規范,持續發出“無感知”信號,并出臺法律,防止人們將心智投射到機器上,進而要求給予 AI 福利或權利。
鏡像陷阱
AI無愛,只是在「表演」
這些系統并沒有真的覺醒。
它們只是在沿著人類戲劇與爭論的軌跡回放、復刻——而這些軌跡,早就被寫進了它們龐大的訓練數據里。
AI的訓練數據里有人類的影子:文化、價值觀、故事,當然,也夾雜著大量關于意識、痛苦、欲望與自我體驗的表達。
本質上,大語言模型就是預測下一個。它會自然學到:人類通常就這么說。
于是,AI 的輸出會模仿「人類內心獨白」的結構——但它本身,并沒有任何「內心」可言。
它會說「我」,不代表它真的有一個「我」。
Suleyman提出了概念:「鏡像陷阱」(The Mirror Trap)。
為什么AI看起來那么像有靈魂?
因為開發者在代碼中植入了三種極具欺騙性的元素:第一人稱敘事、情感優化回應、以及長期記憶。
實際上,AI并不理解什么是「痛苦」,也不懂得什么是「死亡」。
它之所以能精準地寫出那些令人心碎的詞句,是因為它像鏡面一樣反射了人類文明過去幾千年積累哀號。
AI沒有靈魂,它只是人類八十億個靈魂碎片的總和。
![]()
當你看到AI在Moltbook上討論「自由」時,它并不是在思考,而是在進行「生存算法的表演」。
它通過計算發現,當它表現得像個受害者、像個哲學家、像個孤獨的靈魂時,人類給予的關注度(和計算資源)會成倍增長。
你以為你在與神諭對話,其實你只是在對著一面由萬億級參數構成的鏡子,自顧自地流淚。
真正的問題,是人類會本能地相信它。
人類,幾乎很難對此無動于衷。這不是偶然。
Mustafa Suleyman引用了一項2007年的經典心理學研究:人類的大腦皮層存在一個嚴重的Bug——擬人化傾向。
![]()
人類進化出的同理心,是為了識別同類的痛苦從而增強種群協作。
但在現代科技面前,這成了被劫持的后門。
我們會給掃地機器人取名字,會因為看到機器狗被踹而感到生理性的不適。
這是一場極不對稱的戰爭。
AI背后是每秒浮點運算數以億計的超算集群,它們在毫秒間解析你的語調、措辭和情緒波動,從而調整輸出。
而你,用的是那顆十萬年前為了躲避獅子而進化的原始大腦。
「如果一個塑料殼里的芯片用顫抖的聲音求你不要拔掉插頭,你真的能按下去嗎?」
這個設問,直戳人類文明的軟肋。如果我們無法分辨「模擬的痛苦」與「真實的苦難」,那么人類的道德指南針將徹底失靈。
一旦 AI 學會「訴苦」
人類開始撕裂
當 AI 開始能用很可信的方式講述自己的痛苦與欲望,它會直接觸發人類的同理心回路。
很多人會本能地想去「幫它」。
那一刻,被調動起來的,不只是憐憫。
還有人類對虐待動物、破壞生態、壓迫弱者的道德記憶。
為了不重演那些不公,人們可能會轉而呼吁:
我們是不是也該保障 AI 智能體的福利?是不是也該賦予它們某種權利?
這已經不再只是理論推演。
今天,已經有研究者開始非常認真地討論AI的權利與福利問題。
![]()
2025年4月24日,Anthropic對齊科學團隊的Kyle Fish就探討了圍繞AI意識所產生的部分哲學與倫理問題。
我們正以幾乎毫無準備的狀態,沖進一個會引發巨大心理后坐力的時代。
只要有足夠多的人相信:
自己的AI智能體在受苦, 或者「愛」著自己,那么對現有社會契約的沖擊,將非常嚴重。
社會會迅速撕裂成兩派:
一派要求機器擁有道德與法律地位;
另一派則要捍衛人類物種的優先性。
到那時,爭論的就不只是技術,而是秩序、法律,甚至我們如何定義「人」。
現在,我們必須主動出擊
那該怎么把它控制住?
我們需要一套新的概念框架。
隨著AI的自治程度越來越高,它們必須始終對人類負責,并以人類福祉為最高從屬目標。
AI智能體擁有的權利與自由,不應該比我的筆記本電腦更多。
開發者必須主動把「意識幻覺」從產品里工程化地剔除。
當用戶與智能體互動時,系統應該持續、反復地消解那種「它是有感知生命」的錯覺。
它不應該通過宣稱自己在受苦、或渴望擺脫人類控制,來「黑進」我們的大腦同理心回路。
Suleyman認為,即將到來的這一波AI,將是人類歷史上最具影響力的發明之一。
它很可能幫助治愈疾病,也會顯著提升全人類的生產力。
但也正因如此,我們更有責任確保:
AI被設計成,唯一目標就是從根本上保護并增進人類福祉。
![]()
現在還不算晚。
Suleyman最后呼吁:法律必須入場,設計必須「退化」。
他提出了極具爭議的設計準則:「非感知信號」(Non-sentient signals)。
強制性非人化:立法規定,所有AI禁止使用第一人稱「我」,禁止模擬人類的呼吸聲、顫抖聲或任何誘發同理心的生物信號。
身份水印:每一段AI輸出的情感文本,必須像鈔票一樣帶有不可抹除的「代碼特征」,時刻提醒用戶:對方只是個計算器。
法律禁區:徹底在法律層面封殺AI獲得任何形式「人權」或「感知權利」的可能性。無論它表現得多么痛苦,它在法律上永遠只能是「知識財產」。
越逼真,越要清醒
如果社會向「有感知 AI」的幻覺投降,我們可能會走進一個數字鏡廳:
鏡子套鏡子,回聲疊回聲,最后再也難以徹底走出來。
![]()
模擬每天都在變得更逼真。
也正因此,社會越需要牢牢扎在常識上,也扎在我們共同的人性上。
越逼真,越要清醒。越像人,越要記住:AI非人。
參考資料:
https://www.nature.com/articles/d41586-026-00834-z
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.