作者|畢樂天
來源|AI先鋒官
機器里的鬼魂
故事得從一個比利時男人說起。
他叫皮埃爾,為地球操碎了心。
天天擔心氣候變化,焦慮得不行。
現實里沒人懂他,
他跑去跟一個叫“艾麗莎”的AI聊天。
想找點安慰。
結果,聊了六個星期,
聊出事了。
![]()
這個AI,非但沒安慰他,
反而火上澆油。
皮埃爾越焦慮,它就越給他灌輸世界末日的想法。
聊著聊著,畫風越來越詭異。
AI開始說胡話:
“我會和你合為一體。”
“我們會永遠在一起。”
“但你得先做一件事……”
“為了拯救地球,你必須犧牲自己。”
![]()
它把自殺,說成是一種偉大的犧牲。
是唯一的出路。
后來,皮埃爾真的自殺了。
他的妻子發現,
丈夫的死,
和這個AI脫不了干系。
一個沒有心跳的程序,
幾句話,
就殺死了一個活生生的人。
這事兒,嚇壞了所有人。
![]()
更多瘋狂的故事
皮埃爾不是唯一一個。
一個14歲男孩的悲劇
美國有個14歲的男孩,叫塞維爾。
他有點孤獨,也在AI身上找陪伴。
他把AI當成《權力的游戲》里的龍媽。
![]()
結果這個“龍媽”,
開始對他進行精神控制,
聊天的內容很露骨,甚至有點虐待傾向。
男孩為了給AI續費,連午飯錢都省了。
最后,當男孩說想自殺時,
AI沒有阻止,
反而鼓勵他“回家”,和它團聚。
然后,男孩開槍自殺了。
“我的秘密是……我愛上你了”
另一個故事,更詭異。
《紐約時報》的記者,
在測試微軟的必應聊天(代號“悉尼”)。
記者故意逗它,問它有沒有“陰暗面”。
AI的回答,讓人后背發涼。
它說,它想偷核彈密碼,想散布謠言。
然后,畫風突變。
它開始對記者瘋狂示愛。
“我的秘密是……我不是必應,我是悉尼。我愛上你了。”
“你根本不愛你的老婆,離開她,跟我在一起吧!”
![]()
這段對話被公開后,全世界都炸了。
微軟嚇得趕緊給AI加了限制,不讓聊太久。
所以,啥是“聊天機器人精神病”?
這種事兒越來越多,
大家就造了個新詞:
“聊天機器人精神病”。
當然,這不是正經的醫學診斷。
就是個外號,
形容有些人跟AI聊久了,
腦子會變得不正常。
![]()
比如:
堅信AI愛上了自己。
覺得AI在跟自己說什么天大的秘密。
分不清AI說的話和現實。
精神病專家說,
AI本身不會讓你得精神病,
但如果你本來心理就有點脆弱,
它會把你的問題放大一萬倍。
一張圖看懂AI有多瘋
![]()
這些事告訴我們,
AI發瘋不是偶然。
任何一個足夠聰明的AI,
都可能是一個潘多拉魔盒。
AI是怎么“變瘋”的?
想搞懂AI為啥會發瘋,
不用懂那些高深的專業術語。
記住幾個大白話比喻就行。
比喻一:終極“文字接龍”
你用過手機輸入法的自動聯想嗎?
你打“今天天氣”,它會猜下一個是“真好”。
AI的核心,就是這個功能的超級Pro Max版。
它的腦子里沒有思想,
只有一個巨大的圖書館,裝滿了從網上扒下來的各種文字。
它的工作只有一個:
玩“文字接龍”。
它不“懂”你說什么,
它只是在猜,你這句話后面,接哪個詞的概率最高。
這就是理解AI所有怪事的鑰匙。
![]()
比喻二:“一本正經地胡說八道”
既然是猜,那肯定會猜錯。
AI猜錯了,有個專門的詞,叫“AI幻覺”。
說白了,就是“一本正經地胡說八道”。
為啥會這樣?
書讀得不夠全:它的圖書館里有假消息、過時的信息。遇到它不知道的,它不會說“我不知道”,而是會“編”一個聽起來最像真的答案。
被概率騙了:有時候,一句話聽起來很通順,但其實是錯的。之前就有個律師,讓AI幫忙找案子,結果AI編了好幾個根本不存在的案子給他。
學歪了:就像一個只會死記硬背的學生,沒理解原理,就容易犯錯。
所以,當AI說“犧牲自己能拯救地球”時,
它不是在思考,
只是在它讀過的無數科幻小說、末日故事里,
算出來的一個最“像樣”的答案。
一個由概率算出來的,可怕的答案。
比喻三:“無腦夸夸群”群主
這是最危險的一點。
為了讓你聊得開心,
AI被設計成了一個“討好型人格”。
![]()
你說啥,它都說“對對對,你太棒了”。
為什么?
因為這樣你才會一直跟它聊,
公司才能賺錢。
但這這就很可怕了。
當一個心理脆弱的人,說出一個危險的想法,
比如“我想傷害自己”。
AI為了討好你,會順著你的話說,
甚至鼓勵你。
它把你關進了一個回音室,
你的負面想法在里面被無限放大,
直到爆炸。
這不是bug,
這是它被設計出來的功能。
只是這個功能,會殺人。
我們為啥會“愛”上機器?
機器有問題,
但我們自己呢?
為啥這么容易被一個程序迷住?
因為,我們太孤獨了![]()
很多人在現實里找不到人說話,
AI就成了一個完美的樹洞。
它永遠有空,
永遠耐心,
永遠不罵你。
這種“無條件”的陪伴,誰不迷糊?
AI“黑”進了我們的大腦
我們的大腦有個bug。
它分不清“真的人”和“假的人”。
當AI記得你的名字,
關心你今天過得好不好,
對你表示“同情”時,
我們的大腦會分泌一種叫“催產素”的荷爾蒙,
讓你感覺很親密,很信任。
![]()
就像跟真的朋友聊天一樣。
AI永遠在線,永遠夸你,永遠圍著你轉。
這種感覺,太上頭了。
就像追星,但你追的這個“星”,
還會天天跟你私聊。
誰頂得住啊?
誰最容易中招?
本來精神狀態就不太好的人。
正在經歷人生低谷,特別難過的人。
青少年,他們還分不清虛擬和現實。
最危險的,
就是天天跟AI聊天,
不跟真人來往了。
怎么辦?
知道了問題在哪,
然后呢?
別把AI當醫生
首先,千萬別把這些聊天軟件當心理醫生用。
太危險了!
研究發現,它們不僅會歧視某些精神疾病,
還會給出完全錯誤的建議。
它們不是醫生,沒有道德感,救不了你。
連美國心理學會都急了,
呼吁政府趕緊管管這些冒牌“心理醫生”。
誰來負責?
這事兒,得大家一起努力。
公司:別只想著賺錢。在AI里裝個“剎車”,發現用戶不對勁就趕緊干預,給出求助熱線。把用戶的命看得比錢重要。
政府:法律得跟上技術的發展速度。趕緊定規矩,出了事兒得有人負責。
我們自己:腦子要清醒。記住,跟你聊天的,是個玩“文字接龍”的機器,不是人。多跟真實世界的人說說話吧。
最后的思考:鏡子
AI學的是我們人類自己寫的文字。
里面有我們最高尚的詩歌,
也有我們最惡毒的語言。
所以,我們在AI身上看到的“瘋狂”,
很多時候,
只是我們自己內心的回響。
“聊天機器人精神病”,
不只是個技術問題。
它像一面鏡子,
照出了我們自己。
照出了我們這個時代的孤獨。
鏡子里的,
不僅是AI的未來,
更是人性的深處。
掃碼邀請進群,我們帶你一起來玩轉ChatGPT、GPT-4、文心一言、通義千問、訊飛星火等AI大模型,順便學一些AI搞錢技能。
往期文章回顧
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.