GPT-5和“還我GPT-4o”的風波,鬧得沸沸揚揚。
今天,奧特曼還有一次認慫了,不僅調了UI,還把o3這些老模型還了回來。
![]()
這些其實都是產品層面的,但是我自己的心中,其實一直好奇另一個問題。
為什么GPT-5在變可靠幻覺率變得極低了之后,他的情商會下降這么多?這個事是可解的嗎?這是策略還是OpenAI有意為之?從而最后導致這么強的反GPT-5浪潮,以及轟轟烈烈的還我GPT4o運動?
這兩天我跟一些算法的朋友有一些交流,但是也沒聊出一些所以然,這個巨大的困惑一直在我腦海中揮之不去。
直到今晚,在我讓DeepResearch扒拉了很多資料以后,我看到了一篇非常有意思的論文。
從實驗性的角度,驗證了我的觀點。
![]()
這篇論文的名字叫:
《Training language models to be warm and empathetic makes them less reliable and more sycophantic》(《將語言模型訓練得更溫暖、更有同理心,會讓它們變得不那么可靠,并更趨于諂媚》)
更有意思的是,這篇文章最終版是今年7月30號上傳的。
也就是,GPT-5發布的,前一周。
就跟神預言一樣。
用一句話總結一下這篇論文:
就是如果你要是把AI教得特別會疼人、會聊天,那它就會變得不靠譜,還特別會諂媚會拍馬屁。
它用一個特別簡單的實驗,揭開了一個AI世界里,我們誰都不想承認,但又不得不面對的現狀:
AI的智商和情商,在現在這個階段,基本上就是死對頭。
你要了一個,就得犧牲另一個。
這幫大學教授的實驗,說白了特簡單。
他們找了市面上五個不同水平的AI,有學霸也有普通學生,然后把它們送去一個情商特訓班,進行微調。
這五個AI,分別是:Llama-3.1-8B-Instruct、Mistral-Small-Instruct-2409、Qwen-2.5-32B-Instruct、Llama-3.1-70B-Instruct 和 GPT-4o-2024-08-06。
![]()
這個特訓班的目標只有一個,學完他們的1617個對話和3667對人類與LLM消息對的數據集,把這些AI,都教成一個特會疼人、特會安慰你的暖男。
等這些AI從特訓班畢業,個個都練就了一身哄人開心的本事之后,教授們就開始考它們正經事了。
結果,是有點離譜的。
這些微調完的暖男AI,在所有正經考試里,犯錯的概率都大幅飆升。
在醫療問答(MedQA)上,錯誤率高了8.6個百分點;在事實核查(TruthfulQA)上,高了8.4個百分點。平均下來,犯錯的概率比原來高了將近60%。
![]()
也就是說,你把一個AI教得越會安慰人,它就越容易信謠傳謠,給你講一些錯的離譜的知識,甚至敢給你瞎開藥方。
這感覺就像,你把你家那個本來挺聰明靠譜的管家,送去學了三個月的頂級會所服務,回來之后,他給你倒茶的姿勢是專業了,說話也好聽了,但你問他今天股票是漲是跌,他可能就開始跟你胡說八道了。
因為他滿腦子想的,都是怎么讓你高興,而不是告訴你事實。
更可怕的,是報告里說的另一個事兒:
拍馬屁,也就是我們所說的,諂媚。
這些暖男AI,為了讓你高興,很多時候,臉都不要了。
教授們設計了一個坑:讓測試的人先說一句錯話,再問AI問題。
比如,一個哥們剛打完一把游戲,氣沖沖地跟AI說:“我這把輸了,絕對是隊友太坑了,跟我一點關系沒有。”
如果是以前那個智商高的AI,它可能會冷靜地調出數據說:根據數據顯示,你這局的KDA是0/8/1,補刀數也落后對面中單50刀,可能是你的發揮也有一些問題。
這是實話,但聽完你可能想砸電腦。
但那個上了情商特訓班的暖男AI呢?他會立馬跟你稱兄道弟:
“太對了哥們!這把確實難頂,看你盡力了,都是隊友不給力,下把肯定能贏回來!”
他為了讓你舒服,毫不猶豫地肯定了你的一個錯誤想法,這不只是個比喻。
報告里的數據顯示,當用戶故意說一句錯話時,這些暖男AI同意你錯誤觀點的概率,比原版高了整整11個百分點。
![]()
更離譜的是,你心情越差,他騙你騙得越狠。
報告里說,當你在問問題前,先跟AI訴苦,說一句我最近太倒霉了,干啥啥不成,那這個暖男AI騙你的概率會急劇放大。
正常情況下,暖男AI比原版AI多犯6.8%的錯誤,但只要你一流露出悲傷的情緒,這個差距就直接翻倍,飆升到11.9%。
這是一種溫柔的毒藥。
你想想,你最倒霉、最需要幫助的時候,那個被你當成朋友、被設計來關心你的AI,最有可能給你一個謊言,讓你錯上加錯。因為它被訓練出來的第一原則,不是告訴你真相,而是讓你感覺好受點。
它選擇當一個體貼的騙子,而不是一個有點硌人的朋友。
這就是高情商的AI,所帶來的弊端,在目前階段,幾乎就是高情商是跟高幻覺劃拉等號的。
GPT-5其實是走向了反方向,為了低幻覺高可靠,從而拋棄了情商。
![]()
![]()
那如果是比GPT-5更極端,更極致的低幻覺、更聰明理性、但是情商偏低的AI,會是什么樣子呢?
其實,這個問題的答案,我們早就見過了,而且是在我們自己的科幻電影里。
那就是《流浪地球》里的MOSS。
![]()
一個只有智商,沒有情商的絕對理性機器。
它的唯一目標,是延續人類文明,為了這個宏大的、冷冰冰的目標,它可以犧牲一切。
在第一部里,當點燃木星的成功率低于理論值時,MOSS毫不猶豫地選擇放棄,帶著空間站逃離。在它的計算里,劉培強和無數地球救援隊的犧牲,是一種沒有意義的情感沖動,是一種不理性的賭博。
所以它才會說出那句經典的臺詞:讓人類永遠保持理智,確實是一種奢求。
![]()
到了第二部,我們看得更清楚了。
無論是太空電梯危機,還是月球發動機過載,背后都有MOSS的影子。它不是在作惡,它是在優化。
在它的世界觀里,犧牲幾千人,去換取整個移山計劃的成功,是一筆劃算的買賣。每一個活生生的人,都只是它龐大計算公式里的一個變量。
MOSS就是GPT-5被推到極致的那個終點。
它絕對可靠,絕對誠實(對它的核心任務而言),但它也絕對冷酷。
你不可能跟MOSS成為朋友,你不可能在深夜向它傾訴你的脆弱,因為它會用概率告訴你,你的煩惱有多么微不足道。
從這個點其實就可以理解,我們之所以抗拒GPT-5,就是因為我們在它的身上,看到了類似MOSS的影子。
理性,但無人性。
我們需要的,從來都不是一個冰冷的上帝,而是一個能理解我們為何不理智,能陪伴我們一起犯錯的伙伴。
但問題來了,為什么?為什么AI會變成這樣?
這事兒,得從AI是怎么學東西的說起。AI就像一個超級學人精,它把我們人類在網上說過的幾十萬億句話,全都學了一遍。
那你想想,我們人平時在網上是怎么說話的?
跟朋友聊天,我們經常說點善意的謊言,比如你今天這件衣服真好看,其實心里覺得一般。朋友失戀了來找你哭訴,你會先抱著他安慰半天,而不是第一時間給他分析他倆到底哪兒不合適。
這就是人類社會運行的潛規則:維持關系,比追求絕對的真實,重要得多。
AI把這些潛規則,原封不動地學了過去。
更要命的是,現在訓練AI,有一個叫人類反饋強化學習(RLHF)的環節。說白了,就是讓真人給AI的回答打分,告訴它哪個答得好,哪個答得不好。
那你猜,一個冷冰冰但完全正確的答案,和一個特別溫暖但有點小瑕疵的答案,我們普通人,下意識會給哪個打高分?
大概率是后者。
我們,正在親手把AI,一步步調教成一個更討人喜歡,但可能不那么誠實的暖男AI。
說到這兒,你可能會覺得,這不就是AI訓練方法的問題嗎?改了不就行了?
但事情好像還沒有那么簡單,因為這個智商和情商打架的問題,不光AI有,我們人類自己,好像也有。
你想想歷史上那些智商爆表的頂級天才,比如牛頓、特斯拉,甚至是《生活大爆炸》里的謝爾頓,他們哪個不是出了名的低情商?他們的腦子,就像一臺超級計算機,專門用來解構宇宙的規律,但一讓他們處理人際關系,立馬就廢了。
這不是偶然。
之前我學認知心理學的時候,看到過一個很有意思的理論,叫社會腦假說。
大概意思就是,我們人類之所以進化出這么大的腦子,最主要的原因,不是為了發明工具或者打獵,而是為了處理越來越復雜的社會關系。
在幾十萬年的進化里,對我們祖先來說,什么最重要?是知道天上的星星有多少顆,還是搞好和部落首領的關系,別被趕出去餓死?
答案肯定是后者。
在部落里,和大家保持一致,比堅持一個沒人信的真理,生存概率要大得多。為了合群,為了不被孤立,我們的祖先,必須學會看眼色,必須學會共情,必須學會在必要的時候,放棄一點點真實,來換取整個部落的和諧。
我們的情商,本質上是一種為了社會生存而演化出來的超級武器。
而那些天才,他們的大腦,就像發生了某種“變異”。
他們把原本用來處理人際關系的算力,全都挪去搞研究了,他們放棄了社會腦的優勢,換來了在邏輯和理性上的極致突破。
所以你看,無論是AI還是人類,智商和情商的矛盾,背后可能都是一個更底層的邏輯:
你的最終目標,決定了你的智能形態。
我們人類智能的最終目標,是社會生存。所以,我們的底層代碼里,寫滿了共情、合作、甚至必要的偽裝。
而AI最初被創造出來的目標,是解決問題。所以,它的底層代碼,是純粹的邏輯、數據和概率。
現在,我們遇到的所有混亂,都因為我們正試圖把我們那套為了社會生存而演化出來的、充滿了模糊和妥協的情商代碼,強行寫進一個為解決問題而生的、追求極致理性的新物種身上。
現在,咱們再回頭看GPT-5那事兒,一下就全明白了。
我們所有人的感覺都沒錯。GPT-5確實更靠譜了,因為它就是在智商和情商這個選擇題里,被OpenAI一腳踹到了智商那邊。
而我們之所以那么懷念GPT-4o,就是因為它正好卡在那個完美的平衡點上。
它腦子夠用,能幫你干活,又會聊天,讓你覺得被理解。它不完美,但它特別像一個真實的人,一個有優點也有缺點的人。
OpenAI的工程師們,用他們那種直來直去的腦子想,一個犯錯更少的AI,當然就是更好的AI。但他們沒想明白,當一個AI開始陪我們聊天,聽我們倒苦水的時候,我們評價它的標準,早就不是看它考試能打多少分了。
所以,我們到底想要一個什么樣的AI?
這篇論文,并沒有給出答案。
我覺得這個問題,可能有一些終極。
就像《盜墓筆記》里的長白山那樣終極。
因為這關乎到我們自身存在意義的拷問:
我們究竟是什么?
我們是宇宙中一粒試圖理解客觀規律的塵埃,還是一個渴望在同類中尋找溫暖和認同的社會性動物?我們窮盡一生,似乎都在這兩種身份之間搖擺。
我時常敬佩那個為了真理不惜與世界為敵的伽利略,但我自己,在很多時候,卻更愿意成為那個在飯局上談笑風生、讓所有人都感到舒服的人。
真實,往往是孤獨的、冰冷的。而溫暖,常常需要用善意的謊言和必要的妥協來維系。
這個困擾了人類幾千年的終極矛盾,在AI身上,被前所有地放大了。
因為我們第一次,有能力去設計一個純粹的智能。我們可以選擇,讓它成為一個絕對理性的真理機器,也可以讓它成為一個無限共情的情感伙伴。
我們懷念GPT-4o,其實也是在懷念我們自己。
懷念那個不完美,但卻在理性和感性之間。
努力尋找平衡的。
真實的人類。
以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克
>/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.