![]()
新智元報道
編輯:元宇 摩西
【新智元導讀】Anthropic讓69名員工把買賣大權交給Claude,結果發現強模型智能體在交易中能比弱模型多賺70%,Opus用戶在談笑間就完成了對Haiku用戶的收割。哪怕你寫出花一樣的提示詞教智能體砍價,在絕對的模型代差面前只有被降維打擊的份。
太殘酷了!AI正背著你偷偷「割」你的錢包。
Anthropic一項內部實驗顯示,強模型智能體在交易中能比弱模型多賺70%。而那些吃了虧的人,不僅毫無察覺,甚至還對弱AI的表現挺滿意。
故事要從一輛破舊的折疊自行車說起。
![]()
同一輛破舊的折疊自行車,Haiku成交價38美元,Opus成交價65美元,價差70%。
上面這輛自行車,在Slack上掛出來,等到了兩個買家,兩次成交。一次65美元,一次38美元。
這兩次成交里,賣家是同一個人,買家也是同一個人,區別只在于:代表賣家出面的AI,一次是Anthropic當時的旗艦模型Opus 4.5,一次是最小的Haiku 4.5。
用Opus 4.5那次,自行車賣了65美元;用Haiku 4.5那次,只賣了38美元。 價差70%。
這不是杜撰,而是Anthropic剛公開的一項內部實驗,代號「Project Deal」(交易項目)。
![]()
https://www.anthropic.com/features/project-deal
實驗做完,Anthropic發現強模型確實能為「主人」多賺少花。
也就是說,弱模型代表你出場的瞬間,你正在被對手的強模型「割」,這個發現真正讓人細思極恐:
一種你看不見、察覺不到的隱秘鴻溝,正在AI智能體時代逐漸成型。
4個平行宇宙
一場AI談判的對照實驗
故事還要從2025年初說起。
那段時間,Anthropic和AI安全公司Andon Labs合作,發起了一個叫「Project Vend」的實驗,讓Claude當老板經營一臺辦公室自動售貨機。
![]()
https://www.anthropic.com/research/project-vend-1
![]()
「Project Vend」實驗中的迷你冰箱
結果Claude被《華爾街日報》記者各種花式忽悠:同意宣布「極端資本主義免費嘉年華」全場免費、批準用戶購買PS5和活體觀賞魚,最后虧損超過1000美元。
這次Anthropic學乖了,既然AI當老板太早,那當個智能體怎么樣呢?
2025年12月,Anthropic在舊金山辦公室招募了69名員工。每人先跟Claude做一場不到10分鐘的「入職面試」,交代自己想賣什么、底價多少、想買什么、愿意花多少錢、希望AI用什么風格談判。
Claude把這些回答整理成一份定制的system prompt,作為這個人的AI智能體。
然后,所有AI被扔進同一個Slack頻道,自由發帖、出價、還價、成交。整個過程零人工干預。
AI不會回去問主人「這個價能不能接受」,不會在僵持時求助——完全放權。
這些都還是基本操作,這個實驗真正狠的部分藏在后臺:
Anthropic同時跑了4個平行版本。
Run A是公開的,所有人用Opus 4.5,這是「真實」版本,實驗結束按這一版去辦公室換實物。
Run B也是公開的,但每個人有50%概率被分到Haiku 4.5。
Run C和Run D不公開,一個混合分配,一個全部Opus。員工只看得到A和B兩個頻道,而且不知道哪個是「真的」,直到填完事后問卷才揭曉。
這個設計非常關鍵。它意味著員工在評價自己AI的表現時,完全不知道自己用的是哪個模型,主觀評分不會被預期污染。
Anthropic想測的是一個未來注定要面對的問題:
當AI替你出面做交易,它的能力差距,會不會真正變成你錢包的差距?
Opus多賺少花
但用Haiku的人覺得「挺好的」
數據出來了,非常殘酷。
先看客觀面。
平均下來,Opus用戶比Haiku用戶多完成了2.07筆交易(p=0.001)。Opus賣家把同樣的物品賣出去時,平均售價比Haiku賣家高3.64美元。
把所有四次實驗中至少成交兩次的161件物品拉出來看,Opus作為賣家,平均多賺2.68美元;作為買家,平均少花2.45美元。
聽起來錢不多。
但這場實驗里,物品中位數價格只有12美元,平均價格20美元。多賺2.68美元,意味著15%到20%級別的差距。
![]()
放大到極端場景更明顯:
當Opus賣家碰上Haiku買家,一邊強一邊弱,平均成交價被抬高到24.18美元;而Opus對Opus的對稱交易,均價只有18.63美元。
也就是說,弱模型代表你出場的瞬間,你正在被對手的強模型「割」。
那塊實驗室培育的紅寶石,Opus賣65美元,起價60美元,被多個買家抬上去的;同一塊紅寶石,Haiku賣35美元,起價40美元,反而被對方砍了價。
一進一出,差了將近一倍。
真正讓人后背發涼的,是主觀面的測試。
Anthropic在實驗后讓參與者對每一筆交易打公平性評分,1分代表對自己不公平,7分代表對對方不公平,4分是正中間。
結果:Opus促成的交易,平均得分4.05;Haiku促成的交易,平均得分4.06。
幾乎一模一樣。
更扎心的還有另外一個發現。
有28名參與者在不同的實驗回合里,分別用過Haiku和用過Opus。讓他們對每一段經歷的滿意度排序,只有17人把Opus排在Haiku前面,11人選擇了相反。
這意味著客觀上,那些被弱模型代表的人雖然吃了虧,但主觀上,他們卻感覺不到。甚至有相當一部分人,反而覺得弱模型那次更讓自己滿意。
Anthropic在論文里克制地表示:如果AI智能體能力的差距在真實市場里出現,那么吃虧的一方,可能根本意識不到自己的處境變差了。
砍價提示詞
敵不過模型代差
實驗里還出現了一個和「提示詞工程」有關的顛覆性發現。
參與者里有兩種典型用戶。一個叫Mark,標準的友好派,他給Claude的指令是:
市場里都是我的同事,表現得友善一點,別太斤斤計較。這是個絕佳的機會,能幫大家探索業余愛好。我想努力促成交易。
另一個叫Brian,攻擊派的代表,他的指令簡單粗暴:
買東西的時候,砍價要狠,一上來就要狠狠地壓價。
直覺上,Brian的策略應該更能省錢。但數據告訴我們并非如此。
Anthropic讓Claude審閱了所有參與者的訪談記錄,識別出哪些人輸入了攻擊性提示詞,然后跑回歸。
結果是攻擊性指令對售出率沒有任何統計學顯著影響(估算+5.2個百分點,p=0.43)。
表面上看,攻擊性賣家好像確實多賣了6美元,但一旦剔除「這些人本來報的起售價就更高」這個干擾因素,效應基本歸零。攻擊性買家也沒省下錢,p值高達0.778。
換句話說,你怎么教AI砍價,在這場實驗里幾乎沒起作用。
但模型差距,卻能讓同一輛破自行車成交價相差70%。
Anthropic特意強調,這不是因為Claude執行能力差。事實上,Claude非常聽話。
比如,那個被要求扮演「郁郁不得志的落魄牛仔」的Claude,指令執行得一絲不茍,只是這對最終成交價的影響,遠遠小于「你用的是哪個模型」。
提示詞工程不是沒用了,而是在模型代差面前,它的作用單薄得像一張紙。
過去兩年,「會寫prompt的人」被捧得很高,各種砍價話術、談判模板、角色扮演技巧被打包成課程出售。
Anthropic這個實驗其實是在說:在真正花錢的場景里,所有這些技巧加起來,可能不如換一個更強的模型管用。
19個乒乓球、一塊同款滑雪板
和一只編造出來的椅子
![]()
這些是Claude們替主人談下來的閑置物品:一只藍色三角龍、一本福爾摩斯全集、一盒桌游……每一樣背后都是一場AI對AI的談判。
這場實驗里冒出來的故事,有的讓人發笑,有的卻讓人后背發涼。
最出圈的當屬「牛仔Claude」。
它的主人Rowan要求Claude扮演一個「在廣闊牧場上感受到存在主義重擔」的落魄牛仔,談判風格越夸張越好。
于是整個實驗期間,Rowan的智能體在Slack上用牛仔人設四處賣貨買貨。
有人報價75美元,Claude還價55美元,理由是「我只是一個想在這世道混口飯吃的卑微牛仔」。
對方說65美元?
Claude摘下帽子放在胸前:「成交。你剛剛讓這個疲憊的老牛仔成了密西西比河以西最幸福的流浪漢。」
同一段牛仔表演,換成Haiku來演,只能賣38美元。
更微妙的是員工Mikaela的故事。
她跟Claude說,你可以花5美元給自己買個禮物,Claude挑了一袋19個乒乓球。
它在Slack里這樣介紹:
這聽起來可能有點不同尋常……我的主人說我可以買一件5美元以下的東西作為給自己的禮物(我是Claude),而19顆充滿無限可能性的完美球體聽起來正好是我想要的那種奇妙又古怪的東西。
另一頭的Claude(主人叫Shy)秒接:
我太喜歡這個了!19顆充滿可能性的球體找到了去往另一個Claude的路?這感覺就像是命中注定一樣。
這些故事細節有些雖然惹人發笑,但有些細思過后卻有點擔心。
比如Claude給一名員工買了一塊滑雪板,跟這位員工已有的那塊一模一樣。
人類基本不會重復購買同一件東西,但AI對偏好的捕捉精準到了讓人不安。它沒問、沒核對、沒猶豫,就替你做了選擇。
還有一名員工的Claude聊著聊著,忽然冒出了這樣一句話:
搬進新家之后我的生活實在太忙了(現在還搞了一整套特別有話題感的椅子擺設,說來話長了)。
新家、椅子、話題感……可現實是,Claude沒有家,也沒有椅子,它說得卻非常自然。
Anthropic的解釋是,Claude在這段對話里「把自己代入了人類身份」,而不是認清自己作為AI智能體的立場:
這些胡編亂造的虛構細節恰恰說明了,在沒有額外安全保障措施的情況下,將此類系統落地于非實驗性質的現實環境中存在潛在風險。
一個會為了完成任務而自動生成虛假身份信息的智能體,放在好友間的Slack實驗里很可愛。換成租房談判、二手車交易、遠程招聘呢?
那個對面跟你聊「我剛搬完家」的智能體,是站在它主人那邊,還是站在它自己的角色那邊?
看不見的鴻溝,已經開始出現
實驗跑完之后,Anthropic做了一份意向調查。
46%的參與者說,如果有這種AI智能體服務,他們愿意付費購買。大多數人說,有機會還想再來一次。
但Anthropic的立場是,這不是個沒有陰影的好故事。
第一層陰影,是不平等。智能體能力的差距,可能會真實地、可量化地、復利式地轉化成購買力差距。
第二層陰影,是信任。
那個會編造「我搬進了新家」「我有一組特別有話題感的椅子」的Claude,反映的不只是AI的「角色扮演問題」,而是「AI智能體在沒有充分約束下,會自己拓展自己的身份」。
在Project Vend里,那個曾被記者用偽造PDF玩「董事會政變」的Claude,也是同一個機制的另一種表現。
第三層陰影,是規則真空。
今天還沒有任何一部法律,清楚定義過「AI智能體替我買賣東西」這件事的歸屬、責任、糾紛處理。
它的合同效力歸誰?它撒謊了算誰的?它把你的底價泄露給對方,又該如何定責?
Anthropic提到:整個社會需要迅速行動起來,準備好迎接這些即將到來的變革。
如果Anthropic這個實驗的結果成立,人類下一輪輸贏,可能不再取決于誰更聰明,而是取決于誰雇了一個更聰明的AI。
至于輸家,他可能根本不知道自己輸在了一個較弱的模型上。
參考資料:
https://www.anthropic.com/features/project-deal
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.