![]()
新智元報道
編輯:KingHZ
【新智元導讀】過去Claude粉絲如今直呼「垃圾!20倍價格的Max計劃,卻連基本規劃模式都激活不了,這波操作讓所有人看清:智能是可以隨時被回收的體驗。
Claude偷偷降智,終于被發現了!
從今年2月前后,不少Claude用戶明顯感覺產品「變了」,怨聲載道:看似沒有系統故障,但輸出更淺、更急于給出修改結果,簡單的任務也會多次失敗。
![]()
同時,過去幾乎不出現的stop hook違規提示也開始顯著增多,token飆升。
你的第一反應是什么?就像崩潰的網友Capital-Run-1080一樣:「一定是我自己的問題。」
你開始反思:是不是我的提示詞(Prompt)寫得不夠好?是不是我的工作流變了?
在無數個技術論壇里,當用戶抱怨AI變笨時,官方的默認回復永遠是高高在上的那句——「請檢查您的設置」。
微妙的是Anthropic的態度: 一直假裝無事,沒吭聲,直到有人曬出數據:Claude的「思考深度」下降了67%!
![]()
剛剛,更大的曝料來了:Claude Opus 4.6疑是大翻車,20倍價格卻性能倒退,根本無法激活對應計劃模式!
![]()
你以為你在購買一張通往未來AGI的船票,實際上,船長為了省油,偷偷關掉了雷達。
Claude降智
6852次日志里的鐵證
幾天前,一記重錘砸碎了這種「大廠PUA」。
在GitHub上,AMD的AI總監Stella Laurenzo直接甩出了近三個月內6852次真實會話的監測日志,終于用數據量化了開發者們幾周以來的感受。
結論很直接:「對復雜的工程任務而言,Claude已經不能用了。」
![]()
AMD換了供應商。
數據證明,Claude Code的確降智了:
2月底思考深度已崩盤67%,隨后Anthropic向用戶隱藏了推理過程。
代碼閱讀次數從6.6次/編輯驟降至2.0次,Claude在接觸你的文件前就停止了研究。
3月8日后「懶惰鉤子」觸發173次,此前從未觸發過。
API成本因重試暴增80倍,因為淺層思考導致持續輸出錯誤、中斷和重試。
![]()
一個連代碼都不愿看全的AI,你敢把核心工程托付給它嗎?
![]()
它不再是那個「謀定而后動」的智者,而淪為了一個急于打卡下班的「賽博油條」。
這也是為什么很多開發者這次徹底破防。
因為他們發現,自己不是在用AI提效,而是在給一個不肯認真讀題的模型,反復交學費。
復雜任務最怕的,就是半懂不懂地亂改。
這被稱之為「AI縮水」——價格不變,但推理能力明顯縮水。
即便是200美元的Claude Code Opus 4.6 Max 20X,也中招了!
兩年來,Claude Code第一次識別不出來原生的規劃模式(Plan Mode),甚至不知道如何激活該模式。
被指出實現得一團糟后,一個項目被它重寫了兩次 。之后,Claude Code連自己內置的 Plan Mode 工具都不認識.
讓慘遭「賽博鬼打墻」的用戶,十分失望,不僅懷疑:花最高20倍的價格到底買來了什么?
顯然,沒買了智能計算、甚至沒買來準確的代碼補全,最后連連基本的能力都已經崩潰了。
這位過去的Claude Code的粉絲,徹底轉黑粉了,直罵:
(現在的Claude)簡直是垃圾。標準低到我已經在看Hugging Face的替代方案了。
![]()
Anthropic意在何方?
問題來了,Anthropic到底有沒有動過什么Claude?
微妙的地方,就在這里。
如果官方死咬「完全沒變」,這件事反而簡單。
可現在,Anthropic回應里確認了兩件很關鍵的事。
2月9日,「自適應思考」(adaptive thinking)默認引入。
3月3日,Opus4.6默認思考等級effort被調到「中級」(medium)。
![]()
Anthropic給出的說法很體面:
這是在智能、延遲、成本之間,找到一個「甜蜜點」(sweet spot)。
聽起來很合理,也很像所有大廠最擅長的那種話術——
不是降級,是優化。不是縮水,是平衡。
可對重度用戶來說,他們聽懂的只有一句話:默認值,真的被改了。
而默認值,才是這個AI時代真正的權力中心。
因為絕大多數人,不會天天盯著性能曲線,不會每次手動切高,也不會拿著版本記錄和行為日志逐項核對。
他們買的,不是某個看不見的參數,買的是一種穩定預期。
昨天,你用這個模型,能把復雜倉庫摸透。今天你打開它,也理所當然以為它還是那樣。
結果,名字沒變。界面沒變。價格沒變。變的,是后臺那只你看不見的手。
再往深一層看,這件事真正嚇人的,還不是Claude一個模型,而是它像一個提前泄露的行業趨勢。
今天,所有大模型公司都在算三筆賬:
第一筆,延遲。用戶嫌慢。
第二筆,成本。推理太貴。
第三筆,吞吐。服務更多人。
這三筆賬,只要同時壓過來,平臺就一定會產生一種沖動——
在用戶不敏感的地方,偷偷收一點「腦力稅」——
把默認思考調淺一點。把深入閱讀壓縮一點。把多輪推理收窄一點。
平均看,也許更劃算。報表上,也許更漂亮。
可對那些把AI當生產工具的人來說,天塌了。
因為復雜工作最值錢的,從來不是「輸出速度」,是質量,是「先理解,再動手」的那段沉默。
那幾秒、幾十秒,甚至幾百個Token的審慎,才是質量真正站得住的地方。
一旦這段沉默被平臺拿去換利潤,用戶拿到的就不再是同一個東西。
它還能說話,還能寫代碼,甚至還更流暢。
但你已經不敢把關鍵任務交給它了。
這就像一輛車,發動機還在響,方向盤也能轉,油門踩下去也還能沖。
只是剎車,悄悄薄了一層。
登上船了,才發現是泰坦尼克號
最要命的是,未來真正昂貴的AI服務,不是宣傳頁上跑分多漂亮,而是你下次把重要任務扔給它時,不會先吸一口涼氣。
所以,Claude這次捅破的,不只是Anthropic的一層窗戶紙。
它把整個行業一個最不愿意被問的問題,硬生生拖到了臺前:
如果默認thinking effort、推理預算、思考可見性會直接影響結果質量, AI 公司憑什么可以悄悄改?
如果這種改動會讓用戶多花幾十倍成本返工,需不需要明確公告?需不需要穩定檔位承諾?
今天,Claude Code身上發生的事,像一記很響的耳光。
它打醒的,不只是Anthropic的用戶,而是所有正在把工作、判斷、時間,越來越深地交給大模型的人。
我們以為自己買的是一張通往未來的船票。
后來才發現,船還在開,燈也亮著。只是船長為了省油,已經悄悄關掉了雷達,而你不知道冰山在何處!
![]()
而真正該害怕的,不是這一艘船,是整個行業,都開始覺得這么干很正常。
如果一個模型可以在你毫無察覺時被調低思考深度,那么你買下的從來不是智能,而是一種隨時可能被回收的體驗。
這,才是Claude「降智門」最冷的地方。
在4月8日,Anthropic關閉了Github上的issue,但沒有解釋到底解決了什么。
參考資料:
https://github.com/anthropics/claude-code/issues/42796
https://news.ycombinator.com/item?id=47660925
https://x.com/om_patel5/status/2041971334553727076
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.