![]()
新智元報道
編輯:犀牛
【新智元導讀】Anthropic深夜上線Opus 4.6極速模式,速度提升2.5倍,價格竟暴力拉升600%。這一反常定價引發全球開發者集體破防,被指「吃相難看」,究竟是技術自信還是商業自殺?
就在剛剛,Claude Opus 4.6上線了一個極速模式(Fast mode)。
性能一致,速度卻達到了正常模式下的2.5 倍!
官方稱Fast mode已在Claude Code和API中提供。
![]()
切換方式也簡單:在Claude Code命令行里輸入/fast,提示符旁邊會出現一個小小的閃電圖標,Fast Mode即刻啟動。再輸一次/fast,關閉。
就這么簡單,沒有復雜的配置,沒有額外的安裝步驟。在VS Code擴展里也是同樣的操作。
![]()
本來就是一條看似普通的發布,但消息一出,社區瞬間炸鍋。
原因很簡單——太貴了!
這個Fast Mode的新模式,速度確實快了,但價格也確實離譜——標準模式下Opus 4.6的輸出定價是每百萬token 25美元,而Fast Mode直接飆到了150美元。
整整6倍!
![]()
值得一提的是:Fast Mode的費用,不從你訂閱套餐的額度里扣。
就算你這個月的訂閱額度還剩一大半,但只要你打開了Fast Mode,從第一個token開始,就按Fast Mode的價格另外收費,一分錢都不抵扣。
它走的是一條完全獨立的「額外消費」通道。
那花了這么多錢,是不是能買到一個更聰明的AI?
答案是:并沒有。
Anthropic說得很明確,Fast Mode跑的還是同一個Opus 4.6,同樣的模型權重,同樣的智力水平,回答質量一模一樣。
![]()
Claude Opus 4.6的標準API定價是輸入5美元/百萬token,輸出25美元/百萬token。
這個價格在前沿模型中已經不算便宜了——Anthropic自己都承認,Opus 4.6是Artificial Analysis智能指數排行榜上最貴的模型之一。
![]()
而Fast Mode的定價是:輸入30美元/百萬token,輸出150美元/百萬token。
你沒看錯,輸入貴了6倍,輸出也貴了6倍。
更讓人倒吸一口涼氣的是長上下文場景。
Opus 4.6是Anthropic首款支持100萬token上下文的Opus級模型,當你的輸入超過20萬token時,標準模式的價格會幾乎翻倍(輸入10美元,輸出37.5美元)。
而Fast Mode同樣幾乎翻倍——輸入60美元/百萬token,輸出225美元/百萬token!
堪稱「token界愛馬仕」。
![]()
有網友斷言,如此高的定價會讓Anthropic失去大量用戶。
![]()
網友直呼如此定價在開玩笑。
![]()
產生虧損和破產從未如此之快。
![]()
Anthropic工程師Alex Albert則認為這是他過去一年中最大的生產力提升之一。
他強調,在某些方面,速度快的感覺就像模型智能提升一樣有影響力。
![]()
AI工程師Dan McAteer表示,Fast Mode真的「非常快」,一分鐘就能修復一個bug。
![]()
憑什么?
Fast Mode賣6倍價格,如果背后的模型是個平庸之輩,市場不會買賬。
但不得不說,Opus 4.6確實很強。
它可能是截至目前,綜合實力最強的大語言模型。
Artificial Analysis發布的Intelligence Index v4.0,是目前業界最全面的AI模型綜合評估之一,涵蓋GDPval-AA(智能體實務)、Terminal-Bench Hard(智能體編程)、SciCode(科學編碼)、Humanity's Last Exam(多學科推理)等10項評估。
在這份榜單上,Claude Opus 4.6以53分的成績拿下綜合第一,領先OpenAI的GPT-5.2(xhigh)兩分。
![]()
再看Arena.ai「大模型競技場」平臺,通過數以萬計的真實人類盲測來給模型排名。
Opus 4.6在代碼、文本、專家三大競技場全部登頂第一。
其中代碼競技場的得分比前代Opus 4.5暴漲了106分,這個提升幅度遠超之前Opus 4.5對Sonnet 3.7的領先幅度。
文本競技場得分1496,硬生生壓了Google的Gemini 3 Pro一頭。專家競技場領先第二名約50分,斷層式領先。
![]()
![]()
在GDPval-AA知識工作性能評估中,Opus 4.6的Elo得分為1606,比GPT-5.2高出約144分,比上一代Opus 4.5高出190分。
這個差距不是「略有優勢」,而是一個數量級的代差。
![]()
更具體地看硬核指標:在智能體編程評估Terminal-Bench 2.0中,Opus 4.6拿下了65.4%的高分,位列所有模型之首。
在ARC-AGI-2(抽象推理)測試中,它從前代的37.6%躍升至68.8%,接近翻倍。
![]()
但真正讓開發者興奮的,是兩個工程層面的突破。
第一個是上下文窗口。
Opus 4.6是Anthropic首款在beta階段支持100萬token上下文的Opus級模型,前代Opus 4.5的上限是20萬token。
這意味著你可以把整個大型代碼庫一股腦塞進去,而不用擔心它「忘了」前面的內容。
在MRCR v2長上下文「大海撈針」測試中,Opus 4.6得分76%,而同門的Sonnet 4.5僅18.5%。
AI模型一個常見的痛點叫「上下文衰減」——對話越長,模型越糊涂。
Opus 4.6幾乎消滅了這個問題。
![]()
第二個是自我糾錯能力。
Anthropic內部團隊在用Claude Code編寫代碼的過程中發現,Opus 4.6能夠在不被提示的情況下,自主判斷任務的難度分布——在簡單部分快速推進,在復雜部分深度思考,在模棱兩可的地方展現出更好的判斷力。
它會在確定答案之前更仔細地重新審視自己的推理過程,主動推翻不合理的路徑。
這種能力在代碼審查和調試中尤為明顯。
Anthropic甚至用16個Opus 4.6組成的「智能體團隊」完成了一項壯舉:在幾乎沒有人類干預的情況下,從零開始用Rust語言編寫了一個10萬行代碼的C編譯器,最終成功編譯了Linux 6.9內核,還能跑通《毀滅戰士》和PostgreSQL。
整個過程消耗了近20億個輸入token,燒掉了約2萬美元的API成本。
這個實驗不是為了炫技。
它證明的是:當模型足夠聰明、上下文足夠長、推理足夠深入時,AI已經可以獨立完成以前只有資深工程師團隊才能勝任的復雜系統工程。
![]()
速度
本身就是一種新的智能
回到Fast Mode的爭議。
6倍價格換2.5倍速度,從純數學角度看,這筆賬確實不太劃算。
但商業世界從來不是純數學。
對于一個正在緊急修復線上事故的工程師來說,每多等10秒鐘,都意味著更多的用戶流失和更大的業務損失。
對于用Claude Code快速迭代產品原型的獨立開發者來說,省下的時間可以直接換算成更早的上線日期。
對于Anthropic來說,Fast Mode是一次市場試探——它想知道,在「智力」已經卷到極致的今天,「速度」這個維度能撐起多大的商業空間。
某種意義上,這也是整個AI行業正在經歷的一個轉折點。
過去三年,所有人都在追問「AI能做什么」。
而現在,當AI幾乎什么都能做的時候,新的問題變成了「AI能多快做到」。
Fast Mode不只是一個加速按鈕,它是Anthropic向整個行業發出的一個明確信號——在AI時代,速度本身就是一種智能。
而對于這種智能,大家愿意付多少錢?
這個問題的答案,最終將由每一個打開終端、輸入/fast、然后看著賬單深呼吸的開發者來決定。
參考資料:
https://x.com/claudeai/status/2020207322124132504?s=20
https://code.claude.com/docs/en/fast-mode#toggle-fast-mode
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.