昨晚 Kimi 發布了 K2 Thinking 模型,其實我有點被驚到了。
之前看到預告我以為只是一個小的升級,沒想到又發長cot的思考模型。因為這個模型本來就很難,而他們只用了兩三個月的時間,就又完成了這次升級
從結果看,K2 -thinking模型在 HLE 上sota,多個核心指標在全球權威榜單上超過了 GPT-5 和 Claude Sonnet 4.5
但是別忘了,他們的投入對比open ai 簡直可以說是四舍五入不要錢,這是一個規模兩三百人的中國團隊用兩個月的時間完成的成績
(據外媒報道,K2 的訓練預算大約是 460 萬美元。僅有用 OpenAI、Anthropic 約 1% 的成本,在這個行業,這幾乎只是“一個實驗的零頭”,可這樣點“節制的投入”,還產出了一個能連續推理 200~300 輪的sota模型。)
這件事情讓我在想起之前yangzhiling的采訪,那個采訪我沒看完,大概就看了幾個點,token effiency很重要,管理組織的rl和sft的平衡很重要。
在國外模型押注算力與規模時,kimi更像是在押注“理解力”和“思維結構”——從所謂的堆疊智能轉向組織智能。
什么才是AI模型競賽的終點?如果過去的階段是“比誰更快更大”,我覺得那下一個階段,也許是“比誰更懂得思考”。包括模型運作的方式,也包括如何在更少的資源的時候做更大的事情
一切的一切都關乎思考與判斷。
而“thinking”這個名字本身,其實也像是一種聲明:真正的智能,不在于能調用多少工具,而在于能否在不確定中保持連續的推理與判斷。
海外的反應也很微妙。
像Deedy,是MenloVentures合伙人、X上的大V,就認為Kimi K2 Thinking是當前全球最佳大模型,開源+寬松授權,可以說是AI模型的一個轉折節點
Nathan Lambert也覺得,中國AI模型的突破會給美國實驗室帶來壓力,后續還會有更多拐點
我只覺得,當外界開始認真分析這種效率時,某種意義上,kimi已經贏了。
這時候,再回頭看Kimi只用了open ai.大概1%的預算、僅有open ai.0.5%的估值,以及模型連續登上各種權威榜單sota的熱度。
這種被低估,也是一種領先。
#月之暗面 #KimiK2 #大模型思考#AI異類弗蘭克 #AI
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.