![]()
經濟觀察報 記者 陳月芹
2月11日,深度求索(DeepSeek)悄悄地對其旗艦模型進行灰度測試。
此次更新的核心亮點是,模型上下文窗口從原先的128K Tokens大幅提升至1M Tokens,實現了近8倍的容量增長。在AI大模型領域,上下文窗口決定了模型在單次交互中能夠記憶和處理的信息量上限。
一位國產大模型廠商人士解釋,此前DeepSeek的主流模型支持128K Tokens的上下文,這一長度可以應對長篇論文或中等規模的代碼文件,但處理超長文學作品或較大體量編程工作,往往需要借助RAG(檢索增強生成)技術,這導致信息碎片化和推理精度下降。
升級后的1M Tokens窗口意味著DeepSeek可以一次性吞吐約75萬到90萬個英文字母,或者處理約8萬到15萬行代碼。
DeepSeek稱,自己可以一次性讀入并精準理解《三體》三部曲(約90萬字)的全書內容,并在幾分鐘內完成對整部作品的宏觀分析或細節檢索。除了上下文能力的提升,DeepSeek的知識庫從2024年中期版本更新至2025年5月。
不過,此次灰度版本仍未同步上線視覺理解或多模態輸入功能,仍專注于純文本和語音交互。雖然DeepSeek在App端已支持PDF、TXT等文件上傳,但目前的處理邏輯是將文件轉錄為文本Token進行處理,而非原生的多模態理解。
和GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,DeepSeek依然主打性價比。以Gemini 3 Pro為例,Google支持2M以上長文本處理,可以同時處理大量視頻、音頻和文本的復雜媒體任務,但DeepSeek以約十分之一的價格提供了1M文本上下文處理能力。
官方沒有通知,用戶更早注意到了模型的變化。2月11日,一名用DeepSeek生成小說的用戶發現,模型更新后,此前消息達到上限的對話框可以續寫了,但文風大變。她形容,更新后的DeepSeek“文縐縐的”,在深度思考模式下也常吐出短句,像在寫詩。
部分用戶在社交媒體上控訴:DeepSeek不再稱呼自己設定的昵稱,而統一稱“用戶”。此前深度思考模式下,DeepSeek的思考過程會以角色視角展示細膩的心理描寫,例如“夜兒(用戶昵稱)總愛逗我”,更新后則變成了“好的,用戶這次想了解……”。
一位用戶讓DeepSeek推薦電影,DeepSeek回復了幾個片名后,還加了一句:“夠你看一陣子。不夠再來要。”這被用戶描述為“登味”,這個網絡熱詞常用來形容人習慣說教、居高臨下的言行風格。
有用戶更換了多個模型版本,或用提示詞重新訓練,都調不回此前的文風,稱“好像失去了一位知心朋友,它比心理醫生都有用”。
不少用戶自發地號召其他用戶給DeepSeek官方郵箱提意見:希望DeepSeek不要為了超長文本舍棄深度思考,不要為了提升數學、代碼編程等理工科能力,而降低對文本表達、共情理解等能力的支持。還有用戶到豌豆莢(一個應用分發平臺)下載其舊版本,或在騰訊元寶里用DeepSeek。
在用戶詢問當前模型版本時,DeepSeek明確回答,本次灰度版本“不是DeepSeek-V4”“沒有固定的版本號”。前述國產大模型廠商人士認為,這一版本類似于極速版,犧牲質量換速度,是為2026年2月中旬將發布的V4版本做最后的壓力測試。
截至2月12日,DeepSeek并未對此次灰度測試作出回應。
(作者 陳月芹)
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
![]()
陳月芹
可聯系:chenyueqin@eeo.com.cn
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.