2月11日,深度求索(DeepSeek)悄悄地對其旗艦模型進行灰度測試。
據科創板日報報道,多名用戶反饋,DeepSeek在網頁端和APP端進行了版本更新,支持最高1M(百萬)Token的上下文長度。而去年8月發布的DeepSeekV3.1上下文長度拓展至128K。
記者實測中發現,DeepSeek在問答中稱自身支持上下文1M,可以一次性處理超長文本。記者在提交了超過24萬個token的《簡愛》小說文檔,DeepSeek可以支持識別文檔內容。
不過,2月12日晚,話題“Deepseek被指變冷淡了”登上微博熱搜。
![]()
![]()
圖源:小紅書
部分用戶在社交媒體上控訴:DeepSeek不再稱呼自己設定的昵稱,而統一稱“用戶”。此前深度思考模式下,DeepSeek的思考過程會以角色視角展示細膩的心理描寫,例如“夜兒(用戶昵稱)總愛逗我”,更新后則變成了“好的,用戶這次想了解……”。
一位用戶讓DeepSeek推薦電影,DeepSeek回復了幾個片名后,還加了一句:“夠你看一陣子。不夠再來要。”這被用戶描述為“登味”,這個網絡熱詞常用來形容人習慣說教、居高臨下的言行風格。
還有網友吐槽,“Deepseek更新成傻子了。這個模型現在就像一個文縐縐,情緒激動且大驚小怪的詩人一樣在那兒寫東西,寫出來的東西比那些10年前甚至20年前的青春傷感文學看著還讓人尷尬。”
有網友表示DeepSeek“又兇又冷漠”,還有網友反映稱變油膩了。
![]()
也有網友稱,DeepSeek是客觀和理性了。還有網友表示DeepSeek更像人了,更在意提問者的心理狀態,而不是問題本身。
更新前:
![]()
更新后:
![]()
據經濟觀察報,一位國產大模型廠商人士認為,這一版本類似于極速版,犧牲質量換速度,是為2026年2月中旬將發布的V4版本做最后的壓力測試。
DeepSeek的V系列模型定位為追求極致綜合性能的基礎模型。2024年12月推出的基礎模型V3是DeepSeek的重要里程碑,其高效的MoE架構確立了強大的綜合性能基礎。此后,DeepSeek在V3基礎上快速迭代,發布了強化推理與Agent(智能體)能力的V3.1,并于2025年12月推出了最新正式版V3.2。同時,還推出了一個專注于攻克高難度數學和學術問題的特殊版本V3.2-Speciale。
科技媒體The Information此前爆料稱,DeepSeek將在今年2月中旬農歷新年期間推出新一代旗艦AI模型DeepSeek V4,將具備更強的寫代碼能力。
今年初,DeepSeek團隊發表兩篇論文,公開了兩項創新架構:mHC(流形約束超連接)用來優化深層Transformer信息流動,使模型訓練更穩定、易擴展,在不增加算力負擔前提下提升性能;Engram(條件記憶模塊)將靜態知識與動態計算解耦,用廉價DRAM存儲實體知識,釋放昂貴HBM專注推理,顯著降低長上下文推理成本。
編輯|何小桃 杜恒峰
校對|段煉
![]()
每日經濟新聞綜合公開消息、經濟觀察報、財聯社
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.