西風 發自 凹非寺
量子位 | 公眾號 QbitAI
GPT-5.4泄露了?
一覺醒來,這張圖在上瘋傳:
![]()
在OpenAI編碼助手Codex的代碼拉取請求中,直接出現了GPT-5.4字樣,包括用于快速模式的/Fast命令。
而且,這并不是大伙兒第一次發現GPT-5.4的蹤跡了。
幾天前,OpenAI某開發人員在GitHub提交代碼拉取請求,在版本判斷條件的變更說明中意外泄露:
- 在尚在開發的view_image_original_resolution功能開關背后,為view_image接口添加了原始分辨率支持。
- 當該功能開關啟用,且目標模型為gpt-5.4或更新版本時……
![]()
之后gpt-5.4火速被改為gpt-5.3-codex。
另外, Codex模型下拉選項也曾出現過GPT-5.4模型:
![]()
種種跡象似乎都預示著,GPT-5.4不遠了。
200萬Tokens上下文窗口?
除此之外,有傳聞稱GPT-5.4將搭載200萬Tokens上下文窗口,能實現對超長篇內容的持久記憶。
網友指出,若要支撐“記住超長內容+長期不忘”的能力,模型推理時需要緩存的數據量會急劇膨脹,這本身就是一個極具挑戰的技術難題。
![]()
而在泄露的代碼拉取請求中,提到為“GPT-5.4或更新版本”新增了一項功能開關,可繞過傳統圖像壓縮機制,直接保留全分辨率的原始圖像字節數據。
這意味著GPT-5.4可能將具備像素級精準的視覺分析能力。
- 前端開發者、設計師與工程師終于能上傳高精度UI原型或復雜工程原理圖,模型可完整捕捉其中的每一處細節,徹底告別因圖像壓縮模糊而產生的視覺幻覺。
![]()
更有意思的是,有用戶向ChatGPT 5.2詢問其模型版本時,它竟開始一本正經地自稱是GPT-5.4了……
![]()
當然,以網友們對奧特曼的了解,不排除這是一場炒作。
有網友認為:
- 核心需要重點關注的是,模型在整個上下文窗口范圍內的準確率(召回率)。如果連內容都做不到精準,200萬Tokens的上下文窗口再大也毫無意義。
- 如果在8-needle測試中準確率能超過90%,那才是真正的重大突破。
![]()
以及,大伙兒的目光都在齊刷刷盯著DeepSeek V4的發布。
![]()
[1]https://x.com/i/trending/2028300584164700282
[2]https://x.com/nicdunz/status/2028305161324507194
[3]https://x.com/kimmonismus/status/2028123002156531714
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.