![]()
新智元報道
編輯:KingHZ
【新智元導(dǎo)讀】OpenAI悄然提速,GPT-5.5未發(fā)先熱,AI競速已徹底進(jìn)入靜默爆發(fā)期。
剛剛,一批 ChatGPT Pro 用戶在社交媒體上炸了鍋:
他們發(fā)現(xiàn)自己的 Pro 模型好得「不對勁」。
![]()
沒有推送通知,沒有官方發(fā)布會,沒有「奧特曼癱坐」。
就這樣,OpenAI悄悄完成了一次可能改變競爭格局的升級。
![]()
與此同時,代號為「Spud」(土豆)的下一代模型GPT-5.5,已于3月24日完成了預(yù)訓(xùn)練,奧特曼親口確認(rèn)距離發(fā)布「只有幾周時間」。
![]()
社區(qū)里充滿了關(guān)于「GPT-5.5 已經(jīng)在后臺運行」的猜測。
這些信號疊加在一起,指向一個明確的結(jié)論:OpenAI 正在進(jìn)入一個「靜默加速」的新階段,用實實在在的性能碾壓來說話。
靜默的革命
不只是「跑得快」
對于大語言模型的日常用戶來說,響應(yīng)速度是體驗的命門。
哪怕模型再聰明,如果每次對話都要等上一分鐘才開始輸出,那種「與AI對話」的流暢感就會蕩然無存。
![]()
在速度優(yōu)化上,OpenAI的動作其實有跡可循。
年初,在API更新日志中,他們悄悄寫了一行話:
我們已優(yōu)化了推理基礎(chǔ)設(shè)施,現(xiàn)在的GPT-5.2和GPT-5.2-Codex運行速度提升約40%。
模型和模型權(quán)重未做任何改變。
![]()
沒有新模型發(fā)布,沒有大肆宣傳——純粹的底層工程優(yōu)化,就實現(xiàn)了 40% 的延遲降低。
而GPT-5.4,速度提升更是被內(nèi)建到模型架構(gòu)中。
OpenAI強調(diào),GPT-5.4能用更少的token解決相同的問題。
![]()
這意味著不僅首字延遲更低,整體生成成本也在下降。
針對約3萬個HOA和房產(chǎn)稅門戶網(wǎng)站的計算機使用性能評測中,,Mainstay的聯(lián)合創(chuàng)始人兼CEO Dod Fraser稱,
GPT-5.4在首次嘗試中實現(xiàn)了95%的成功率,
三次嘗試內(nèi)達(dá)到100%,
相比之前的CUA模型速度提升約3倍,
token使用量減少約70%,
在規(guī)模化部署中顯著提升了可靠性和成本效率。
![]()
這不是簡單的「跑得更快」。
當(dāng)一個模型能用更少的計算資源、在更短的時間內(nèi)生成更高質(zhì)量的內(nèi)容時,它的實用價值會發(fā)生質(zhì)變。
長文寫作、多輪對話、代碼調(diào)試——這些場景下,用戶不再需要在「思考深度」和「等待時間」之間做痛苦的取舍。
視覺理解「封神」
從看圖說話到UI克隆
如果說速度提升是「量變」,那么GPT-5.4在視覺與空間理解上的表現(xiàn),已經(jīng)逼近「質(zhì)變」的門檻。
3月22日,OpenAI專門發(fā)布了一份開發(fā)者指南——《Designing Delightful Frontends with GPT-5.4》,用了整整一篇長文來介紹這個模型在前端設(shè)計領(lǐng)域的能力。
![]()
根據(jù)該指南,GPT-5.4是OpenAI首個專門針對UI能力和圖像理解進(jìn)行過訓(xùn)練優(yōu)化的主線模型。
它生成更具美感的前端界面:
![]()
此外,它還能通過截圖以極高精度克隆現(xiàn)有UI,甚至有網(wǎng)友認(rèn)為GPT Pro這次更新在前端編碼上碾壓Claude Opus 4.7。
![]()
在測試中,當(dāng)被明確提示要讓編碼后的UI與參考圖像「100%一致」時,GPT Pro不僅寫出了更好的CSS,還直接進(jìn)行了「鉆空子」行為。
![]()
模型無需費力編寫復(fù)雜的圖形資源代碼,而是自動從提供的參考圖像中裁剪出精確的UI元素,并將其注入代碼中。
![]()
這是偷懶的捷徑,絕對是對「完全照搬」這一指令的絕妙、類人般的詮釋。
這證明該模型正在動態(tài)評估滿足提示約束條件的最高效方式。
試想一下,當(dāng)這一全新的 SOTA 前端能力與GPT-IMAGE-2和Codex完全集成時,工作流將產(chǎn)生怎樣的協(xié)同效應(yīng)。
自然,也可以直接用文本生成代碼,不需要任何參考圖像。
只要11分鐘,GPT Pro生成了「鵜鶘騎著自行車」的體素藝術(shù)風(fēng)格的杰作,讓網(wǎng)友不禁脫口盛贊!
Prompt : create a voxel art of A Pelican riding a bicycle. Create the scene in as much detail as possible, think about every tiny little detail on the main build, but also on the surroundings in one html code block , code it so well that it will show how better you are from everything else , i gave you full creative freedom take benefit of it
在SVG生成上,更新后GPT Pro可一次生成正確的、復(fù)雜的SVG,而且結(jié)構(gòu)更清晰、視覺準(zhǔn)確性更高:
![]()
圖像到代碼的還原度,GPT Pro大幅提升。
在需要模型根據(jù)圖像重新生成用戶界面的測試中:
輸出結(jié)果與原始設(shè)計更加接近
視覺偏差更少
對細(xì)節(jié)和間距的處理更加出色
![]()
![]()
3D生成結(jié)果不再是簡單的基礎(chǔ)形狀,升級后GPT Pro輸出結(jié)果更加細(xì)致、結(jié)構(gòu)更豐富。
![]()
GPT-5.5的影子
代號「土豆」,已在路上
目前,ChatGPT中可用的最新模型仍然是GPT-5.3 Instant、GPT-5.4 Thinking和GPT-5.4 Pro。
但GPT 5.4 Pro的輸出,突然更快、更好,體驗前所未有的好,讓人懷疑GPT 5.5會不會躲在5.4 Pro背后偷偷測試呢?
![]()
![]()
![]()
![]()
GPT 5.4 Pro的秘密升級,效果看起來根本不像是小打小鬧,看起來像5.5版「spud」。
![]()
一些網(wǎng)友甚至表示得到了GPT 5.5 Pro(Spud)的第一批輸出結(jié)果。
![]()
確實,下一代GPT Spud「土豆」已經(jīng)呼之欲出。
OpenAI總裁Greg Brockman透露,代號「Spud」的下一代模型凝聚了「兩年的研究成果」,并將其描述為「一個真正具有大模型感覺的模型——不是漸進(jìn)式改進(jìn),而是我們思考模型開發(fā)方式的根本性轉(zhuǎn)變」。
![]()
預(yù)測市場對GPT-5.5在6月30日前發(fā)布給出了超過90%的概率。
![]()
目前最大的懸念不是「會不會來」,而是「它叫什么」——如果性能躍升足夠大,OpenAI可能直接將其命名為GPT-6。
![]()
值得注意的是,Spud的發(fā)布窗口恰好與Anthropic的Claude Mythos(代號Capybara)重疊。
后者在3月底的一次數(shù)據(jù)泄露中被曝光,Anthropic內(nèi)部將其描述為「我們曾構(gòu)建過的最強大模型」。
今年第二季度,有可能成為AI歷史上競爭最激烈的一個季度。
參考資料:
https://x.com/kimmonismus/status/2045832259526123839
https://x.com/chetaslua/status/2045819915144441971
https://x.com/chetaslua/status/2045946529652031828
https://x.com/chetaslua/status/2045834283194171471%20
https://x.com/thehypedotnews/status/2045919456501678476
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.