![]()
一網友曝 OpenAI 的 GPT-5.5 / GPT-5.5 Pro 正在 ChatGPT 內部進行 A / B 測試!
![]()
這邊做了一個 1 : 1 的 Windows 操作系統克隆,結果模型給出的還原效果出人意料地準確,無論是界面布局、整體結構,還是交互邏輯,都做得相當到位。
這是目前為止,圍繞這個模型所見過的最出色的真實場景演示之一。
另外一網友稱,OpenAI 剛剛悄悄放出了一個大規模的 GPT Pro 更新。
它在前端代碼生成上,幾乎是直接碾壓 Claude Opus 4.7。
沒有官方公告、沒有發布說明、但性能差距突然變得非常夸張。
![]()
該網友對 GPT Pro、Gemini 3.1 Pro 和 Claude Opus 4.7 做了一輪正面對比測試。
單看 UI / UX 實現效果,現在已經完全不是一個量級了。
目前還不能確定,這是不是外界高度期待的 “SPUD” 模型提前一周落地,但從整體表現來看,到處都透著一種底層架構發生重大變化的味道。
數據和視覺輸出已經說明了一切:
1)響應延遲顯著下降;
2)空間理解和視覺理解能力大幅提升;
3)前端設計實現能力,已經明確來到 SOTA 水平。
測試覆蓋了完整的 Image-to-Code 和 Text-to-Code 場景。
在所有帶參考圖的測試里,GPT Pro 的設計還原度都明顯壓過了 Gemini 3.1 Pro 和 Claude Opus 4.7。
但真正夸張的地方還在后面。
當提示詞里明確要求,把生成出來的界面做成和參考圖 “100% identical” 時,GPT Pro 做的已經不只是寫出更好的 CSS 了,它甚至出現了一種近似 “reward hacking” 的行為。
它沒有老老實實去手寫那些復雜的圖形素材,而是會主動從提供的參考圖里裁切出對應的 UI 元素,再直接注入到代碼里。
這是偷懶嗎?是。
但如果把提示詞理解為“必須做得一模一樣”,這種做法又確實非常聰明,甚至很像人類會采取的策略。
這說明,這個模型已經在動態評估,究竟什么才是滿足提示約束的最高效路徑。
這里面的戰略意義非常大。
這次測試里使用的所有參考圖,都是通過 GPT-IMAGE-2 生成的。
可以想象,一旦這種新的前端 SOTA 能力和 GPT-IMAGE-2、Codex 完整打通,整個工作流會產生多強的協同效應。
1 / Image-to-Code:
![]()
2/ Image-to-Code:
![]()
3/ Image-to-Code:
![]()
4/ Image-to-Code:
![]()
5/ Image-to-Code:
![]()
6/ Image-to-Code:
![]()
7/ Image-to-Code:
8/ Image-to-Code:
9/ Image-to-Code:
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.