GPT-5.5不過是一個小版本的更新,就是為了頂住Claude 4.7 和 Mythos最近的勢頭。但是,它背后的套路更深。
GPT-5.5標(biāo)志著前沿模型之間的競爭,正在進入模型/芯片協(xié)同設(shè)計、系統(tǒng)競爭的時代。黃仁勛已經(jīng)在英偉達內(nèi)部要求大家使用Codex,就在GPT-5.5發(fā)布之前,英偉達各部門超過1萬人已經(jīng)通過Codex體驗了它。
現(xiàn)在,硅谷每家科技大廠、每家前沿AI實驗室,都需要一個自己的智能體編碼工具,因為用AI研發(fā)AI,用AI提升效率,將對競爭起到?jīng)Q定性的作用。所以,最近谷歌的創(chuàng)始人都跳出來,要求建立突擊隊迎頭趕上Claude Code。馬斯克也與Cursor達成了價值600億美元的收購權(quán)交易——微軟也動過這個念頭。
2026/4/22 >閱讀全文
2026/04/22>閱讀全文
OpenAI和英偉達一直是早期芯片和協(xié)同設(shè)計合作伙伴:OpenAI 提供反饋,為英偉達的硬件路線圖提供信息;反過來,OpenAI 也能夠提前獲得新架構(gòu)的使用權(quán)。這種合作關(guān)系達到了一個新的里程碑,雙方共同搭建了首個 GB200 NVL72 10 萬 GPU 集群。完成了多次大規(guī)模訓(xùn)練運行,英偉達稱其在前沿規(guī)模上樹立了系統(tǒng)級可靠性的新標(biāo)桿。
”GPT-5.5 就是該基礎(chǔ)設(shè)施全力運行的產(chǎn)物。 “
OpenAI透露,Codex和GPT-5.5在協(xié)同設(shè)計中也發(fā)揮了重要的作用,AI幫助改進了為自己服務(wù)的底層架構(gòu)。
為了以 GPT-5.4 的延遲運行 GPT-5.5,OpenAI需要將推理過程重新定義為一個集成系統(tǒng),而非一系列孤立的優(yōu)化。
GPT-5.5 的設(shè)計、訓(xùn)練和運行都與英偉達GB200 和 GB300 NVL72 系統(tǒng)緊密結(jié)合。Codex 幫助團隊更快地將想法轉(zhuǎn)化為可基準(zhǔn)測試的實現(xiàn),包括繪制草圖、搭建實驗流程,以及幫助確定哪些優(yōu)化值得深入投入。GPT-5.5 則幫助發(fā)現(xiàn)并實現(xiàn)了技術(shù)棧本身的關(guān)鍵改進。
Codex 和 GPT-5.5 在實現(xiàn)性能目標(biāo)的過程中發(fā)揮了至關(guān)重要的作用。其中一項改進是負載均衡和分區(qū)啟發(fā)式算法。在 GPT-5.5 之前,加速器上的請求被分割成固定數(shù)量的塊,以平衡計算核心之間的工作負載,確保大小請求都能在同一 GPU 上運行。然而,預(yù)先確定的靜態(tài)塊數(shù)量并非適用于所有流量模式。為了更好地利用 GPU,Codex 分析了數(shù)周的生產(chǎn)流量模式,并編寫了自定義啟發(fā)式算法來優(yōu)化工作負載的分區(qū)和平衡。這項工作產(chǎn)生了巨大的影響,token生成速度提高了 20% 以上。
英偉達負責(zé)企業(yè)AI的副總裁博塔諾(Justin Boitano)則強調(diào)了協(xié)同設(shè)計中的效率提升:
“調(diào)試時間從幾天縮短到幾小時,并將復(fù)雜代碼庫中數(shù)周的實驗成果轉(zhuǎn)化為一夜之間取得的進展。這不僅僅是編碼速度的提升,更是一種全新的工作方式,它能幫助人們以截然不同的速度開展工作。”
為了下一代 AI 基礎(chǔ)設(shè)施,OpenAI已經(jīng)承諾部署10 吉瓦的英偉達系統(tǒng),未來幾年,OpenAI 模型訓(xùn)練和推理,將跑在數(shù)百萬個英偉達GPU 上。
重視開放權(quán)重模型的英偉達,也把OpenAI gpt-oss 開源權(quán)重模型納入其生態(tài),為英偉達TensorRT-LLM 和包括 vLLM 和 Ollama 在內(nèi)的生態(tài)系統(tǒng)框架優(yōu)化了模型權(quán)重。
英偉達和 OpenAI長達十余年的、整個AI技術(shù)棧領(lǐng)域的密切合作,意味著黃仁勛將會全力支持OpenAI與Anthropic的競爭。
![]()
被黃仁勛買到麾下的Groq創(chuàng)始人羅斯(Jonathan Ross),也把GPT-5.5歸功于英偉達的GB200 NVL72 訓(xùn)練,”真是立大功了!“
就在昨天,谷歌云在Next活動上發(fā)布了第八代TPU:用來訓(xùn)練的8t,和用來推理的8i。這是用來訓(xùn)練下一代Gemini,而且用訓(xùn)練和推理的分離,直接藐視通用GPU,也順便藐視了羅斯,他號稱是LPU和TPU雙料創(chuàng)始人。
2026/4/23>閱讀全文學(xué)
去年底,第六代TPU訓(xùn)練出來的Gemini 3,已經(jīng)碾壓了GPT-5。現(xiàn)在,英偉達要用GB200/300,通過GPT5.5實現(xiàn)復(fù)仇。可以期待的是,8t/8i將全面硬杠Vera Rubin/LPU的訓(xùn)練和推理。
那么,GPT-5.5實現(xiàn)翻盤了嗎?業(yè)內(nèi)都留意到打榜分?jǐn)?shù)都是與Claude-4.7對比,而大魔頭Mythos則神秘地躲在”玻璃門“后面。
可以看出GPT-5.5 在 軟件工程SWE-Bench-Pro 這項評測上仍然落后,但在終端智能體 TerminalBench 2.0 和網(wǎng)絡(luò)安全智能體 CyberGym 上表現(xiàn)突出。
也就是說,GPT-5.5 在真實開源代碼庫里的長鏈條軟件工程任務(wù)上不是最頂尖,但它在終端上連續(xù)操作完成任務(wù)和網(wǎng)絡(luò)安全攻防/漏洞分析這兩類更偏 agent、環(huán)境交互和實戰(zhàn)鏈條的評測上較強。 它的強項可能更偏工具使用、環(huán)境操作和安全任務(wù)。
![]()
GPT 5.5所體現(xiàn)的token經(jīng)濟學(xué),是GPT-5.5 不僅更加智能,而且解決問題的效率更高,通常能以更少的token和更少的重試次數(shù)獲得更高質(zhì)量的輸出。在人工智能分析的編碼指數(shù) (AIA) 中,GPT-5.5 以競爭對手前沿編碼模型一半的成本,提供了最先進的智能。
![]()
就在谷歌稱其75%的代碼由AI生成之后,OpenAI也宣布超過85%的員工在使用Codex,包括軟件工程、財務(wù)、溝通、市場營銷、數(shù)據(jù)科學(xué)和產(chǎn)品管理在內(nèi)的各個部門。
在溝通部門,團隊利用 Codex 中的 GPT-5.5 分析了六個月的演講請求數(shù)據(jù),構(gòu)建了評分和風(fēng)險評估框架,并驗證了一個自動化的 Slack 智能體,從而可以自動處理低風(fēng)險請求,而高風(fēng)險請求仍然需要人工審核。在財務(wù)部門,團隊使用 Codex 審核了 24,771 份 K-1 稅表,總計 71,637 頁。他們采用的工作流程排除了個人信息,幫助團隊比上一年節(jié)省了兩周時間。在市場推廣團隊,一名員工實現(xiàn)了每周業(yè)務(wù)報告的自動化生成,每周節(jié)省了 5-10 小時。
甚至OpenAI這位研究科學(xué)家,分享了他動動嘴讓5.5干活、自己的”朋友和男朋友“一起外出度周末的體驗。
![]()
”假期里,我對著 5.5 口述了幾分鐘,描述了一個新的、很有野心的強化學(xué)習(xí)訓(xùn)練項目。點了發(fā)送之后,我就把這事忘了,接著和朋友還有男朋友一起玩了幾天。周一回來時,一個工業(yè)規(guī)模的強化學(xué)習(xí)訓(xùn)練任務(wù)已經(jīng)在那兒嗡嗡跑著了,它已經(jīng)連續(xù)運行了 31 個小時。“
那么,這個周末之后,是不是輪到我們的DeepSeek V4了?也期待它與中國自主芯片系統(tǒng)的協(xié)同設(shè)計,帶來驚喜。
參考:
https://openai.com/index/introducing-gpt-5-5/
https://blogs.nvidia.com/blog/openai-codex-gpt-5-5-ai-agents/?linkId=100000419058977
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.