![]()
文:王智遠 | ID:Z201440
這次DevDay,有點不一樣。
因為不只展示了新模型,還打算把整個軟件世界的秩序,重新洗了一遍。
我看了完整的視頻,表面在做四件事:Apps SDK、AgentKit、Codex,還有一堆模型更新。
但你要真聽懂 Sam Altman 的講話,就會發現,他在講一件事:未來所有的軟件、所有的操作,都要通過一個入口完成——ChatGPT。
所以,今年DevDay,從戰略高度上說,更像一次從傳統軟件到 AI 操作系統的權力交接。
01
演講內容層面看,主要分為5個模塊。Sam上臺說:
- 「We’re building the operating system for intelligence.」
——我們正在為智能,打造操作系統。這句話給發布會做了定調。核心在描述:AI 該如何與世界對接。
Sam 講得很克制,邏輯非常清晰。他反復提到兩件事:
一,ChatGPT 已經成了人類與 AI 協作的主要界面」;二,AI 正在從工具變成社會接口。
他說,從搜索、寫作、編程,到溝通、創作、決策,未來這些行為都不需要再打開不同的 App,在 ChatGPT就能完成。
他還提到一個概念,叫「social interface」。
AI除工具本身外,現在成了社會結構的一部分,它要能理解人、協作、共情,甚至參與工作;這是我第一次在官方場合聽到 OpenAI 這么明確地承認:人機邊界,正在消失。
消失不能靠嘴說,得看怎么做。發布會第一個重點Apps SDK。
這是什么呢?
現場直接做了一個演示。他們先在 ChatGPT 里聊一個創業項目,用幾句話描述風格、產品、目標受眾,然后直接喚起 Canva,自動生成一堆海報。
幾秒鐘后,又在同一個對話里,說想把業務擴到匹茲堡,ChatGPT 就順勢調用 Zillow,直接在聊天窗口里彈出交互地圖,能看房、能篩選、能預約帶看,全程不跳出 ChatGPT。
Sam 的團隊刻意在演示里強調一點:上下文是貫通的。
你前面說的創業想法、預算、城市名,后面的 App 都能「聽懂」,還能互相傳遞信息。
過去,這些場景是分散在不同 App 里的,現在被統一進了一個入口:ChatGPT 成了「主操作界面」,它既能喚起應用,也能托管界面。
比如 Canva 在對話里展示的是行內窗口,一鍵又能切到全屏模式;Zillow 的交互狀態也能原地刷新,不用重新加載。
底層支撐這件事的,是 OpenAI 推出的 MCP 協議。
允許開發者直接把自己的邏輯、數據、前端界面「接入」 ChatGPT。這意味著,未來開發者寫 App,不是給 iOS、Android 寫,而是給 ChatGPT 寫。
換句話說,我們要理解它的野心是:
OpenAI 想讓 App「住進」聊天窗口,這一幕標志著 App Store 邏輯被改寫,應用直接跑在對話里。
Apps SDK 解決「應用怎么接進來」,那AI怎么被造出來呢?第二部分,他們講了AgentKit,你可以把它想想成agent的工業化上產線。
以前,做一個智能體(Agent)要靠寫代碼、反復調 Prompt(提示詞),但現在,OpenAI 直接造了一條生產線——讓任何人都能「拼裝」出一個可工作的 Agent。
他們怎么做的呢?
Christina 上臺做了個演示,整個過程有8分鐘。她沒有寫一行代碼,全程在一個可視化畫布上操作。
她先打開一個叫 Agent Builder(智能體構建器) 的界面,這是 AgentKit 的核心。
它有點像 Figma 或者 Node-RED,你可以拖拽節點(Node),每個節點代表一個邏輯環節,比如「判斷問題類型」「調用數據庫」「輸出回答」。
節點之間關系可以是「If / Else(條件分支)」「Parallel(并行執行)」「User Approval(用戶許可)」等等。
等等,這段話是不是看不懂?你可以這么理解:
過去做 AI 像寫小說,你得一句一句設計提示詞,讓模型懂你想干嘛;現在更像搭積木,每個模塊都是標準件,只要把邏輯拼好,它就能自己動。
現場,她做了兩個智能體節點:
一個是Sessions Agent(會話日程智能體),用來回答活動安排的問題;另一個是Info Agent(信息智能體),專門處理一般咨詢。
這倆 Agent 之間有個中控邏輯節點(Controller Node),能判斷用戶提問是要問時間還是要問內容,再自動把問題分派給不同 Agent 去處理。
接著,她打開了一個叫ChatKit(聊天組件工具包)的模塊,這個功能允許開發者把 AI 聊天窗口直接嵌入自家網站,并自定義品牌樣式。
簡單說,你可以在自己的網站、App 里放一個「GPT 聊天框」,風格、語氣都能自己定義。
02
然后是第三個模塊:Connector(連接器)。這部分是真正強大的地方,它能把 AgentKit 連接到企業內部系統、數據庫、甚至 API。
底層用 MCP(Model Context Protocol,模型上下文協議),讓模型可以「安全地」訪問外部數據,不越權、不泄露。
Christina 現場做了個小實驗:
她讓 AgentKit 直接連上 DevDay 官網,讓它自動識別網頁內容、提取活動時間,最后在現場對話框里回答「今天下午誰上臺演講」。
整套邏輯,就是幾分鐘拖拽出來的;這套流程走完,觀眾看傻了,因為在「造員工」。
更關鍵的是,這條生產線還有「質檢系統」。OpenAI 提供了Evals(評測系統),可以自動幫你測試智能體的效果,記錄每一步調用結果;
還有RFT(Reinforcement Fine-Tuning,強化微調),能讓企業自己訓練模型,讓它在最合適的時機,用最恰當的方式調用工具。
所以,從搭建、測試到上線,這個鏈路全閉環。
我看下來,AgentKit 的野心不小。
Apps SDK 解決「外部世界怎么接進來」,而 AgentKit 解決「內部世界怎么動起來」;從更大的角度看,它是 OpenAI 向企業端滲透的關鍵一環。
因為一旦企業用上 AgentKit,會自然地在自己的工作流里養出一批「AI 員工」,比如:有人寫報告,有人跑數據,有人管客服。
到那時,OpenAI是「讓每個企業都有一群 AI」。
雖然智遠目前還不會開發 AI,但我開始在想,以后能不能讓AI叫我做事?也許未來的「學習」,是工具帶著人前進。
好了,AI能造 Agent,還能自己搭系統了,這套系統的底子是什么?演講第四個模塊,OpenAI 介紹了Codex。
Codex 是什么呢?
這個模型的定位很清晰,專門為軟件工程任務訓練,寫代碼、改代碼、審查代碼,甚至能自己判斷任務復雜度,自動調整思考深度。
簡單說,Codex 現在變成了能帶團隊的老工程師。
Sam 在現場提了個細節:
OpenAI 內部現在幾乎所有新代碼都是 Codex 寫的,用它的工程師,提交量比以前高出 70%;連代碼審查(Code Review)都能讓 Codex 自動先跑一遍,效率直接翻倍。
但 Codex 的野心顯然不止于「更聰明的程序員助手」;這次他們強調讓 Codex 變成一個懂上下文、能協作、能「接手項目」的「AI 隊友」。
比如,它能直接嵌入 Slack(團隊溝通平臺),你在群里一句話——「幫我寫個接口」——Codex 立刻生成并返回完整代碼。
它還推出了Codex SDK(軟件開發工具包),企業可以把 Codex 能力嵌進自己的自動化流程里,從測試、部署到上線,全程無縫銜接。
后臺也配了監控和分析面板,方便工程經理追蹤團隊的 AI 使用情況。
但真正讓人炸場的,是后面的那場現場實驗。Raman 登臺時說:「我們想做點所有人都能看見、能感受到的東西。」
他抬頭指著舞臺上方的攝像機——一臺 Sony FR7,然后讓 Codex 幫他寫一個控制面板;幾秒鐘后,屏幕上出現了界面,左邊是實時畫面,右邊是控制按鈕。
他沒寫任何代碼,只是描述需求。
Codex 自己搭好了 Node.js(JavaScript 環境)邏輯,還主動識別出這臺攝像機用的是 Visca 協議(視頻控制標準),并自動生成完整通信接口。
接著,它又識別出現場的視覺風格,用 Figma 的橙藍配色把整個界面“裝修”了一遍;然后 Raman 又加了一句:「讓 Codex 用 React(網頁前端框架)改成滾動的開發者名單。」
幾秒鐘后,屏幕上的名字開始動了起來,全場都沸騰了。
所以,你說它在寫代碼嗎?算。更抽象的說,所見即所得的想法告訴它,嗯,它好像可以搞定,感覺在「操作世界」。
03
軟件世界地基搭建完了,輪到大腦登場了。第五部分部分,OpenAI把重點放在了模型與API層。
全新的GPT-5 Pro先上場。
模型的定位是一種「基礎設施升級」。它更像把過去一年所有 GPT 模型積累的能力重新打磨了一遍。
Sam 說,這一代 GPT-5 Pro 更像整個系統的「通用大腦」,從 ChatGPT 到 Apps SDK、再到 AgentKit 的底層邏輯,全靠它來支撐。
也就是,以后無論你是生成圖片、調用插件、還是和 Agent 對話,背后跑的,都是這套「主腦」系統。
我看完認為,OpenAI 在把「模型」這件事往后放,模型本身的重要性在降低,生態的承載力在上升,他們用前端應用、操作反哺模型能力的提升。
換句話說,應用層收集的數據和場景,反過來喂給模型,模型越來越懂世界。
不知道我說的夠不夠清晰?
第二個重磅更新,是 Sora 2 API。被我猜對了,這次正式開放了視頻生成的接口,開發者可以直接把 Sora 接進產品里。
你可以控制視頻的時長、分辨率、比例、聲音,甚至直接 Remix 已有視頻。
OpenAI 在現場演示了一個例子:
Mattel(美泰玩具)用 Sora 2 讓設計師從草圖就能生成 3D 可視化玩具概念,連光影、質感、動作都能一鍵生成。
我覺得,這次 Sora 2 的突破,是「產品的嗅覺」;它真正打通了「生成」和「現實」之間的那條縫隙,視頻里不只有虛擬角色,還能和真人一起出現、共演。
最后一個,是 GPT Real-Time Mini。
一個更小、更便宜的實時語音模型,用在 ChatGPT 的語音對話,也開放給第三方開發者。它的延遲低、音質高,最關鍵是成本降了 70%。
OpenAI 說,這個模型能更自然地捕捉情緒,語氣、節奏、甚至嘆息都能還原得非常人性化。
你要問這三個更新的邏輯是什么?智遠認為,GPT-5 Pro 是“大腦”,Sora 2 是“眼睛”,Real-Time Mini 是“嘴巴和耳朵”。
這一套組合下來,OpenAI 正在搭建一個完整的感知-表達-執行鏈路。到這里,整場 DevDay 才算真正落地成一件事:
ChatGPT 是一套操作系統,與人類、世界鏈接的系統。
04
所以,你有沒有發現,敘事都是邏輯自洽的,這一套模型、產品體系背后在展示一個「自洽閉環」:
- Apps SDK是入口,解決「應用怎么接進來」;AgentKit是執行,解決「智能怎么被造出來」;Codex是創造,解決「AI 如何動起來、寫出新世界」
- 模型與 API 層則是底層認知和感知的支撐,讓一切能理解、能表達、能學習。
四個模塊環環相扣,從「人到對話到Agent到模型到世界」形成完整鏈路。
以前軟件系統,靠「操作邏輯」組織起來;現在,OpenAI 想把整個軟件世界,重新組織成「智能邏輯」。
想想看:
Apps SDK 讓人類和世界通過一個入口互動;AgentKit 讓任務能在 AI 手中流轉;Codex 讓代碼和現實互通;而 GPT-5 Pro、Sora 2、Real-Time Mini,則成了它的思考力、視覺力和聽覺力。
這難道不是一種新的計算范式嗎?
對話成為操作系統,Agent 成為界面,模型成為世界的底層語言;ChatGPT 想把自己做成一個「軟件世界的新瀏覽器」。
智遠認為,表面上是場技術大會,實際上是一次「權力轉移」。
從「開發者控制應用」,變成「模型驅動開發」;從「人教 AI 干事」,變成「AI 教人做事」;從「App 間切換」,變成「統一在 ChatGPT 里完成」。
這場遷移意味著,軟件范式被重新定義:
未來,我們用一套「AI 操作系統」在替我們調用世界;數據在流動中成長,模型在調用中學習,應用在對話中繁衍,這,才是整個openAI DevDay 的底層敘事。
那么,從智遠視角來看,哪些地方值得深入挖掘一下呢?
我覺得是這樣。
第一,AgentKit。AI 工業化的開端;意義在于讓智能體的生產、調度、復用都有了標準接口。
過去一年,大家都在說「我要做個 Agent」。可問題是,做完之后誰來管?誰來監控它在跑什么?出錯了怎么辦?AgentKit 的出現,要把這些問題系統化。
換句話說,未來的企業內部,真的會出現一個新部門,叫 AgentOps(智能體運維),它負責配置、調度、監控所有 AI 工人。
第二點,Apps SDK。
表面上,Apps SDK 是幫開發者「接入 ChatGPT」,但本質上,它在改寫整個軟件世界的入口邏輯。
你想想看,用戶不再「打開 App」,用嘴說搞定一切,這意味著App 的「圖標邏輯」正在被「對話邏輯」替代。
這個變化的沖擊力,比 Sora 還大,因為它重新定義了「使用軟件」的動作。
對國內廠商來說,這是一場關于「入口」的戰爭,誰能把自己的產品嵌入AI對話體系,誰就可能拿到下一代流量入口。
至于Codex,意義是AI 的「物理接口」。
Codex 能自動識別設備協議,生成控制邏輯,這意味著任何能被網絡訪問的東西,都能被語言驅動。
聽起來有點科幻,但你想想:當 AI 能通過自然語言直接控制設備、API、機器人、云端系統時,我們就離「語言編程世界」不遠了。
從此之后,開發者寫代碼的意義也變了,可能會誕生一整套新的生態:AI 物聯網、AI 視頻制作、AI 自動化運維……
幾乎每個行業,都可能因為 Codex 的「操作能力」被重新定義。
要說模型的話,我認為從企業角度看,這個信號非常明確:別再追「最強模型」,要追「最有反饋的系統」;因為只有能不斷學習、不斷嵌入場景的模型,才有長期競爭力。
這整套系統在改寫人、AI、企業的分工邏輯;人類從「操作者」變成「意圖提供者」,AI 從「工具」變成「執行者」。
05
那這次 DevDay,對國內廠商有什么啟發呢?我只想說四句話,一,要有一個好故事。
Oppo AI 在做的事,百度、騰訊、阿里都在做,哪家沒有編程系統?哪家沒有模型?哪家沒有在談 Agent?
問題是,OpenAI 把這一切串聯起來,講成了一個邏輯自洽的故事。
它讓所有的產品和功能,圍繞一個統一的「敘事重心」展開:AI一套能自我進化的系統。這一點,國內廠商很少做到,產品有,戰略有,但故事碎了。
二,要意識到,OpenAI 的每一步都在強化「系統可調用性」。
無論是對話式 App 還是自動化 Agent,本質都是在打造一個「統一操作環境」。
國內很多廠商還停留在「造工具」的階段,但未來的用戶習慣是用語言對話;要想清楚,產品能不能被那句話喚起?能被喚起的,才叫生態的一部分。
第三點嗎?就是AgentKit。
目前看還早,不過,他提醒做企業服務的平臺,比如釘釘、飛書,AI會成為組織的一環,所以企業內部遲早會有一個新部門,叫 AgentOps。
這是從「自動化流程」到「智能運營系統」的轉型;問題是怎么設計呢?我不知道。
針對sora,最大啟發是,怎么把生成視頻工具的動作,變成內容生態的鏈接點。
最后,想提醒國內廠商:別再盯著 DevDay 的那些產品更新,要思考——如果今天有 ChatGPT 的體量,會怎么重構世界?
國內機會,是本地化重構,用中國產業密度、場景復雜度和 C 端生態優勢,去探索屬于中國的「AI 操作系統路徑」。
參考:
[1].OpenAI. OpenAI DevDay 2025: Opening Keynote with Sam Altman [EB/OL]. YouTube, 2025-10-06.https://www.youtube.com/watch?v=hS1YqcewH0c
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.