![]()
OpenAI宣布公司重組完成后,Sam Altman和OpenAI首席科學家Jakub Pachocki進行了1小時直播,首次公開了OAI內部對實現超級智能和全自動 AI 研究員的具體時間表。整個直播圍繞 OpenAI 的三大支柱——研究、產品和基礎設施——展開,信息量巨大
Sam直播核心內容速覽(純干貨版)
1.OpenAI 正在開發個人 AGI(明年可能會推出 AI 硬件設備)
2.OpenAI認為,深度學習可能在不到十年內將人類帶入超級智能時代
3.時間線展望:
- 2026年9月 → 實現 AI 自動化研究實習生。
- 2028年3月 → 實現全自動化的 AI 研究員。
- 2030年代 → 對世界的影響將無法預測Sam:“未來很可能是非常光明的。”他們對實現這一時間線抱著極其樂觀的態度
4.目前,在數據中心上的投資已達約1.4萬億美元,并計劃每周建造一座 1GW 的算力工廠——因此,之前sam提出的7萬億美元芯片計劃似乎不再是遙不可及
5.OpenAI 的內部模型目前尚未遠超已發布的版本,但他們對在2026年9月前實現重大飛躍非常樂觀,到2026年9月,我們極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展
6.模型的使用成本已平均下降了40倍,并且預計這一趨勢將持續下去(約每年下降40倍)
7.關于 AGI:“AGI 何時能實現?” Jakub 和 Sam 回答:這將是一個持續數年的過程,而我們正身處其中。但 Sam 特別指出了2028年這個節點,屆時科學研究將完全由 AI 自動化,AI 系統將能夠推動科學前沿的發展,這將是 AI 留給世界的遺產
8.未來幾年,人類勞動的自動化程度將顯著提高,我們可能面臨大規模失業
9.關于 GPT-6:沒有具體發布日期,但他們希望未來能更頻繁地更新模型
,模型能力在不到6個月內就會有巨大飛躍。
以下是這次1小時直播詳細信息
![]()
OpenAI 的愿景與三大支柱
Sam Altman 首先重申了 OpenAI 的核心使命,即確保AGI能夠惠及全人類。隨著技術的進步,OpenAI 對如何實現這一使命的理解也發生了深刻的演變
愿景的轉變:在早期,OpenAI 曾設想 AGI 可能是一種如“神諭”般的存在,能為人類創造出各種奇妙事物。而現在,他們的看法變得更加清晰和務實:OpenAI 的目標是創造強大的 AI 工具,然后將這些工具交到人們手中,讓人們用它們來塑造和創造未來。這是一種賦能于人的理念,相信人類利用更先進的工具不斷創造更美好事物的歷史進程將會延續
個人化 AGI 的愿景:OpenAI 現在可以看到一個清晰的未來,即幫助構建一個個人化的 AGI。這個 AGI 可以被人們在任何地方使用,接入各種不同的服務和系統,從而在工作和個人生活中提供幫助。隨著 AI 能力的增強,甚至可以幫助發現新的科學知識,人們利用這種力量所能創造的價值將是不可估量的,不僅能改善整個社會,也能讓個人生活更加充實
為了實現這一宏大愿景,OpenAI 的工作圍繞三大核心支柱展開:
![]()
1.研究(Research):必須在基礎研究上取得成功,以構建出真正的 AGI
2.產品(Product):必須打造一個強大且易于使用的平臺,讓 AI 的能力可以被廣泛應用
3.基礎設施(Infrastructure):必須建設足夠龐大的基礎設施,以確保人們能夠以低廉的成本,盡情使用他們所需要的強大 AI
Sam Altman 用一個簡單的層級圖描繪了 OpenAI 的世界觀:
![]()
底層:是硬件基礎,包括芯片(chips)、機架(racks)、系統、數據中心以及能源
中間層:在硬件之上訓練模型,并構建 OpenAI 賬戶體系
應用層:推出了名為 Atlas 的瀏覽器,并計劃在未來幾年內推出硬件設備,讓 AI 無處不在。同時,OpenAI 會開發一些第一方應用,如 ChatGPT。
生態系統:最讓 OpenAI 感到興奮的是一個龐大的生態系統。他們預見到,人們將能夠利用 OpenAI 的 API、ChatGPT 內的應用、新的企業平臺以及 OpenAI 賬戶,構建出令人難以置信的服務。這個生態系統將把現實世界中的一切,以及更多未來的事物,都融入到這個全新的 AI 世界中。OpenAI 的角色是成為這個生態的賦能者
通往超級智能的研究路線圖:Research
首席科學家 Jakub Pachocki 深入闡述了 OpenAI 的研究目標,其核心聚焦于深度學習技術,特別是規模化訓練所帶來的影響,分享了 OpenAI 內部為之制定的體研究時間表
超級智能的臨近:Jakub 指出,AGI這個詞甚至可能低估了技術進步的潛在規模。OpenAI 內部相信,深度學習系統距離實現超級智能(super intelligence)——即在眾多關鍵維度上比所有人類都更聰明的系統——可能已不足十年。這是一個需要嚴肅對待的預測,其背后蘊含著巨大的影響
![]()
核心目標:加速科學發現:OpenAI 的整個研究計劃都圍繞一個核心潛力展開:加速科學發現和新技術的發展。他們認為,這將是 AI 發展最深遠的長期影響,它將從根本上改變人類技術進步的速度
衡量進展的標尺:任務時間跨度:一個衡量模型能力進展的有效方式是看模型完成一項任務所需的時間,與人類專家所需的時間對比。這個“任務時間跨度”在過去幾年里迅速延長
當前一代模型的水平大約在 5 小時左右。這可以從模型在國際數學或信息學奧林匹克競賽中與頂尖人類選手的表現相媲美中看出
![]()
OpenAI 相信這個時間跨度將繼續快速延伸。這不僅源于算法創新,也來自于進一步的規模化訓練,尤其是在“上下文計算”(in-context compute)或“測試時計算”(test-time compute)的新維度上。這個維度可以理解為模型用于“思考”的時間,還有巨大的提升空間。對于科學突破這類重要問題,使用整個數據中心的算力來思考是完全合理的
公開內部研究目標:基于對未來進展的預期,Jakub 公開了 OpenAI 為實現這些強大系統而設定的內部目標和時間線。他強調,這些預測可能會被證明是錯誤的,但這是 OpenAI 目前規劃工作的方式
AI 研究實習生(AI research interns):目標是在明年九月之前,開發出能力足夠強的 AI 研究實習生。這些 AI 能夠通過消耗大量計算資源,有意義地加速 OpenAI 內部研究人員的工作
全自動 AI 研究員(fully automated AI researcher):更長遠的目標是,在 2028 年 3 月之前,開發出一個能夠自主完成大型研究項目、實現完全自動化的 AI 研究員
![]()
AI 安全與價值對齊的五層框架
隨著系統能力向著超級智能邁進,安全與對齊(safety and alignment)問題變得至關重要。Jakub 解釋說,OpenAI 的許多工作,無論是關于模型部署、安全研究,還是對技術發展路線的理解,都可以看作是為這些超強能力的模型做準備。他提出了一個將安全問題結構化的五層框架,從模型最核心的內部因素延伸到最外部的系統保障
![]()
價值對齊(Value Alignment):這是最核心、也是最重要的長期安全問題。它關乎 AI 最根本的“關心”的是什么。它能否遵循一些高層次的原則?當面對不清晰或相互沖突的目標時它會怎么做?它是否對人類懷有善意?之所以如此重要,是因為當系統變得極其聰明、思考時間極長、處理的問題超越人類能力極限時,給出完全無懈可-擊的指令會變得異常困難。因此,必須依賴于這種更深層次的對齊
目標對齊(Goal Alignment):這一層關注 AI 如何與人互動,以及它遵循指令的表現如何
可靠性(Reliability):AI 能否準確地校準其預測?它能否在簡單的任務上保持可靠,在困難的任務上表達不確定性?它能否處理稍微陌生的環境?
對抗性魯棒性(Adversarial Robustness):與可靠性相關,但更側重于對抗性環境。AI 能否抵御來自人類或其它 AI 對手的蓄意攻擊?
系統性安全(Systemic Safety):這是最外層的保障,不依賴于 AI 本身的智能或對齊程度。它包括系統的安全性(security)、AI 可以訪問哪些數據、可以使用哪些設備等外部限制
技術深潛:思維鏈忠實度(Chain of Thought Faithfulness):Jakub 特別介紹了一項 OpenAI 重點投入的研究方向,它被視為研究價值對齊問題的一個很有前途的新工具
![]()
核心理念:這項可解釋性技術的核心思想是,在訓練過程中,刻意讓模型內部推理的某些部分(即“思維鏈”)不受監督。OpenAI 克制住不去引導模型產生好的想法,從而讓這部分推理過程能夠更忠實地反映模型真實的所思所想
樂觀的理由:雖然這并不能從數學上被證明一定有效,但有兩個理由讓人保持樂觀。首先,經驗性的結果非常理想,OpenAI 內部大量使用該技術來理解模型訓練過程中的演變,并與外部合作者成功地用它來研究模型的欺騙傾向。其次,它是可擴展的,其設計目標不會與監控模型的能力產生對抗
技術的脆弱性:思維鏈忠實度技術是脆弱的,它要求在算法和產品設計中劃定清晰的界限。例如,ChatGPT 中對思維鏈進行總結的功能,就是為了避免將完整的思維鏈直接暴露給用戶。如果思維鏈完全可見,它就會成為用戶體驗的一部分,久而久之就很難再對其保持無監督狀態。通過為模型保留這種受控的隱私,OpenAI 希望能長期保持理解其內部運作過程的能力,這是為closeAI辯護?
從產品到平臺,構建一個 AI 云:Product
Sam Altman 闡述 OpenAI 在產品層面的戰略演進。隨著深度學習技術的驚人進展,OpenAI 的目標是將其轉化為人們創造未來的實用工具
從助手到平臺:過去,OpenAI 的產品形態主要是以 ChatGPT 為代表的 AI 超級助手。現在,他們正朝著一個更宏大的目標演進——成為一個平臺,一個其他人可以在其上構建應用和服務的“AI 云”。他們的目標是讓技術不僅僅局限于 OpenAI 創造的服務中,而是盡可能多地暴露給全世界的開發者,讓他們去創造人們所依賴、使用和創造的一切
平臺成功的標準:Sam 引用了比爾·蓋茨的一個觀點來定義平臺的成功:當你構建了一個平臺,如果其他人基于這個平臺創造的價值,超過了平臺構建者自身創造的價值,那么你就成功了。這正是 OpenAI 在明年的目標。他們相信,憑借現有的技術、用戶基礎和框架,他們能夠推動全世界在 OpenAI 平臺上創建出驚人的新公司、服務和應用
為了實現這一平臺化轉型,Sam 強調了兩個基礎性的原則:
用戶自由(User Freedom):如果 OpenAI 要成為一個供全世界不同人群構建、使用和創造的平臺,就必須承認人們有截然不同的需求和愿望。雖然會有一些非常寬泛的邊界,但 OpenAI 希望用戶在使用 AI 時擁有大量的控制權和定制化能力,OpenAI 希望像對待成年人一樣對待其成年用戶
隱私(Privacy):隨著 AI 成為基礎平臺,世界需要以一種不同于以往技術的方式來思考隱私問題。人們與 AI 互動的方式非常私密,他們會像對醫生、律師或配偶一樣與之交談,分享生活中最隱秘的細節
萬億級的基建藍圖:Infrastructure
為了支撐雄心勃勃的研究和產品目標,基礎設施的建設是不可或缺的一環。Sam Altman 在這一部分以前所未有的透明度,公開了 OpenAI 龐大的基礎設施建設計劃和投入
當前的承諾:
截至目前,OpenAI 已承諾建設總計超過 30 吉瓦(gigawatts) 的基礎設施
這對應著未來數年內總計 1.4 萬億美元投資
這只是基于 OpenAI 目前對收入增長、融資能力的評估而做出的承諾,他們希望未來能做得更多
要實現這一目標,需要大量的合作伙伴。Sam 提及了 AMD、Broadcom、Google、微軟(Microsoft)、英偉達(NVIDIA)、甲骨文(Oracle)、軟銀(Softbank)等眾多芯片、數據中心、能源和制造領域的合作伙伴
![]()
未來的愿景:
Sam 強調,以下計劃目前尚未承諾,但正在積極討論中:
他們的愿景是建立一個基礎設施工廠(infrastructure factory),能夠以每周一吉瓦的速度創造算力
同時,他們希望將成本大幅降低,目標是在設備的 5 年生命周期內,將每吉瓦的成本降至約200 億美元
實現這一愿景需要海量的創新、更深入的合作、巨大的收入增長,甚至需要重新調整 OpenAI 在機器人領域的思路,讓機器人來幫助建設數據中心
全新的公司架構
為了支持上述宏大的計劃,并確保公司始終服務于其核心使命,OpenAI 對其公司架構進行了重大調整,使其變得更加清晰和簡化。
簡化后的結構:
OpenAI 基金會(OpenAI Foundation):這是一個非營利組織,處于整個結構的頂端,擁有對公司的最終控制權。董事會隸屬于基金會
OpenAI 集團(OpenAI Group):這是一個公共利益公司(Public Benefit Corporation, PBC),位于基金會之下
![]()
各部分的角色與關系:
基金會:基金會將掌控 PBC,最初持有其約 26% 的股權,如果公司表現出色,這一比例未來還可能增加。基金會的目標是成為有史以來最大的非營利組織,它將利用其資源來追求 AI 能帶來的最大化社會福祉,首要關注領域將是科學
PBC:OpenAI 集團將更像一家普通公司一樣運作,以便能夠吸引研究所需的龐大資源,特別是用于前述的基礎設施建設。盡管如此,它依然受到與基金會相同的使命約束,尤其是在安全問題上,必須以使命為唯一準則
基金會的初步焦點:治愈疾病與 AI 韌性
在新架構下,OpenAI 基金會公布了其最初的兩個重點投入方向。聯合創始人 Wojciech Zaremba 詳細解釋了其中“AI 韌性”的概念
![]()
250 億美元用于治愈疾病:基金會的首個重大承諾是投入 250 億美元,利用 AI 來幫助治愈疾病。這筆資金將用于多種方式,包括生成數據、提供大量計算資源、資助科學家等
AI 韌性(AI Resilience):這是一個比傳統AI 安全更廣泛的概念
理念:Wojciech 解釋說,先進 AI 的到來必然伴隨著風險和顛覆。AI 韌性的目標是建立一個由眾多組織構成的生態系統,共同幫助解決這些問題
用網絡安全行業的發展來類比。互聯網早期,人們不敢在線輸入信用卡號。而現在,一個龐大的網絡安全產業保護著關鍵基礎設施、政府、企業和個人用戶,使得人們愿意將最私密的數據和畢生積蓄都放在線上。同樣,AI 領域也需要一個類似的“AI 韌性層”,而 OpenAI 基金會將幫助催生和建立這樣一個生態系統。
舉例說明:以生物風險為例。傳統的安全措施是在模型層面阻止與病毒學相關的查詢。但“韌性”則考慮得更遠:即使 OpenAI 阻止了,也無法保證其他模型不會被利用。因此,韌性不僅包括預防,還包括建立快速響應機制,以便在問題發生時能有效應對
問答環節精選
在分享的最后,Sam 和 Jakub 進行了一場公開問答,回答了用戶最關心的一些問題
關于模型、用戶自由與內容政策:
GPT-4o 的未來:許多用戶表達了對 GPT-4o的喜愛。Sam 表示,目前沒有計劃下線 GPT-4o,但他們也希望用戶理解,該模型對于心智不成熟的未成年人存在潛在風險。未來的目標是構建更好的模型,讓用戶自然過渡
成人模式與用戶自由:對于“成人模式”(adult mode)何時上線、用戶能否掌控模型路由等問題,Sam 多次重申了“像對待成年人一樣對待成年用戶”的原則。他承認之前在模型路由上的處理方式并非最佳,并承諾隨著年齡驗證等機制的完善,將給予成年用戶更大的自由度和靈活性,尤其是在創作等領域,會大幅放寬限制,這個明顯是學馬斯克
情感連接:對于用戶與 AI 建立情感紐帶,OpenAI 持開放和支持態度。他們為 AI 能給人們帶來情感支持和幫助而深受感動,并認為這非常有價值。他們的底線是,模型必須忠實地告知用戶其本質(它是一個 AI),不能欺騙用戶,同時避免對精神狀態脆弱的用戶造成傷害。
關于 AGI、模型能力與時間表:
AGI 何時到來?Jakub 認為 AGI 的到來會是一個持續數年的過渡過程,而不是一個單一的時間點。現在可能就處在這個過渡期中。與其糾結于 AGI 的定義,不如關注更具體的目標,比如在 2028 年 3 月實現全自動 AI 研究員
內部模型領先多少?他們表示,并沒雪藏某個極其強大的模型。但他們有許多已經開發出的技術組件,當這些組件組合在一起時,將帶來巨大的能力飛躍。他們對未來幾個月到一年內的進展抱有很高的期望
GPT-6 何時發布?他們沒有給出具體時間,但表示產品發布的節奏將不再與研究計劃嚴格綁定。例如 GPT-5 首次將推理模型作為旗艦產品推出,這本身就是一個重大的集成性工作。但可以確定的是,未來六個月內(甚至更早)模型能力將有巨大飛躍
關于公司戰略與社會影響:
IPO 計劃:Sam 表示,考慮到公司巨大的資本需求,IPO是最有可能的路徑,但目前并非首要議程
商業模式:要支撐 1.4 萬億美元的投資,公司年收入最終需要達到數千億美元。他預計企業服務和消費者業務都將是巨大的收入來源,后者將不僅限于訂閱,還包括新產品、設備等
AI 導致的失業:Jakub 認為,當前模型在原始智力上可能已經能夠勝任許多知識性工作,瓶頸更多在于集成和接口。因此,未來幾年內大量工作的自動化是必然趨勢,社會需要思考哪些新工作將取而代之
想象力的優化:有用戶擔心 AI 會讓人的想象力成為優化的犧牲品。Jakub 承認,不同模型之間確實存在權衡,但這是技術發展過程中的暫時現象。Sam 則認為,雖然存在人們說話像 ChatGPT 的現象,但長期來看,AI 將極大地拓展人類的創造力和思維廣度
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.