![]()
新智元報道
編輯:元宇
【新智元導讀】奧特曼掏出「400萬+股權」招人,不是來卷模型智商,而是給OpenAI買一份「AI失控險」——一上崗就下深水、當救火隊長。
奧特曼開價400萬,要為OpenAI買一份「安全保險」!
近日,奧特曼發帖要為OpenAI招募一位「準備工作負責人(Head of Preparedness)」。
55.5萬美元年薪,外加股權,換算成人民幣大約400萬起步。
![]()
在硅谷,「55.5萬美元基礎年薪+股權」,屬于極少見的高底薪高管崗,底薪越高,往往意味著崗位稀缺、責任邊界更大。
雖然OpenAI并未公開股權規模,該崗位薪酬總包可能達到百萬美元級別。
與高薪相對應的是極富挑戰性的工作內容。
奧特曼為這個崗位的定調就是「充滿壓力」「要立刻下深水」:
這會是一份壓力很大的工作,而且你幾乎一上來就要跳進深水區。
關鍵時刻的關鍵角色
這份工作更像是一個「救火隊長」,甚至可以稱為「末日主管」。
不是為了把模型做得更聰明,而是要為不斷變強的模型套上「安全圍欄」,管控好隨之而來的風險。
用奧特曼的話說,這是一個「關鍵時刻的關鍵角色」,模型正在飛快變強,能做出很多很棒的事,但也開始帶來「真實的挑戰」。
他在招聘帖子中特別點名了兩件事,這是在過去的一年中發現的:
模型對心理健康的潛在影響;
模型在計算機安全上強到一個新階段,已經開始能發現「高危漏洞」。
奧特曼強調,我們在衡量能力增長方面已經有了很扎實的基礎,但接下來的挑戰是如何防止這些能力被濫用,如何在產品里、以及在現實世界里把這些壞處壓到最低,同時還能讓大家繼續享受它帶來的巨大好處。
他認為這是一個巨大的難題而且幾乎沒有先例,是一個需要「更精細理解和更細致度量的世界」。
許多聽起來很不錯的想法,落到現實里都會遇到一些棘手的例外和邊界情況。
因此,新招募的這位「準備工作負責人」的職責,就是要解決在模型能力持續發展和應用不擴大的前提下,去設定一道安全防線:
如何用最前沿的能力去武裝網絡安全防守方,同時確保攻擊者沒法拿來作惡。
奧特曼也為這份工作定下了目標:
最理想的情況,是通過讓所有系統都變得更安全來實現,比如更安全地發布在生物領域的AI能力,以及提升自我改進的系統能夠更安全地運行的信心。
模型變強
風險也更加「硬核」
過去我們談AI風險,常常像在發布天氣預報:可能下雨,最好帶傘。
隨著大模型能力的提升,以及技術的快速滲透,當前的AI風險更像是到了烏云壓城的關頭:雨已經落下來了,而且風向還在變。
一方面是模型更強了。
奧特曼提到一個標志性變化:
模型在計算機安全方面進入新階段,「開始能發現關鍵漏洞」。
這句話細思極恐——當模型能替你找漏洞,它同樣可能替別人找漏洞。
正所謂道高一尺,魔高一丈。
另一方面,模型技術的普及也帶來了更多「硬風險」,這在2025年已經看到一些苗頭。
比如,模型對心理健康的潛在影響。
進入2025年我們也看到了許多關于「AI精神病」的報道:
有人把與機器人聊天當作心理治療的替代方案,而在某些情況下,這會加劇心理健康問題,助長妄想等令人擔憂的行為。
今年10月,OpenAI也曾表示正與心理健康專業人士合作,改善ChatGPT對出現精神錯亂或自殘等令人擔憂行為的用戶的互動方式。
不止心理健康,還有報道指出ChatGPT在法律文件中產生幻覺,引發大量投訴。
此外,還有ChatGPT、Sora等應用產品上線后帶來的一系列諸如深度偽造以及社會倫理等方面的挑戰。
![]()
比如Sora曾在2025年10月因用戶生成「不尊重」內容而暫停/封禁對馬丁·路德·金相關視頻的生成,并同步加強歷史人物肖像相關的護欄與退出機制。
因此,奧特曼要求這份工作,要把安全從能力評估、威脅建模、緩解措施做成一條可落地的鏈條,形成一個「連貫、嚴謹且可操作、可擴展的安全流程」。
填補「安全空心化」的焦慮
這次招聘,更像是對OpenAI安全團隊的緊急補位與強化。
OpenAI的核心使命是以造福全人類的方式開發人工智能,從一開始它就將安全協議 (safety protocols) 作為其運營的核心部分。
然而,一些前員工表示,隨著OpenAI開始發布產品以及盈利壓力的增加,該公司開始將利潤置于安全之上。
一個標志性事件,就是「超級對齊」(superalignment)團隊的解散。
![]()
2024年5月,OpenAI「超級對齊」團隊解散,該團隊工作將被并入/吸收進其他研究工作。
![]()
超級對齊團隊的兩位共同負責人Ilya Sutskever、Jan Leike也相繼離開,其中Leike在離職時還尖銳地批評了公司,公司已經迷失了確保技術安全部署的使命:
「構建比人類更聰明的機器本身就是一項危險的嘗試……但在過去幾年里,安全文化和流程已經讓位于光鮮亮麗的產品」。
Leike表示OpenAI未能投入足夠的計算資源來研究如何引導和控制那些遠比我們聰明的人工智能系統。
另外一名前員工Daniel Kokotajlo也表示他辭職是因為他「對公司在通用人工智能 (AGI) 出現時能否負責任地行事逐漸失去信心」。
![]()
當時奧特曼就Leike的發帖回復,認為他說的對:「我們還有很多事情要做;我們承諾會去做」。
OpenAI聯合創始人兼總裁Greg Brockman也聲稱公司愿意因安全問題推遲產品發布:
「首次弄清楚如何讓一項新技術變得安全并非易事,我們既相信要實現巨大的潛在收益,也致力于努力降低重大風險」。
在超級對齊團隊解散大概兩個月后,7月AI安全負責人Aleksander Madry被調崗。
![]()
OpenAI原AI安全負責人Aleksander Madry
10月23日,OpenAI長期政策研究人員、AGI readiness團隊高級顧問Miles Brundage離開OpenAI。
隨著Brundage離開,AGI readiness的子團隊economic research division將轉到新任首席經濟學家 Ronnie Chatterji之下,其余部分則分散到其他部門。
Kokotajlo曾表示,「OpenAI最初約有30人研究與通用人工智能 (AGI) 相關的安全問題,一系列的離職使得這一人數減少了近一半」。
安全團隊的負責人及員工離職、調崗,項目被不斷分拆、重組,由此帶來的「安全空心化」焦慮,正是這次奧特曼高調招聘的大背景。
當「前沿模型」的能力逼近更高邊界時,谷歌、Anthropic、OpenAI、xAI等大模型廠商在AI軍備競賽中,都要解決同一個問題:怎么在加速中不失控?
而此次招募的「準備工作負責人」的工作,則是要把不斷變強的模型,在現實使用場景中轉化為一個能評估、能落地、能迭代的「可執行的安全管線」。
當AI競賽進入緊要關頭,能夠守住安全底線才是不敗的關鍵。
參考資料:
https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.