![]()
新智元報道
編輯:KingHZ Aeneas
【新智元導讀】奧特曼攤牌了:OpenAI正式簽約五角大樓,合同金額僅幾百萬美元,跟200多億的年度營收相比不值一提!另外,OpenAI的模型或用于無人機蜂群試驗。
就在剛剛,奧特曼攤牌了:我們已經簽約五角大樓,而且營收超過200億。
![]()
一夜之間,OpenAI被千夫所指,全網掀起ChatGPT卸載潮!
昨日,奧特曼宣布與美國國防部(現更名為Department of War,即戰爭部,DoW)達成合作。
![]()
Anthropic拒絕AI用于大范圍數字監控和自動化武器,而OpenAI落井下石,火速接手類似合同。
對比之下,OpenAI相當無恥,美國自發掀起卸載/取消ChatGPT運動,聲勢浩大,人聲鼎沸!
![]()
![]()
OpenAI先是公布合作詳情,試圖挽回口碑,奈何民意洶涌,奧特曼等OpenAI高管在線實時回答相關問題,6百多萬網友圍觀:
![]()
不是OpenAI員工都認同這項合作,而是奧特曼等人太吃相難看、太著急,奧特曼坦言:「不知道如何收場。」
![]()
他們自以為聰明,卻親手打開了潘多拉魔盒,讓AI從人類的助手,變成戰爭的利器。
但是這么做的,當然不止OpenAI一家。
內憂外患,OpenAI員工揭老底
而Anthropic被特朗普封殺后,立即博得了公眾的同情和支持,其中不乏OpenAI、谷歌等AI巨頭的AI研究員。
為了打消內外質疑,OpenAI相關高管辯稱:
(OpenAI與美國國防部的交易金額)也就幾百萬美元,與我們200多億美元的年收入相比微不足道,絕對不值得為此引發公關風波。
我們這樣做是因為這對國家是正確的選擇,為此我們自身承擔了巨大的代價,絕不是為了收入。
![]()
這次,OpenAI似乎是撿了芝麻,丟了西瓜,完全得不償失!
實際上,不少人認為這是OpenAI向白宮的「投名狀」:
被選中美國政府的戰略價值遠超合同上任何金額數字。 幾百萬美元就能讓你在萬億美元IPO前夕,拿下「美國AI公司」的頭銜。
通過這項和國防部的合同,OpenAI根本目的是想和美國政府深度綁定在一起,從而獲得潛在的優勢和利益!
![]()
這不是OpenAI為了利益第一次妥協。
一些OpenAI員工早已看穿本質——他們用腳投票,離開了OpenAI。
這不只是情緒,而是價值觀投票。
19歲天才員工憤然離職
當初,他滿懷理想加OpenAI,不是為了制造武器,是因為相信OpenAI正在致力于開發能夠造福全人類的AI——
而不是在Anthropic因堅守原則被列入黑名單后,趁火打劫,成為那個接替他們的「軍火承包商」。
![]()
而且情況比他想的還要糟糕:
OpenAI允許國防部使用他們的模型用于「所有合法目的」。
「合法」是底線,不是良心。良心需要更高的門檻。
于是,這次他徹底破防,夢想破滅:
奧特曼說安全保障是真實的。
或許吧。但我親眼見證過這個行業一次又一次地做出承諾。
他見過「我們絕不會」變成「在特定情況下」,再變成「政府已原則上同意」。
「絕不研發自主武器。」「絕不參與國內監控。」——
這些也曾是Anthropic堅守的紅線,而他們恰恰因為堅持這些底線,被貼上了「國家安全風險」的標簽。
而OpenAI的AI模型被部署到機密的軍事網絡,而那些機密網絡最終會被用來做什么,難以知曉:「我不知道,你不知道。奧特曼也不知道。」
這種不確定性正是關鍵所在,而19歲的他無法對此心安理得,希望把未來的時間花在一個不需要去探尋這些可怕答案的地方。
![]()
所以,他接受了Anthropic的職位。
![]()
這意味著什么,他很清楚:
Anthropic現在被拉黑、陷入訴訟,還在與一個稱他們為「左翼瘋子」的政府對抗,只因他們堅信人類應掌控武器。
這正是他加入Anthropic的原因。
有些事情比合同更重要。
OpenAI前員工揭秘
加州大學伯克利分校伯克利風險與安全實驗室人AI方向高級研究學者Sarah Shoker,曾任OpenAI地緣政治團隊負責人,從OpenAI政策團隊內部的一手消息,提供了高價值觀察。
![]()
在OpenAI的地緣政治團隊工作了約三年后,她轉至另外兩個團隊,最終于2025年6月決定離開。
作為一名研究人員,她經常被要求對軍事使用政策提供「反饋意見」。
在過去的五年里,她目睹了OpenAI數次更新使用政策。
2021年,她剛加入公司時,OpenAI全面禁止AI的軍事用途。
這一禁令在2024年發生了變化。但新規的措辭,「說得客氣點,是含糊其辭、避重就輕。」
這次她要追問的很簡單:OpenAI請不要含糊其辭,從而敷衍大家和員工。
![]()
我們直接來看彭博社最近的報道,該報道揭露OpenAI的模型正被用于無人機蜂群試驗。
![]()
2月12日,OpenAI的一位發言人告訴彭博社,在國防創新單元和國防自主作戰小組用于構建無人機蜂群的試驗中,他們使用開源模型,需要遵守公司的使用政策。
事實證明,這項使用政策可以有多種解讀,取決于你相信在殺傷鏈中使用AI語音轉數字工具是否等同于幫助制造武器,或者你是否相信一個AI模型可以與其更大的武器系統分開對待。
作為公眾,我們該從這樣的保證中得出什么結論?
公眾需要擦亮眼睛,仔細審視前沿AI公司發布的公開信息。
一個快速的方法是,當公司辯稱其技術不用于「進攻性」或「動能」目的時,要格外注意。
2018年,谷歌在圍繞智能無人機Project Maven合同時,就玩過類似的公關把戲。
![]()
Project Maven能夠通過從無人機和衛星傳感器收集數據來識別對手
當時,谷歌聲稱其目標檢測軟件是「非進攻性的」。
![]()
一種解讀是,這是為了平息員工和公眾的批評。
另一種解讀是,這是對人類與機器在戰爭中協同作戰的分布式權力特征的嚴重誤解。
它們被稱為自主武器系統。AI武器系統中,AI成分最少的部分恰恰是扳機本身。
而現在,OpenAI已經接受了戰爭部要求的「為所有合法目的」這一措辭,而美軍已動用Claude空襲!
這一切中最大的輸家是普通民眾和沖突地區的平民。
參考資料:
https://x.com/sama/status/2027911640256286973
https://x.com/1PotatoDog/status/2027977054424072482
https://sarahshoker.substack.com/p/a-few-observations-on-ai-companies
https://x.com/SarahShoker/status/2027975822704054544
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.