![]()
(來源:麻省理工科技評論)
2 月 28 日,OpenAI 宣布與美國軍方達成協(xié)議,允許后者在涉密環(huán)境中使用其技術(shù)。首席執(zhí)行官山姆·奧特曼(Sam Altman)表示,相關(guān)談判是在五角大樓公開批評 Anthropic 之后才開始推進的,整個過程“確實很倉促”。
在公開聲明中,OpenAI 費盡筆墨強調(diào),公司并未向五角大樓讓步、允許其隨意使用自家技術(shù)。該公司發(fā)布博客文章,解釋說明協(xié)議中明確禁止將其技術(shù)用于自主武器和國內(nèi)大規(guī)模監(jiān)控,奧特曼也表示,公司并非簡單接受了 Anthropic 所拒絕的同等條款。
從表面上看,你或許會認為 OpenAI 既拿下了合同,又占據(jù)了道德制高點。但細讀字里行間和法律措辭,另一番圖景便浮現(xiàn)出來:Anthropic 走的是道德路線,贏得了眾多支持者,但最終失敗;OpenAI 走的是務(wù)實的法律路線,對五角大樓的約束實際上更為寬松
目前尚不清楚,在軍方于空襲伊朗期間急于推出一份政治化 AI 戰(zhàn)略之際,OpenAI 能否真正落實其承諾的安全預(yù)防措施,也不清楚這份協(xié)議能否令那些希望公司采取更強硬立場的員工滿意。在這條鋼絲上行走,將會格外艱難。(OpenAI 未就其協(xié)議的補充信息請求立即作出回應(yīng)。)
問題也藏在細節(jié)之中。奧特曼表示,OpenAI 能夠在 Anthropic 折戟之處達成協(xié)議,原因與邊界劃定關(guān)系不大,關(guān)鍵在于方法的差異。“Anthropic 似乎更專注于在合同中設(shè)定具體禁止條款,而我們更傾向于援引適用法律,這讓我們感到更為自在。”他寫道。
OpenAI 表示,愿意與五角大樓合作的依據(jù)之一,僅僅是基于政府不會違法這一假設(shè)。該公司公開了合同的有限摘錄,其中援引了若干與自主武器和監(jiān)控相關(guān)的法律法規(guī),具體到五角大樓 2023 年發(fā)布的自主武器指令(該指令并未禁止自主武器,而是就其設(shè)計和測試發(fā)布了指導(dǎo)方針),宏觀到美國憲法第四修正案(該修正案為美國公民提供了反對大規(guī)模監(jiān)控的保護)。
然而,喬治華盛頓大學(xué)法學(xué)院政府采購法研究副院長杰西卡·蒂利普曼(Jessica Tillipman)寫道,公開的合同摘錄“并未賦予 OpenAI 像 Anthropic 那樣獨立禁止合法政府行為的權(quán)利”。它僅僅規(guī)定,五角大樓不得利用 OpenAI 的技術(shù)違反這些現(xiàn)行法律法規(guī)。
Anthropic 在這場博弈中贏得眾多支持者(包括 OpenAI 的部分員工)的根本原因,在于這些人認為現(xiàn)有規(guī)則遠遠不足以阻止 AI 賦能的自主武器或大規(guī)模監(jiān)控的出現(xiàn)。而以聯(lián)邦機構(gòu)不會違法作為保證,對于那些還記得愛德華·斯諾登(Edward Snowden)所揭露的監(jiān)控行為的人來說,幾乎毫無說服力——那些監(jiān)控行為曾被內(nèi)部機構(gòu)認定為合法,直到經(jīng)歷了漫長的法律斗爭才被裁定違法(更遑論當(dāng)前法律框架下允許的、AI 可能進一步擴展的眾多監(jiān)控手段)。在這一層面上,我們本質(zhì)上回到了原點:允許五角大樓將 AI 用于任何合法目的。
OpenAI 的國家安全合作負責(zé)人昨天寫道:如果你認為政府不會遵守法律,那么你同樣不應(yīng)該相信它會尊重 Anthropic 所提出的紅線。但這并不是反對設(shè)定紅線的理由。執(zhí)行不力并不意味著約束毫無意義,合同條款仍然會影響行為、監(jiān)督機制和政治后果。
OpenAI 還聲稱其擁有第二道防線。該公司表示,將繼續(xù)掌控模型安全規(guī)則的制定權(quán),不會向軍方提供剝離了安全控制功能的 AI 版本。“我們可以將我們的紅線——禁止大規(guī)模監(jiān)控、禁止在沒有人類介入的情況下指揮武器系統(tǒng)——直接嵌入模型行為之中,”奧特曼委托就此事發(fā)言的 OpenAI 員工博阿茲·巴拉克(Boaz Barak)在 X 上寫道。
然而,該公司并未具體說明其針對軍方的安全規(guī)則與面向普通用戶的規(guī)則有何不同。執(zhí)行層面的漏洞從來難以避免,而當(dāng) OpenAI 首次在涉密環(huán)境中部署這些保護措施,并被要求在短短六個月內(nèi)完成時,執(zhí)行漏洞尤其難以杜絕。
這一切之下還有另一個問題:科技公司是否應(yīng)該主動禁止那些合法、但在道德上引起反感的行為?政府顯然認為 Anthropic 拒絕扮演這一角色。美國對伊朗發(fā)動空襲前八小時的周五晚間,國防部長皮特·赫格塞斯(Pete Hegseth)在 X 上發(fā)表措辭強烈的批評。“Anthropic 上演了一堂傲慢與背叛的大師課,”他寫道,并響應(yīng)特朗普總統(tǒng)的命令,宣布政府停止與 Anthropic 合作——此前 Anthropic 試圖阻止其模型 Claude 被用于自主武器或國內(nèi)大規(guī)模監(jiān)控。“戰(zhàn)爭部必須為每一項合法目的,擁有對 Anthropic 模型完整、不受限制的訪問權(quán),”赫格塞斯寫道。
除非 OpenAI 的完整合同能揭示更多內(nèi)容,否則這家公司的立場很難不被解讀為:一方面承諾自己確實掌握籌碼,并將自豪地運用這些籌碼去做它認為正確的事,另一方面又將法律作為限制五角大樓使用其技術(shù)的主要底線。
而這兩者之間,正構(gòu)成一種搖擺不定的意識形態(tài)平衡。
以下三個方面值得持續(xù)關(guān)注:
其一,這一立場能否令 OpenAI 內(nèi)部最具批判性的員工接受。隨著 AI 公司在人才爭奪上投入巨大,不排除部分 OpenAI 員工將奧特曼的辯護視為一種不可原諒的妥協(xié)。
其二,赫格塞斯誓言對 Anthropic 發(fā)動的“焦土行動”。他的舉措遠不止于取消政府與該公司的合同,還宣布將 Anthropic 列為供應(yīng)鏈風(fēng)險,并稱"任何與美國軍方有商業(yè)往來的承包商、供應(yīng)商或合作伙伴,均不得與 Anthropic 開展任何商業(yè)活動"。關(guān)于這一致命一擊是否具有法律依據(jù),各方存在重大爭議,Anthropic 已表示若威脅付諸實施將提起訴訟,OpenAI 也公開表態(tài)反對這一舉措。
其三,在對伊朗空襲持續(xù)升級之際,五角大樓將如何處置 Claude?Claude 是目前五角大樓在涉密行動中唯一積極使用的 AI 模型,相關(guān)行動甚至涵蓋委內(nèi)瑞拉的部分任務(wù)。赫格塞斯給予了六個月的過渡期,期間軍方將逐步引入 OpenAI 的模型以及馬斯克旗下 xAI 的模型。
然而,據(jù)報道,禁令發(fā)布數(shù)小時后,Claude 仍被用于對伊朗的空襲行動,這表明淘汰過渡絕非易事。即便 Anthropic 與五角大樓長達數(shù)月的對峙已告一段落(我對此持懷疑態(tài)度),我們?nèi)缃窨吹降氖牵何褰谴髽堑?AI 加速計劃正在向各公司施壓,迫使它們放棄曾經(jīng)劃定的邊界,而中東地區(qū)的新一輪緊張局勢正成為這場博弈的首要試驗場。
https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.