![]()
就在昨天,Anthropic成立了一家新機構。
多家媒體消息披露,Anthropic已向美國聯邦選舉委員會提交組織文件,設立名為AnthroPAC的企業政治行動委員會。
文件顯示,簽字人是公司財務主管Allison Rossi;這個機構準備在2026年中期選舉中支持兩黨候選人,資金來自員工自愿捐款,每人每年上限5000美元。
企業PAC不是研究機構,也不是游說公司,Anthropic做這件事的目的很簡單:給候選人捐款,支持競選廣告和選舉動員,直接作用于誰能贏下席位。
首先解釋下什么是PAC(Political Action Committee政治行動委員會)。
美國法律不允許企業直接給候選人打公司賬戶里的錢,所以科技公司常見做法是:由員工出資,企業來組織,最終形成企業PAC。它和普通政策倡議組織、智庫或者行業協會最大的區別,就是可以直接給候選人送錢。
Anthropic這一步也不是憑空冒出來的。早在今年2月,公司已經宣布向Public First Action(公共優先行動組織)捐出2000萬美元。Anthropic方面當時表示:這筆錢要用來支持AI透明度、安全護欄、更強的聯邦治理框架、芯片出口管制,以及對生物風險和網絡攻擊等高風險場景的更嚴格管理。
這個Public First Action和AnthroPAC并不是一回事。前者屬于美國法律中的501(c)(4)組織,可以進行政策倡議、公眾教育以及選舉動員,通過廣告和宣傳影響候選人;后者則是企業PAC,可以直接向候選人提供競選資金,進入選舉資金分配環節。
把這兩步連起來看,Anthropic的目的不言而喻,這家公司正在想盡辦法介入政策的決策層。
01
為什么AI公司要搞PAC
事實上,不止Anthropic開始下場,美國圍繞人工智能的選舉資金規模在2026年呈現明顯放大的態勢。
在美國選舉體系中,企業PAC只是眾多資金工具中的一種。根據公開數據,美國聯邦選舉委員會登記的各類PAC數量長期維持在數千個規模,而大型科技公司幾乎都設有自己的企業PAC,用于持續支持與產業相關的候選人。
相比一次性捐款,這類機構的優勢在于可以跨多個選舉周期運作,并根據國會委員會、法案進展等動態調整支持對象。
而在人工智能成為新一輪核心議題后,相關資金開始快速集中到幾個關鍵方向:一是算力基礎設施,包括數據中心、電力和芯片供應;二是監管框架,包括模型責任、數據使用和安全邊界;三是政府采購,即AI技術是否能進入國防、公共服務等高預算場景。
據外媒披露,超級PAC“Leading the Future”(引領未來)最初籌集約5000萬美元,隨后進一步擴大至1.25億美元;與此同時,“Innovation Council Action”(創新委員會行動)也在準備超過1億美元的中期選舉相關投入。
![]()
其中,“Leading the Future”更像是科技資本主導的資金平臺,把錢直接投向支持AI發展和算力基礎設施的候選人;“Innovation Council Action”則把重點放在數據中心建設和聯邦監管框架上。
在過去一段時間,Anthropic一直以AI行業的中的“安全派”“中立派”形象示人,如今也推進到了介入選舉資金的層面。
而在這背后,是Anthropic近期經歷的一系列現實沖突。上月,美國國防部把Anthropic列為“供應鏈風險”,并限制其參與部分軍事合同。此舉直接卡住了這家AI公司進入政府采購體系的一部分資格。
這場沖突的背景很簡單,Anthropic與五角大樓此前就模型使用條款談崩了。Anthropic方面宣稱堅持兩條紅線:不接受大規模監控美國人,也不接受把Claude直接用于完全自主武器系統。五角大樓的立場則相反,國防部長Pete Hegseth公開主張軍方應能把AI用于“任何合法用途”。
沖突升級后,Anthropic在3月9日提起訴訟。它在加州和華盛頓分別起訴美國政府,指控這一“供應鏈風險”認定前所未有且違法,帶有針對其AI安全立場的報復意味。
前腳和政府撕破臉,后腳Anthropic成立PAC想要“公關”自然也有了合理性,尤其是Anthropic正處于爭奪市場和模型能力進化的關鍵周期。
幾天前, Anthropic因內容管理系統配置失誤,意外泄露了尚未發布的新模型材料。泄露文件顯示,公司正在測試名為Claude Mythos、內部又稱Capybara的新模型,并承認它是公司迄今最強的系統。
按照泄露材料和Anthropic后續回應,這個新模型在推理、編碼和網絡安全上都明顯強于此前的Claude Opus 4.6,而且已經進入早期客戶測試。
更關鍵的是,泄露文檔里寫得很清楚:Capybara在網絡安全能力上“遠超”現有系統,可能被黑客用來進行大規模自動化漏洞利用和攻擊,因此公司計劃先把早期訪問開放給網絡安全防御機構,而不是全面鋪開。
這意味著,如果上述信息屬實,Anthropic對于模型安全側的顧慮是真實存在的,一旦應用在某些領域,新一代模型能力保不齊就成為“潘多拉魔盒”。
而另一邊與五角大樓的現實沖突,讓Anthropic不得不正視如何介入決策層。
02
AI企業的“鈔能力”,不止用于模型
目前,Anthropic的公司業務正在經歷一個超級加速期。
最新一輪融資達到300億美元,估值升到3800億美元。Anthropic明顯在把重心放在企業AI市場,尤其是編碼產品Claude Code,以及圍繞Cowork代理工具延展出來的企業插件體系。
從商業邏輯上看,這一點非常關鍵。Claude Code和類似Agent產品賣得越好,Anthropic就越依賴大客戶、開發者生態和復雜行業場景;而這些場景的落地情況,往往和政策決策層有著緊密聯系。
根據外媒披露,Anthropic最近在強化與政府和安全機構的關系,不只是美國。就在兩天前,Anthropic方面剛剛與澳大利亞政府簽署AI安全與研究諒解備忘錄,承諾共享經濟指數數據、模型能力與風險研究結果,并參與聯合安全評估。
顯然,這家AI超級獨角獸,想要在政府關系里更多占據主動位置。
![]()
把這些線索合起來,Anthropic這次成立PAC的動機其實已經很具體了。首先是,五角大樓的沖突讓它看到,行政和采購體系可以直接對公司業務造成巨大沖擊;另一方面,新模型能力躍升又讓模型能力邊界陷入爭議。
事實上,這類“供應鏈風險”認定在美國政府采購體系中影響范圍極大。相關規則允許政府在未公開全部證據的情況下,將企業排除出敏感項目競標名單,一旦進入該名單,企業不僅會失去當前合同,還可能在未來數年內難以進入相關投標池。
而且,美國國防和公共部門AI合同通常金額巨大。公開數據顯示,類似Palantir等公司在政府合同中的收入占比一度超過50%,單一項目金額可達數億美元級別。因此,AI公司一旦在這一體系中被限制,影響的不是單個訂單,而是整塊高價值市場。
所以,Anthropic想要的很簡單:在下一輪AI規則制定之前,先把自己的人脈和資金通道放到位。AI公司今天面臨的很多關鍵約束,最后都不是由模型自己決定,而是由握有預算、采購的人決定。
而在具體選舉層面,AI資金已經開始產生直接影響。據外媒統計,AI相關資金在2026年中期選舉中已累計投入超過1.85億美元。在德州和北卡羅來納州的20場獲得相關資金支持的選舉中,僅有1名候選人落敗,其余均成功晉級或當選。
隨著AI企業的PAC紛紛發力,這場模型之外的資源博弈,已經提前開打。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.