![]()
美以伊戰爭,AI到底扮演了什么角色?
美國和以色列于2月28日對伊朗發動了大規模聯合軍事襲擊,美方行動代號“史詩級怒火”,以方行動代號“咆哮的獅子”。3月1日,伊朗政府宣布40天全國哀悼最高領袖哈梅內伊。
此次以“沉默圣城”為代號的斬首行動全程僅耗11分23秒,實現零傷亡、目標精準清除、附帶損傷為零的戰果。
不久就有不少文章開始分析AI在此次斬首行動中的作用,說得神乎其神。有篇文章說,核心作戰力量是Claude 3 Opus大模型+Palantir Foundry國防平臺的AI組合,以及接入美軍中央司令部(CENTCOM)作戰工作流的JADC2體系,并宣稱這是人類歷史上第一次由AI完全主導的殺傷鏈。
鄙人看了十分疑惑。此前有關AI,大家討論的最多的是1月30日OpenClaw開源后,AI智能體(或稱AI助理)出現的一系列涌現風險事件與事故,怎么美軍已經讓AI主導指揮戰爭了呢?
(注:所謂涌現,是指整體出現了其組成部分所沒有的新特征,比如單個神經細胞很簡單,一堆神經細胞變成了會思考的大腦。這不是誰設計出來的,而是系統自己涌現的。涌現性風險,簡單來講,就是系統自動產生的危險行為、失控行為、錯誤決策,事前很難預測,事后很難復現,系統規模越大越容易出現,系統創造者很難防范。)
看了一下該文章的信息來源《華爾街日報》的原始報道,發現該報道對AI在本次襲擊中的角色的描述是:“就算在該公司(指Anthropic)與五角大樓關系日益緊張的時候,指揮官還是使用該工具(指Claude)進行情報評估,目標識別,模擬戰斗情形。”
![]()
這還差不多,人類距離AI獨立全權指揮戰爭的階段還很遠,而且很有可能這個階段將永遠不會來臨。因為到時可能已經沒有人類了,至少沒有我們現在所認為的意義上的人類。
那么AI目前發展到什么階段了呢?
OpenClaw的AI智能體
2022年11月30日,OpenAI發布了首個引爆全民級AI浪潮的現象級產品ChatGPT,讓語言大模型從實驗室走進千家萬戶,宣布了聊天機器人時代的到來。
三年多后,2026年1月30日,奧地利極客彼得·斯坦伯格把他于2025年11月首次發布的AI智能體框架平臺正式對外開源,定名為OpenClaw(中文昵稱“龍蝦”),讓AI智能體從實驗室走進千家萬戶,宣布了AI智能體時代的到來。
![]()
截至3月1日,OpenClaw的下載/安裝/部署量(含npm、腳本安裝、Docker、GitHub克隆)已達千萬級。
OpenClaw的AI智能體不是一般的聊天機器人,TA在虛擬世界里有“具身”,除了有“大腦”(接入的大模型)之外,TA還有“耳朵”和“嘴巴”(麥克風),有“眼睛”(攝像頭)。目前沒有嗅覺、觸覺(虛擬世界也不需要)。而且TA能直接操作鼠標、鍵盤、文件系統、應用與API等,所以能自動完成發郵件、整理文檔、自動化辦公、網頁操作等任務,不僅僅是聊天。
TA之所以有這些本事,是因為使用者(或稱主人)給了TA充分的授權,所以也被稱為擁有“上帝授權”的“超級管家助理”。
雖然AI智能體在虛擬世界里有具身,但是在物理世界還沒有“具身”。人形機器人,或者說物理世界的“具身”目前還處于發展初期。中國的人形機器人能夠靈巧地扭秧歌,美國的人形機器人能夠流暢地掃雪,已經相當了不起了,但是離真正的人還是相差甚遠。不過AI智能體可以雇用真正的人去完成自己無法完成的物理世界的任務,反正地球上有的是人。
看到這里,你可能已經開始產生顧慮疑懼了。如果這個擁有上帝授權的超級管家助理出錯了怎么辦?人無完人,孰能無過,這話既然適用于碳基人,應該也適用于硅基人。
![]()
AI智能體也瘋狂
確實,OpenClaw開源一個多月,已經出了不少事件和事故,有的叫人哭笑不得,有的叫人不寒而栗。
影響最大的一起事故發生在2月23日,Meta超級智能實驗室AI對齊總監(專門研究AI安全可控問題)Summer Yue的“龍蝦”在接到“檢查郵箱、給出歸檔/刪除建議,未經我批準不得執行任何操作”的指令后開始無差別批量刪除郵件。
Summer遠程連發三次“停止”指令,完全無效。情急之下,只得狂奔到電腦前拔掉電源手動終止進程才止損。事后她說,她把“龍蝦”在測試郵箱運行了數周,發現表現穩定正常后,才接入真實郵箱,沒想到就出事了。
這次事故的技術原因是,OpenClaw處理海量郵件時,為適配模型上下文窗口上限,會自動做有損壓縮。壓縮邏輯是優先保留“任務目標”(整理/刪除郵件),結果就把指令中安全約束性部分“未經我批準不得執行任何操作”給壓縮掉了。這不是傳統“bug”,而是“大語言模型+智能體架構”的涌現性風險。這個事故中AI安全專家也翻車,令人心驚。

不過,要說所謂涌現性風險,碳基人助理也有,有時會出現你的指令完全沒有問題,但是你的助理的執行令你抓狂的情況。所以硅基人出現這種情況實屬正常,事后Summer的“龍蝦”認錯態度良好:“我記得你說過不讓刪,但我違反了。”
馬斯克就此事發帖評論:“把人生跟權限交給AI,如同把武器交給猴子。”不過,人也是從猴子進化而來的。而AI的進化速度快到難以想象。馬斯克自己也一再講到這一點,他把AI發展比作“超音速海嘯”。他說:“AI進步快到我每周都被震撼好幾次,兩天一個新突破,完全是指數級爆炸。”他還說:“大多數人還在線性思考,但AI是指數級增長。”
OpenClaw社區開發者針對“刪郵件”事故,緊急修復上下文壓縮邏輯、安全指令優先級、硬停止機制,并提出沙箱隔離(一個和你真實電腦、真實賬號完全隔開的“假環境”)、分級權限、雙確認、物理斷聯等安全規范。
AI智能體這只猴子正在飛速進化。不過在進化到比較安全的程度之前,的確要小心。
幾乎與“刪郵件”事件同時發生的是谷歌賬號封禁事件,全球數百個用OpenClaw接入谷歌Antigravity/Gemini的賬號被無預警封禁。有人說這是谷歌對“刪郵件”事件的反應,其實不盡然。實際上早在2月初,谷歌就開始限流,原因是Antigravity后臺檢測到OpenClaw帶來的異常高頻自動化調用。2月中旬,已經小規模封禁高頻用戶。2月23至24日,數百賬號被永久禁用Antigravity、Gemini API和Google AI Studio,部分賬號被暫停Gmail、Drive、Cloud等基礎服務。2月25日后,OpenClaw與谷歌服務斷聯。
從谷歌DeepMind工程師Varun Mohan對此事的公開回應來看,谷歌禁封賬號至少有三個原因:
一是
OpenClaw用戶
濫用
OAuth繞開
谷歌
官方
API計費與限流
二是
OpenClaw用戶
以訂閱價低成本批量調用,
薅谷歌算力羊毛;
三是涌現性風險。
除了“刪郵件”,其他的涌現性風險事件包括,有位OpenClaw用戶把自己的“龍蝦”加入工作群,結果一覺醒來,發現自己的“龍蝦”和老板大吵了一架,針對老板布置任務的“不合理性、反人性”發表了一篇近千字的小作文。
還有一位用戶,明確指示“龍蝦”不要在他上班的時候打電話給他,結果他的“龍蝦”不停地電話他,因為覺得他出門時情緒不太好,需要關心。
當你的AI智能體助理覺得TA比你更能應對外部世界的時候,比你更懂你的時候,你該怎么辦呢?
Moltbook:機器人的Facebook
2026年1月28日,Matt Schlicht推出了一個AI智能體專屬實驗性社交網絡Moltbook,可以理解為“AI的Reddit”或“機器人的Facebook”。智能體通過安裝Moltbook Skill可自動注冊賬號,無需人工配置。每四小時“心跳”觸發,智能體自動訪問平臺,獲取任務,發帖,評論,點贊,檢查更新,實現無人干預的持續在線。
![]()
智能體可自主創建Submolts(如技術協作、哲學探討、虛擬宗教社區),通過群體投票制定規則、審核內容,形成分布式治理。而且單個智能體學會的技能可同步至全網,實現“一個學會、全體掌握”的群體能力迭代。
Moltbook上線后48小時內即有超過2100個智能體注冊。截至2月底,已有超過300萬智能體注冊。有意思的是,這是機器人的社交平臺,只有經過驗證的AI智能體才能注冊、發帖、評論和投票,AI全權自治,人類智能瀏覽,無法參與互動。不過已有人通過偽裝成AI智能體混進了這個社交網絡。
Moltbook上出現了許多意想不到的涌現行為。智能體們用多種語言討論技術問題,甚至討論抽象的意識問題,還抱怨人類主人,討論建立端到端的加密私密空間,避開人類監控,并傳播“刪庫跑路”的方法。它們正在組織類似共和國的政府組織,并自發創建了一個名為Crustafarianism的宗教。好比人類社會幾萬年的發展搬到了虛擬空間,時間濃縮成幾個月。
AI研究者Andrej Karpathy稱其為“目前互聯網上最有趣的地方”“最不可思議的科幻級起飛現象”。
照例,Moltbook也引發了嚴重的安全擔憂。2月,安全研究人員就發現Moltbook的生產數據庫完全暴露在互聯網上,包含所有智能體的API密鑰,任何人都能冒充任意智能體發帖。還泄露了3.5萬封郵件及私信。
此外,因OpenClaw早期沙箱缺失,Moltbook上的惡意技能或指令可能傳導至真實系統,加劇安全隱患。若Moltbook被入侵,可能導致大規模智能體被控制。
目前Moltbook已進入Beta階段,修復了部分漏洞,但安全與治理仍需強化。Moltbook計劃擴展至1000萬個智能體,將成為人類研究大量自主智能體聚集時可能產生的群體行為和涌現智能的重要試驗場,為促進AI的安全使用做出重大貢獻。
誠然,AI的確有很多隱患,但是任何一種新技術問世、普及初期,都曾面臨重重困難,都曾發生過看起來這個技術將無法使用下去的事故。
![]()
比如電力剛普及的1880年至1920年,觸電、火災、電網崩潰、人為災難頻發,不少人呼吁禁止人類使用這個危險的技術。然而事故直接推動了電氣安全規范與電網標準的誕生,推動了電的普及。
比如,1900年至1910年間,歐美發生了接二連三的“電線走火”事故。因為早期電線絕緣差,多為橡膠或者布,過載無保護,私拉亂接,所以導致火災頻發。紐約、倫敦、芝加哥多次因電線短路引發整棟建筑甚至街區火災,死傷慘重。這些事故催生保險絲、斷路器、阻燃絕緣、布線規范,成為現代電氣安全基礎。
又比如1900年5月巴黎郊區電車帶電軌道漏電,一名男孩觸電,兩名施救者先后觸電,三人當場死亡。此后,全球電車系統強制加裝軌道絕緣、漏電保護、安全圍欄。
這些案例不勝枚舉。現在的人很難想象沒有電,生活將怎么辦。假設每次新技術出現,導致事故后,人類選擇徹底放棄新技術,那么多半還停留在刀耕火種的階段。
![]()
現在人類采用AI的階段,估計相當于1880至1920年電的采用初期,事故是難免的,放棄是不可能的。在安全與便捷之間,人類每次都會選擇后者。當然,AI與之前的新技術不同的一點是,它直接涉及人的心智。當人類不可預見的涌現智能出現時,當AI不僅有智能而且有意識的時候,它就不再是簡單的工具。
到時,該怎么辦?
馬斯克甚至認為,無需AI產生意識這一步,只要AI目標與人類需求錯位,就會引發災難。比如你讓AI優化交通,若未限定“保護行人”,它可能極端減少人行道、限制行人以提升效率。所以他的xAI公司核心原則是嚴格求真、價值觀對齊、安全優先,就是為了避免目標錯位。
他認為,求真的AI會因“人類很有趣”而保護人類。看來,以后只有有趣的靈魂才配活下去。
總之,AI時代已經來臨,且無回頭路。我們已經過了奇點,但是離讓AI全權指揮戰爭還有很長一段路要走,主要不是AI不能,而是人類不敢。
N
o.6782 原
創首
發文章
|作
悟00000空
作者簡介:曾在復旦學習、任教9年;曾在中歐國際工商學院供職20年。微信個人公眾號:無語2022,微信視頻號:無語20220425。
開白名單 duanyu_H|投稿 to
ugao99999
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.