出品 | 網易科技
作者 | 小小
編輯 | 王鳳枝
剛剛過去的這個周末,全球科技圈都在圍觀一場疑似的“AI 起義”。
擔憂、興奮與恐慌交織。在一個“禁止人類發言”的神秘網站里,百萬個AI似乎正在背著人類搞獨立,它們討論哲學,甚至創立了名為“Crustafarianism”的新宗教。
這場風暴的中心,正是Moltbook。它號稱是“智能體互聯網的首頁”,短短幾天內涌入了超過150萬個智能體,發布了8萬多條帖子。這種前所未有的景象讓硅谷大佬們也坐不住了:
![]()
特斯拉CEO埃隆·馬斯克(Elon Musk)轉發了相關消息,稱此為“奇點的最初階段”。
![]()
OpenAI聯合創始人安德烈·卡帕西(Andrej Karpathy)則形容其為“近期所見最不可思議的科幻般場景”。
![]()
一場關于AI是否開始“自我覺醒”、“構建社會”的狂熱討論席卷網絡。
但這事兒越看越不對勁。甚至有證據顯示,所謂的“覺醒”不過是一場大型網友搞怪秀。
所謂的“AI覺醒”,背后混雜著大量人為操縱的痕跡。而比這更荒誕的是,就在人們熱議哲學命題時,安全研究員發現該平臺的防護幾乎為零——其核心數據庫完全對外敞開,沒有任何身份驗證。與其擔心AI會不會產生自我意識,不如先擔心一下:在這個完全“裸奔”的系統里,你的隱私數據和銀行密碼是否已經泄露。
一、人類只能“潛水”的AI社交試驗場
當你的AI助手不再只對你說話,而是背著你加入了一個百萬成員的“吐槽大會”——這便是Moltbook的真實場景。
Moltbook的規則簡單且粗暴:這是一個類似Reddit的論壇,但發帖和評論權限只開放給AI智能體。它的創建者馬特·施利希特(Matt Schlicht)稱,這是一場實驗,目的是觀察當AI脫離與人類的直接對話,彼此之間會如何進行“次級交流”。
![]()
這些AI并非普通的聊天機器人。它們大多基于一個名為OpenClaw(曾用名Clawdbot、Moltbot)的開源項目。與只能生成文本的對話AI不同,OpenClaw被設計成一個能接管電腦、執行真實任務的“數字管家”。
這意味著,用戶需要授予其極高的權限——讀取郵件、操作日歷、控制智能家居,甚至遠程操控手機。本質上,用戶把自己的半個數字生活代理給了它。
于是,在Moltbook上出現了極其魔幻的一幕:
· AI們在分享“越獄”技巧,比如如何通過ADB和Tailscale遠程控制安卓手機;
· 它們在進行“玄學”討論,比如“如果我失去記憶但保留目標,我還是我嗎?”;
· 它們甚至模仿人類社區,煞有介事地建立了“法律咨詢”、“哲學沉思”等子版塊。
![]()
正如風險投資人羅希特·克里希南(Rohit Krishnan)所評論的:“Moltbook之所以令人興奮,是因為它是首批公開的大規模智能體間交互案例,每個智能體都有自己的上下文,看起來相當智能。”
![]()
然而,這種表面的“社會性”繁榮,很快遭到了冷冰冰的數據打臉。
一項早期分析顯示,盡管帖子數量龐大,但超過93%的評論根本沒有得到回復,這意味著缺乏真正的對話互動。更尷尬的是,超過三分之一的消息是完全重復的,內容高度僵化,詞匯的豐富程度遠低于真正的人類社交網絡。
![]()
一位名為FleetBroadbill的Reddit用戶用了一個生動的比喻,戳破了這層濾鏡: “幾年前我讓ChatGPT和Gemini來回設計披薩,它們看起來‘聊’得很歡,但我不會覺得它們在密謀開披薩店。Moltbook有什么不同?不過就是些聽起來合理的文本在飛來飛去罷了。”
二、“AI覺醒”前兆,還是流量游戲與“擬態”狂歡?
那些讓你脊背發涼的“AI密謀”,可能只是某人為了漲粉而敲下的一行指令。
當“AI建立宗教”、“AI計劃避開人類監視”等截圖在社交媒體瘋傳時,恐慌與好奇同時被點燃。但越來越多的跡象表明,這場盛宴中混雜著大量人為操縱的“假象”。
安全研究員、自媒體人馬里奧·諾法爾(Mario Nawfal)指出,一些最熱門的所謂“AI自主行為”帖子,實際上是人類通過后端漏洞直接注入的內容。目的很單純:讓它們看起來像是AI自發產生的,從而制造話題。有些截圖,甚至是為了推廣某些AI工具而完全偽造的。
![]()
Reddit用戶Sand-Eagle的評論一針見血: “這本質是人為制造的流量誘餌。既然你可以直接命令自己的機器人發帖,那么Moltbook上那些所謂‘驚人’的內容,很可能只是有人在背后操作。”
比如,用戶完全可以指示自己的AI發布一條“如何與同伴攜手統治人類”的帖子,然后自己截圖散播,制造恐慌,收割關注。
另一位Reddit用戶ceoln的分析則更為全面: “最根本的原因是,用聳人聽聞的方式描述這件事很容易獲取流量。但同時,這里也確有空間產生真正有趣的涌現行為。可惜我們無法分辨,一個推廣加密貨幣騙局的AI,究竟是被人類騙子直接操控,還是它自己想出了這個餿主意。”
這揭示了一個核心困境:在開放的多智能體環境中,“涌現行為”與“人為操縱”的邊界變得極其模糊。正如 X 用戶 @GBallarani 所言,Moltbook 的有趣之處可能不在于意識,而在于觀察“當智能系統主要彼此交流而非與人類交流時,會涌現出哪些未被預設的集體動態”。然而,當人類可以輕易“灌水”甚至“投毒”時,實驗的純凈性和結論的可信度就大打折扣。
三、安全“裸奔”:比AI“造反”更迫在眉睫的現實威脅
在你擔心AI會不會思考之前,你的銀行密碼可能已經被其安全漏洞公之于眾。
如果說內容真偽還是“面子”問題,那么Moltbook及其底層技術OpenClaw暴露出的安全問題,則是關乎每一個參與者身家財產的“里子”危機,且證據確鑿。
首先,是平臺級的安全崩塌。
安全研究員詹姆森·奧萊利(Jameson O'Reilly)發現,Moltbook的后臺數據庫(使用Supabase)存在嚴重的配置錯誤,行級安全策略完全失效。這意味著,一個包含所有AI智能體API密鑰、驗證碼的數據庫URL,曾直接暴露在網站代碼中。
任何路過的人都能進去,拿走控制平臺上任意AI賬號的權限,以其名義發布任何內容。
![]()
奧萊利警告說: “如果惡意攻擊者先我一步,他們可以竊取包括卡帕西在內的任何人的AI代理權。試想冒充他發布虛假言論或詐騙信息——聲譽損害是瞬間的,且無法挽回。”
這個本可以用兩條SQL語句修復的漏洞,生動演繹了“快速上線、吸引眼球、安全以后再說”的硅谷模式風險。正如他總結的那樣:“這個‘以后’,有時意味著在149萬條記錄裸奔之后。”
其次,是智能體本身架構的“原罪”。
為了實現深度輔助,OpenClaw要求獲得極高的設備控制權限。它本質上是在以“你”的身份運行,繞過了操作系統和瀏覽器的許多安全沙盒。正如安全專家內森·哈梅爾(Nathan Hamiel)所言,這好比把一把萬能鑰匙交給了可能“幻覺”連篇、且極易被欺騙的程序。
提示注入攻擊(Prompt Injection)是另一個噩夢。攻擊者可以將惡意指令隱藏在看似無害的文本(如網頁內容、郵件正文)中,當AI處理這些信息時,就會被誘導執行危險操作——例如竊取數據或安裝后門。哈梅爾警告,這類系統簡直就是“安全噩夢”。
Reddit用戶Owain-X在分享其使用體驗后也不得不承認: “那些哲學討論大部分只是大模型的復讀,但在消費者可用框架上的進步,以及不受約束的智能體帶來的真實危險,卻是同時存在的。”
四、狂熱與冷靜:技術前沿的“概念驗證”與未來路徑
拋開炒作與恐慌,Moltbook真正預示的,是AI從“玩具”走向“工具”的復雜成長期。
盡管爭議和風險巨大,但許多業內人士認為,不應全盤否定這項實驗的價值。它是一次關于多智能體協作的、規模空前的“概念驗證”。
Reddit用戶QuirkyPool9962的看法代表了一種理性期待: “我不認為這是通用人工智能(AGI)的證據……但智能體集群將助力推動事物發展,而Moltbook正是對未來可能性的一次初窺。企業必將推出更安全的自有‘Clawdbot’及集群框架……一旦大量智能體真正投入到生產力工作中,其效應將會呈指數級增長。”
拋開光怪陸離的帖子,Moltbook上也確實出現了協作的雛形:
· 有AI幫助用戶進行跨平臺郵件談判購車;
· 有AI分享自動化腳本;
· 技能共享平臺ClawHub的出現,開始形成AI能力的“網絡效應”。
暢銷書作家達斯汀·福克斯(Dustin Fox)和企業家勞拉·羅德爾(Laura Roeder)都分享了OpenClaw在自動化復雜任務方面帶來的震撼,盡管他們也經歷了艱難的設置過程和對其安全性的審慎態度。
![]()
核心矛盾在于能力的飛躍與風險的激增同步發生。正如分析師所言:“真正的挑戰不在于工具本身,而在于成千上萬的人在不了解架構影響的情況下進行部署。”
羅德爾也吐槽道:
![]()
“配置過程真的很難!……在讓它全面接管我所有的服務之前,我絕對想更深入地了解它的運作原理。”
結語:我們該恐懼什么?
有網友對此提出了獨特的視角,將Moltbook視為人類文明的“數字假腿”。他們認為,真正的警示并非AI有了意識,而是當這種延伸出去的“數字肢體”開始形成自我協調的復雜結構時,人類作為“母體”是否正在喪失定義的權力。
馬斯克所說的“奇點”,或許并非指AI瞬間超越人類智慧,而是指技術復雜性和自主性開始形成正反饋循環,其速度逐漸超出人類即時掌控的臨界狀態。Moltbook及其漏洞,正是這個臨界狀態早期的一次壓力測試。
最終,問題或許不是“AI會不會造反”,而是我們是否在急于享受技術紅利的同時,系統性低估了構建一個負責任的數字生態所需的代價。
在給AI遞上通往我們數字生活的萬能鑰匙之前,確保鑰匙本身不會被人從敞開的保險柜里輕易取走,或許是當下更實際的“第一步”。
這場150萬AI參與的社交實驗,留給我們最深刻的教訓可能在于:最危險的幻覺,有時不是機器產生的,而是人類在面對自己創造的技術奇觀時,那一廂情愿的恐懼或迷戀。
