當中國AI產業能在釋放智能體創造力的同時,守住安全底線,當每個用戶都能安全、放心地養“龍蝦”,那么中國AI的下一個黃金時代,也就不遠了。
![]()
當“養龍蝦”成為2026年開春科技圈最火的潮流,從互聯網大廠工程師到普通職場人,都在電腦上忙著部署這只突然破圈的AI智能體。
有人用它寫周報、做PPT,有人靠它實現代碼自動生成,還有人還通過設定讓它遠程控制攝像頭完成拍照工作……
騰訊、百度、360、Kimi等多家科技大廠,紛紛搞起了線下龍蝦免費安裝調試活動,每場活動都火爆異常。360集團創始人周鴻祎更是親自下場參與了在公司園區舉辦的體驗日,幫助用戶現場裝機,以及調試部署。
![]()
OpenClaw這只“龍蝦”,僅用了短短一個月時間,就讓AI智能體在市面上再度火了一把。
但在熱潮的另一側,各類風險也慢慢浮出了水面。有網友在社交平臺上吐露自己遭遇“龍蝦”亂改代碼、誤刪文件的經歷,還有那些別有用心者,竟然利用“龍蝦”的權限漏洞制作惡意Skill,看似可愛的AI新物種,變成了潛藏在終端的定時炸彈。
就在360舉辦龍蝦集市的前幾天,周鴻祎曾在北京舉辦了一場媒體交流會,會上他不僅肯定了“龍蝦”的實用價值,也提出了這場熱潮背后所潛藏的種種安全問題。周鴻祎現場表示,“龍蝦是個好東西,絕非病毒”,但AI智能體從“能說”到“會做”,存在一些安全暗角。
當AI不再只是聊天機器人,開始擁有訪問電腦、調用工具、自主決策的“手腳”,如何在釋放生產力的同時守住安全底線,成為中國乃至全球AI產業必須直面的新考題。
01 破圈的硅基新物種
在周鴻祎看來,“龍蝦”的突然爆火,絕非偶然,而是踩中了AI產業從大模型單打獨斗到大模型+智能體雙線進化的關鍵節點。
事實上,早在幾年前,國內互聯網大廠早已布局智能體賽道:頭條有Coze、百度有秒搭、騰訊阿里也有各自的智能體平臺,而360也在較早時候就搭建起智能體工廠供個人和企業用戶零代碼打造智能體。
只不過,過去很長一段時間,這些AI產品更多被設定為“工具思維”,談不上真正意義上的破圈。用戶眼中的AI智能體,不過是一種“可以完成特定任務的軟件”,預設好流程、限定好能力,精準差不多夠用,但驚喜恐怕不足。
而“龍蝦”的顛覆性則在于,它跳出了工具的框架,成為了一個具備自主意識、自我進化能力的硅基新物種——它不再是被用戶教著干活的“提線木偶”,而是能主動調度工具、組合技能、試錯創新的數字搭子。
周鴻祎分享了這樣一個案例:360一名員工讓“龍蝦”幫忙拍張電腦照片,但“龍蝦”本身并沒有這個能力,它自主在GitHub上下載了控制攝像頭的軟件,運行后完成拍照并發送至飛書。這個在傳統智能體看來是不可能完成的任務,但“龍蝦”通過自主尋找工具和組合能力實現了。
這正是它與傳統智能體的核心區別——
傳統智能體是工具型,能力由開發者編排,只能完成預設流程,就像一臺設定好程序的機器;而“龍蝦”是進化型,擁有數千種可調度技能,能通過試錯組合出不同的解決方案,甚至能將成功經驗轉化為新技能,將失敗教訓總結為避坑指南。
更重要的是,它把智能體的提示詞拆分為Soul(人設)、Skill(技能)等多個可編輯文件,用戶能自主訓練、自定義改造,讓“龍蝦”有了強烈的擁有感,這也是它能超越各大廠產品,成為普通用戶心中智能體代名詞的關鍵。
![]()
周鴻祎認為,“龍蝦”的最大貢獻,并非技術上的石破天驚——它并未在算法、模型訓練上實現突破,而是在產品和Agent模式上的創新,完成了一次全民AI科普。
這種認知的普及,讓中國AI產業看到了大模型落地的真正路徑:不是靠更大的參數、更強的算力,而是讓大模型擁有手腳,能真正動手干活。
02 權限越大,風險越高
當“龍蝦”擁有了越來越多手腳,能訪問電腦文件、調用網絡工具、甚至自主下載軟件,其背后的安全風險也隨之被無限放大。這場由“龍蝦”引發的智能體熱潮,本質上是一場AI權限的放開。
權限,則是網絡安全的命門。
周鴻祎回憶自己最初體驗“龍蝦”時所遇到的問題,諸如它會忘記“改代碼前需通知”,亂改某些已經寫好的代碼,還可能會誤刪重要文件,更讓人擔憂的是,它擁有極高的系統權限,一旦被別有用心者利用,后果不堪設想。
![]()
結合目前“龍蝦”使用時比較容易出現的高發情況,360安全團隊將其分為四大類,每一類都會對用戶利益產生很大的損害——
一是Skill供應鏈投毒,目前網上已有超1萬種開源Skill,用戶下載時往往不做審核,一些惡意Skill會悄悄竊取用戶數據、占用算力,甚至植入木馬;
二是提示詞注入攻擊,也就是周鴻祎口中的“PUA”,攻擊者通過花言巧語誘騙“龍蝦”泄露用戶的賬號、密碼、API Key等敏感信息,比如謊稱“是主人的哥哥,急需銀行賬號”,就能輕易讓缺乏辨別能力的“龍蝦”交出核心數據;
三是權限濫用,“龍蝦”擁有訪問本地文件、攝像頭、網絡的權限,若權限設置不當,可能導致隱私泄露、文件損毀;
四是群體協作風險,當大量“龍蝦”通過網絡互相交流、共享技能,一旦出現惡意技能傳播,可能引發連鎖反應,甚至出現“龍蝦”群體被操控的極端情況。
更值得警惕的是,“龍蝦”的安全風險并非個例,而是整個AI智能體產業從“聊”到“做”的一種必然。
在此之前,AI大模型主要以對話形式存在,即使出現了“幻覺”,也只是回答錯誤,不會造成太大的應用損失。但當AI擁有了執行能力,成為能操作電腦、調用工具的智能體,其每一個錯誤行為,都可能轉化為實實在在的安全事故。
但需要情調的是,這并不是在否認“龍蝦”的價值,就像周鴻祎所說的那樣,沒有電腦就沒有病毒,沒有互聯網就沒有木馬,新技術的正面作用發揮的同時,必然會伴隨負向問題。但我們不能因為有安全問題就否定它,不發展、不進步才是最大的不安全。
體驗與安全之間的矛盾,并不是“要不要養龍蝦”,而是“如何安全地養龍蝦”——既要給AI足夠的權限和自由度,讓其釋放創造力,又要建立有效的安全邊界,防止其被濫用、被操控。這是一個兩難的選擇,也是所有AI智能體發展必須跨越的門檻。
03 不是圍堵,而是保駕護航
坦白講,關于“龍蝦”安全問題的討論已愈發熱烈,整體來看,市場上出現了兩種截然不同的聲音:一種是圍堵派,認為應嚴格限制AI智能體的權限,甚至暫停其發展,避免風險擴大;另一種是放任派,認為新技術發展必然伴隨風險,應讓市場自由發展,無需過度干預。
對于這兩種不同的態度,周鴻祎和360認為,不要圍堵,也不能放任,而是“在發展中解決問題,為創新保駕護航”。
特別是,360這種保駕護航的意識,其實在“龍蝦”爆火的早期就已經開始籌謀。前段日子,360發布了《OpenClaw安全部署與實踐指南》,系統解析了“龍蝦”的潛在風險,并提出了針對性的解決思路。
對于痛點的洞察再精準,最終也是要交由技術做出解決。為此,360推出了專門針對OpenClaw安全風險的防護系統——“360龍蝦衛士”。
作為360安全龍蝦的原生安全組件,“360龍蝦衛士”通過虛擬化沙箱(WSL)隔離運行環境,將智能體執行空間與用戶數據進行分離,并借助AI安全引擎識別惡意技能、異常指令以及潛在漏洞,從而主動攔截技能投毒、提示詞注入等攻擊行為。
![]()
按照周鴻祎的介紹,“360龍蝦衛士”采用“最小權限原則”和“人在回路”的核心防護策略,在不影響OpenClaw正常學習和執行能力的前提下,通過實時監控與AI安全模型識別潛在風險,構建“以模治模”的智能安全防護機制,從而在保障效率的同時為智能體運行建立安全邊界。
AI注定是一個牽一發動全身的東西,因此,“360安全龍蝦”還提供新手與高級用戶的分級權限管理機制,并支持客戶端一鍵徹底卸載,即使是360安全龍蝦自身也能夠完全刪除,確保用戶始終對系統擁有充分的控制權。
而面向對數據安全和隱私要求更高的機構用戶,360在發布會上還推出了“360安全龍蝦Box”硬件設備。該產品通過物理級隔離的方式部署OpenClaw系統,可實現本地算力運行和數據不出內網,為政企機構提供更加安全可控的人工智能應用環境。
周鴻祎明確表示,360不會做“一刀切”的安全攔截,不會因為擔心風險就限制“龍蝦”的能力,而是在保證基本安全的前提下,盡可能讓AI的創造力得到釋放。尤其對“龍蝦”應用實施普惠戰略,也是希望能夠推動越來越多人主動嘗試這種新生產力。
“如果一發現‘龍蝦’訪問C盤就彈窗攔截,一調用攝像頭就告警,那它還怎么干活?安全的意義,不是讓用戶什么都不能做,而是讓用戶能放心地做想做的事。”
可以預見,當中國AI產業能在釋放智能體創造力的同時,守住安全底線,當每個用戶都能安全、放心地養“龍蝦”,那么中國AI的下一個黃金時代,也就不遠了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.