Anthropic 又因為封號陷入爭議。
近期,OpenClaw 創(chuàng)始人 Peter Steinberger 在自己的社交賬號抱怨,不知出于何種原因,自己的 Claude 賬號一度因可疑活動被暫停,隨后才恢復(fù)使用。Claude “愛封號”這件事幾乎所有 AI 玩家都有所了解,但這次可不像是 Anthropic 無厘頭發(fā)瘋,更可能是因為在幾天前,Anthropic 剛剛調(diào)整規(guī)則,收緊了 OpenClaw 這類第三方 Agent 對 Claude 訂閱額度的調(diào)用方式。
![]()
(圖源:X)
實際上,過去兩年時間里 Anthropic 不斷在陷入這類爭議,作為最強調(diào)安全的 AI 公司之一,它的審核機制和風控邏輯其實是不夠明確的,尤其是隨意封禁用戶賬號這件事。但Claude 的代碼強、長文本穩(wěn)、復(fù)雜任務(wù)表現(xiàn)出色,依然吸引這一大批忠實用戶與開發(fā)者。
這就顯得十分矛盾了,Anthropic 一邊靠模型能力不斷吸引開發(fā)者,一邊又沒有給出清晰的風險警示。這對于所有用戶而言,每一次使用都像站在刀尖上跳舞。
半年狂封 145 萬個賬號,Claude簡直殺“瘋”了
Anthropic 這次和 OpenClaw 的風波之所以引起爭議,主要還是這家公司在賬號管理方面的老問題終于惹到了“大佬”,這讓從前只敢在個人社交賬號抱怨幾句的小開發(fā)者和用戶們,都紛紛站了出來,指責 Anthropic。
Anthropic 在 2026 年 1 月更新的 Transparency Hub 中提到,僅 2025 年 7 月到 12 月,它就封禁了 145 萬個賬號,同期收到 5.2 萬次申訴,其中有 1700 次申訴被推翻。雖然提交的申訴基本都通過了,但問題在于,Anthropic 對風控管理的解釋就不夠清晰。
![]()
(圖源:Anthropic)
Claude 官方幫助中心目前的表述是,賬號可能因為反復(fù)違反使用政策、來自不支持地區(qū)注冊,或違反服務(wù)條款而被停用,若用戶認為自己被誤封,可以走 appeal 流程申訴。規(guī)則聽起來很明確,但實際操作起來就沒有這么簡單了。按照官方的說辭,由于產(chǎn)品上線和郵件量增加,回復(fù)速度可能慢于平時,試想一下,假如你是一名開發(fā)者,賬號莫名其妙被封禁了,申訴還要等上一兩天時間,豈不是工作的計劃全被打亂了?
![]()
(圖源:Anthropic)
去年 8 月,有用戶在 issue #5088 中表示,自己支付 Claude Code Max 5x 套餐后,立刻收到 “This organization has been disabled” 的報錯,之后通過郵件、封號申訴表和站內(nèi)支持都沒有得到有效回應(yīng)。同年 10 月,又有人發(fā)帖求助,自己的 MAX 訂閱過期后重新續(xù)費,結(jié)果賬號直接被封,最后只收到一句“違反 Usage Policy”的結(jié)論,卻沒有更具體的說明。
也就是說,即便用戶購買了高級的套餐(Claude Code Max 5x 月資費為100美元),也并不能讓官方正視你的合理訴求,也存在無故被封禁的風險。
更令開發(fā)者們無語的是,Anthropic 自己提供的官方整合方案也不是絕對安全的。比如,有用戶反饋稱自己在高頻使用官方 GitHub App 或 Claude Code Action 做 PR review 時,賬號會被系統(tǒng)識別成腳本化異常行為,賬號就被永久封禁了。
的確,Claude 目前還是很多開發(fā)者、用戶最喜歡的大模型工具,而 Anthropic 也在強調(diào)自己是最安全的 AI 公司之一,甚至把“安全”的口號打上超級碗廣告。但它也的確在安全管理方面經(jīng)常性“一桿子打死一船人”,讓開發(fā)者們叫苦連連。
獨立開發(fā)者遇上 Claude 封號,太慘了
小雷認識一位真實的 Cladue 用戶,他目前定居美國,原本有一份相對穩(wěn)定的工作,2025 年辭職后開始在家獨立開發(fā)一款偏小眾的應(yīng)用。由于原本并非從事軟件開發(fā)的工作,因此轉(zhuǎn)向獨立開發(fā)之后,很多事都需要 AI 的幫忙,比如從功能設(shè)計、代碼編寫,到文檔整理、產(chǎn)品思路梳理,很多環(huán)節(jié)都離不開 AI 工具的輔助。
最開始,他也不是一上來就選了 Claude,而是先后試過 GPT 和 Gemini,來回用了一段時間之后,才慢慢把重心放到 Claude 上,甚至直接開了 MAX 訂閱。他說,Claude 的寫代碼能力,在他剛接觸這些 AI 時,的確是最強的,可以說是獨一檔的存在。
那天他正在用 Claude 幫忙改一段代碼,前面的對話都還正常,頁面卻突然跳出停用提示,賬號一下就進不去了。他第一反應(yīng)就是徹底懵了,明明剛剛還在準備跑代碼,怎么突然就被停用了,自己也沒有做什么特別的事情,也沒有非法操作。
![]()
(圖源:雷科技制圖)
于是他立刻提交申訴,雖然申訴入口倒是有,可真正提交之后,等來的還是一套很模板化的回復(fù),沒有明確解釋是哪一步觸發(fā)了風控,也沒有說清楚類似情況以后該怎么避免。
這恰恰就是大部分用Claude 的用戶最害怕的時候,用戶不知道自己為什么被攔,也不知道這是不是一次誤判,更不知道下次正常使用時會不會再撞上同樣的事。對于像我朋友這種已經(jīng)把 Claude 當成生產(chǎn)力工具、甚至愿意為 MAX 付費的人來說,這件事讓他感到了小小的震撼。
![]()
(圖源:雷科技制圖)
Claude 這類工具最特別的地方,本來就是強記憶性的,一旦整個賬號被停用了,之前提過的需求、改過的代碼、跑過的設(shè)計方案,就全都丟失了。在他成功提交申訴過后大約三天時間,賬號才終于恢復(fù),但他已經(jīng)有點忘記之前要改的代碼是哪一部分了。
雖然有風險,但這位朋友最后還是選擇了繼續(xù)使用 Claude ,因為目前來說,他還是覺得Claude 用起來比 GPT、Gemini 要順手。不過,他也表示以后不會把所有任務(wù)都交給Claude ,畢竟它的風險實在太大了。
平臺“一言堂”,用戶不買賬了
說到底,Anthropic 之所以敢肆無忌憚地封號、改規(guī)則,就是因為它知道只要 Claude 還夠能打,很多人最后還是得繼續(xù)用。但問題就是如此,現(xiàn)在這些閉源 AI 產(chǎn)品,越來越像云服務(wù)商和應(yīng)用商店的結(jié)合體,模型能力在平臺手里,審核權(quán)在平臺手里,解釋權(quán)在平臺手里,連價格怎么定、規(guī)則怎么改,也都在平臺手里,自然就是它們想怎么做就怎么做了。
一旦被封號,很多開發(fā)者的工作流就徹底失效了。但也正因為這樣,開源模型和本地部署越來越受到重視。Google 在 2026 年 4 月發(fā)布的 Gemma 4,不僅把模型做小了,還徹底改寫了之前小模型不抗打的歷史。Google 這次一口氣給了好幾個尺寸,小的可以放到手機、筆記本這類設(shè)備上跑,大一點的算力要求也比較低,完全可以實現(xiàn)本地部署。官方給出的測試成績里,31B 和 26B 版本在知識理解和代碼能力上都已經(jīng)到了很能打的水平,幾乎接近可以干正事的階段。
![]()
(圖源:Anthropic)
按照 Google 官方的解釋,Gemma 4使用了 hybrid attention,把局部滑動窗口注意力和全局注意力交錯起來,同時在長上下文里用統(tǒng)一的 Key/Value 和 p-RoPE 去壓內(nèi)存,降低了內(nèi)存和算力的壓力,能在更低的顯存和功耗條件下,承擔越來越重要的推理、編碼和 agent 任務(wù)。
更直白地說,過去一提到本地部署,很多人的第一反應(yīng)還是小模型算力太小、大模型性能要求太高,真要認真干活,最后還是得回到 Claude、GPT 這種云端閉源產(chǎn)品。但目前的趨勢就是開源、本地小模型越來越受重視,長代碼、多輪任務(wù)這種過去更依賴云端的場景,已經(jīng)開始有機會被部署到本地,再也不用看這些云端閉源模型廠商的臉色做事。
![]()
(圖源:Google)
那么問題來了,如果以后越來越多開發(fā)者都把關(guān)鍵任務(wù)搬回本地,Anthropic 這種動不動封號的操作會不會被杜絕呢?目前來看,其實技術(shù)上還是有比較明顯的限制,但至少方向是符合大多數(shù)開發(fā)者預(yù)期的。畢竟只要模型跑在自己的設(shè)備里,賬號被封、平臺限流、訂閱說改就改這種事,幾乎就不會發(fā)生了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.