據《財富》雜志,Anthropic泄露的文件顯示,新一代超強模型Claude Mythos已在測試中。公司認為其帶來了前所未有的網絡安全風險。除提及Claude Mythos外,泄露的博客草稿還討論了一類新的AI模型層級,稱為Capybara。文件稱:“‘Capybara’是一個新名稱,對應一個新的模型層級:規模更大、智能水平更高,超過我們此前最強大的Opus模型。”Capybara與Mythos似乎指向同一底層模型。
![]()
《財富》原文報道:
人工智能公司 Anthropic 表示,該公司正在開發一種比以往發布的任何人工智能模型都更強大的新模型,并已開始與早期用戶進行測試。此前,一次數據泄露事件曝光了該模型的存在。
Anthropic公司的一位發言人表示,新模型代表了人工智能性能的“飛躍式提升”,是“我們迄今為止構建的最強大的模型”。該公司稱,該模型目前正在由“早期用戶”進行試用。
該模型的描述信息被意外存儲在一個可公開訪問的數據緩存中,并被《財富》雜志查閱。
周四晚上之前,一篇發布在不安全且可公開搜索的數據存儲庫中的博客文章草稿稱,新模型名為“Claude Mythos”,該公司認為它會帶來前所未有的網絡安全風險。
同一批未加密、可公開發現的文件還披露了該公司計劃在歐洲舉辦的僅限受邀人士參加的CEO峰會的細節,這是該公司向大型企業客戶銷售其人工智能模型計劃的一部分。
據計算機和網絡安全公司LayerX Security的高級人工智能安全研究員Roy Paz和劍橋大學網絡安全研究員Alexandre Pauwels分別找到并審查的文件顯示,人工智能實驗室將包括一篇疑似宣布新模型的博客文章草稿在內的資料,遺留在了一個未受保護的公共數據湖中。據Pauwels稱,總共有近3000份與Anthropic博客相關的資產,這些資產此前并未在該公司新聞或研究網站上發布,但卻可以公開訪問。
在《財富》雜志于周四告知Anthropic數據泄露事件后,該公司立即關閉了公眾搜索該數據存儲區和從中檢索文檔的功能。Anthropic在提供給《財富》雜志的一份聲明中承認,由于其內容管理系統配置中的“人為錯誤”,導致該博客文章草稿可以訪問。該文件將存放在不安全且可公開搜索的數據存儲庫中的未發表材料描述為“擬發表內容的早期草稿”。除了提及 Mythos 模型外,該博客文章草稿還討論了一個名為“Capybara”的新型人工智能模型。Anthropic 公司在文件中表示:“‘Capybara’是新型模型的新名稱:它比我們迄今為止最強大的 Opus 模型更大、更智能。” Capybara 和 Mythos 似乎指的是同一個底層模型。
目前,Anthropic 旗下所有型號均有三種尺寸:最大、功能最強的型號名為 Opus;速度稍快、價格稍低但功能稍弱的型號名為 Sonnet;最小、最便宜、速度最快的型號名為 Haiku。然而,在博客文章中,Anthropic 將 Capybara 描述為一個全新的產品系列,其尺寸更大、功能更強,但價格也更高。
該公司在博客中表示:“與我們之前的最佳模型 Claude Opus 4.6相比,Capybara 在軟件編碼、學術推理和網絡安全等方面的測試中獲得了更高的分數。”
該文件還表示,該公司已完成對“Claude Mythos”的訓練,該博客文章草稿將其描述為“迄今為止我們開發的最強大的 AI 模型”。
針對有關博客文章草稿的問題,該公司承認正在訓練和測試一款新模型。“我們正在開發一款通用模型,它在推理、編碼和網絡安全方面都有顯著提升,”Anthropic 的一位發言人表示。“鑒于其強大的功能,我們正在謹慎地發布這款模型。按照行業慣例,我們正在與一小部分早期用戶合作測試該模型。我們認為這款模型是一次飛躍,也是我們迄今為止構建的最強大的模型。”
《財富》雜志和網絡安全專家審閱的這份文件包含網頁的結構化數據,包括標題和發布日期,表明它是計劃中的產品發布的一部分。該文件概述了該模型的謹慎推廣策略,首先面向一小部分早期用戶開放。博客草稿指出,該模型運行成本高昂,尚未準備好正式發布。
泄露的文件顯示,新的人工智能模型存在重大的網絡安全風險。
“在準備發布 Claude Capybara 模型時,我們希望格外謹慎,并充分了解它帶來的風險——甚至包括我們自身測試中發現的風險。特別是,我們希望了解該模型在網絡安全領域可能存在的近期風險,并將結果分享給網絡安全防御者,以幫助他們做好準備。”該文件指出。
Anthropic公司似乎尤其擔憂該模型的網絡安全隱患,指出該系統“目前在網絡安全能力方面遙遙領先于其他任何人工智能模型”,并且“預示著未來將出現一波能夠以遠超防御者速度的方式利用漏洞的模型”。換句話說,Anthropic公司擔心黑客可能利用該模型發起大規模網絡攻擊。
該公司在博客草稿中表示,由于存在這種風險,其模型發布計劃將重點放在網絡防御者身上:“我們將以早期訪問的形式向各組織發布該模型,讓他們在提高代碼庫的穩健性方面搶占先機,以抵御即將到來的 AI 驅動的攻擊浪潮。”
Anthropic 和 OpenAI 最新一代的前沿模型已經突破了某個門檻,兩家公司均表示這將帶來新的網絡安全風險。今年2月,OpenAI 發布 GPT-5.3-Codex 時,該公司稱這是其根據“網絡安全準備框架”評定的首個“高能力”網絡安全相關任務模型,也是首個直接訓練用于識別軟件漏洞的模型。
與此同時,Anthropic公司也面臨著類似的風險,其發布的Opus 4.6模型于同一周發布。該模型展現了發現生產代碼庫中此前未知漏洞的能力,該公司也承認這項功能具有雙重用途,這意味著它既可以幫助黑客,也可以幫助網絡安全防御者發現并修復代碼中的漏洞。
網絡安全專家表示,此次尚未公開的信息泄露似乎源于該公司內容管理系統 (CMS) 用戶的一個錯誤,該系統是用于發布公司公共博客的軟件。
使用內容管理系統創建的數字資產默認設置為公開,上傳時通常會被分配一個公開可訪問的URL——除非用戶明確更改設置,將這些資產設為私有。
因此,大量圖片、PDF文件和音頻文件似乎通過現成的內容管理系統被錯誤地發布到了一個不安全且公開可訪問的URL。
Anthropic在給《財富》雜志的一份聲明中承認,“我們的一款外部CMS工具出現問題,導致草稿內容可以訪問。”該公司將此問題歸咎于“人為錯誤”。
許多文件看起來像是過去博客文章中被丟棄或未使用的素材,例如圖片、橫幅和徽標。然而,其中一些似乎是私人或內部文件。例如,其中一份文件的標題描述了一位員工的“育兒假”。
這些文件還包括一份PDF文件,其中包含即將在英國舉行的歐洲公司CEO專屬邀請制研討會的信息,Anthropic首席執行官達里奧·阿莫迪(Dario Amodei)將出席。其他與會者的姓名未列出,但據稱他們是歐洲最具影響力的商界領袖。
為期兩天的研討會被描述為一次“私密聚會”,旨在讓與會者在英國鄉村一座由18世紀莊園改建而成的酒店和水療中心進行“深入交流”。文件稱,與會者將聽取立法者和政策制定者關于企業如何應用人工智能的介紹,并體驗尚未發布的Claude功能。
Anthropic公司的一位發言人告訴《財富》雜志,此次活動“是我們過去一年來舉辦的一系列活動的一部分。我們期待與歐洲商界領袖共同探討人工智能的未來。”
原文:https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.