![]()
2026年3月的GTC大會上,英偉達宣布了一項看似低調卻意義深遠的合作——與初創公司Memories.ai聯手開發AI的"視覺記憶"能力。這不僅僅是又一家AI公司的技術發布,而是指向了一個被長期忽視的關鍵問題:AI能看,但記不住自己看到了什么。
從Meta眼鏡走出的創業靈感
Memories.ai的創始人Shawn Shen和CTO Ben Zhou并非憑空想象出這個方向。兩人此前在Meta負責Ray-Ban智能眼鏡的AI系統開發。在為這款網紅眼鏡搭建AI能力的過程中,他們發現了一個尷尬的現實:用戶戴著眼鏡錄了一整天的視頻,卻無法有效檢索和回憶這些內容。
"如果AI只能實時分析畫面,卻不能記住用戶一周前看到的東西,那它的實用價值就大打折扣。"Shen在接受TechCrunch采訪時說。
為什么視覺記憶這么難?
文本記憶相對簡單。文字是結構化的,有明確的語義邊界,索引和檢索都有成熟方案。但視頻是另一回事——它是連續的、非結構化的、數據量巨大的信息流。
Memories.ai的解決方案分為兩層:基礎設施層把視頻轉換成可存儲、可檢索的數據格式;數據層通過自研的LUCI硬件設備采集訓練數據。
與英偉達的深度綁定
這次GTC上公布的合作,讓Memories.ai的技術棧更加清晰。他們將使用英偉達的Cosmos-Reason 2推理視覺語言模型,以及Metropolis視頻搜索與摘要應用。
1600萬美元押注未來
Memories.ai成立于2024年,至今已完成兩輪融資,總計1600萬美元。投資方包括Susa Ventures、Seedcamp、Fusion Fund等知名機構。
此外,Memories.ai還宣布與高通達成合作,其大型視覺記憶模型(LVMM)將支持高通處理器,預計今年晚些時候落地。
競爭格局:搶先卡位
Memories.ai并非沒有競爭對手。Google的Gemini Embedding 2就是類似方向的多模態索引檢索模型。但Memories.ai的優勢在于專注——他們只做視覺記憶這一件事,而且已經推出了第二代LVMM。
結語
當所有人都在談論大模型的參數規模和推理能力時,Memories.ai選擇了一個更基礎卻同樣重要的問題:AI的記憶。這不是一個能登上頭條的炫酷功能,但可能是決定AI能否真正融入物理世界的關鍵拼圖。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.