![]()
AI能根據你的文字生成圖片,也能生成視頻。
可當我們人類想要的東西是一段畫面、一種氛圍、一個模糊的印象,機器就沒啥辦法了。
你沒法在搜索框里輸入“那種很孤獨的感覺”然后得到一張完美的劇照,也沒法對著監控系統說“幫我找打架的片段”。
文字是文字,圖片是圖片,視頻是視頻,音頻是音頻,它們各自封閉,互不相通。
2026年一季度,當其他大模型廠商還在卷agent、卷內容生成的時候,谷歌悄悄發布了Gemini Embedding 2模型。
它把文本、圖片、視頻、音頻和文檔,全部拉進了同一個語義空間。
這意味著你可以用一句話找到一張圖,用一張圖找到一段視頻,用一段音頻找到一份文檔。
五種模態之間的壁壘被打通了,機器第一次擁有了類似人類“通感”的能力。
它不再把世界看成割裂的文件格式,而是像你一樣,把一段旋律、一個畫面、一句話理解為同一件事的不同表達。
有網友評論道:“人工智能不再把世界看得支離破碎,它和你一樣看待它。”
01
谷歌的戰略深意:不在應用層肉搏,而是去定標準
谷歌選擇在這個時間點發布這個模型可以說是耐人尋味。
在OpenClaw狂熱的當下,大家都在比誰的大腦更聰明,誰的手腳更靈活。
而谷歌卻退后一步,去打磨一種更底層的能力——感知力。
要理解這步棋的分量,需要先看清一個事實。在Gemini Embedding 2出現之前,多模態嵌入其實不是什么新鮮玩意,甚至于可以說它有點“土”。
![]()
Nomic、Jina、CLIP 的衍生模型都做過嘗試,但它們要么只覆蓋兩三種模態,要么精度不夠,總結來說就是能用但不好用。
更關鍵的是,市面上絕大多數嵌入模型,本質上仍然是“文本優先”的。
想搜索一段視頻?先把視頻轉錄成文字,再對文字做嵌入。這個中間步驟不僅拖慢速度,還不可避免地損耗語義。
畫面的構圖、音樂的情緒、說話人的語氣,這些只存在于原始模態中的微妙信號,在轉錄為文字的那一刻就已經不存在了。
Gemini Embedding 2的做法則完全不同。
它原生理解聲波和動態畫面,直接將五種模態映射到同一個3072維的語義空間里,不需要任何中間轉譯。
法律科技公司Everlaw在使用embedding 2模型處理訴訟發現(litigation discovery)流程時,跨數百萬條記錄的檢索召回率提升了20%;另一家企業Sparkonomy則發現,相比此前的多管道方案,延遲降低了70%,語義相似度得分直接翻倍。
聰明的大腦固然重要,但如果這個大腦看不見、聽不到、摸不著真實世界里那些紛繁復雜的多模態信息,它就像一個被關在漆黑房間里的天才,再聰明也無處施展。
所以谷歌的策略是:與其在上層應用上和對手肉搏,不如直接去修路、定標準。
標準從何定起?前提在于,每一家大模型廠商的嵌入標準是完全不兼容的。
同一張照片,在谷歌的語義空間里坐標可能是 (1, 2),到了 OpenAI 的體系里就變成了 (9, 8)。谷歌自己的文檔也明確指出,從上一代gemini-embedding-001升級到Embedding 2,所有已有數據都必須重新嵌入,兩代模型生成的向量之間無法直接比較。
一旦企業用了谷歌的模型為積攢多年的圖片、音頻、視頻建立了索引,想要遷移到其他平臺,就意味著把全部數據重新投喂、重新計算。這種耗費巨大算力和時間的索引重建工程,會讓企業在不知不覺中被深度綁定到谷歌的生態里。
谷歌深諳此道,并且在加速這種綁定。
Embedding 2發布當天就已經集成了LangChain、LlamaIndex、Haystack、Weaviate、Qdrant、ChromaDB、Pinecone 等幾乎所有主流AI開發框架和向量數據庫,官方Colab示例代碼以Apache 2.0許可證開源,文本嵌入定價僅0.20美元/百萬token,批量調用再打五折。
這套動作的意圖非常清晰:讓開發者和企業以低門檻的方式涌入,等到數據沉淀到一定規模,遷移成本就會像滾雪球一樣越滾越大。
“我們開發和利用人工智能潛力的方法根植于我們的創始使命——組織世界信息,使其普遍可訪問且實用。”這是2023年谷歌官網發布的《我們為什么關注人工智能以及目的是什么》中的一句話。
從幫助科學家探索蛋白質折疊的 AlphaFold,到針對數學和物理頂級難題推出的Gemini DeepThink模式,再到這次的跨模態檢索,谷歌確實在一步步兌現這個承諾。
02
一個里程碑式的技術突破
Gemini Embedding 2支持超過100種語言,擁有8192個token的上下文窗口(大約對應4000到5000個中文字符),每次請求最多可以處理6張圖片、120秒的視頻以及6頁的PDF。
在基準測試中,它的多語言檢索、代碼檢索和圖文檢索得分全面超越了Amazon Nova 2和Voyage 3.5。
![]()
但真正讓這件事具有里程碑意義的,不只是跑分數字,而是它所瞄準的那片無人深海。
根據IDC 2023年的報告,視頻、音頻、圖片等非結構化數據占到了全球數據總量的92.9%,即便到2028年,這個比例預計也只會降到82.3%。
![]()
換句話說,人類產生的絕大多數信息——會議錄音、產品視頻、設計圖稿、監控畫面由于其非結構化特征,長久沉寂在茫茫的互聯網世界中無法被按需打撈,就像一個個封閉的黑盒。
以前要對這些黑盒數據進行語義比對、建立索引,主流所采用的是“雙編碼器”架構,OpenAI的CLIP就是如此。
一個視覺編碼器處理圖片,一個文本編碼器處理文字,兩個編碼器各自獨立運行,最后再通過對比學習把它們的輸出對齊到同一個空間里。
谷歌Cloud團隊在技術博客中寫到:因為兩個編碼器是分開的,它們只在最后階段才見面,所以錯過了在網絡中間層形成深層跨模態連接的機會。
就好比兩個翻譯各自把一本書翻成了不同的語言,然后試圖在目錄層面對齊。它們的字面意思或許能對上,但原文中那些微妙的語境、情緒,在這個過程中已經丟失了。
到了Gemini Embedding 2這里,當模型處理一張配有文字說明的產品圖時,它不是分別理解圖片和文字再拼接結果,而是像人類一樣,把視覺信息和語言信息當作一個整體來感知。
這也造就了檢索的一種新玩法:交錯輸入(interleaved input)。
開發者可以在一次API調用中同時傳入一段文字、三張圖片和一段音頻,模型會返回一個捕捉了所有跨模態關系的統一向量。
說得再直觀一點。比如一家電商平臺想做“以圖搜物”功能,但用戶的需求比較復雜:他拍了一張朋友穿的外套照片,同時輸入文本:“和這個款式類似但顏色要偏暖”。
在傳統方案下,系統只能要么理解圖片、要么理解文字,總是顧此失彼,兩條線索無法合流。
而交錯輸入允許模型生成一個同時編碼了“外套版型”和“暖色調”的統一向量,再用這個向量去商品庫里做檢索。
兩種模態的信息在向量層面真正交匯成了一個完整的意圖。
03
Vibe Searching時代來了
如果說用自然語言編程標志著我們進入了Vibe Coding時代,那么拿著一段描述、一張圖、一段音頻就能找到高度匹配的多模態內容,標志著我們正在進入Vibe Searching時代。
當新embedding模型接入谷歌Workspace以后,Gemini可以準確分析那些混合了圖片和表格的金融文檔;在Gmail里,你記不清楚郵件的關鍵詞,你只需要給個模糊信息就能找到那封郵件。接入YouTube,用戶即便忘了視頻標題和博主名字,只要描述視頻的內容和風格,就能精準找到對應的視頻。
模型不再是對關鍵詞做匹配,而可以理解審美、風格和氛圍。
搜索的本質也對應發生變化:從前要精確匹配關鍵詞,現在只需模糊表達意圖。
你不再需要知道你要找的東西叫什么,你只需要告訴它,這個東西給你的感覺是什么。
這個轉變對內容行業的沖擊尤其值得關注。如今的內容推薦極度依賴人工打標簽,沒被標注的好內容往往石沉大海。
模型理解不了一個作品的好,因為它只能孤立地看畫面、聽音樂、讀文案。
現在的AI無法像人類一樣對美感有意會。
而Gemini Embedding 2卻能從綜合視角去“意會”一個作品,仿佛擁有了人類審美。
它可以聽出這首歌的旋律氣質和某類用戶的聽歌偏好之間的語義距離,然后把它推到對的人面前。好內容不再需要會自我營銷,它只需要是好內容。
企業的知識管理也是同理。
比如說一家運營了十年的制造企業,它的網盤里躺著上萬份技術手冊、產品圖紙、質檢報告和會議錄音。
某天一個新入職的工程師遇到了一個良品率異常的問題,他隱約記得老師傅提過類似的案例,但不知道記錄在哪里。
可能某個PDF里的一張圖表中提到過類似的事情,也可能是某次會議錄音里的一段討論。以前他只能挨個問人、翻文件夾碰運氣。
而在跨模態檢索的加持下,他可以直接描述問題的特征,系統就能從圖表、錄音、文檔中同時檢索,把三年前一位已經離職的老哥在某次會議上提到的解決方案精準地調出來。
![]()
企業最寶貴的經驗不再系于某個人的記憶,知識庫從一個堆放雜物的倉庫,變成了一個隨時響應、迅速調用的實時大腦。
更遠一些看,在具身智能領域,跨模態嵌入可能成為機器人理解物理世界的基礎設施。當一個倉儲機器人聽到“把那個紅色的、摸起來比較軟的東西拿過來”時,它可以同時處理語言指令、視覺識別和觸覺記憶,并在語義空間中找到這三者的交匯點。
在統一的向量空間里建立視覺、聽覺與邏輯的通感,這恰恰是Gemini Embedding 2所擅長的事情,讓機器人不再機械地執行預設指令,而是像人一樣在真實的物理空間中感知、判斷、行動。
谷歌已經出手了。留給對手的時間窗口,正在關閉。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.