作者:周雅
距離最近一次我們見到Google官宣智能眼鏡想法的時候,是在5月份的Google I/O上,當時Google介紹了AndroidXR的理念,可以理解為它是內置了Gemini的XR平臺,包含從頭顯、耳機、智能眼鏡等各種設備,現場給人唯一的感受就是:智能,非常智能。
這一次,就在今天凌晨,Google在油管上辦了個線上發布會,叫“The Android Show”,但這次是特別版,專講 XR。
![]()
Android的基調:超越“聰明”,邁向“智能”
發布會一開場,Google Android生態系統總裁Sameer Samat先沒急著聊 XR,而是先定了調子:Android的未來,是要從“聰明”(Smart)進化到“智能”(Intelligent)。
這倆詞有啥區別?
說白了,“聰明”是被動響應,你按一下,它動一下。而“智能”是主動理解,它懂你,甚至比你快一步。
Sameer Samat提到,近幾個月 Android 平臺勢頭強勁,例如在 Pixel 手機上首發了全新的設計語言 Material 3 Expressive,它賦予了用戶前所未有的個性化定制能力。更重要的是,作為核心驅動力的 Gemini 也在不斷進化,Gemini 3新增的屏幕共享和視覺引導功能,意味著用戶只需一次長按,就能隨時隨地獲得解答、建議或靈感。還有被大家腦洞大開體驗的Nano Banana,大家可以把自己 P 到各種場景中。
基于此,Sameer Samat提到 Android 的核心三要素:優美的設計(Beautiful Design)、最有幫助的 AI(the most helpful AI)、個性化(Personality)。他強調,無論是在手機、手表、汽車還是電視上,Android 始終是用戶率先體驗未來的地方。
而這場進化的關鍵,在于 Gemini + Android,未來它將會以三種方式為我們服務:
第一,它懂你(It just gets you)。它理解你所處的環境,學習你的偏好,從而提供真正為你量身定制的幫助。它不是對所有人都一樣的通用工具,而是你的專屬伙伴。
第二,它快人一步(It's a step ahead)。基于對你的理解,它能夠預測你下一步可能需要什么,并在你開口之前就主動提供恰到好處的支持。這是一種從“被動響應”到“主動服務”的根本轉變。
第三,它為你分憂(It handles the busy work)。它能將那些繁瑣、重復性的任務自動化、簡單化,從而讓你騰出精力,讓你專注于更重要、更有創造力的事情。
![]()
Sameer Samat明確指出,這將是人與技術交互方式的一次“根本性變革”(fundamental change):我們正從一個命令機器的時代,走向一個與機器協同的時代,技術能為我們成為什么樣的人提供相應的支持。而這場變革的第一個試驗場,就是 Android XR。
Android XR:設備的光譜
接著,Android XR副總裁兼總經理Shahram Izadi和三星XR部門高級副總裁Kihwan Kim 登場,正式揭開了Android XR的面紗——這是業界第一個為擴展現實設備打造的統一平臺。
Android XR的誕生并非谷歌一家之功,而是與三星(Samsung)和高通(Qualcomm)“作為一個團隊”共同構建的成果。這種“三位一體”的合作模式至關重要,它確保了從底層芯片(高通)、硬件設備(三星)到操作系統(谷歌)的深度優化與協同。
![]()
他們特別強調,Android XR 建立在成熟的 Android 基礎之上,這意味著用戶慣用的 Google Play 商店中的應用,都會順理成章地出現在 XR 設備上。同時,Gemini 將作為核心的智能助理,為這些設備注入靈魂。
為了讓大家對 XR 有更清晰的認知框架,Google拋出了一個核心概念——“設備的光譜”(a spectrum of devices),也就是說,XR 并非單一形態,而是各種終端連起來的“譜”。
![]()
光譜的一端,是功能強大的頭顯(Powerful Headsets)。這類設備追求極致沉浸感,適合短時間、高強度的任務,像是玩3A游戲、看3D電影,或者搞個無限屏的工作空間。它們是生產力和娛樂的重器。
光譜的另一端,是輕便的 AI 眼鏡(Lightweight AI Glasses)。這類設備追求的是全天候佩戴,讓你抬著頭、解放雙手,核心價值在于隨時隨地獲得信息和 AI 輔助。它們是現實世界的“增強層”,讓你在保持與現實世界連接的同時,獲得額外的數字信息。
光譜的中間地帶,則是融合了兩者特性的混合形態設備。
這個光譜的概念,也展示了Google務實且長遠的產品布局思路。換句話說,Google不賭某一個設備會“取代”手機,而是覺得未來更像是我們現在這樣,根據不同場景,在筆記本、手機、手表、眼鏡之間無縫切換。同理,Android XR 的發展路線圖也類似,大家可能會使用多種不同形態的XR設備,它們與你現有的設備協同工作,起到補充(complement)和增強(augment)的作用,而不是完全取代。
Galaxy XR:當你的世界可以一鍵3D化
作為光譜中的代表作,已經上市的三星 Galaxy XR 頭顯(今年10月份上市)這次也迎來了首次重要功能更新。三星XR用戶體驗部門副總裁兼負責人Austin Lee和Android XR部門產品經理Katherine Erdman作出介紹。
![]()
Galaxy XR 被定義為一個能讓你“觀看、創造和探索”的無限屏幕(infinite screen)。其核心體驗在于,由于Gemini 的加持,用戶可以用對話式的交互方式來操作。
例如,當你到了一個城市,在谷歌地圖的XR界面里,可以隨時喚醒 Gemini,問它關于眼前建筑的更多信息,甚至直接讓它調出相關的 YouTube 視頻。
![]()
為了吸引早期用戶,Galaxy XR 推出一系列“探索者套裝”(Explorer Pack),捆綁了 Google AI Pro、YouTube Premium 和 Google Play Pass 等多項付費服務,并在不同地區提供了 YouTube TV 或本地體育賽事的優惠。此外,用戶還能獨家體驗到著名導演 Doug Liman 的電影《Asteroid》以及 Adobe 用于空間視頻編輯的 Project Pulsar。
![]()
發布僅一個月,Google Play 商店中“為 XR 而生”的應用和游戲數量就已超過 60 款,這初步驗證了平臺的吸引力。當然就像我們前文所說,三星 Galaxy XR 頭顯的首次重要功能更新包括了3個新功能和1個彩蛋。
![]()
首先是PC Connect,用戶可以把電腦屏幕拉到眼前變成“巨幕”。Austin Lee現場演示,把正在PC上運行的游戲《城市:天際線 II》“拉”到XR空間,瞬間獲得上帝視角。當然你也可以腦洞大開,在無限大的虛擬空間中,同時擺放PC窗口、XR應用窗口等,實現真正的多任務處理。
![]()
其次是Likeness(逼真化身)。目前,很多視頻會議用的是卡通形象,而 Likeness 功能是讓你在視頻會議里有個更逼真的虛擬形象。這項功能不僅限于 Google Meet,也適用于其他視頻會議應用,讓遠程溝通更具真實感和親和力。
![]()
最后是Travel Mode(旅行模式)。也就是在飛機等移動環境中穩定使用設備,創造一個私人空中影院或沉浸式工作空間。
除了以上常規的功能之外,我覺得最亮眼的一個功能,叫做“自動空間化”(Auto-spatialization),或將于明年推出。
這是個什么神仙功能?簡單說,就是一鍵把2D內容變成3D。
![]()
想象一下,你正在刷的網頁、看的YouTube視頻、玩的手游,按一個鈕,瞬間就有了立體感和空間深度。可想而知,這項技術一旦成熟,將極大解決XR生態早期內容匱乏的問題,為海量的存量2D應用賦予新生。而且,這項技術是系統級的,意味著它對所有應用都有效。
這次更新,連同明年即將到來的“自動空間化”,我們或許正在見證一個內容消費的臨界點。過去幾十年,我們習慣了在平面的屏幕上消費信息,而從某一刻起,現實與數字之間的那層“屏幕”開始變得模糊、透明,甚至可以不存在。整個互聯網的內容遺產,都有可能在XR的世界里獲得新生。
Project Aura:一個介于頭顯和眼鏡之間的“新物種”
如果說頭顯太重,眼鏡功能又太少,那中間有沒有最優解?Google用一個叫 Project Aura 的新設備給出了答案,也就是前文所說的“光譜的中間地帶”。
![]()
Project Aura是一款“有線 XR 眼鏡”,由谷歌的中國合作伙伴XREAL開發,它的形態和技術特點非常鮮明:
首先,它采用輕量化設計與有線連接。為了讓眼鏡本身足夠輕便,主要的計算單元和電池被做成了一個用線連著的小圓盤(Puck),這個圓盤不僅是主機,還可以兼作觸控板使用,提供額外的交互方式。
其次,它采用光學透視。眼鏡本身用的是光學透視鏡片,與依賴攝像頭捕捉現實世界的視頻透視不同,它能讓用戶能用肉眼直接看到真實世界,虛擬內容則以投影的方式疊加投射到用戶的視野里。所以當設備不顯示內容時,就像一副普通的太陽鏡。
最后,它采用手勢交互。用戶可以直觀地用手來抓取、拖動和操作虛擬窗口,學習成本極低。
演示里,Android XR工程部主管Andrea Cola?o戴上它,隨手就在空中拉出了三個虛擬屏幕,一邊看視頻,一邊回消息,一邊還能盯著自己筆記本電腦的屏幕。這簡直就是把一套三聯屏的家庭辦公室,塞進了口袋里,隨時隨地都能掏出來用。由于是光學透視,她可以看到桌上的筆記本電腦,并繼續用電腦的鍵盤和觸控板操作,實現物理設備與虛擬屏幕的共存。
![]()
更有趣的是,她還可以通過線纜外接設備,擴展為一個巨大的空間窗口。演示中,當Andrea把眼鏡接到筆記本上處理圖片時,可以直接問旁邊的 Gemini:“這張圖怎么加背景虛化效果?” Gemini 馬上就能給出步驟,因為Gemini能“看到”屏幕上的內容(包括來自電腦的窗口),并提供精準的上下文幫助。
Project Aura 的定位非常巧妙,它精準切入了一個被忽視的場景:移動生產力。它不追求極致的游戲沉浸感,也不追求全天候的佩戴,它只想解決一個痛點:當你在外面時,如何能像在公司或家里一樣,擁有足夠大的屏幕空間來高效工作,而且不會與現實世界完全隔離。這款產品預計將于明年上市。
AI眼鏡:首先,它得是副好看的眼鏡
終于,輪到了光譜的另一端,也就是——AI眼鏡。
這里有必要再重申一下,為什么全文有的地方講”XR眼鏡“,有的地方講”AI眼鏡“,用更直白的話來講,Android XR把我們所統稱的”智能眼鏡“分成兩端:沉浸式的XR頭顯(含有線XR眼鏡)和日常佩戴的AI眼鏡,中間還有Aura這類形態。它們都用Gemini,但用途與交互完全不同。
其中,XR頭顯/有線XR眼鏡等同于”把世界變成巨幕與3D”,AI眼鏡等同于“把AI戴在臉上,信息抬頭即得”,它們的共同底座是Android XR + Gemini。
![]()
配圖來自科技行者
關于AI眼鏡,Google這次的思路非常清晰,他們稱之為“眼鏡優先”(Eyewear first)。說白了,這首先得是一副人們愿意戴出門的、好看的、舒服的眼鏡,然后才談得上AI眼鏡。
![]()
為了做到這一點,Google與三星一起,找來了兩個畫風完全不同的合作伙伴。一個是Warby Parker,親民時尚眼鏡品牌,主打日常百搭。另一個是Gentle Monster,前衛潮流眼鏡品牌,主打酷炫設計。
這種與時尚品牌的深度綁定,或許是Google吸取了過往的經驗教訓(如Google Glass),認為未來的AI眼鏡,既可以是你上班通勤的低調助手,也可以是你周末逛街的潮流單品。
Google還明確了兩種AI眼鏡的形態:
第一,標準版的AI眼鏡,內置揚聲器、攝像頭和麥克風,可以與 Gemini 對話、聽音樂、打電話、拍照等。
第二,帶顯示屏的AI眼鏡,在標準版基礎上,增加了一個微型顯示器,負責在你眼前展示有用的信息,例如導航箭頭、消息提醒等。
而現場的演示環節更是把氛圍拉滿,Android XR產品管理高級總監Juston Payne戴著眼鏡原型機,在現場溜達。
![]()
看到桌上的零食,他直接問眼鏡:“這是啥?”
眼鏡立刻回答:“這是一種韓國烤肉味干脆面,叫 PPUshU PPUshU,一般是捏碎了再撒調料包吃。”(這展示了AI眼鏡可以調用知識庫,從而給出更優質的答案。)
這還沒完。他跟同事合影,拍完后說:“Gemini,給照片里加一個戴墨鏡的安卓機器人。”
下一秒,一張 P 好的圖就生成了。(這表明AI眼鏡不僅能“看”,還能結合生成式 AI 進行即時創作。)
最絕的是,他轉身問:“剛才那桌零食里,有啥高蛋白的嗎?”
眼鏡回答:“桌上有毛豆,蛋白質含量很高。”
這個細節說明,AI眼鏡已經具備了上下文記憶和推理能力,它記得“剛才那張桌子”上有什么。
接著,Juston Payne遇到了三星的韓國同事,兩人直接用眼鏡進行了實時翻譯對話,全程自然流暢,完全沒有障礙。
![]()
整個演示過程自然流暢,智能眼鏡在你舉手投足之間提供幫助,而Gemini 是一個無形的且全知全能的助理,時刻伴隨左右。
致開發者:“如果你正在為Android開發,那你已經是在為XR開發了”
講了這么多酷炫的設備和功能,怎么讓它們真正用起來?答案無疑是開發者。Android開發部產品管理副總裁Matthew McCullough給開發者傳達的信息簡單粗暴:“如果你正在為Android開發,那你已經是在為XR開發了。”
Google發布了Android XR SDK 的開發者預覽版 3 (Developer Preview 3),核心就是讓開發者為下一波XR應用浪潮做好準備,可以把現有的Android應用以極低的成本,無縫遷移到各種XR設備上。
![]()
這里梳理了其中提到的幾個新功能:
首先,針對頭顯設備,SDK 增加了帶有“軟性頭部鎖定”和過渡效果的空間動畫。同時,Material 3 的 UI 組件(如對話框、導航欄)可以自動轉換為空間 XR 元素,讓開發者能將現有 UI 適配到 XR 環境。
其次,針對 Project Aura 這類XR眼鏡設備,SDK 提供了新的 API,允許應用檢測設備的視場角(Field of View, FoV),并據此調整 UI 布局。開發者可以在 Android Studio 的 XR 模擬器中,立即開始測試不同 FoV 下的應用表現。
最后,也是重頭戲,Google正式向開發者開放了AI眼鏡的開發。它包括:AR Core for Jetpack XR,它的核心是讓AI 眼鏡不再是“睜眼瞎”,而是能真正理解它“看到”的是什么,以及它自身在三維空間里的位置和姿態;Jetpack Glimmer,這是一個專為AI眼鏡設計的全新Compose UI工具包,它包含卡片、列表、堆棧等UI組件,我們知道,在透明的玻璃上顯示文字和圖像,既要看得清,又不能擋住用戶看現實世界的視線,這是個技術活;Jetpack Projected,這是一個基礎API,能讓開發者將現有的Android手機應用“投射”到AI眼鏡上;Firebase AI Logic,Google正在與 Firebase 團隊合作,使 Gemini Live API 能夠與 AI 眼鏡協同工作,方便開發者在應用中集成Gemini的能力。
為了進一步證明 AI 眼鏡的實用價值,Google展示了它在真實場景中的應用。
首先是與旅行體驗平臺 Get Your Guide 的合作。一位名叫 Rose 的“職業游客”戴著 AI 眼鏡在紐約進行了一場美食之旅。她通過語音詢問眼鏡“附近有什么 Get Your Guide 的美食團?”,然后根據眼鏡的指引找到集合點。在品嘗美食和與團友互動時,她只需用語音說“拍張照片”,眼鏡就能立即拍下合影。期間,當導游提出“熱狗算不算三明治”這個經典問題時,Rose 直接向眼鏡發問,Gemini 給出了一段關于面包知識的回答。
![]()
另一個案例來自網約車廠商 Uber。Uber產品副總裁Amit Fulay展示了他們如何利用帶顯示屏的 AI 眼鏡,優化乘客的出行體驗:
首先是信息提示。當用戶剛下飛機,預訂了一輛 Uber 后,眼鏡的微型顯示屏會立刻顯示行程狀態和預計到達時間,讓用戶無需低頭看手機,可以專注于尋找出口。
其次是導航功能。在機場這樣復雜的環境中,眼鏡可以提供簡單的“尋路”指引,幫助你輕松找到上車點。
最后是快速識別車輛。在擁擠的路邊,眼鏡可以直接顯示你所叫車輛的車牌號,甚至提供一鍵呼叫司機的快捷方式。
![]()
這兩個案例,將 AI 眼鏡從一個酷炫的科技玩具,轉變成了能夠解決現實痛點、提升生活品質的實用工具,讓人們看到了這項技術商業化的路徑。
或許,技術的進步,最終衡量的標準并不是它有多么宏大或科幻。
而是看它能否在某個下雨的夜晚,讓你更快地找到那輛接你回家的車。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.