品玩1月23日訊,據(jù)Google DeepMind官方消息,DeepMind近日發(fā)布了D4RT動態(tài)4D重建與追蹤模型。該模型在計算機視覺領(lǐng)域?qū)崿F(xiàn)了重大突破,能夠以比當前最佳技術(shù)快18至300倍的速度,從普通視頻中實時重建出動態(tài)變化的三維世界。
D4RT的核心創(chuàng)新在于采用了統(tǒng)一的“時空查詢”架構(gòu)。它首先用一個大型編碼器將整段視頻編碼為全局場景記憶,隨后通過一個通用的解碼器接口,響應各種關(guān)于像素時空信息的查詢。這種設計使其能一次性并行處理成千上萬個查詢,從而將復雜的幾何重建問題轉(zhuǎn)化為高效的并行搜索問題,實現(xiàn)速度的飛躍。
此外,該模型還能精準處理動態(tài)混亂場景,例如準確分離相機運動與物體自身運動,并對被遮擋的像素軌跡進行預測。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.