視覺處理速度提升400%,可顯著提高自動駕駛汽車、無人機及機器人的安全性。
![]()
一支跨國研究團隊發布了一套用于自主機器的新型安全系統,據稱其對危險的響應速度比人腦更快。研究詳細闡述了來自中國、英國、中國香港、沙特阿拉伯和美國的科學家如何構建一種基于硬件的“反射機制”,以加速自動化駕駛決策。
這項突破回應了機器人技術與自動駕駛領域長期存在的擔憂:機器在解讀視覺數據并應對突發危險時,通常比人類耗時更長。
以每小時50英里的速度行駛時,自動駕駛車輛需約0.5秒對障礙物作出反應。在這段時間內,車輛在制動前可能已駛出約43英尺(約13.1米)。相比之下,人腦的反應時間約為0.15秒。
機器反應時間為何成為安全風險
即便配備先進處理器,逐幀分析高清圖像仍需耗時。計算機必須判斷畫面中何物在移動、移動方向以及是否構成威脅。這種延遲引發了外界對機器人在不可預測環境中運行、無人機及自動駕駛汽車安全性的擔憂。
在真實交通環境中,分秒之差至關重要。響應稍慢可能意味著制動距離延長、碰撞風險上升。如何在保持精度的前提下縮小人類感知與機器處理之間的反應差距,一直是工程師面臨的難題。
研究團隊聚焦于從硬件層面解決該問題,而非僅依賴軟件升級。他們的目標是在不完全重新設計現有攝像系統的基礎上,實現更快速的決策。
受人類視覺啟發的硬件“反射”
科學家以人類視覺機制為藍本設計該系統。人腦并不會分析場景中的每一處細節,而是快速察覺突發運動或變化并先行反應,細致處理緊隨其后。
該系統的核心是一塊二維突觸晶體管陣列,被描述為高靈敏度運動探測芯片。它遵循“先濾波后處理”的原則:芯片首先濾除無關視覺信息,僅識別場景中的關鍵變化。
該晶體管僅需100微秒即可感知圖像變化,遠超人眼感知速度。它能夠將運動信息保持超過1萬秒,并在超過8000個工作周期內無性能損耗。
捕捉到畫面后,芯片會忽略完整圖像,僅記錄運動物體。這些篩選出的信號隨后被傳輸至標準計算機視覺算法進行深度分析。據研究顯示,該方法比傳統圖像處理方式快10倍以上。
汽車、無人機、機器人性能均獲提升
實驗室測試中,該系統處理運動數據的速度比現有最先進算法快四倍。在理想條件下,其反應表現甚至超越人類水平。
研究人員報告稱,在駕駛測試中危險探測性能提升213.5%,機械臂物體抓取能力提升740.9%。在現實場景中,效率雖有輕微下降,但仍優于現有自主系統。
在時速50英里的情況下,約0.2秒的反應時間提升可使制動距離縮短約14.4英尺(約4.4米)。論文共同通訊作者、北京航空航天大學副教授高碩表示:“我們的方法實現了四倍提速,在利用時間先驗保持甚至提升精度的同時,超越了人類水平。”
“我們并未完全推翻現有攝像系統,而是通過硬件插件的方式,讓現有計算機視覺算法運行速度提升四倍,這在工程應用中更具實用價值。”他解釋道:“交通事故中,這4米距離往往決定著是發生碰撞還是險情化解。”
對于小型無人機,反應時間縮減至少三分之一,續航能力與飛行性能均獲改善。高碩補充道:“該項目必將推動與中國車企及無人機企業的深度合作。”
“我們希望為自動駕駛汽車配備這種‘硬件級反射’系統,使其在應對突發路況時能夠比人類更靈敏地響應,從而從根本上提升無人系統的安全性。”
該研究發表于同行評議期刊《自然·通訊》。
如果朋友們喜歡,敬請關注“知新了了”!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.