如果機器人能長出一只貓的爪子、一條章魚的觸手,甚至是大象的鼻子,它們的觸覺會是什么樣子?它們能用這些仿生結構感知物體的紋理、力度和滑動,像生物一樣自適應地與環(huán)境互動嗎?
這聽起來像科幻,但一個名為SimTac的仿真平臺正把它變成現(xiàn)實,近日,倫敦國王學院、北京理工大學、倫敦大學學院和葡萄牙INESC TEC研究所的團隊在期刊《Cyborg and Bionic Systems》上發(fā)表論文,提出了一個能夠模擬任意形狀視覺觸覺傳感器的物理仿真框架。
它讓機器人觸覺傳感器第一次可以“長成”任何生物形態(tài),并在虛擬世界中提前感知它們的觸覺體驗,這種方法可以將觸覺系統(tǒng)的設計和訓練時間大幅縮短。
![]()
01.
觸覺傳感器的“形體危機”
“雖然人腦天生就知道抓取草莓和棒球棒之間的區(qū)別,并施加不同的力度,但機器人卻不具備這種能力。”論文作者、倫敦國王學院機器人與人工智能教授Shan Luo說,“這導致機器人在處理各種復雜形狀時遇到困難。”
生物的觸覺與形態(tài)密不可分:人類手指有柔軟的指腹和關節(jié),貓的爪子有彈性肉墊,章魚觸手布滿吸盤,大象鼻尖有兩根指狀突起能捏夾持和抓取各種物體。這些復雜結構賦予了它們與環(huán)境交互的非凡能力。
反觀機器人領域,主流的視覺觸覺傳感器,將相機藏在軟膠皮下,通過拍攝接觸變形來感知觸覺。絕大多數(shù)只有兩種形狀:平面方塊或半球。即便有少數(shù)手指形狀的傳感器,也往往需要反復試錯、多次硬件迭代才能勉強工作。
為什么?因為復雜曲面帶來的挑戰(zhàn)太大了。
與簡單幾何形狀不同,自然和有機形態(tài)具有更復雜的幾何結構,使得傳感器在接觸物體時產(chǎn)生的形變難以建模和估計。更麻煩的是,要在這些曲面內(nèi)部集成攝像頭和LED燈,還要保證光線路徑可控、接觸區(qū)域成像清晰,幾乎是不可能完成的任務。
而基于學習的機器人感知方法又需要海量數(shù)據(jù),靠真實傳感器一個一個采集,成本高、周期長,傳感器磨損了都未必夠。
02.
SimTac:讓觸覺傳感器“任意生長”
面對這些難題,研究團隊給出的答案是:SimTac,一個基于物理的視覺觸覺傳感器仿真器。它的核心目標只有一個,讓觸覺傳感器可以擁有任意復雜的仿生形態(tài),并在虛擬世界中精確模擬其觸覺響應,進而把設計和迭代從物理世界搬進數(shù)字世界。
SimTac由三大模塊構成,分別解決了“任意曲面”下的三個核心難題,形成一個完整的仿真閉環(huán)。
第一,粒子形變仿真。他們把傳感器的軟膠皮離散成無數(shù)個粒子,每個粒子都帶有質量、動量、應力等物理屬性。當物體接觸時,采用“物質點法”迭代計算每個粒子的運動。這樣一來,不管傳感器是彎曲的象鼻、有肉墊的貓爪,還是帶吸盤的章魚觸手,都能準確模擬變形。
第二,光場渲染。SimTac提前計算兩種光場,沿直線傳播的線性光場和沿曲面?zhèn)鞑サ姆蔷€性光場,再結合馮氏光照模型(Phong's model)實時渲染出觸覺圖像。結果很顯然:仿真圖像與真實圖像幾乎無法區(qū)分。
第三,神經(jīng)網(wǎng)絡力預測。光有圖像不夠,機器人還需要知道接觸力的分布。用傳統(tǒng)的有限元法(FEM)算力,網(wǎng)格一密就慢得無法實時。SimTac的解決方案是:讓MPM算變形,把變形數(shù)據(jù)喂給“稀疏張量網(wǎng)絡”(STN),網(wǎng)絡輸出與FEM精度相當?shù)俣瓤斓枚嗟牧觥?/p>
這三塊拼起來,SimTac做的不是換個形狀接著仿,而是把任意形狀這件事,從不可能變成了可能。
![]()
通過 SimTac 連接生物和人工觸覺傳感
03.
從象鼻到貓爪:仿真和現(xiàn)實對上了
SimTac最直觀的展示,是它能模擬什么樣的形狀。研究團隊一口氣展示了四種生物形態(tài)的傳感器。
人類手指:高曲率、全方位感知表面,已有GelTip傳感器作為實例;
貓爪:帶有肉墊結構的復雜曲面;
章魚觸手:柔軟、帶吸盤的管狀結構;
象鼻:尖端有兩個“手指”狀突起,能捏取物體。
![]()
他們甚至真的按照仿真設計,制作了一個象鼻形狀的觸覺傳感器。流程是這樣的:先在SimTac里設計硅膠膜、指定LED和攝像頭參數(shù)、定義驅動面和接觸條件,然后生成觸覺反饋圖像。接著,按照仿真參數(shù)去3D打印模具、澆筑硅膠、涂反射層、裝配,一個仿生象鼻觸覺傳感器就這樣從虛擬世界“走”了出來。
![]()
對比仿真和真實的觸覺反饋:物體接觸時,變形區(qū)域的光影變化、象鼻“手指”閉合時的主動變形過程,兩者高度一致。SimTac甚至能模擬傳感器在執(zhí)行抓取動作時的主動形變,這是以往仿真工具從未做到的。
04.
虛擬數(shù)據(jù),解決真實世界的難題
能做新奇形狀固然好,但仿真更務實的價值是:生成訓練數(shù)據(jù),然后遷移到真實任務中。研究團隊在手指形狀的GelTip傳感器上,測試了三個典型的觸覺感知任務:
任務一:物體形狀分類。
用仿真圖像訓練ResNet50模型,然后零樣本遷移到真實傳感器。Sim2Real準確率97.0%,只比Sim2Sim(100%)低三個百分點。誤分類主要發(fā)生在形狀相似的物體上,比如平板壓頭和輕微曲面,廣角鏡頭造成的畸變讓它們看起來更接近。
任務二:滑移檢測。
輸入8幀連續(xù)的觸覺圖像,判斷物體是否在滑動。滑動的關鍵特征是:物體輪廓在動,但傳感器表面的標記點幾乎靜止。Sim2Real準確率92.06%。這個任務在真實世界做代價挺大,滑動的物體可能會刮傷傳感器那層薄薄的反光膜。
任務三:接觸安全評估。
用觸覺圖像預測安全系數(shù)。Sim2Real的平均絕對誤差0.105。誤差來源很真實:3D打印的真實物體有仿真里沒有的表面紋理;壓深增加時圖像整體變暗;部分接觸超出相機視野。
![]()
基于觸覺的 Sim2Real 任務性能評估
這些任務之所以能用仿真數(shù)據(jù)做,前提是SimTac把“任意形狀下的觸覺信號”算準了。先有精準的仿真,才有可信的遷移。
05.
未來:機器人觸覺,從“形似”走向“神似”
SimTac的出現(xiàn),填補了一個明顯但長期被忽視的空白:視覺觸覺傳感器的仿生形態(tài)設計工具。
過去二十年,觸覺傳感器從單點、陣列進化到視覺式、高分辨率;形狀從方塊、半球進化到手指形。但再往前,章魚觸手、象鼻、貓爪,缺乏設計工具和數(shù)據(jù)生成手段,進化不動了。
SimTac的邏輯是: 借助仿真預先對復雜形狀傳感器進行建模,渲染和力學預測,避免在現(xiàn)實環(huán)境中試錯,從而縮短設計周期。在這個框架里“長”出想要的形態(tài),看它如何感知世界,然后拿去真實世界制造。
“這極大地拓展了設計空間,并能讓我們以極短的時間創(chuàng)造出實體觸覺機器人。”張旭陽說。
當然,它還有局限:神經(jīng)網(wǎng)絡的訓練依賴FEM真值數(shù)據(jù),對于全新形狀的傳感器,高網(wǎng)格密度的數(shù)據(jù)收集仍需要幾天時間。團隊下一步計劃是優(yōu)化數(shù)據(jù)收集效率,并向驅動器仿真、復雜動態(tài)接觸擴展。未來的工作將集中于制造完全仿生觸覺機器人,并在當前研究中展示的擴展設計和訓練框架的基礎上進行發(fā)展。
當機器人的皮膚可以長成任何形狀,它們的感知和交互能力將迎來一次重要的拓展。未來的機器人,或許真的能像生物一樣,用自己的“皮膚”去感受這個世界。
論文鏈接:https://spj.science.org/doi/10.34133/cbsystems.0510
項目主頁:https://xuyangzhang0223.github.io/SimTac/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.