【資料圖】
據央視新聞報道,1月26日,國家地方共建人形機器人創新中心聯合相關研究團隊發布“白虎-VTouch”跨本體視觸覺多模態數據集。該數據集包含超過60000分鐘的機器人交互數據,涵蓋視覺、觸覺、關節位姿等多模態信息,是目前規模最大的同類開源數據集之一。
據悉,該數據集覆蓋家政服務、工業制造、餐飲服務等日常場景,包含380余項任務類型,涉及500多種常見物品的操作數據,涵蓋了輪臂機器人、雙足機器人及手持智能終端等多種本體構型。通過系統采集真實物理交互過程中的觸覺與視覺信息,該數據集能夠為提升機器人對物理環境的理解能力、實現更精細穩定的操作提供數據支持。
技術實現層面,研究團隊建立了多機器人同步數據采集平臺,能夠同時支持十余種傳感器的高帶寬數據采集,并確保多模態數據的時序一致性。數據集采用的視觸覺傳感器可記錄物體接觸過程中的細微形變與壓力分布變化。
目前,該數據集的首批6000分鐘數據已在開源平臺發布,相關技術文檔與使用說明將陸續公開。研究團隊表示,希望該數據集能夠為機器人精細操作算法的研發提供基礎資源,推動服務機器人在家庭助老、生活協助等場景中的實際應用能力提升。