前2:高級表達類人動物全身控制 - YouTube
人類機器人很快就可以以更現實的方式移動,甚至像我們一樣舞蹈,這要歸功於跟踪人類運動的新軟件框架。
由加州大學聖地亞哥分校,加州大學伯克利分校,麻省理工學院和NVIDIA的研究人員開發的“ Exbody2”是一項新技術,使類人動物機器人能夠基於詳細的掃描和人類運動跟踪的可視化來執行逼真的運動。
研究人員希望,未來的類人生物機器人可以通過更準確地模仿人類運動來執行更廣泛的任務。例如,這種教學方法可以幫助機器人以需要精細運動的角色(例如從貨架上檢索物品)或在人類或其他機器周圍的護理中移動。
前2通過基於人類運動捕捉掃描並將其轉化為可用的運動數據,以使機器人復制。該框架可以使用機器人復制複雜的運動,這將使機器人不那麼僵化,並且不需要大量的重新訓練而適應不同的任務。
有關的:
所有這些都是使用加固學習來教授的,這是機器人學習的一部分,其中機器人被餵養大量數據,以確保在任何給定情況下都採用最佳路線。由研究人員模擬的良好輸出被分配為正分數或負分數,以“獎勵”所需結果的模型,在這裡,這意味著要精確複製動作,而不會損害機器人的穩定性。
該框架還可以使用短運動剪輯,例如跳舞的幾秒鐘,並合成新的運動框架以供參考,以使機器人能夠完成更長的效力運動。
與機器人跳舞
在視頻發佈到YouTube,通過Exbody2舞蹈,翼樑和鍛煉與人類主題一起訓練的機器人。此外,機器人使用的其他代碼為“ Hybrik:Hybrid分析性神經逆運動運動學,用於人體網狀恢復”的其他代碼實時模仿了研究人員的運動。
目前,Exbody2的數據集主要集中在上身運動上。在一項研究中,於2024年12月17日上傳到預印型服務器arxiv,框架背後的研究人員解釋說,這是由於擔心在機器人下半部分引入過多運動將導致不穩定。
他們寫道:“過於簡單的任務可能會限制培訓政策對新情況的推廣能力,而過於復雜的任務可能會超過機器人的操作能力,從而導致無效的學習成果。” “因此,我們的數據集準備的一部分包括排除或修改條目,這些條目具有超出機器人功能的複雜下半身運動。”
研究人員的數據集包含2,800多個運動,其中1,919個來自運動捕獲檔案作為表面形狀(AMASS)數據集。這是人類動作的大型數據集,包括11,000多個個人運動和40小時的詳細運動數據,旨在用於非商業深度學習時 - 當神經網絡接受大量數據培訓以識別或複制模式時。
事實證明,在復制類人類機器人中類似人類運動的效果之後,該團隊將轉向實現這些結果的問題,而無需手動策劃數據集以確保僅適用於框架的合適信息。研究人員認為,將來,自動化數據集收集將有助於平滑這一過程。