前2:高级表达类人动物全身控制 - YouTube
人类机器人很快就可以以更现实的方式移动,甚至像我们一样舞蹈,这要归功于跟踪人类运动的新软件框架。
由加州大学圣地亚哥分校,加州大学伯克利分校,麻省理工学院和NVIDIA的研究人员开发的“ Exbody2”是一项新技术,使类人动物机器人能够基于详细的扫描和人类运动跟踪的可视化来执行逼真的运动。
研究人员希望,未来的类人生物机器人可以通过更准确地模仿人类运动来执行更广泛的任务。例如,这种教学方法可以帮助机器人以需要精细运动的角色(例如从货架上检索物品)或在人类或其他机器周围的护理中移动。
前2通过基于人类运动捕捉扫描并将其转化为可用的运动数据,以使机器人复制。该框架可以使用机器人复制复杂的运动,这将使机器人不那么僵化,并且不需要大量的重新训练而适应不同的任务。
有关的:
所有这些都是使用加固学习来教授的,这是机器人学习的一部分,其中机器人被喂养大量数据,以确保在任何给定情况下都采用最佳路线。由研究人员模拟的良好输出被分配为正分数或负分数,以“奖励”所需结果的模型,在这里,这意味着要精确复制动作,而不会损害机器人的稳定性。
该框架还可以使用短运动剪辑,例如跳舞的几秒钟,并合成新的运动框架以供参考,以使机器人能够完成更长的效力运动。
与机器人跳舞
在视频发布到YouTube,通过Exbody2舞蹈,翼梁和锻炼与人类主题一起训练的机器人。此外,机器人使用的其他代码为“ Hybrik:Hybrid分析性神经逆运动运动学,用于人体网状恢复”的其他代码实时模仿了研究人员的运动。
目前,Exbody2的数据集主要集中在上身运动上。在一项研究中,于2024年12月17日上传到预印型服务器arxiv,框架背后的研究人员解释说,这是由于担心在机器人下半部分引入过多运动将导致不稳定。
他们写道:“过于简单的任务可能会限制培训政策对新情况的推广能力,而过于复杂的任务可能会超过机器人的操作能力,从而导致无效的学习成果。” “因此,我们的数据集准备的一部分包括排除或修改条目,这些条目具有超出机器人功能的复杂下半身运动。”
研究人员的数据集包含2,800多个运动,其中1,919个来自运动捕获档案作为表面形状(AMASS)数据集。这是人类动作的大型数据集,包括11,000多个个人运动和40小时的详细运动数据,旨在用于非商业深度学习时 - 当神经网络接受大量数据培训以识别或复制模式时。
事实证明,在复制类人类机器人中类似人类运动的效果之后,该团队将转向实现这些结果的问题,而无需手动策划数据集以确保仅适用于框架的合适信息。研究人员认为,将来,自动化数据集收集将有助于平滑这一过程。