加入收藏 | 设为首页 | 会员中心 | 我要投稿 汽车网 (https://www.0577qiche.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

MMeta探讨Avatar运动稀疏关键帧姿势,提升物理学合理运动效应

发布时间:2023-04-04 12:36:03 所属栏目:动态 来源:
导读:为3D骨骼角色创建逼真人体运动是AR/VR等图形应用的重要过程之一。Motion in-betweening是创建骨骼动画的一种流行方法:美术师提供时间粒度较小的关键姿势,而系统可以自动生成粒度更精细细的中间姿势。当关键姿态在时
为3D骨骼角色创建逼真人体运动是AR/VR等图形应用的重要过程之一。Motion in-betweening是创建骨骼动画的一种流行方法:美术师提供时间粒度较小的关键姿势,而系统可以自动生成粒度更精细细的中间姿势。当关键姿态在时间上足够接近时,简单的线性样条插值可以产生平滑和合理的结果。但由于约束不足,随着它们变得越来越稀疏,插值就变得不再简单。

具体地说,团队基于物理模拟的character生成中间姿态,并使用深度强化学习(RL)来训练控制policy。他们开发了适用于所述问题的新公式,其中状态只能访问稀疏的输入姿势,而reward则是根据ground truth运动计算。

由于所述方法使用物理模拟的character,因此与现有的基于运动学的方法相比,它具有多个独特的优势。例如,即便给出了糟糕的输入姿势,它都可以有效的产生一些物理上相对合理的相互作用运动。

研究人员的系统采用一系列关键姿势P和关键帧 和固定的粗略时间间隔作为输入,然后以所需的密集时间间隔输出运动。他们的目标是生成平滑、符合物理、看起来自然的运动,并合理地满足输入关键帧约束。

更具体地说,框架学习了一种基于深度强化学习(RL)的模仿policy。RL中的state包括关键帧state和模拟帧state。RL中的action是stable PD control的目标姿态,它计算关节力矩来启动模拟character。物理模拟然后计算下一个状态。

研究人员使用了multiplicative reward function,通过关节角度、关节速度、末端执行器位置、质心位置和关节变换这五个不同项来测量模拟运动和ground truth运动之间的相似性。

团队采用了ScaDiver的开源实现来部署所述方法。PyBullet和RLlib分别用于物理模拟和深度强化学习,近端策略优化则用作深度RL算法。他们在两种类型的运动上独立训练了模型:来自LaFAN1数据集的11个运动序列(≈45.5分钟);使用预训练的PFNN controler随机生成的10个行走序列(≈10分钟)。

训练总共需要大约3天,并大约生成了400M个模拟步长。图1显示了生成的中间姿势的快照。模型用LaFAN1数据集训练,其中学习的控制策略可以成功匹配输入稀疏关键帧,并且同时产生与地面真实运动类似且物理上合理且相同的运动。

为了比较方法的有效性,团队用与上述相同的数据训练了一个基线模仿策略,而这个策略消耗了密集指定的关键姿势(即未来的参考运动)。由于所述信息在测试期间不可用,他们通过线性插值输入的稀疏关键帧姿势来提供伪参考运动。
 

(编辑:汽车网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章