ダンスの動きを学習することで、ヒューマノイドロボットと人間との協働がよりうまくいくようになるかもしれない(Learning Dance Moves Could Help Humanoid Robots Work Better With Humans)

ad

2024-07-11 カリフォルニア大学サンディエゴ校(UCSD)

カリフォルニア大学サンディエゴ校のエンジニアは、ヒューマノイドロボットに多様な表現動作を学習させることに成功した。これにより、ダンスや挨拶、ハイタッチ、ハグなどの動作が可能となり、様々な地形でも安定した歩行を維持できる。このロボットの表現力と機敏さは、工場や病院、家庭などでの人間とロボットの協力を促進し、危険な環境での人間の代替を目指している。ロボットは広範なモーションキャプチャデータを用いて訓練され、上半身と下半身を別々に訓練することで、多様な動作をバランスよく行うことが可能となった。将来的にはカメラを搭載し、自律的にタスクを実行することが期待されている。

<関連情報>

ヒューマノイドロボットのための表現力豊かな全身制御 Expressive Whole-Body Control for Humanoid Robots

Xuxin Cheng, Yandong Ji, Junming Chen, Ruihan Yang, Ge Yang, Xiaolong Wang
arXiv  last revised 6 Mar 2024 (this version, v2)
DOI:https://doi.org/10.48550/arXiv.2402.16796

ダンスの動きを学習することで、ヒューマノイドロボットと人間との協働がよりうまくいくようになるかもしれない(Learning Dance Moves Could Help Humanoid Robots Work Better With Humans)

Abstract

Can we enable humanoid robots to generate rich, diverse, and expressive motions in the real world? We propose to learn a whole-body control policy on a human-sized robot to mimic human motions as realistic as possible. To train such a policy, we leverage the large-scale human motion capture data from the graphics community in a Reinforcement Learning framework. However, directly performing imitation learning with the motion capture dataset would not work on the real humanoid robot, given the large gap in degrees of freedom and physical capabilities. Our method Expressive Whole-Body Control (Exbody) tackles this problem by encouraging the upper humanoid body to imitate a reference motion, while relaxing the imitation constraint on its two legs and only requiring them to follow a given velocity robustly. With training in simulation and Sim2Real transfer, our policy can control a humanoid robot to walk in different styles, shake hands with humans, and even dance with a human in the real world. We conduct extensive studies and comparisons on diverse motions in both simulation and the real world to show the effectiveness of our approach.

0109ロボット
ad
ad
Follow
ad
タイトルとURLをコピーしました