マルチエージェントAIによるゼロショット言語駆動ロボット把持システム開発~自然言語の指示に対応、実環境での安全なロボット操作を実現~

2025-10-19 東京大学

東京大学大学院情報理工学系研究科のタ・デゥックトゥン助教ら国際研究チームは、自然言語の指示を理解してロボットが物体を把持・移動できる新手法「GraspMAS」を開発した。従来のロボット把持は、限定的なデータセットで学習した単一AIモデルに依存しており、複雑な言語指示や未知環境への対応が困難だった。GraspMASは、言語理解を担う「Planner」、画像情報を解析する「Observer」、把持動作を生成する「Coder」など複数のAIエージェントが協調し、ゼロショットで動作を実現する点が特徴である。これにより、人間の曖昧な指示にも柔軟に対応し、事前学習なしに新たな状況でも安全なロボット操作を可能にした。本手法は家庭用サービスロボット、物流・医療・研究分野などへの応用が期待され、ロボットの自律性と実用性を大幅に高める技術的進展と位置づけられる。研究成果はIROS 2025国際会議で発表された。

マルチエージェントAIによるゼロショット言語駆動ロボット把持システム開発~自然言語の指示に対応、実環境での安全なロボット操作を実現~
従来の単一モデルによる把持(a)と、Planner・Coder・Observerの協調によるGraspMAS(b)の比較

<関連情報>

GraspMAS: マルチエージェントシステムによるゼロショット言語駆動型把持検出 GraspMAS: Zero-Shot Language-driven Grasp Detection with Multi-Agent System

Quang Nguyen, Tri Le, Huy Nguyen, Thieu Vo, Tung D. Ta, Baoru Huang, Minh N. Vu, Anh Nguyen
arXiv  last revised 19 Jul 2025 (this version, v2)
DOI:https://doi.org/10.48550/arXiv.2506.18448

Abstract

Language-driven grasp detection has the potential to revolutionize human-robot interaction by allowing robots to understand and execute grasping tasks based on natural language commands. However, existing approaches face two key challenges. First, they often struggle to interpret complex text instructions or operate ineffectively in densely cluttered environments. Second, most methods require a training or finetuning step to adapt to new domains, limiting their generation in real-world applications. In this paper, we introduce GraspMAS, a new multi-agent system framework for language-driven grasp detection. GraspMAS is designed to reason through ambiguities and improve decision-making in real-world scenarios. Our framework consists of three specialized agents: Planner, responsible for strategizing complex queries; Coder, which generates and executes source code; and Observer, which evaluates the outcomes and provides feedback. Intensive experiments on two large-scale datasets demonstrate that our GraspMAS significantly outperforms existing baselines. Additionally, robot experiments conducted in both simulation and real-world settings further validate the effectiveness of our approach. Our project page is available at this https URL

0109ロボット
ad
ad
Follow
ad
タイトルとURLをコピーしました