より早くロボットを教育する方法(A faster way to teach a robot)

ad

2023-07-18 マサチューセッツ工科大学(MIT)

◆MIT、ニューヨーク大学、カリフォルニア大学バークレー校の研究者は、新しいフレームワークを開発しました。このフレームワークは、ユーザーがロボットに望む動作を素早く教えることができます。ロボットが失敗した場合、システムはカウンターファクチュアル説明を生成し、成功するために何を変更する必要があるのかを示します。ユーザーからフィードバックを得て、その情報を使ってロボットを調整します。
◆この手法は、シミュレーションでのテストにおいて他の方法よりもロボットの効率的な学習を可能にしました。このフレームワークは、技術的な知識を持つことなく、ロボットが新しい環境でより速く学習するのに役立つ可能性があります。将来的には、高齢者や障害を持つ人々が日常のタスクを効率的に行うための多目的ロボットの実現に向けた一歩となるでしょう。

<関連資料>

診断、フィードバック、適応:テストタイムポリシー適応のためのヒューマン・ループ・フレームワーク Diagnosis, Feedback, Adaptation: A Human-in-the-Loop Framework for Test-Time Policy Adaptation

Andi Peng, Aviv Netanyahu, Mark Ho, Tianmin Shu, Andreea Bobu, Julie Shah, Pulkit Agraw
arxiv

Abstract

Policies often fail due to distribution shift— changes in the state and reward that occur when a policy is deployed in new environments. Data augmentation can increase robustness by making the model invariant to task-irrelevant changes in the agent’s observation. However, designers don’t know which concepts are irrelevant a priori, especially when different end users have different preferences about how the task is performed. We propose an interactive framework to leverage feedback directly from the user to identify personalized task-irrelevant concepts. Our key idea is to generate counterfactual demonstrations that allow users to quickly identify possible task-relevant and irrelevant concepts. The knowledge of taskirrelevant concepts is then used to perform data augmentation and thus obtain a policy adapted to personalized user objectives. We present experiments validating our framework on discrete and continuous control tasks with real human users. Our method (1) enables users to better understand agent failure, (2) reduces the number of demonstrations required for fine-tuning, and (3) aligns the agent to individual user task preferences.

ad

0109ロボット
ad
ad
Follow
ad
タイトルとURLをコピーしました