人間の作業を可能にするロボット用グローブの開発 (Gloves to Help Robots Get to Grips with Human Tasks)

2026-01-28 エディンバラ大学

エディンバラ大学の研究チームは、ロボットが人間のような手の動きを学習・再現できるようにするための センサー内蔵グローブ を開発した。この低コストのグローブは、手のジェスチャーや微細な動きを高い精度で検出でき、既存技術より豊富で精緻な動作データを取得できる。研究では、複数の動作を行う際の指の屈曲や間隔の変化などを99%以上の精度で捉え、カメラ追跡データとの比較でも高い性能を示した。集めた人間の動作データは、ロボットの制御プログラムに利用され、把持や操作の精密さ・滑らかさを向上させる基盤となる。将来的には遠隔操作・手術用ロボット、VR/ARインターフェース、宇宙環境での作業ロボットなど、幅広い応用が期待されている。センサー技術は液体金属電極を用いることで柔軟性と連続的な検出性能を実現している。

人間の作業を可能にするロボット用グローブの開発 (Gloves to Help Robots Get to Grips with Human Tasks)
The low-cost gloves detect hand gestures and subtle movements more accurately than existing technologies, researchers say.

<関連情報>

リアルタイムのジェスチャー認識と動的3D形状再構成を実現するモジュラー型ソフトウェアラブルグローブ Modular Soft Wearable Glove for Real-Time Gesture Recognition and Dynamic 3D Shape Reconstruction

Huazhi Dong, Chunpeng Wang, Mingyuan Jiang, Francesco Giorgio-Serchi, Yunjie Yang
2025 IEEE/RSJ International Conference on Intelligent Robots and Systems  Duration: 19 Oct 2025

Abstract

With the increasing demand for human-computer interaction (HCI), flexible wearable gloves have emerged as a promising solution in virtual reality, medical rehabilitation, and industrial automation. However, the current technology still has problems like insufficient sensitivity and limited durability, which hinder its wide application. This paper presents a highly sensitive, modular, and flexible capacitive sensor based on line-shaped electrodes and liquid metal (EGaIn), integrated into a sensor module tailored to the human hand’s anatomy. The proposed system independently captures bending information from each finger joint, while additional measurements between adjacent fingers enable the recording of subtle variations in inter-finger spacing. This design enables accurate gesture recognition and dynamic hand morphological reconstruction of complex movements using point clouds. Experimental results demonstrate that our classifier based on Convolution Neural Network (CNN) and Multilayer Perceptron (MLP) achieves an accuracy of 99.15% across 30 gestures. Meanwhile, a transformer-based Deep Neural Network (DNN) accurately reconstructs dynamic hand shapes with an Average Distance (AD) of 2.076±3.231 mm, with the reconstruction accuracy at individual key points surpassing SOTA benchmarks by 9.7% to 64.9%. The proposed glove shows excellent accuracy, robustness and scalability in gesture recognition and hand econstruction, making it a promising solution for next-generation HCI systems.

0109ロボット
ad
ad
Follow
ad
タイトルとURLをコピーしました