AI搭載のロボット犬、災害対応の革新を目指す(Meet the AI-powered robotic dog ready to revolutionize emergency response)

2025-12-09 テキサスA&M大学

TAMU の工学部の学生が開発した四足歩行ロボット犬は、単なる遠隔操作ロボットではなく、AI を使って「見たものを記憶し、判断し、反応する」能力を持つ。カメラ映像と音声命令をもとに、視覚情報を大規模言語モデル(MLLM)で解析し、経路計画や物体認識、音声指示への応答が可能だ。これにより、瓦礫などで構造が不明な災害現場や GPS が使えない救助現場などでも、過去の通過経路や見た状況を “記憶” に基づいて再利用し、効率よく移動・探索できるという。実証実験では、不安定な廃墟構造やコンクリートの障害物を越えて移動するなど、高い運動性と柔軟な意思決定性を示した。将来的には災害救助だけでなく、病院、倉庫、危険地域での偵察、視覚障害者支援など幅広い応用が期待されており、「人とロボットの新しい協働」を実現する可能性がある。

AI搭載のロボット犬、災害対応の革新を目指す(Meet the AI-powered robotic dog ready to revolutionize emergency response)
A pair of robotic dogs with the ability to navigate through artificial intelligence climb concrete obstacles during a demonstration of their capabilities.Credit: Logan Jinks/Texas A&M University College of Engineering

<関連情報>

思い出の散歩:Mllm メモリ駆動型ビジュアルナビゲーション A Walk to Remember: Mllm Memory-Driven Visual Navigation

Sandun S. Vitharana; Sanjaya Mallikarachchi; HG Chamika Wijayagrahi; Nuralem Abizov; Amanzhol Bektemessov; Aidos Ibrayev,…
2025 22nd International Conference on Ubiquitous Robots  Date Added to IEEE Xplore: 18 July 2025
DOI:https://doi.org/10.1109/UR65550.2025.11078086

Abstract

This paper presents a novel framework for memory-based navigation for terrestrial robots, utilizing a customized multimodal large language model (MLLM) to interpret visual inputs and generate navigation commands. The system employs a Unitree GO1 robot equipped with a camera to capture environmental images, which are processed by the customized MLLM for navigation. By leveraging a memorybased approach, the robot efficiently reuses previously traversed paths, reducing the need for re-exploration and enhancing navigation efficiency. The hybrid controller in this work features a deliberation unit and a reactive controller for high-level commands and robot alignment. Experimental validation in a hallway-like environment demonstrates that memory-driven navigation improves path retracing and overall performance.

0109ロボット
ad
ad
Follow
ad
タイトルとURLをコピーしました