通信不要で賢く判断するAIへ少量データで動く省電力技術を開発―Few-shot学習と知識蒸留で精度向上と消費電力削減を両立―

2026-05-07 東北大学

Tohoku University電気通信研究所の研究グループは、少量データでも高精度に動作し、省電力性を備えた新しいエッジAI技術を開発した。AIは通常、大量データと高い計算資源を必要とするため、通信環境が不安定な現場やリアルタイム処理用途では実装が難しかった。研究チームは、少量データから学習可能な「Few-shot学習」と、大規模AIモデルの知識を小型モデルへ転移する「知識蒸留」を組み合わせることで、軽量ながら高性能なAIモデルを実現した。画像認識実験では従来法比で最大約14%の認識精度向上を達成し、さらに実機評価では消費電力を約37%削減、高速処理(2.6ms)も実現した。これにより、通信不要で現場単独動作できるエッジAI実用化が大きく前進した。今後は医療機器、製造ライン、インフラ監視、自動運転など、低消費電力かつリアルタイム性が求められる分野への応用が期待される。研究成果は国際会議ICASSP 2026で発表予定である。

通信不要で賢く判断するAIへ少量データで動く省電力技術を開発―Few-shot学習と知識蒸留で精度向上と消費電力削減を両立―
図1. 従来AIと本研究手法の比較 従来は大量データと高い計算資源を必要としたのに対し、本研究では少量データで学習可能かつ省電力で動作するエッジAIを実現。

<関連情報>

MobileViTにおける知識蒸留によるエッジAI向け効率的な少数ショット学習
Efficient Few-Shot Learning for Edge AI via Knowledge Distillation on MobileViT

Shuhei Tsuyuki, Reda Bensaid, Jérémy Morlier, Mathieu Léonardon, Naoya Onizawa, Vincent Gripon, Takahiro Hanyu
arXiv  Submitted on 27 Mar 2026
DOI:https://doi.org/10.48550/arXiv.2603.26145

Abstract

Efficient and adaptable deep learning models are an important area of deep learning research, driven by the need for highly efficient models on edge devices. Few-shot learning enables the use of deep learning models in low-data regimes, a capability that is highly sought after in real-world applications where collecting large annotated datasets is costly or impractical. This challenge is particularly relevant in edge scenarios, where connectivity may be limited, low-latency responses are required, or energy consumption constraints are critical. We propose and evaluate a pre-training method for the MobileViT backbone designed for edge computing. Specifically, we employ knowledge distillation, which transfers the generalization ability of a large-scale teacher model to a lightweight student model. This method achieves accuracy improvements of 14% and 6.7% for one-shot and five-shot classification, respectively, on the MiniImageNet benchmark, compared to the ResNet12 baseline, while reducing by 69% the number of parameters and by 88% the computational complexity of the model, in FLOPs. Furthermore, we deployed the proposed models on a Jetson Orin Nano platform and measured power consumption directly at the power supply, showing that the dynamic energy consumption is reduced by 37% with a latency of 2.6 ms. These results demonstrate that the proposed method is a promising and practical solution for deploying few-shot learning models on edge AI hardware.

1602ソフトウェア工学
ad
ad
Follow
ad
タイトルとURLをコピーしました