日常デバイスでプライバシー保護型AI学習を実現する手法を開発(Enabling privacy-preserving AI training on everyday devices)

2026-04-29 マサチューセッツ工科大学(MIT)

マサチューセッツ工科大学の研究者らは、スマートフォンなど日常デバイス上で個人データを外部に送らずにAIを訓練できる新手法を開発した。分散学習(フェデレーテッドラーニング)を基盤としつつ、通信量と計算負荷を大幅に削減するアルゴリズムを導入し、限られた計算資源でも高精度なモデル更新を実現する。さらに暗号化技術を組み合わせることで、データ漏洩リスクを抑えつつプライバシーを保護する点が特徴。これにより医療や個人端末での安全なAI活用が進み、データ共有が難しい分野でも機械学習の適用範囲が拡大すると期待される。

<関連情報>

FTTE:連合型でリソース制約のあるディープエッジインテリジェンスの実現 FTTE: Enabling Federated and Resource-Constrained Deep Edge Intelligence

Irene Tenison, Anna Murphy, Charles Beauville, Lalana Kagal
arXiv  last revised 23 Mar 2026 (this version, v2)
DOI:https://doi.org/10.48550/arXiv.2510.03165

日常デバイスでプライバシー保護型AI学習を実現する手法を開発(Enabling privacy-preserving AI training on everyday devices)

Abstract

Federated learning (FL) enables collaborative model training across distributed devices while preserving data privacy, but deployment on resource-constrained edge nodes remains challenging due to limited memory, energy, and communication bandwidth. Traditional synchronous and asynchronous FL approaches further suffer from straggler induced delays and slow convergence in heterogeneous, large scale networks. We present FTTE (Federated Tiny Training Engine),a novel semi-asynchronous FL framework that uniquely employs sparse parameter updates and a staleness-weighted aggregation based on both age and variance of client updates. Extensive experiments across diverse models and data distributions – including up to 500 clients and 90% stragglers – demonstrate that FTTE not only achieves 81% faster convergence, 80% lower on-device memory usage, and 69% communication payload reduction than synchronous FL (this http URL), but also consistently reaches comparable or higher target accuracy than semi-asynchronous (this http URL) in challenging regimes. These results establish FTTE as the first practical and scalable solution for real-world FL deployments on heterogeneous and predominantly resource-constrained edge devices.

1603情報システム・データ工学
ad
ad
Follow
ad
タイトルとURLをコピーしました