デジタルな口伝えで自動運転車が道路状況の共有を学習 (Self-driving cars learn to share road knowledge through digital word-of-mouth)

ad

2025-02-26 アメリカ合衆国・ニューヨーク大学 (NYU)

デジタルな口伝えで自動運転車が道路状況の共有を学習 (Self-driving cars learn to share road knowledge through digital word-of-mouth)

ニューヨーク大学タンドン工学部の研究チームは、自動運転車が直接遭遇しなくても道路状況に関する知識を共有できる新たな手法「Cached Decentralized Federated Learning(Cached-DFL)」を開発しました。この技術では、車両が近接(約100メートル以内)した際に、高速なデバイス間通信を用いてAIモデルを交換し、さらに受け取ったモデルを他の車両に転送することで、情報が間接的に広がります。各車両は最大10個の外部モデルをキャッシュし、120秒ごとにAIを更新。古いモデルは自動的に削除され、最新の情報が優先されます。この仕組みにより、車両は未経験の道路状況にも対応可能となり、都市部での自動運転の安全性と効率性が向上します。研究は米国国防総省や国家標準技術研究所などの支援を受け、2025年2月27日の人工知能推進協会(AAAI)会議で発表されました。

<関連情報>

モバイルエージェントにおけるモデルキャッシングを用いた分散協調学習 Decentralized Federated Learning with Model Caching on Mobile Agents

Xiaoyu Wang, Guojun Xiong, Houwei Cao, Jian Li, Yong Liu
arXiv  last revised 4 Feb 2025 (this version, v2)
DOI:https://doi.org/10.48550/arXiv.2408.14001

Abstract

Federated Learning (FL) trains a shared model using data and computation power on distributed agents coordinated by a central server. Decentralized FL (DFL) utilizes local model exchange and aggregation between agents to reduce the communication and computation overheads on the central server. However, when agents are mobile, the communication opportunity between agents can be sporadic, largely hindering the convergence and accuracy of DFL. In this paper, we propose Cached Decentralized Federated Learning (Cached-DFL) to investigate delay-tolerant model spreading and aggregation enabled by model caching on mobile agents. Each agent stores not only its own model, but also models of agents encountered in the recent past. When two agents meet, they exchange their own models as well as the cached models. Local model aggregation utilizes all models stored in the cache. We theoretically analyze the convergence of Cached-DFL, explicitly taking into account the model staleness introduced by caching. We design and compare different model caching algorithms for different DFL and mobility scenarios. We conduct detailed case studies in a vehicular network to systematically investigate the interplay between agent mobility, cache staleness, and model convergence. In our experiments, Cached-DFL converges quickly, and significantly outperforms DFL without caching.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました