分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models)

2026-04-01 フラウンホーファー研究機構

本記事は、フラウンホーファー研究機構が、AIモデルから企業の機密データを安全に削除する新技術を開発していることを紹介する。大規模言語モデルは学習データを内部に保持するため、機密情報が意図せず残存するリスクがある。研究チームは「機械アンラーニング(machine unlearning)」技術を活用し、特定データのみを選択的に除去しつつ、モデル性能の低下を最小限に抑える手法を開発した。この技術により、データ保護規制への対応や企業の情報管理強化が可能となる。今後は産業応用を見据え、より効率的で実用的なデータ削除技術の確立を目指している。

分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models)

© Fraunhofer ISST
Using federated unlearning, decentralized AI models revert to the state they were in before a data provider joined when that provider leaves. From that point on, they are retrained.

<関連情報>

1603情報システム・データ工学
ad
ad
Follow
ad
タイトルとURLをコピーしました