AIニューラルネットワークにおける性能とプライバシーの関係を解明(New Approach Finds Privacy Vulnerability and Performance Are Intertwined in AI Neural Networks)

2026-03-24 ノースカロライナ州立大学

米・North Carolina State Universityの研究チームは、ニューラルネットワークにおいてプライバシー保護と性能の両立を実現する新手法を提案した。従来、個人データ保護を強化するとモデル精度が低下するトレードオフが課題だったが、本研究では学習過程に工夫を加えることで、プライバシーを維持しつつ高い予測性能を確保できることを示した。具体的には、情報漏洩リスクを抑える仕組みと効率的な最適化手法を組み合わせ、複数の実験で既存手法を上回る結果を確認。これにより医療や金融など機微データを扱う分野で、安全かつ高性能なAI活用が期待される。

<関連情報>

学習可能性とプライバシーの脆弱性は、いくつかの重要な重み付けによって密接に結びついている Learnability and Privacy Vulnerability are Entangled in a Few Critical Weights

Xingli Fang、Jung-Eun Kim
arXiv  Submitted on 13 Mar 2026
DOI:https://doi.org/10.48550/arXiv.2603.13186

AIニューラルネットワークにおける性能とプライバシーの関係を解明(New Approach Finds Privacy Vulnerability and Performance Are Intertwined in AI Neural Networks)

Abstract

Prior approaches for membership privacy preservation usually update or retrain all weights in neural networks, which is costly and can lead to unnecessary utility loss or even more serious misalignment in predictions between training data and non-training data. In this work, we observed three insights: i) privacy vulnerability exists in a very small fraction of weights; ii) however, most of those weights also critically impact utility performance; iii) the importance of weights stems from their locations rather than their values. According to these insights, to preserve privacy, we score critical weights, and instead of discarding those neurons, we rewind only the weights for fine-tuning. We show that, through extensive experiments, this mechanism exhibits outperforming resilience in most cases against Membership Inference Attacks while maintaining utility.

1602ソフトウェア工学
ad
ad
Follow
ad
タイトルとURLをコピーしました