注意の「揺らぎ」を抑える病理画像向け新手法の開発~病理診断の精度向上と根拠の一貫性への貢献に期待~

2026-03-09 北海道大学

北海道大学大学院情報科学研究院の研究グループは、全スライド病理画像(WSI)診断に用いられる多重インスタンス学習(MIL)において、重要領域を示す「注意」が学習過程で大きく変動する問題に着目し、その揺らぎを抑える新手法「ASMIL(Attention Stabilized MIL)」を開発した。WSIはギガピクセル級の高解像度画像であり、詳細な領域ラベル付けが困難なため、スライド単位のラベルで学習するMILが用いられるが、注意分布の不安定性が性能や説明の一貫性を損なう課題があった。ASMILでは指数移動平均(EMA)で更新されるアンカーモデルを導入し、安定した注意分布を指標として学習を誘導することで、注意の揺らぎや過学習を抑制する。これにより診断精度と根拠の一貫性の向上が期待され、信頼性の高いAI病理診断の実現に貢献する可能性がある。本研究は機械学習分野の国際会議ICLR 2026に採択された。

注意の「揺らぎ」を抑える病理画像向け新手法の開発~病理診断の精度向上と根拠の一貫性への貢献に期待~

注意の視覚的な比較の例

<関連情報>

ASMIL:全スライド病理画像のための注意安定化型多重インスタンス学習ASMIL: Attention-stabilized multiple instance learning for whole-slide imaging

Linfeng Ye · Shayan Mohajer Hamidi · Zhixiang Chi · Guang Li · Mert Pilanci · Takahiro Ogawa · Miki Haseyama · Konstantinos Plataniotis

The Fourteenth International Conference on Learning Representations(ICLR 2026・⼈⼯ 知能と機械学習の国際会議)   2026 年 4 ⽉ 23 ⽇(⽊)〜4 ⽉ 27 ⽇(⽉)

Abstract

Attention-based multiple instance learning (MIL) has emerged as a powerful framework for whole slide image (WSI) diagnosis, leveraging attention to aggregate instance-level features into bag-level predictions. Despite this success, we find that such methods exhibit a new failure mode: unstable attention dynamics. Across four representative attention-based MIL methods and two public WSI datasets, we observe that attention distributions oscillate across epochs rather than converging to a consistent pattern, degrading performance. This instability adds to two previously reported challenges: overfitting and over-concentrated attention distribution. To simultaneously overcome these three limitations, we introduce attention-stabilized multiple instance learning (ASMIL), a novel unified framework. ASMIL uses an anchor model to stabilize attention, replaces softmax with a normalized sigmoid function in the anchor to prevent over-concentration, and applies token random dropping to mitigate overfitting. Extensive experiments demonstrate that ASMIL uses an anchor model to stabilize attention, replaces softmax with a normalized sigmoid function in the anchor to prevent over-concentration, and applies token random dropping to mitigate overfitting. Extensive experiments demonstrate that ASMIL achieves up to a 6.49% F1 score improvement over state-of-the-art methods. Moreover, integrating the anchor model and normalized sigmoid into existing attention-based MIL methods consistently boosts their performance, with F1 score gains up to 10.73%. All code and data are publicly available at https://anonymous.4open.science/r/ASMIL-5018/.

1602ソフトウェア工学
ad
ad
Follow
ad
タイトルとURLをコピーしました