AIが「なぜ異常と判断したか」を波形で示す反事実波形生成技術を開発 〜インフラ設備や製造装置の異常診断で、原因究明と保守判断を支える説明性の高いAIの実現に向けて〜

2026-05-11 九州大学

九州大学マス・フォア・インダストリ研究所(IMI)と東芝は、異常検知AIが「なぜ異常と判断したのか」を波形として可視化する「反事実波形生成技術」を開発した。技術は説明可能AI(XAI)の反事実説明を時系列データへ応用したもので、異常と判定されたセンサ波形に対し、「正常と判定されるにはどこをどう変えればよいか」を示す波形を生成する。これにより、AI判断根拠を局所的な波形差分として直感的に理解でき、インフラ設備や製造装置の保守・原因解析に役立つ。従来の時系列XAIはニューラルネットワーク依存が多かったが、本技術はより高性能な判定AIや異常データが少ない異常検知にも適用可能である。公開データセットによる評価では、従来法より不要な波形変形を抑えた高品質な反事実波形生成を実現した。研究成果は機械学習分野の国際会議AISTATS 2026で発表された。

AIが「なぜ異常と判断したか」を波形で示す反事実波形生成技術を開発 〜インフラ設備や製造装置の異常診断で、原因究明と保守判断を支える説明性の高いAIの実現に向けて〜
本研究における技術(学習段階・運用段階の概要)

<関連情報>

時系列分類における潜在構造を用いた反事実的説明 Counterfactual Explanations via Latent Structure for Time Series Classification

Akihiro Yamaguchi, Shizuo Kaji, Kaname Matsue, Ryusei Shingaki
The 29th International Conference on Artificial Intelligence and Statistics (AISTATS 2026)
Open Review.net  Published: 03 Feb 2026

Abstract

There is a growing need for explainability in time series classification. Counterfactual (CF) generation creates in-distribution synthetic instances that flip the prediction to a desired class. We propose CELT, a model-agnostic CF generation method for time-series classifiers, including non-differentiable and one-class models. In the development phase, CELT learns a structured latent space in which desired-class latent instances form clusters and other latent instances are pushed away. In addition, the design enables segment-wise, time-local edits. In the deployment phase, CELT efficiently generates CFs by editing a minimal number of time-local segments, guided by the learned structure. We formulate both phases as mathematically sound optimization problems that uniformly handle supervised and one-class classification, and we demonstrate effectiveness on UCR datasets.

1603情報システム・データ工学
ad
ad
Follow
ad
タイトルとURLをコピーしました