風力発電予測の信頼性を向上させる新しい研究(New study improves the trustworthiness of wind power forecasts)

ad

2025-01-29 スイス連邦工科大学ローザンヌ校(EPFL)

EPFLの研究チームは、説明可能な人工知能(XAI)技術を用いて、風力発電予測モデルの信頼性と透明性を向上させました。従来のAIモデルは「ブラックボックス」として機能し、その予測過程が不透明でしたが、XAIを適用することで、モデルの意思決定プロセスを可視化し、予測の信頼性を高めることが可能となりました。研究では、風向、風速、気圧、気温など、風力発電に影響を与える気象モデルの入力変数を選択し、スイスや世界各地の風力発電所から収集したデータと組み合わせてニューラルネットワークを訓練しました。さらに、XAI技術の解釈が信頼できるかを評価するための指標を開発しました。このアプローチにより、モデルに組み込むべき重要な変数を特定し、不要な変数を除外しても予測精度を維持できることが示されました。この成果は、風力発電の予測精度を向上させ、電力系統運用者の信頼性を高め、風力エネルギーの競争力向上に寄与することが期待されます。

<関連情報>

風力発電予測における説明可能な人工知能は信頼できるか? Can we trust explainable artificial intelligence in wind power forecasting?

Wenlong Liao, Jiannong Fang, Lin Ye, Birgitte Bak-Jensen, Zhe Yang, Fernando Porte-Agel
Applied Energy  Available online: 24 August 2024
DOI:https://doi.org/10.1016/j.apenergy.2024.124273

風力発電予測の信頼性を向上させる新しい研究(New study improves the trustworthiness of wind power forecasts)

Highlights

  • Four explainable artificial intelligence techniques are tailored to provide interpretability for machine learning models.
  • Multiple metrics are defined to evaluate the trustworthiness of the interpretability.
  • Explainable artificial intelligence techniques are extensively investigated on real datasets and machine learning models.

Abstract

Advanced artificial intelligence (AI) models typically achieve high accuracy in wind power forecasting, but their internal mechanisms lack interpretability, which undermines user confidence in forecast value and strategy execution. To this end, this paper aims to investigate the interpretability of AI models, which is crucial but usually overlooked in wind power forecasting. Specifically, four model-agnostic explainable artificial intelligence (XAI) techniques (i.e., Shapley additive explanations, permutation feature importance, partial dependence plot, and local interpretable model-agnostic explanations) are tailored to provide global and instance interpretability for AI models in wind power forecasting. Then, several metrics are proposed to evaluate the trustworthiness of interpretations provided by XAI techniques. Simulation results demonstrate that the proposed XAI techniques can not only identify important features from wind power datasets, but also enable the understanding of the contribution of each feature to the forecast power output for a specific sample. Furthermore, the proposed evaluation metrics aid users in comprehensively assessing the trustworthiness of XAI techniques in wind power forecasting, enabling them to judiciously select suitable XAI techniques for their AI models.

0401発送配変電
ad
ad
Follow
ad
タイトルとURLをコピーしました