AIモデル学習における不確実性への対処法を提示(It’s Time to Get Comfortable with Uncertainty in AI Model Training)

ad

2025-04-24 パシフィック・ノースウェスト国立研究所(PNNL)

パシフィック・ノースウエスト国立研究所(PNNL)は、AIモデルの予測に伴う不確実性を定量化する新手法を発表しました。特に化学や材料科学で使われるニューラルネットワークポテンシャル(NNP)モデルにおいて、予測の信頼性を評価し、モデルが自身の限界を認識することを可能にします。先進材料モデル「MACE」を用いた検証で有効性が示され、オープンソースのSNAPフレームワークとして公開中。AIを活用した実験や開発の加速が期待されています。

<関連情報>

ニューラルネットワーク潜在基礎モデルの不確実性定量化 Uncertainty quantification for neural network potential foundation models

Jenna A. Bilbrey,Jesun S. Firoz,Mal-Soon Lee & Sutanay Choudhury
npj Computational Materials  Published:24 April 2025
DOI:https://doi.org/10.1038/s41524-025-01572-y

AIモデル学習における不確実性への対処法を提示(It’s Time to Get Comfortable with Uncertainty in AI Model Training)

Abstract

For neural network potentials (NNPs) to gain widespread use, researchers must be able to trust model outputs. However, the blackbox nature of neural networks and their inherent stochasticity are often deterrents, especially for foundation models trained over broad swaths of chemical space. Uncertainty information provided at the time of prediction can help reduce aversion to NNPs. In this work, we detail two uncertainty quantification (UQ) methods. Readout ensembling, by finetuning the readout layers of an ensemble of foundation models, provides information about model uncertainty, while quantile regression, by replacing point predictions with distributional predictions, provides information about uncertainty within the underlying training data. We demonstrate our approach with the MACE-MP-0 model, applying UQ to the foundation model and a series of finetuned models. The uncertainties produced by the readout ensemble and quantile methods are demonstrated to be distinct measures by which the quality of the NNP output can be judged.

1603情報システム・データ工学
ad
ad
Follow
ad
タイトルとURLをコピーしました