伝染病、エネルギー、経済にわたる予測を強化する多目的モデル(Multipurpose Model Enhances Forecasting Across Epidemics, Energy, and Economics)

ad

2024-12-03 ジョージア工科大学

ジョージア工科大学の研究者たちは、疫病、エネルギー、経済など多岐にわたる分野での予測精度を向上させるため、Large Pre-Trained Time-Series Model(LPTM)という機械学習モデルを開発しました。このモデルは、医療、交通、エネルギーなど異なる業界のデータセットを事前に学習することで、各分野に特化したモデルと同等以上の性能を発揮します。特に、従来のベースラインモデルと比較して、データ量を40%削減し、トレーニング時間を50%短縮することが可能です。さらに、LPTMはトレーニングデータがなくても適用できるゼロショット予測にも対応しています。この研究成果は、2024年12月にカナダ・バンクーバーで開催されたNeurIPS 2024で発表されました。

<関連情報>

時空間時系列解析タスクのための大規模な事前訓練された時系列モデル
Large Pre-trained time series models for cross-domain Time series analysis tasks

Harshavardhan Kamarthi, B. Aditya Prakash
arXive  last revised 4 Dec 2024 (this version, v3)
DOI:https://doi.org/10.48550/arXiv.2311.11413

伝染病、エネルギー、経済にわたる予測を強化する多目的モデル(Multipurpose Model Enhances Forecasting Across Epidemics, Energy, and Economics)

Large pre-trained models have been vital in recent advancements in domains like language and vision, making model training for individual downstream tasks more efficient and provide superior performance. However, tackling time-series analysis tasks usually involves designing and training a separate model from scratch leveraging training data and domain expertise specific to the task. We tackle a significant challenge for pre-training a foundational time-series model from multi-domain time-series datasets: extracting semantically useful tokenized inputs to the model across heterogenous time-series from different domains. We propose Large Pre-trained Time-series Models (LPTM) that introduces a novel method of adaptive segmentation that automatically identifies optimal dataset-specific segmentation strategy during pre-training. This enables LPTM to perform similar to or better than domain-specific state-of-art model when fine-tuned to different downstream time-series analysis tasks and under zero-shot settings. LPTM achieves superior forecasting and time-series classification results taking up to 40% less data and 50% less training time compared to state-of-art baselines. Code: this http URL

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました