AIは“独り言”で賢くなる

2026-01-28 沖縄科学技術大学院大学

沖縄科学技術大学院大学(OIST)の研究チームは、AIに人間の「独り言」に相当するインナースピーチ(自己対話)とワーキングメモリを組み込むことで、学習能力とタスク横断的な汎化性能が向上することを示した。研究では、複数のワーキングメモリスロットを持つ記憶構造を導入し、順序操作やパターン再構築などの課題で高い汎化能力を確認した。さらに、一定回数の自己対話を行う「自己対話目標」を学習過程に加えることで、マルチタスクや複雑な課題における性能が顕著に改善した。本手法は大量データを必要とせず、軽量で既存の機械学習手法を補完できる点が特徴である。成果は、人間の学習メカニズム理解を深めると同時に、柔軟に環境へ適応する次世代AIやロボット開発への応用が期待される。

AIは“独り言”で賢くなる
© 瀬良垣香織/OIST

<関連情報>

ワーキングメモリと自己主導型内発話は能動的な推論におけるマルチタスク一般化を強化する Working Memory and Self-Directed Inner Speech Enhance Multitask Generalization in Active Inference

Jeffrey Frederic Queißer,Jun Tani
Neural Computation  Published:December 22 2025
DOI:https://doi.org/10.1162/NECO.a.36

Abstract

This simulation study shows how a set of working memory tasks can be acquired simultaneously through interaction between a stacked recurrent neural network (RNN) and multiple working memories. In these tasks, temporal patterns are provided, followed by linguistically specified task goals. Training is performed in a supervised manner by minimizing the free energy, and goal-directed tasks are performed using the active inference (AIF) framework. Our simulation results show that the best task performance is obtained when two working memory modules are used instead of one or none and when self-directed inner speech is incorporated during task execution. Detailed analysis indicates that a temporal hierarchy develops in the stacked RNN module under these optimal conditions. We argue that the model’s capacity for generalization across novel task configurations is supported by the structured interplay between working memory and the generation of self-directed language outputs during task execution. This interplay promotes internal representations that reflect task structure, which in turn support generalization by enabling a functional separation between content encoding and control dynamics within the memory architecture.

1603情報システム・データ工学
ad
ad
Follow
ad
タイトルとURLをコピーしました