大規模言語モデルが時間の方向を感じる(Large Language Models feel the direction of time)

ad

2024-09-16 スイス連邦工科大学ローザンヌ校(EPFL)

研究者たちは、大規模言語モデル(LLMs)が文中の次の単語を予測する際には優れているが、前の単語を予測する際には精度が低下する「時間の矢」効果を発見しました。この非対称性は、LLMsがテキストを処理する方法に深く関係し、自然言語の構造理解に新たな視点を提供します。また、この現象は全ての言語モデルに共通しており、時間の流れや知能の探知に関する新たな研究方向を示唆しています。この研究はICML 2024で発表されました。

<関連情報>

大規模言語モデルの時間の矢 Arrows of Time for Large Language Models

Vassilis Papadopoulos,Jérémie Wenger,Clément Hongler
arXiv  last revised 24 Jul 2024 (this version, v4)
DOI:https://doi.org/10.48550/arXiv.2401.17505

大規模言語モデルが時間の方向を感じる(Large Language Models feel the direction of time)

Abstract

We study the probabilistic modeling performed by Autoregressive Large Language Models (LLMs) through the angle of time directionality, addressing a question first raised in (Shannon, 1951). For large enough models, we empirically find a time asymmetry in their ability to learn natural language: a difference in the average log-perplexity when trying to predict the next token versus when trying to predict the previous one. This difference is at the same time subtle and very consistent across various modalities (language, model size, training time, …). Theoretically, this is surprising: from an information-theoretic point of view, there should be no such difference. We provide a theoretical framework to explain how such an asymmetry can appear from sparsity and computational complexity considerations, and outline a number of perspectives opened by our results.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました