大規模な言語モデルは、人間のようには振る舞わない(Large language models don’t behave like people, even though we may expect them to)

ad

2024-07-23 マサチューセッツ工科大学(MIT)

大規模言語モデル(LLM)は多様なタスクに適用できるため、その評価が困難です。MITの研究者は、LLMの評価には人々がその能力について形成する信念を理解する必要があると提案しました。研究チームは、LLMの能力に対する人々の信念の更新方法をモデル化した「人間一般化関数」を導入し、LLMがこの関数とどれだけ一致しているかを評価しました。結果、モデルの能力が人間の信念と一致しない場合、ユーザーはLLMの適用範囲について過剰な自信や過少評価をしてしまう可能性があると判明しました。これにより、複雑なモデルが単純なモデルよりも高リスクな状況で劣ることが示されました。この研究は、人々の信念を考慮に入れたLLMの開発と性能評価の新しい枠組みを提供します。

<関連情報>

大規模言語モデルは人間の期待通りに動作するか?人間の汎化関数を測定する Do Large Language Models Perform the Way People Expect? Measuring the Human Generalization Function

Keyon Vafa, Ashesh Rambachan, Sendhil Mullainathan
arXiv  Submitted on 3 Jun 2024
DOI:https://arxiv.org/abs/2406.01382

大規模な言語モデルは、人間のようには振る舞わない(Large language models don’t behave like people, even though we may expect them to)

Abstract

What makes large language models (LLMs) impressive is also what makes them hard to evaluate: their diversity of uses. To evaluate these models, we must understand the purposes they will be used for. We consider a setting where these deployment decisions are made by people, and in particular, people’s beliefs about where an LLM will perform well. We model such beliefs as the consequence of a human generalization function: having seen what an LLM gets right or wrong, people generalize to where else it might succeed. We collect a dataset of 19K examples of how humans make generalizations across 79 tasks from the MMLU and BIG-Bench benchmarks. We show that the human generalization function can be predicted using NLP methods: people have consistent structured ways to generalize. We then evaluate LLM alignment with the human generalization function. Our results show that — especially for cases where the cost of mistakes is high — more capable models (e.g. GPT-4) can do worse on the instances people choose to use them for, exactly because they are not aligned with the human generalization function.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました