孫茂松教授チームが「デンシング法則」を提唱―大規模言語モデルの効率的発展傾向を解明(Sun Maosong’s team proposes “Densing Law”, revealing inherent trends in efficient development of LLMs)

2025-12-04 清華大学

清華大学の孫茂松教授らと OpenBMB が、大規模言語モデル(LLM)の効率進化を記述する新法則「Densing Law(デンシング則)」を提案した。研究チームは、性能1単位あたりのパラメータ量を示す「能力密度(Capability Density)」を定義し、51種類のオープンソースLLMを分析。その結果、2023年2月〜2025年4月の間に最大能力密度は約3.5か月ごとに倍増しており、同じ性能を達成するのに必要なパラメータ規模や推論コストが急減していることが明らかになった。これは、従来のScaling Lawが重視してきた巨大化路線とは異なる、LLMの内在的な効率化傾向を示すものである。さらに、能力密度の加速的向上とムーアの法則の相乗効果により、エッジデバイス上で高性能LLMが動作可能となる展望も示された。研究チームは実際にMiniCPM系列など高能力密度モデルを開発し、学術界・産業界で広く採用されている。本成果はNature Machine Intelligenceに表紙論文として掲載された。

孫茂松教授チームが「デンシング法則」を提唱―大規模言語モデルの効率的発展傾向を解明(Sun Maosong’s team proposes “Densing Law”, revealing inherent trends in efficient development of LLMs)Figure 1. Schematic diagram of the calculation method for “Capability Density”

<関連情報>

LLMの密度法則 Densing law of LLMs

Chaojun Xiao,Jie Cai,Weilin Zhao,Biyuan Lin,Guoyang Zeng,Jie Zhou,Zhi Zheng,Xu Han,Zhiyuan Liu & Maosong Sun
Nature Machine Intelligence  Published:06 November 2025
DOI:https://doi.org/10.1038/s42256-025-01137-0

A preprint version of the article is available at arXiv.

Abstract

Large language models (LLMs) have emerged as a milestone in artificial intelligence. The scaling law indicates that the performance of LLMs can continually improve as the model size increases, which poses challenges for training and deployment. Despite numerous efforts to improve LLM efficiency, there is no general consensus on development trends and evaluation metrics for efficiency of LLMs with different scales. To address this tension between model performance and efficiency, we introduce the concept of capability density as a metric to evaluate the quality of the LLMs and describe the trend of LLMs in terms of both effectiveness and efficiency. Intuitively, capability density can be understood as the capability contained within each unit of model parameters. Capability density provides a unified framework for assessing both model performance and efficiency. Here we show an empirical observation, called the ‘densing law’, that the capability density of LLMs grows exponentially over time. More specifically, using widely used benchmarks for evaluation, the maximum capability density of open-source LLMs doubles approximately every 3.5 months. This reveals that both parameter requirements and inference costs of LLMs for achieving equivalent performance decrease exponentially, offering insights for efficient LLM development strategies.

1602ソフトウェア工学
ad
ad
Follow
ad
タイトルとURLをコピーしました