AIをより脳に近づけるための改良研究(Small changes make some AI systems more brain-like than others)

2025-12-01 ジョンズ・ホプキンス大学(JHU)

JHUの研究チームは、人工知能(AI)システムを「脳に似た構造(architecture)」で設計することで、 未学習状態でも人間や霊長類の脳と似た反応パターンを示すAI が可能になることを示した。彼らは主流のネットワーク設計であるトランスフォーマー、全結合ネットワーク、畳み込みネットワーク(CNN)の3系統をベースに、構造を変更・拡張した多数のニューラルネットワークを構築。これらに大量の学習を与えずに、画像を見せたときの出力を比較したところ、特に構造を改変した畳み込みネットワークが 人間やサルの視覚野に見られる脳活動パターンと高い相関 を示した。これは、従来の「データ量+大規模学習に依存するAI開発」への疑問を提示するもので、AIの効率化、エネルギー消費削減、さらにはより少ないデータで学習可能な次世代AIへの道を拓く成果だ。研究者らは今後、生物の脳を参考にした新たな学習アルゴリズムの構築を進める予定としている。

<関連情報>

畳み込みアーキテクチャは皮質に整合したde novoである Convolutional architectures are cortex-aligned de novo

Atlas Kazemian,Eric Elmoznino & Michael F. Bonner

Nature Machine Intelligence  Published:13 November 2025

DOI:https://doi.org/10.1038/s42256-025-01142-3 A preprint version

AIをより脳に近づけるための改良研究(Small changes make some AI systems more brain-like than others)

Abstract

What underlies the emergence of cortex-aligned representations in deep neural network models of vision? Earlier work suggested that shared architectural constraints were a major factor, but the success of widely varied architectures after pretraining raises critical questions about the importance of architectural constraints. Here we show that in wide networks with minimal training, architectural inductive biases have a prominent role. We examined networks with varied architectures but no pretraining and quantified their ability to predict image representations in the visual cortices of monkeys and humans. We found that cortex-aligned representations emerge in convolutional architectures that combine two key manipulations of dimensionality: compression in the spatial domain, through pooling, and expansion in the feature domain by increasing the number of channels. We further show that the inductive biases of convolutional architectures are critical for obtaining performance gains from feature expansion—dimensionality manipulations were relatively ineffective in other architectures and in convolutional models with targeted lesions. Our findings suggest that the architectural constraints of convolutional networks are sufficiently close to the constraints of biological vision to allow many aspects of cortical visual representation to emerge even before synaptic connections have been tuned through experience.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました