脳に似たAIの構築(Small changes make some AI systems more brain-like)

2025-12-01 ジョンズ・ホプキンス大学(JHU)

Johns Hopkins University(JHU)の研究によると、人工知能(AI)を構築する際に──大量データを使った学習以上に──「脳に似た構造(アーキテクチャ)」を設計の出発点に採ることで、データを与える前から“人間の脳に近い挙動”を示すAIが作れる可能性がある。研究チームは、従来型のネットワーク設計(トランスフォーマー、全結合型ネットワーク、畳み込みネットワーク)を改変し、数十種類の「生まれて間もない(未学習の)ニューラルネットワーク」を構築。そのうえで、それらに画像を与えて人や霊長類に見せたときの脳活動パターンと比較したところ、特に畳み込み型ネットワークを「脳に近い形」に設計変更したモデルは、少ない学習でも人間の脳に近い反応を示すことがわかった。これは、膨大なデータと計算資源に頼る現状のAI開発とは異なる方向性を示すもので、「脳型設計+必要最小限の学習」で高速かつ効率的な学習が可能になる可能性を示唆している。今後は、生物の脳に学ぶ新しい学習アルゴリズムの開発が見込まれている。

<関連情報>

畳み込みアーキテクチャは皮質に整合したde novoである Convolutional architectures are cortex-aligned de novo

Atlas Kazemian,Eric Elmoznino & Michael F. Bonner

Nature Machine Intelligence  Published:13 November 2025

DOI:https://doi.org/10.1038/s42256-025-01142-3 A preprint version 

脳に似たAIの構築(Small changes make some AI systems more brain-like)

Abstract

What underlies the emergence of cortex-aligned representations in deep neural network models of vision? Earlier work suggested that shared architectural constraints were a major factor, but the success of widely varied architectures after pretraining raises critical questions about the importance of architectural constraints. Here we show that in wide networks with minimal training, architectural inductive biases have a prominent role. We examined networks with varied architectures but no pretraining and quantified their ability to predict image representations in the visual cortices of monkeys and humans. We found that cortex-aligned representations emerge in convolutional architectures that combine two key manipulations of dimensionality: compression in the spatial domain, through pooling, and expansion in the feature domain by increasing the number of channels. We further show that the inductive biases of convolutional architectures are critical for obtaining performance gains from feature expansion—dimensionality manipulations were relatively ineffective in other architectures and in convolutional models with targeted lesions. Our findings suggest that the architectural constraints of convolutional networks are sufficiently close to the constraints of biological vision to allow many aspects of cortical visual representation to emerge even before synaptic connections have been tuned through experience.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました