アナログコンピュート・イン・メモリー回路で TransformerとCNNのハイブリッド処理を世界で初めて実現 ~対従来比10倍の演算エネルギー効率を達成し、AIの環境負荷を低減~

ad

2024-02-19 慶應義塾大学,科学技術振興機構

慶應義塾大学理工学部電気情報工学科の吉岡健太郎専任講師は、エッジコンピューティングの普及に伴い、より身近なデバイスへの人工知能(AI)応用を促進するため、深層ニューラルネットワーク(DNN)、特にTransformer処理の高効率な推論を実現する高精度かつ省エネルギーなコンピュート・イン・メモリ(CIM)回路を開発しました。

本研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案しました。この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1Wあたりの処理速度が818 TOPS(兆回/秒)と非常に高い電力効率を実現しました。また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094 TOPS/Wを達成しました。

本研究成果は、エッジコンピューティングやAIの分野で、電力効率と処理速度の両面で効率的なAIハードウェアの開発に貢献します。また将来的にはより多くの人々が大規模言語モデル(LLM)といったAIサービスを利用しやすくなると期待されます。

研究成果の詳細は、米国時間2月18日から開催されている「ISSCC2024(国際固体素子回路会議)」にて発表されました。ISSCCは集積回路に関するオリンピックとも称される、最難関国際会議です。

プレスリリース全文は、以下をご覧下さい。

プレスリリース(PDF)

プレスリリース全文

ad


1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました