2019/10/28 アメリカ合衆国・ハーバード大学
・ ハーバード大学が、ハエトリグモ(jumping spiders)に着想を得た、コンパクトで効率的な深度センサーを開発。
・ オンボード・マイクロボット、小型ウェアラブルデバイスや、軽量の VR/AR ヘッドセットでの利用が可能。マルチ機能のフラットなメタレンズと、シングルショットで深度を計測する超高効率アルゴリズムを組合せた。
・ 車輌やビデオゲームコンソール等に搭載される現在の深度センサーの多くは、集積光源と距離を計測するマルチカメラを使用(例:数千個のレーザー光のドットで顔の輪郭をマッピングするスマートフォンの Face ID)するが、これは電池や高速コンピュータを配置する余裕のある大型デバイスに限られている。
・ 人間の眼による物体までの距離計測方法では、左右の眼がそれぞれ若干異なるイメージを収集するステレオビジョンを利用。脳がこれらのイメージの差異をピクセル毎に処理して距離を決定する。2 種類のイメージにおいて一致する部分を探査するこのようなマッチングの計算は、負荷のかかる作業。
・ 物体への距離測定能力をより効率的に進化させたハエトリグモでは、主要な 2 個の眼がそれぞれ層状に並ぶ半透明の網膜を数個有し、これらの網膜がぼやけの量の異なる複数のイメージを処理する。例えば、1 個の眼でショウジョウバエを見る場合、ある網膜のイメージでは鮮明で、別の網膜でぼやけている。このぼやけの量の違いによりハエまでの距離の情報をエンコードする。
・ コンピュータービジョンでは、このような距離計測は奥行推定法(Deep from Defocus: DFD)として知られるが、自然の仕組みを再現するにはぼやけの量に違いがあるイメージを経時的に捉える大型カメラを要し、これがセンサーの速度とアプリケーションを制限している。
・ 今回、メタレンズの使用によりこの課題に対処。異なる情報を含んだ複数のイメージを同時に作製するメタレンズを実証。これをベースにぼやけの量が異なる 2 種類のイメージを同時に作製するメタレンズを開発した。
・ 同メタレンズは光を分割してぼやけた 2 種類のイメージをフォトセンサー上に並べて形成後、新たに開発した超高効率のアルゴリズムがこれらのイメージを処理し、物体までの距離を表す深度マップを構築する。
・ メタレンズと演算アルゴリズムを併せて開発した同技術は、コンピューティングセンサーの新しい作製技術であり、多くの可能性を拓くものと考える。
・ 本研究は、米空軍科学研究局(AFOSR)と米国立科学財団(NSF)が支援した。
URL: https://www.seas.harvard.edu/news/2019/10/compact-depth-sensor-inspired-spiders
(関連情報)
米国科学アカデミー紀要(PNAS)掲載論文(アブストラクトのみ:全文は有料)
Compact single-shot metalens depth sensors inspired by eyes of jumping spiders URL: https://www.pnas.org/content/early/2019/10/22/1912154116
<NEDO海外技術情報より>
Abstract
Jumping spiders (Salticidae) rely on accurate depth perception for predation and navigation. They accomplish depth perception, despite their tiny brains, by using specialized optics. Each principal eye includes a multitiered retina that simultaneously receives multiple images with different amounts of defocus, and from these images, distance is decoded with relatively little computation. We introduce a compact depth sensor that is inspired by the jumping spider. It combines metalens optics, which modifies the phase of incident light at a subwavelength scale, with efficient computations to measure depth from image defocus. Instead of using a multitiered retina to transduce multiple simultaneous images, the sensor uses a metalens to split the light that passes through an aperture and concurrently form 2 differently defocused images at distinct regions of a single planar photosensor. We demonstrate a system that deploys a 3-mm-diameter metalens to measure depth over a 10-cm distance range, using fewer than 700 floating point operations per output pixel. Compared with previous passive depth sensors, our metalens depth sensor is compact, single-shot, and requires a small amount of computation. This integration of nanophotonics and efficient computation brings artificial depth sensing closer to being feasible on millimeter-scale, microwatts platforms such as microrobots and microsensor networks.