多様な体形や姿勢に対応した高品質な仮想試着手法を開発

ad
ad
ad

オンラインショッピングやビデオ会議への応用を期待

2021-10-08 東京大学

オンラインショッピングが普及するにつれ、オンライン上で仮想的に試着ができるシステムへの需要も高まっています。
今回、情報理工学系研究科創造情報学専攻 五十嵐健夫教授の研究室では、オンライン上でリアルタイムで高品質な仮想試着を実現する手法を開発しました。
今までの仮想的な試着の実現手法では、多種の衣服に対して一つの深層学習モデルを構築していましたが、今回の手法では特定の衣服の画像の生成に対象を絞って深層学習モデルを構築することで、様々な体形や姿勢に対応した試着画像を生成することを可能にしました。
また深層学習モデルの構築に必要な大量の訓練データを自動的に取得するために、体形や姿勢を自動制御できる訓練データ撮影専用のロボットマネキンを開発しました。
今回開発された手法を用いることで、まるで試着室で鏡を見ているような感覚で仮想的な試着をすることができるため、オンラインショッピングでより好みにあった商品を選択したり、ビデオ会議で身体を動かしても違和感のないように仮想的な衣服を合成表示したりすることが可能となります。
この研究成果は2021年10月10日から14日までオンライン上でバーチャル開催されるユーザーインターフェース分野の国際会議、ACM UIST 2021(The ACM Symposium on User Interface Software and Technology)で発表されます。

図 : 画像生成結果の例。腕を伸ばす、曲げるなど様々な姿勢変化に対応できている。

詳しい資料は≫

コメント

タイトルとURLをコピーしました