日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  DeepCap: Monocular Human Performance Capture Using Weak Supervision

Habermann, M., Xu, W., Zollhöfer, M., Pons-Moll, G., & Theobalt, C. (2020). DeepCap: Monocular Human Performance Capture Using Weak Supervision. Retrieved from https://arxiv.org/abs/2003.08325.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0007-E010-9 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000E-32B1-1
資料種別: 成果報告書
LaTeX : {DeepCap}: {M}onocular Human Performance Capture Using Weak Supervision

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:2003.08325.pdf (プレプリント), 3MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0007-E012-7
ファイル名:
arXiv:2003.08325.pdf
説明:
File downloaded from arXiv at 2021-02-03 07:46
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Habermann, Marc1, 著者           
Xu, Weipeng1, 著者           
Zollhöfer, Michael2, 著者           
Pons-Moll, Gerard3, 著者
Theobalt, Christian1, 著者                 
所属:
1Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              
2External Organizations, ou_persistent22              
3Computer Vision and Machine Learning, MPI for Informatics, Max Planck Society, ou_persistent22              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV
 要旨: Human performance capture is a highly important computer vision problem with
many applications in movie production and virtual/augmented reality. Many
previous performance capture approaches either required expensive multi-view
setups or did not recover dense space-time coherent geometry with
frame-to-frame correspondences. We propose a novel deep learning approach for
monocular dense human performance capture. Our method is trained in a weakly
supervised manner based on multi-view supervision completely removing the need
for training data with 3D ground truth annotations. The network architecture is
based on two separate networks that disentangle the task into a pose estimation
and a non-rigid surface deformation step. Extensive qualitative and
quantitative evaluations show that our approach outperforms the state of the
art in terms of quality and robustness.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2020-03-182020
 出版の状態: オンラインで出版済み
 ページ: 12 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 2003.08325
BibTex参照ID: Habermann2003.08325
URI: https://arxiv.org/abs/2003.08325
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物

表示: