日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

登録内容を編集ファイル形式で保存
 
 
ダウンロード電子メール
  Single-Shot Multi-Person 3D Body Pose Estimation From Monocular RGB Input

Mehta, D., Sotnychenko, O., Mueller, F., Xu, W., Sridhar, S., Pons-Moll, G., & Theobalt, C. (2017). Single-Shot Multi-Person 3D Body Pose Estimation From Monocular RGB Input. Retrieved from http://arxiv.org/abs/1712.03453.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0000-438F-4 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000E-32C7-9
資料種別: 成果報告書
LaTeX : Single-Shot Multi-Person {3D} Body Pose Estimation From Monocular {RGB} Input

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:1712.03453.pdf (プレプリント), 8MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0000-4391-0
ファイル名:
arXiv:1712.03453.pdf
説明:
File downloaded from arXiv at 2018-02-01 10:36
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
CCライセンス:
http://arxiv.org/help/license

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Mehta, Dushyant1, 著者           
Sotnychenko, Oleksandr1, 著者           
Mueller, Franziska1, 著者           
Xu, Weipeng1, 著者           
Sridhar, Srinath2, 著者
Pons-Moll, Gerard3, 著者                 
Theobalt, Christian1, 著者                 
所属:
1Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              
2External Organizations, ou_persistent22              
3Computer Vision and Multimodal Computing, MPI for Informatics, Max Planck Society, ou_persistent22              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV
 要旨: We propose a new efficient single-shot method for multi-person 3D pose
estimation in general scenes from a monocular RGB camera. Our fully
convolutional DNN-based approach jointly infers 2D and 3D joint locations on
the basis of an extended 3D location map supported by body part associations.
This new formulation enables the readout of full body poses at a subset of
visible joints without the need for explicit bounding box tracking. It
therefore succeeds even under strong partial body occlusions by other people
and objects in the scene. We also contribute the first training data set
showing real images of sophisticated multi-person interactions and occlusions.
To this end, we leverage multi-view video-based performance capture of
individual people for ground truth annotation and a new image compositing for
user-controlled synthesis of large corpora of real multi-person images. We also
propose a new video-recorded multi-person test set with ground truth 3D
annotations. Our method achieves state-of-the-art performance on challenging
multi-person scenes.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2017-12-092017
 出版の状態: オンラインで出版済み
 ページ: 11 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 1712.03453
URI: http://arxiv.org/abs/1712.03453
BibTex参照ID: Mehta1712.03453
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物

表示: