日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

登録内容を編集ファイル形式で保存
 
 
ダウンロード電子メール
  Fast Non-Rigid Radiance Fields from Monocularized Data

Kappel, M., Golyanik, V., Castillo, S., Theobalt, C., & Magnor, M. A. (2022). Fast Non-Rigid Radiance Fields from Monocularized Data. Retrieved from https://arxiv.org/abs/2212.01368.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-000C-161D-C 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000C-1620-7
資料種別: 成果報告書

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:2212.01368.pdf (プレプリント), 51MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-000C-161F-A
ファイル名:
arXiv:2212.01368.pdf
説明:
File downloaded from arXiv at 2022-12-28 10:53
OA-Status:
Not specified
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Kappel, Moritz1, 著者
Golyanik, Vladislav2, 著者           
Castillo, Susana1, 著者
Theobalt, Christian2, 著者                 
Magnor, Marcus A.1, 著者           
所属:
1External Organizations, ou_persistent22              
2Visual Computing and Artificial Intelligence, MPI for Informatics, Max Planck Society, ou_3311330              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV,Computer Science, Graphics, cs.GR,Computer Science, Learning, cs.LG
 要旨: 3D reconstruction and novel view synthesis of dynamic scenes from collections
of single views recently gained increased attention. Existing work shows
impressive results for synthetic setups and forward-facing real-world data, but
is severely limited in the training speed and angular range for generating
novel views. This paper addresses these limitations and proposes a new method
for full 360{\deg} novel view synthesis of non-rigidly deforming scenes. At the
core of our method are: 1) An efficient deformation module that decouples the
processing of spatial and temporal information for acceleration at training and
inference time; and 2) A static module representing the canonical scene as a
fast hash-encoded neural radiance field. We evaluate the proposed approach on
the established synthetic D-NeRF benchmark, that enables efficient
reconstruction from a single monocular view per time-frame randomly sampled
from a full hemisphere. We refer to this form of inputs as monocularized data.
To prove its practicality for real-world scenarios, we recorded twelve
challenging sequences with human actors by sampling single frames from a
synchronized multi-view rig. In both cases, our method is trained significantly
faster than previous methods (minutes instead of days) while achieving higher
visual accuracy for generated novel views. Our source code and data is
available at our project page
https://graphics.tu-bs.de/publications/kappel2022fast.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2022-12-022022
 出版の状態: オンラインで出版済み
 ページ: 17 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 2212.01368
URI: https://arxiv.org/abs/2212.01368
BibTex参照ID: Kappel2212.01368
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示: 非表示:
Project name : 4DRepLy
Grant ID : 770784
Funding program : Horizon 2020 (H2020)
Funding organization : European Commission (EC)

出版物

表示: