日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  Non-Rigid Neural Radiance Fields: Reconstruction and Novel View Synthesis of a Deforming Scene from Monocular Video

Tretschk, E., Tewari, A., Golyanik, V., Zollhöfer, M., Lassner, C., & Theobalt, C. (2020). Non-Rigid Neural Radiance Fields: Reconstruction and Novel View Synthesis of a Deforming Scene from Monocular Video. Retrieved from https://arxiv.org/abs/2012.12247.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0007-EA00-1 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000E-317D-F
資料種別: 成果報告書

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:2012.12247.pdf (プレプリント), 4MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0007-EA02-F
ファイル名:
arXiv:2012.12247.pdf
説明:
File downloaded from arXiv at 2021-02-08 14:11
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Tretschk, Edgar1, 著者           
Tewari, Ayush1, 著者           
Golyanik, Vladislav1, 著者           
Zollhöfer, Michael2, 著者           
Lassner, Christoph2, 著者
Theobalt, Christian1, 著者                 
所属:
1Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              
2External Organizations, ou_persistent22              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV,Computer Science, Graphics, cs.GR
 要旨: In this tech report, we present the current state of our ongoing work on
reconstructing Neural Radiance Fields (NERF) of general non-rigid scenes via
ray bending. Non-rigid NeRF (NR-NeRF) takes RGB images of a deforming object
(e.g., from a monocular video) as input and then learns a geometry and
appearance representation that not only allows to reconstruct the input
sequence but also to re-render any time step into novel camera views with high
fidelity. In particular, we show that a consumer-grade camera is sufficient to
synthesize convincing bullet-time videos of short and simple scenes. In
addition, the resulting representation enables correspondence estimation across
views and time, and provides rigidity scores for each point in the scene. We
urge the reader to watch the supplemental videos for qualitative results. We
will release our code.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2020-12-222020-12-232020
 出版の状態: オンラインで出版済み
 ページ: 9 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 2012.12247
URI: https://arxiv.org/abs/2012.12247
BibTex参照ID: Tretschk_2012.12247
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物

表示: