日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  IGNOR: Image-guided Neural Object Rendering

Thies, J., Zollhöfer, M., Theobalt, C., Stamminger, M., & Nießner, M. (2018). IGNOR: Image-guided Neural Object Rendering. Retrieved from http://arxiv.org/abs/1811.10720.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-0002-F7EB-F 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000E-3222-3
資料種別: 成果報告書
LaTeX : {IGNOR}: {Image-guided Neural Object Rendering}

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:1811.10720.pdf (プレプリント), 5MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0002-F7ED-D
ファイル名:
arXiv:1811.10720.pdf
説明:
File downloaded from arXiv at 2019-02-11 13:04 Video: https://youtu.be/s79HG9yn7QM
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-

関連URL

表示:
非表示:
URL:
https://youtu.be/s79HG9yn7QM (付録資料)
説明:
Video
OA-Status:

作成者

表示:
非表示:
 作成者:
Thies, Justus1, 著者           
Zollhöfer, Michael1, 著者           
Theobalt, Christian2, 著者                 
Stamminger, Marc1, 著者           
Nießner, Matthias1, 著者           
所属:
1External Organizations, ou_persistent22              
2Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV
 要旨: We propose a new learning-based novel view synthesis approach for scanned
objects that is trained based on a set of multi-view images. Instead of using
texture mapping or hand-designed image-based rendering, we directly train a
deep neural network to synthesize a view-dependent image of an object. First,
we employ a coverage-based nearest neighbour look-up to retrieve a set of
reference frames that are explicitly warped to a given target view using
cross-projection. Our network then learns to best composite the warped images.
This enables us to generate photo-realistic results, while not having to
allocate capacity on `remembering' object appearance. Instead, the multi-view
images can be reused. While this works well for diffuse objects,
cross-projection does not generalize to view-dependent effects. Therefore, we
propose a decomposition network that extracts view-dependent effects and that
is trained in a self-supervised manner. After decomposition, the diffuse
shading is cross-projected, while the view-dependent layer of the target view
is regressed. We show the effectiveness of our approach both qualitatively and
quantitatively on real as well as synthetic data.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2018-11-262018
 出版の状態: オンラインで出版済み
 ページ: 10 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 1811.10720
URI: http://arxiv.org/abs/1811.10720
BibTex参照ID: Thies2018IGNORIN
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物

表示: