日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

登録内容を編集ファイル形式で保存
 
 
ダウンロード電子メール
  Video Depth-From-Defocus

Kim, H., Richardt, C., & Theobalt, C. (2016). Video Depth-From-Defocus. Retrieved from http://arxiv.org/abs/1610.03782.

Item is

基本情報

表示: 非表示:
資料種別: 成果報告書

ファイル

表示: ファイル
非表示: ファイル
:
arXiv:1610.03782.pdf (プレプリント), 9MB
ファイルのパーマリンク:
https://hdl.handle.net/11858/00-001M-0000-002B-B02F-3
ファイル名:
arXiv:1610.03782.pdf
説明:
File downloaded from arXiv at 2016-11-03 09:00 supplemental document included as appendix, 3DV 2016
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
CCライセンス:
http://arxiv.org/help/license

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Kim, Hyeongwoo1, 著者           
Richardt, Christian1, 2, 3, 著者           
Theobalt, Christian1, 著者           
所属:
1Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              
2Intel Visual Computing Institute, ou_persistent22              
3University of Bath, ou_persistent22              

内容説明

表示:
非表示:
キーワード: Computer Science, Computer Vision and Pattern Recognition, cs.CV
 要旨: Many compelling video post-processing effects, in particular aesthetic focus editing and refocusing effects, are feasible if per-frame depth information is available. Existing computational methods to capture RGB and depth either purposefully modify the optics (coded aperture, light-field imaging), or employ active RGB-D cameras. Since these methods are less practical for users with normal cameras, we present an algorithm to capture all-in-focus RGB-D video of dynamic scenes with an unmodified commodity video camera. Our algorithm turns the often unwanted defocus blur into a valuable signal. The input to our method is a video in which the focus plane is continuously moving back and forth during capture, and thus defocus blur is provoked and strongly visible. This can be achieved by manually turning the focus ring of the lens during recording. The core algorithmic ingredient is a new video-based depth-from-defocus algorithm that computes space-time-coherent depth maps, deblurred all-in-focus video, and the focus distance for each frame. We extensively evaluate our approach, and show that it enables compelling video post-processing effects, such as different types of refocusing.

資料詳細

表示:
非表示:
言語: eng - English
 日付: 2016-10-122016
 出版の状態: オンラインで出版済み
 ページ: 13 p.
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): arXiv: 1610.03782
URI: http://arxiv.org/abs/1610.03782
BibTex参照ID: Kim1610.03782
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物

表示: