日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

登録内容を編集ファイル形式で保存
 
 
ダウンロード電子メール
  Datenbasierte Gesichtsanimation

Breidt, M. (2012). Datenbasierte Gesichtsanimation. Berlin, Germany: Logos Verlag.

Item is

基本情報

表示: 非表示:
資料種別: 書籍

ファイル

表示: ファイル

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Breidt, M1, 2, 3, 著者           
所属:
1Department Human Perception, Cognition and Action, Max Planck Institute for Biological Cybernetics, Max Planck Society, ou_1497797              
2Max Planck Institute for Biological Cybernetics, Max Planck Society, Spemannstrasse 38, 72076 Tübingen, DE, ou_1497794              
3Project group: Cognitive Engineering, Max Planck Institute for Biological Cybernetics, Max Planck Society, Spemannstrasse 38, 72076 Tübingen, DE, ou_2528702              

内容説明

表示:
非表示:
キーワード: -
 要旨: Die Erzeugung realistischer 3D-Computeranimationen von Gesichtern ist auf Grund der hohen Bedeutung des menschlichen Gesichts für eine Vielzahl von Anwendungsbereichen von Interesse. Neben virtuellen Schauspielern in der Film- und Computerspiele-Industrie oder Online-Avataren verlangt auch die experimentelle Untersuchung der menschlichen Wahrnehmung von Gesichtern nach effizienten Lösungen zur Erstellung von Gesichtsanimationen. Insbesondere die experimentelle Verwendung motiviert den in dieser Arbeit vertretenen datenbasierten Ansatz, der möglichst ohne die in der Industrie übliche kreativ-handwerkliche Gestaltung der Gesichtsdaten auskommen will.
Die Arbeit beschreibt, wie Messdaten realer Gesichter in Form von Motion Capture sowie 3D- bzw. 4D-Scans für diese Aufgabe eingesetzt werden können. Ausgehend von der Grundannahme der Darstellbarkeit eines Gesichts und dessen Bewegungen als Linearkombination werden Möglichkeiten der Gewinnung und Nutzung solcher Daten aufgezeigt:
Der erste Teil kombiniert statische Oberflächenmessungen des Gesichts in Form von räumlich hoch aufgelösten 3D-Scans mit den zeitlich hoch aufgelösten, markerbasierten Bewegungsdaten eines Motion-Capture-Systems. Hierzu werden die gemessenen Bewegungen durch eine semantische Parametrisierung auf Basis des Facial Action Coding Systems (FACS) dargestellt. Dies erlaubt nicht nur die identitätsunabhängige Übertragung der Bewegung auf ein beliebiges Gesicht, sondern auch eine kompakte und gleichzeitig interpretierbare Beschreibung der Bewegung.
Die zweite Hälfte der Arbeit baut auf neuen Messverfahren auf, die eine detaillierte 3D-Aufnahme des zeitlichen und räumlichen Verlaufs komplexer Gesichtsbewegungen in einem einzigen Aufnahmevorgang als 4D-Scan ermöglichen. Um solche Daten jedoch systematisch einsetzen und verändern zu können, werden Methoden zur Herstellung einer Korrespondenz zwischen den einzelnen Zeitschritten der Aufnahme benötigt. Hierzu werden sowohl ein modellfreies Verfahren als auch ein modellbasiertes Verfahren zur Rekonstruktion von Gesichtsbewegungen vorgestellt. Mit Hilfe des modellbasierten Ansatzes wird zudem gezeigt, wie stark verrauschte Daten echtzeitfähiger Tiefensensoren rekonstruiert werden können. Schließlich wird die modellbasierten Bewegungsanalyse dazu verwendet, aus Aufnahmen komplexer Gesichtsbewegungen FACS-Aktivierungen zu gewinnen und damit ein individuelles Gesichtsmodell zu berechnen, das interpretierbare Parameter besitzt.

資料詳細

表示:
非表示:
言語:
 日付: 2012
 出版の状態: 出版
 ページ: 175
 出版情報: Berlin, Germany : Logos Verlag
 目次: -
 査読: -
 識別子(DOI, ISBNなど): ISBN: 978-3-8325-3136-2
BibTex参照ID: Breidt2012
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: MPI Series in Biological Cybernetics
種別: 連載記事
 著者・編者:
所属:
出版社, 出版地: -
ページ: - 巻号: 32 通巻号: - 開始・終了ページ: - 識別子(ISBN, ISSN, DOIなど): -