Deutsch
 
Hilfe Datenschutzhinweis Impressum
  DetailsucheBrowse

Datensatz

DATENSATZ AKTIONENEXPORT
  Marker-less 3D Feature Tracking for Mesh-based Motion Capture

de Aguiar, E., Theobalt, C., Stoll, C., & Seidel, H.-P. (2007). Marker-less 3D Feature Tracking for Mesh-based Motion Capture. In A. Elgammal, B. Rosenhahn, & R. Klette (Eds.), Human Motion – Understanding, Modeling, Capture and Animation (pp. 1-15). Berlin: Springer. doi:10.1007/978-3-540-75703-0_1.

Item is

Dateien

einblenden: Dateien
ausblenden: Dateien
:
aguiar.pdf (beliebiger Volltext), 5KB
 
Datei-Permalink:
-
Name:
aguiar.pdf
Beschreibung:
-
OA-Status:
Sichtbarkeit:
Privat
MIME-Typ / Prüfsumme:
application/pdf
Technische Metadaten:
Copyright Datum:
-
Copyright Info:
-
Lizenz:
-

Externe Referenzen

einblenden:

Urheber

einblenden:
ausblenden:
 Urheber:
de Aguiar, Edilson1, Autor           
Theobalt, Christian1, Autor           
Stoll, Carsten1, Autor           
Seidel, Hans-Peter1, Autor           
Affiliations:
1Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047              

Inhalt

einblenden:
ausblenden:
Schlagwörter: -
 Zusammenfassung: We present a novel algorithm that robustly tracks 3D trajectories of features on a moving human who has been recorded with multiple video cameras. Our method does so without special markers in the scene and can be used to track subjects wearing everyday apparel. By using the paths of the 3D points as constraints in a fast mesh deformation approach, we can directly animate a static human body scan such that it performs the same motion as the captured ubject. Our method can therefore be used to directly animate high quality geometry models from unaltered video data which opens the door to new applications in motion capture, 3D Video and computer animation. Since our method does not require a kinematic skeleton and only employs a handful of feature trajectories to generate ifelike animations with realistic surface deformations, it can lso be used to track subjects wearing wide apparel, and even nimals. We demonstrate the performance of our approach using several captured real-world sequences, and also validate its accuracy.

Details

einblenden:
ausblenden:
Sprache(n): eng - English
 Datum: 2008-03-2720072007
 Publikationsstatus: Erschienen
 Seiten: -
 Ort, Verlag, Ausgabe: -
 Inhaltsverzeichnis: -
 Art der Begutachtung: -
 Identifikatoren: eDoc: 356521
DOI: 10.1007/978-3-540-75703-0_1
Anderer: Local-ID: C12573CC004A8E26-961A40E744D69B42C12573B6000C8118-deAguiar2006_HM07
BibTex Citekey: deAguiar2006_HM07
 Art des Abschluß: -

Veranstaltung

einblenden:
ausblenden:
Titel: Second Workshop Human Motion Understanding, Capture and Animation 2007
Veranstaltungsort: Rio de Janeiro, Brazil
Start-/Enddatum: 2007-10-20 - 2007-10-20

Entscheidung

einblenden:

Projektinformation

einblenden:

Quelle 1

einblenden:
ausblenden:
Titel: Human Motion – Understanding, Modeling, Capture and Animation
  Untertitel : Second Workshop, Human Motion 2007 ; Rio de Janeiro, Brazil, October 20, 2007 ; Proceedings
  Latex : Human Motion -- Understanding, Modeling, Capture and Animation
Genre der Quelle: Konferenzband
 Urheber:
Elgammal, Ahmed1, Herausgeber
Rosenhahn, Bodo2, Herausgeber           
Klette, Reinhard1, Herausgeber
Affiliations:
1 External Organizations, ou_persistent22            
2 Computer Graphics, MPI for Informatics, Max Planck Society, ou_40047            
Ort, Verlag, Ausgabe: Berlin : Springer
Seiten: - Band / Heft: - Artikelnummer: - Start- / Endseite: 1 - 15 Identifikator: ISBN: 978-3-540-75702-3

Quelle 2

einblenden:
ausblenden:
Titel: Lecture Notes in Computer Science
Genre der Quelle: Reihe
 Urheber:
Affiliations:
Ort, Verlag, Ausgabe: -
Seiten: - Band / Heft: 4814 Artikelnummer: - Start- / Endseite: - Identifikator: -