de.mpg.escidoc.pubman.appbase.FacesBean
English
 
Help Guide Disclaimer Contact us Login
  Advanced SearchBrowse

Item

ITEM ACTIONSEXPORT

Released

Poster

Evaluation eines gesichtsspezifischen Ähnlichkeitsmaßes

MPS-Authors
http://pubman.mpdl.mpg.de/cone/persons/resource/persons84180

Ruppertsberg,  AI
Department Human Perception, Cognition and Action, Max Planck Institute for Biological Cybernetics, Max Planck Society;

http://pubman.mpdl.mpg.de/cone/persons/resource/persons84280

Vetter,  T
Department Human Perception, Cognition and Action, Max Planck Institute for Biological Cybernetics, Max Planck Society;

http://pubman.mpdl.mpg.de/cone/persons/resource/persons83839

Bülthoff,  HH
Department Human Perception, Cognition and Action, Max Planck Institute for Biological Cybernetics, Max Planck Society;

Locator
There are no locators available
Fulltext (public)
There are no public fulltexts available
Supplementary Material (public)
There is no public supplementary material available
Citation

Ruppertsberg, A., Vetter, T., & Bülthoff, H. (1998). Evaluation eines gesichtsspezifischen Ähnlichkeitsmaßes. Poster presented at 1. Tübinger Wahrnehmungskonferenz (TWK 98), Tübingen, Germany.


Cite as: http://hdl.handle.net/11858/00-001M-0000-0013-E8D3-9
Abstract
Welche Bereiche eines Gesichtes berücksichtigen wir besonders, wenn wir die Ähnlichkeit von Gesichtern vergleichen? Vetter und Troje (JOSA A, 14, 2152-2161) haben ein korrespondenz-basiertes Gesichtskodierungssystem eingeführt, bei dem die Bildinformation in Texturinformation und in Forminformation unterteilt wird. Mit Hilfe einer Hauptachsentransformation auf der separaten Textur und Form kann eine Basis gefunden werden, in der jedes andere Gesicht darstellbar ist. Um dieses Kodierungssystem derart zu verbessern, daß es der menschlichen Ähnlichkeitswahrnehmung entspricht, haben wir eine spezifische Gewichtung des Formraumes eingeführt. Des Weiteren haben wir die Schwelle des gerade noch erkennbaren Unterschieds (JND) zwischen Rekonstruktion und Original bestimmt. In Versuch 1 wurden drei verschiedene Gewichtungen des Formraumes vorgenommen. Gewichtung 1 berücksichtigte jeden Bildpunkt im Gesicht, Gewichtung 2 berücksichtigte die Augen, die Nase, den Mund und die Gesichtskontur und Gewichtung 3 dieselben Gebiete wie Gewichtung 2 bis auf die Gesichtskontur. Den Versuchspersonen wurden drei Gesichter gleichzeitig präsentiert. Das obere Gesicht war das Originalgesicht, das Bild links und rechts unten waren Rekonstruktionen des oberen Bildes. Die Versuchspersonen mußten angeben, welches der beiden unteren Bilder dem oberen ähnlicher war. In einem Viertel der Durchgänge war eines der beiden unteren Bilder das Original. Wir wollten sicherstellen, das die Versuchspersonen das Original noch immer sicher herausfinden konnten. Die Antwort und die Reaktionszeit wurden aufgezeichnet. In Versuch 2 wurden Regionen der Gewichtung 2 blockweise getestet. Dazu wurde auf jeder Region eine Hauptachsentransformation gerechnet und danach jede Region mit zunehmender Anzahl an Hauptachsen rekonstruiert. In einem ähnlichen Versuchsparadigma wie oben beschrieben mußten die Versuchspersonen angeben, in welchem der beiden unteren Bilder die Originalgesichtsregion gezeigt war. Die Fehlerrate und Reaktionszeit wurden aufgezeichnet. In Versuch 1 haben die Versuchspersonen in über 20 der Fälle Rekonstruktionen für das Original gehalten. Die mittlere Reaktionszeit lag bei 2,8s. Ansonsten bevorzugten sie Rekonstruktionen mit Gewichtung 2. Die Versuchspersonen konnten zwischen Rekonstruktionen mit Gewichtung 1 und 2, 2 und 3 unterscheiden, aber nicht zwischen 1 und 3. Hier lag die mittlere Reaktionszeit bei 3,5s. Es bestand keine Abhängigkeit zwischen der Gewichtung und der Reaktionszeit. In Versuch 2 lag der Anteil korrekter Antworten nie unter 75. Die Leistung variierte am stärksten für den Mund, dann die Nase und ganz wenig für die Augen. Diese Unsicherheit drückte sich auch in den Reaktionszeiten aus. Die mittlere Reaktionszeit für die Augen war am kürzesten (5,4s), für den Mund am längsten (6,8s). Wenn wir Ähnlichkeit zwischen Gesichtern begutachten, berücksichtigen wir in besonderem Maße die Regionen der Augen, der Nase, des Mundes und der Gesichtskontur. Diese Regionen machen nur ca. 1/5 der gesamten Gesichtsfläche aus, und dadurch kann ein Gesicht derart rekonstruiert werden, daß es dem Original ähnlicher sieht als eine Rekonstruktion, die jeden Bildpunkt im Gesicht beinhaltet. Die Kodierungseffizienz wird also deutlich gesteigert.