Detailseite
Projekt Druckansicht

Audiovisuelle Integration bei der Identifikation von Sprecher und Sprache

Fachliche Zuordnung Allgemeine, Kognitive und Mathematische Psychologie
Förderung Förderung von 2005 bis 2011
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 15725513
 
Wir verstehen Sprache effizienter, wenn wir zusätzlich zum akustischen Signal die Mundbewegungen der sprechende Person sehen. Die sog. McGurk-Täuschung demonstriert, dass dieses visuelle Signal einen unwillkürlichen Einfluss auf den Höreindruck hat. Bildgebende Verfahren haben gezeigt, dass das Betrachten eines sprechenden Gesichts auditorische Cortexareale selbst bei völlig fehlenden akustischer Stimulation aktiviert. Bei der Wahrnehmung gesprochener Sprache scheint das visuelle Signal einer sprechenden Person die akustische Verarbeitung also direkt zu modulieren. Neben der Sprachwährnehmung sind Stimmen und Gesichter aber auch wichtige Informationsquellen für die Identifikation von Personen. Nach erfolgreichen ersten Pilotstudien in unserem Labor untersucht dieses Projekt erstmals audiovisuelle Integrationsprozesse bei der Personenerkennung. Schwerpunkte liegen dabei (1) auf den antezedenten Bedingungen und Mechanismen der Phänomens, (2) auf den neuronalen Korrelaten der audiovisuellen Integration bei der Personenerkennung, und (3) auf dem Vergleich audiovisueller Integrationsprozesse bei der Personenerkennung und der Spracherkennung. Das Vorhaben verspricht ein besseres Verständnis der Personenerkennung unter alltagsnahen Bedingungen, bei denen dynamische audiovisuelle Informationen verarbeitet werden.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung