Multistabile Wahrnehmung im Modalitätsvergleich: Auflösung sensorischer Ambiguitäten beim Sehen und Hören
Zusammenfassung der Projektergebnisse
Ändert sich die Wahrnehmung eines sensorischen Reizes wiederholt im Laufe der Zeit, spricht man von Multistabilität. Dieses Phänomen ist beim Sehen und beim Hören wohlbekannt, dennoch gab es bisher nur sehr wenig Forschung zu den Gemeinsamkeiten und Wechselwirkungen von Multistabilität in beiden Sinnesmodalitäten. Mit unserem Projekt haben wir begonnen, diese Lücke zu schließen. Für spezifische Arten von Multistabilität beobachten wir eine starke Kopplung zwischen visueller und auditiver Wahrnehmung. Beispielsweise tendieren Personen, die stärker als andere dazu neigen zwei übereinandergelegte Gittermuster als einheitliches, integriertes Muster wahrzunehmen, auch stärker dazu, zwei Tonsequenzen als integriertes „Melodie“-Muster wahrzunehmen. Dies gilt auch im Zeitverlauf: hört eine Person zu einem Zeitpunkt das integrierte auditive Muster, so sieht sie in diesem Moment auch mit höherer Wahrscheinlichkeit das integrierte visuelle Muster. Dieser Effekt erstreckt sich auch auf die Semantik: wir beobachten, dass die Wahrnehmung eines bestimmten Wortes unter mehreren möglichen Alternativen die Wahrnehmung eines zum Wort passenden visuellen Reizes verstärkt. Physiologisch konnten wir zeigen, dass auditive Wahrnehmungswechsel eine Pupillenweitung hervorrufen, zu der jedoch die entsprechende Verhaltensantwort stark beiträgt – ganz ähnlich, wie es auch im Visuellen beschrieben wurde. Solche Ergebnisse ließen sich nur erzielen, indem wir neue Techniken entwickelt und angewandt haben, die es uns entweder erlauben, die subjektive Wahrnehmung in zumindest einer Sinnesmodalität zu messen, ohne die Versuchsperson dazu zu befragen, oder die Messung anderer Wahrnehmungseffekte (z.B. die Verarbeitung eines Testreizes) ohne Störung des gleichzeitigen Berichts der Versuchsperson über ihren Wahrnehmungszustand ermöglichen. Zu diesem Zweck entwickelten und verfeinerten wir sogenannte „berichtsfreie“ (no-report) Methoden, die auf Augenbewegungs- und Elektroenzephalographie-(EEG-)Messungen basieren. Darüber hinaus entwickelten und validierten wir neue deutschsprachige Sprachreize, die Multistabilität auslösen, d.h. wir identifizierten Wörter, die bei stetig wiederholter Präsentation als Wörter anderer Bedeutung wahrgenommen werden (verbal transformations). Insgesamt haben wir mit unserem Projekt Fortschritte auf konzeptioneller und methodologischer Ebene erzielt, ein besseres Verständnis der Multistabilität beim Hören und Sehen gewonnen und konnten einige crossmodale Effekte, Abhängigkeiten und Wechselwirkungen zeigen, die zuvor unbekannt waren. Obgleich es sich bei diesem Projekt um Grundlagenforschung handelt, weisen die crossmodalen Abhängigkeiten weit über den Bereich der Multistabilität hinaus. Ein besseres Verständnis davon, wie Sehen und Hören gekoppelt sind, bringt uns auf lange Sicht ein besseres Verständnis von Szenenanalyse im Allgemeinen. Damit wird unter anderem ein Beitrag zur besseren Wahrnehmungsunterstützung in Situationen möglich, die allgemein oder individuell herausfordernd sind.
Projektbezogene Publikationen (Auswahl)
-
Intraindividual Consistency Between Auditory and Visual Multistability. Perception, 49(2), 119-138.
Einhäuser, Wolfgang; da Silva Lucas, F. O. & Bendixen, Alexandra
-
Parameter dependence in visual pattern-component rivalry at onset and during prolonged viewing. Vision Research, 182, 69-88.
Wegner, Thomas G.G.; Grenzebach, Jan; Bendixen, Alexandra & Einhäuser, Wolfgang
-
Pupillometry in auditory multistability. PLOS ONE, 16(6), e0252370.
Grenzebach, Jan; Wegner, Thomas G. G.; Einhäuser, Wolfgang & Bendixen, Alexandra
-
Low-high-low or high-low-high? Pattern effects on sequential auditory scene analysis. The Journal of the Acoustical Society of America, 152(5), 2758-2768.
Thomassen, Sabine; Hartung, Kevin; Einhäuser, Wolfgang & Bendixen, Alexandra
