Detailseite
Projekt Druckansicht

TRR 31:  Das aktive Gehör

Fachliche Zuordnung Biologie
Medizin
Förderung Förderung von 2005 bis 2017
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 14945932
 
Erstellungsjahr 2018

Zusammenfassung der Projektergebnisse

In der natürlichen Umwelt muss unser Hörsystem ständig mit der Situation zurechtkommen, dass sich der Schall verschiedener Quellen vermischt. Der Schall aus den unterschiedlichen Quellen variiert über die Zeit, was zu einer ständigen Veränderung der akustischen Eigenschaften der Signale führt. Eine Eigenheit des Schalls ist seine Vergänglichkeit: Hat er die Ohren erreicht, so ist er unmittelbar danach zu einer weiteren Analyse physikalisch nicht mehr verfügbar. Das Hörsystem muss daher für die Analyse von Schall über die Zeit und die Integration der Signale aus einer Quelle Gedächtnisprozesse einsetzen. Darüber hinaus muss es die Trennung des Schalls aus gleichzeitig aktiven Quellen für die Analyse leisten. All diese Mechanismen müssen robust funktionieren obgleich sich die akustische Szene immer wieder schnell verändert. Trotz all dieser Herausforderungen leistet das Hörsystem diese komplexe Aufgabe mit Bravour. Wie es dies beim Menschen und im Tiermodell schafft, war die zentrale Fragestellung in der Arbeit des SFB/TR 31 „Das aktive Gehör“. In dem im SFB zum Verständnis der Prozesse bei der auditorischen Szenenanalyse verfolgten Forschungsansatz wurden eine Reihe verschiedener Vorgehensweisen kombiniert: Untersuchungen mit neurophysiologischen Ableitungen, bildgebende Methoden, psychophysische Studien von Wahrnehmung und der Vergleich der Ergebnisse dieser Untersuchungen mit den Vorhersagen von Modellen, welche die der Wahrnehmung zugrunde liegenden Prozesse simulieren. Durch diesen Vergleich wird es möglich zu beurteilen, ob die im Experiment beobachteten Prozesse bei der auditorischen Szenenanalyse die separate Verarbeitung und Wahrnehmung des Schalls aus verschiedenen Quellen durch das Gehirn hinreichend erklären können. Eine Simulation der Verarbeitungsmechanismen des Hörsystems in der auditorischen Szenenanalyse kann darüber hinaus Möglichkeiten bieten, die Funktion technischer Hörhilfen und die Spracherkennung durch Computer zu verbessern. Die Forschungen konzentrierten sich unter anderem auf folgende intensiv untersuchte Fragen: (1) Wie wählt das Hörsystem beim aktiven Zuhören die relevanten Reizeigenschaften zur Analyse des Schalls einer bestimmten Quelle aus und gewichtet sie und wie sind diese in der Hörbahn des Gehirns repräsentiert? (2) Wie unterstützt das Hören mit beiden Ohren die Trennung ruhender und sich bewegender Schallquellen? (3) Wie werden die akustischen Reizeigenschaften dynamisch über die Zeit integriert? (4) Welchen Einfluss nimmt die Kombination visueller und auditorischer Reizverarbeitung auf die Quellenanalyse in komplexen akustischen Szenen? (5) Wie interagiert die Analyse in der aufsteigenden Hörbahn mit zentralen top-down Prozessen, d.h., wie beeinflussen die in der bottom-up Verarbeitung generierten Hypothesen und der augenblickliche Zustand des Gehirns die Wahrnehmung? (6) Wie wirken sich die Mechanismen der auditorischen Szenenanalyse auf die Sprachwahrnehmung normalhörender Menschen und bei Menschen mit Verarbeitungsdefiziten im Hörsystem aus? Der SFB/TR 31 hat beträchtliche Fortschritte in der Beantwortung dieser Fragen gemacht. Durch die Arbeit im SFB wurde die Relevanz verschiedener Reizeigenschaften in verschiedenen Hörsituationen deutlich. Viele mit einem Ohr analysierbare Reizeigenschaften, wie z. B. der synchrone Einsatz von Frequenzkomponenten eines Schalls oder ihre Harmonizität, interagieren in der Wahrnehmung und nehmen Einfluss auf die Bindung der Schallkomponenten aus einer Quelle. Die vergleichende Analyse der Signale von beiden Ohren, z. B. interauraler Zeit- und Pegeldifferenzen oder der interauralen Kohärenz, bestimmt die Fähigkeit zur Quellentrennung. Diese Prozesse in der Analyse von Reizeigenschaften laufen auf ganz verschiedenen Zeitskalen ab. Zeitskalen im Bereich von Millisekunden sind für die Trennung durch Analyse der Signale durch beide Ohren oder in der Analyse der zeitlichen Struktur über verschiedene Frequenzen hinweg relevant. Zeitskalen im Bereich von Sekunden sind für die Verarbeitung einer Sequenz von Signalen zur Quellentrennung, wie z. B. bei Sprache oder in Signalfolgen, relevant. Analyse mit mittleren Zeitskalen spielen für die auditorisch-visuelle Integration eine Rolle. Für die auf mittleren und langen Zeitskalen ablaufenden Prozesse ist charakteristisch, dass dabei die bottom-up Verarbeitung dynamisch durch top-down Einflussnahme angepasst wird. Direkte experimentelle Intervention, wie z. B. durch transkranielle elektrische Stimulation, ermöglichte dabei eine direkte Veränderung dieser Verarbeitung. Die zur Simulation der Verarbeitungsmechanismen entwickelten Modelle ermöglichen eine gute Vorhersage der Sprachwahrnehmung Normalhörender und von Menschen mit Hörproblemen. Diese Vorhersagen erlauben auch eine bessere Einstellung der Funktion technischer Hörhilfen. Durch die Verwendung der Kenntnis der physiologischen Mechanismen in der Entwicklung von Software für technische Hörhilfen konnten diese in ihrer Funktion weiter verbessert werden. Durch Berücksichtigung der relevanten physiologischen Mechanismen für die auditorische Szenenanalyse in der computergestützten automatischen Sprachanalyse konnten leistungsfähige robuste Systeme für die Mensch-Maschine Kommunikation entwickelt werden.

Projektbezogene Publikationen (Auswahl)

  • (2006) Verfahren zur Extraktion periodischer Signalkomponenten und Vorrichtung hierzu. Germany 102004045097
    Hohmann V
  • (2007) Monitoring and representing complex signals. U. S. Patent No. 7,254,500
    Makeig S, Anemüller J
  • (2007) Verfahren zur Begrenzung des Dynamikbereichs von Audiosignalen und Schaltungsanordnung hierzu. Germany 102004044565
    Hohmann V
  • (2008) Auditory cortical contrast enhancing by global winner-take-all inhibitory interactions. PLoS One 3(3):e1735
    Kurt S, Deutscher A, Crook JM, Ohl FW, Budinger E, Moeller CK, Schulze H
    (Siehe online unter https://doi.org/10.1371/journal.pone.0001735)
  • (2008) Multisensory interplay reveals crossmodal influences on 'sensoryspecific' brain regions, neural responses, and judgments. Neuron 57 (1):11-23
    Driver J, Noesselt T
    (Siehe online unter https://doi.org/10.1016/j.neuron.2007.12.013)
  • (2009) Auditory streaming of amplitude-modulated sounds in the songbird forebrain. J Neurophysiol 101:3212-3225
    Itatani N, Klump GM
    (Siehe online unter https://doi.org/10.1152/jn.91333.2008)
  • (2009) Effects of signal features and environmental noise on signal detection in the great tit, Parus major. Anim Behav 78:1293-1300
    Pohl NU, Slabbekoorn H, Klump GM, Langemann U
    (Siehe online unter https://doi.org/10.1016/j.anbehav.2009.09.005)
  • (2010) Active stream segregation specifically involves the left human auditory cortex. Hear Res 265(1-2):30-37
    Deike S, Scheich H, Brechmann A
    (Siehe online unter https://doi.org/10.1016/j.heares.2010.03.005)
  • (2010) Modeling cochlear dynamics: Interrelation between cochlea mechanics and psychoacoustics. J Acoust Soc Am 128:1870-1883
    Epp B, Verhey JL, Mauermann, M
    (Siehe online unter https://doi.org/10.1121/1.3479755)
  • (2010). Revision, extension, and evaluation of a binaural speech intelligibility model. The Journal of the Acoustical Society of America, 127(4), 2479-2497
    Beutelmann R, Brand T, Kollmeier B
    (Siehe online unter https://doi.org/10.1121/1.3295575)
  • (2010). Sound-induced enhancement of low-intensity vision: multisensory influences on human sensory-specific cortices and thalamic bodies relate to perceptual enhancement of visual detection sensitivity. J Neurosci 30:13609-23
    Noesselt T, Tyll S, Boehler CN, Budinger E, Heinze HJ, Driver J
    (Siehe online unter https://doi.org/10.1523/jneurosci.4524-09.2010)
  • (2011) Auditory model based direction estimation of concurrent speakers from binaural signals. Speech Communication (53), 592-605
    Dietz M, Ewert SD, Hohmann V
    (Siehe online unter https://doi.org/10.1016/j.specom.2010.05.006)
  • (2012) Spectro-temporal weighting of loudness PLoS ONE 7(11): e50184
    Oberfeld D, Heeren W, Rennies J, Verhey JL
    (Siehe online unter https://doi.org/10.1371/journal.pone.0050184)
  • (2013) Electrophysiological correlates of auditory change detection and change deafness in complex auditory scenes. Neuroimage 75:155-164
    Puschmann S, Sandmann P, Ahrens J, Thorne J, Weerda R, Klump GM, Debener S, Thiel CM
    (Siehe online unter https://doi.org/10.1016/j.neuroimage.2013.02.037)
  • (2013) Neural basis of multisensory looming signal. Neuroimage 65: 13-22
    Tyll S, Bonath B, Schoenfeld MA, Heinze HJ, Ohl FW, Noesselt T
    (Siehe online unter https://doi.org/10.1016/j.neuroimage.2012.09.056)
  • (2013) Task-related activation of the auditory cortex. in: Springer Handbook of Auditory Research, Volume: 'Neural Correlates of Auditory Cognition', Cohen, Yale E.; Popper, Arthur N.; Fay, Richard R. (Eds.):45-81
    Scheich H, Brosch, M
    (Siehe online unter https://doi.org/10.1007/978-1-4614-2350-8_3)
  • (2014) Discriminative Learning of Receptive Fields from Responses to non-Gaussian Stimulus Ensembles. PLoS ONE, 9(4), e93062
    Meyer AF, Diepenbrock J-P, Happel MFK, Ohl FW, Anemüller J
    (Siehe online unter https://doi.org/10.1371/journal.pone.0093062)
  • (2014) Dopamine-modulated recurrent corticoefferent feedback in primary sensory cortex promotes detection of behaviorally relevant stimuli. J Neurosci 34: 1234-1247
    Happel MF, Deliano M, Handschuh J, Ohl FW
    (Siehe online unter https://doi.org/10.1523/jneurosci.1990-13.2014)
  • (2014) Entrainment of Brain Oscillations by Transcranial Alternating Current Stimulation. Current Biology 24(3):333-339
    Helfrich RF, Schneider TR, Rach S, Trautmann-Lengsfeld SA, Engel AK, Herrmann CS
    (Siehe online unter https://doi.org/10.1016/j.cub.2013.12.041)
  • (2014) Evaluating auditory stream segregation of SAM tone sequences by subjective and objective psychoacoustical tasks, and brain activity. Front Neurosci 8: 119
    Dolležal L-V, Brechmann A, Klump GM, Deike S
    (Siehe online unter https://doi.org/10.3389/fnins.2020.569517)
  • (2014) Look now and hear what’s coming: on the functional role of cross-modal phase reset. Hearing Research 307:144-152
    Thorne JD, Debener S
    (Siehe online unter https://doi.org/10.1016/j.heares.2013.07.002)
  • (2014) Neural correlates of auditory streaming in an objective behavioral task. Proc Natl Acad Sci USA 111 (29):10738-10743
    Itatani N, Klump GM
    (Siehe online unter https://doi.org/10.1073/pnas.1321487111)
  • (2014) Selective modulation of interhemispheric functional connectivity by HD-tACS shapes perception. PLoS Biology 12(12):e1002031
    Helfrich RF, Knepper H, Nolte G, Strüber D, Rach S, Herrmann CS, Schneider TR, Engel AK
    (Siehe online unter https://doi.org/10.1371/journal.pbio.1002031)
  • (2015) Change in the coding of interaural time difference along the tonotopic axis of the chicken nucleus laminaris. Front Neural Circ 9:43
    Palanca-Castán N, Köppl C
    (Siehe online unter https://doi.org/10.3389/fncir.2015.00043)
  • (2015) Robust auditory localization using probabilistic inference and coherence-based weighting of interaural cues. The Journal of the Acoustical Society of America 138:2635-2648
    Kayser H, Hohmann V, Ewert S, Kollmeier B, Anemüller J
    (Siehe online unter https://doi.org/10.1121/1.4932588)
  • (2015) The auditory dynamic attending theory revisited: A closer look at the pitch comparison task. Brain Research 1626: 198-210
    Bauer A-KR, Jaeger M, Thorne JD, Bendixen A, Debener S
    (Siehe online unter https://doi.org/10.1016/j.brainres.2015.04.032)
  • (2015) The time window of multisensory integration: Relating reaction times and judgments of temporal order. Psychological Review 122 (2): 232–241
    Diederich A, Colonius H
    (Siehe online unter https://doi.org/10.1037/a0038696)
  • (2016) Hierarchy of prediction errors for auditory events in human temporal and frontal cortex. Proc Natl Acad Sci USA 113(24):6755-60
    Dürschmid S, Edwards E, Reichert C, Dewar C, Hinrichs H, Heinze HJ, Kirsch HE, Dalal SS, Deouell LY, Knight RT
    (Siehe online unter https://doi.org/10.1073/pnas.1525030113)
  • (2016) Monaural speech intelligibility and detection in maskers with varying amounts of spectro-temporal speech features. The Journal of the Acoustical Society of America 140(1):524-540
    Schubotz W, Brand T, Kollmeier B, Ewert SD
    (Siehe online unter https://doi.org/10.1121/1.4955079)
  • (2016) Rapid tuning shifts in human auditory cortex enhance speech intelligibility. Nature Communications 7:13654
    Holdgraf C, de Heer W, Pasley B, Rieger J, Crone N, Lin J, Knight R, Theunissen F
    (Siehe online unter https://doi.org/10.1038/ncomms13654)
  • (2016) Sentence recognition prediction for hearing-impaired listeners in stationary and fluctuation noise with FADE: Empowering the Attenuation and Distortion concept by Plomp with a quantitative processing model. Trends in Hearing 20
    Kollmeier B, Schädler MR, Warzybok A, Meyer BT, Brand T
    (Siehe online unter https://doi.org/10.1177/2331216516655795)
  • (2016) The multiple contributions of interaural differences to improved speech intelligibility in multitalker scenarios. J Acoust Soc Am 139:2589-2603
    Schoenmaker E, Brand T, van de Par S
    (Siehe online unter https://doi.org/10.1121/1.4948568)
  • (2016) Verfahren zum Betreiben eines elektroakustischen Systems und ein elektroakustisches System. U.S. Patent AKZ 10 2015 003 855.92015
    Hiipakka M, Kollmeier B, Ernst S, Denk F
  • 2016) Variation der Cochlea-Implantat Elektrodenzuordnung in Abhängigkeit von spektralen Eigenschaften mit unterschiedlichen Stimulationsraten”, U.S. Patent DE 10 2016 214 745.5
    Jürgens T, Eichenauer A, Dietz M
  • (2017) A probabilistic Poisson-based model accounts for an extensive set of absolute auditory threshold measurements. Hearing Research 353:135-161
    Heil P, Matysiak M, Neubauer H
    (Siehe online unter https://doi.org/10.1016/j.heares.2017.06.011)
  • (2017) Barn owls have ageless ears. Proc R Soc B 284: 20171584
    Krumm B, Klump G, Köppl C, Langemann U
    (Siehe online unter https://doi.org/10.1098/rspb.2017.1584)
  • (2017) Better-ear rating based on glimpsing. J Acoust Soc Am 142:1466-1481
    Schoenmaker E, Sutojo S, van de Par S
    (Siehe online unter https://doi.org/10.1121/1.5002684)
  • (2017) Deep Brain stimulation of the Nucleus Basalis of Meynert attenuates early EEG components associated with defective sensory gating in patients with Alzheimer disease – a two-case study. EJN
    Dürschmid S, Reichert C, Kuhn J, Freund HJ, Hinrichs H, Heinze HJ
    (Siehe online unter https://doi.org/10.1111/ejn.13749)
  • (2017) Exploring binaural hearing in gerbils (Meriones unguiculatus) using virtual headphones. Plos One 12 (4)
    Tolnai S, Beutelmann R, Klump GM
    (Siehe online unter https://doi.org/10.1371/journal.pone.0175142)
  • (2017) Measuring multisensory integration: from reaction times to spike counts. Scientific Reports 7(1):3023
    Colonius H, Diederich A
    (Siehe online unter https://doi.org/10.1038/s41598-017-03219-5)
  • (2017) Modeling speech localization, talker identification, and word recognition in a multi-talker setting. The Journal of the Acoustical Society of America 142(1):35-54
    Josupeit A, Hohmann V
    (Siehe online unter https://doi.org/10.1121/1.4990375)
  • (2017) Onset-duration matching of acoustic stimuli revisited: conventional arithmetic versus proposed geometric measures of accuracy and precision. Frontiers in Psychology 7
    Friedrich B, Heil P
    (Siehe online unter https://doi.org/10.3389/fpsyg.2016.02013)
  • (2017). Encoding and Decoding Models in Cognitive Electrophysiology. Frontiers in Systems Neuroscience, 11, 61
    Holdgraf CR, Rieger JW, Micheli C, Martin S, Knight RT, Theunissen FE
    (Siehe online unter https://doi.org/10.3389/fnsys.2017.00061)
  • (2018) Dopaminergic neuromodulation of high-gamma stimulus phase-locking in gerbil primary auditory cortex mediated by D1/D5-receptors. Eur J Neurosci.
    Deliano M, Brunk MGK, El-Tabbal M, Zempeltzi MM, Happel MFK, Ohl FW
    (Siehe online unter https://doi.org/10.1111/ejn.13898)
  • (2018) Predicting Speech Intelligibility with Deep Neural Networks. Computer Speech and Language 48:51-66
    Spille C, Kollmeier B, Meyer BT
    (Siehe online unter https://doi.org/10.1016/j.csl.2017.10.004)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung