Detailseite
Projekt Druckansicht

Grundlagenuntersuchungen zur Entwicklung von Algorithmen zur tonraumbasierten Analyse emotionspsychischer Eigenschaften aus Musiksignalen

Fachliche Zuordnung Akustik
Förderung Förderung von 2010 bis 2014
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 159320665
 
Erstellungsjahr 2014

Zusammenfassung der Projektergebnisse

Ziel des Projekts war es, Ansätze zur tonraumbasierten Analyse emotionspsychologischer Eigenschaften aus Musiksignalen zu erforschen. Die gewonnenen Erkenntnisse sollten dazu beitragen automatische Musikklassifikationsalgorithmen zu entwickeln, welche Musik anhand entsprechender Merkmale in emotionale Kategorien einordnen können. Einer solchen automatischen Klassifikation geht eine Lern‐ bzw. Trainingsphase voraus. Hier müssen Daten gesammelt werden anhand derer man den Zusammenhang zwischen einzelnen Musikbestandteilen und deren emotionale Wirkung analysieren und abbilden kann. Für diese automatische Musikanalyse sind insbesondere die emotionale Wirkung der kleinesten Musikbestandteile (Töne und Tonsequenzen) von Interesse. Auch wenn es schon vielfältige Untersuchungen zur Beziehung von Musik und Emotionen im Allgemein gibt, konzentrierten sich diese zumeist auf ganze Lieder oder Melodien, nicht aber auf Grundsequenzen wie zwei, drei oder vier Tonigkeiten. Daher mussten neue Datensätze erstellt werden, die möglichst den Zusammenhang zwischen einem einzelnen Musikfragment und dessen emotionale Wirkung auf den Menschen beinhalten. Hierzu mussten Methoden gefunden werden, wie man die emotionale Wirkung von Musik auf einen Menschen messbar machen kann. Methoden des sensorischen Profilings sollten laut Antragstellung dabei zur Anwendung kommen. Free Choice Profiling (FCP) wurde als Evaluationsmethode zur emotionalen Charakterisierung von Musikbestandteilen ausgewählt, an den Forschungsgegenstand angepasst, und im Rahmen von verschiedenen Hörtestreihen verwendet. Bei der Analyse der Ergebnisse zeigte sich, dass die durch die kurzen Musikphrasen hervorgerufenen Empfindungen in einem zweidimensionalen emotionalen Wahrnehmungsraum eingeordnet werden. Eine feinere Analyse zeigte, dass es sich dabei um Dimensionen Valenz und Erregung handelt, die in der Emotionspsychologie anerkannte Dimensionen zur Einordnung von Emotion sind. Es konnten Zusammenhänge von Tempo, Instrument, Tongeschlecht und der hervorgerufen Emotion nachgewiesen werden. Zwar wurden mit der gewählten Testmethodik nachvollziehbare und interpretierbare Ergebnisse ermittelt, die erklärte Varianz der Testdaten fiel jedoch recht gering aus. Dies deutet darauf hin, dass die emotionale Wirkung der Teststücke nicht allumfassend mittels FCP abgebildet werden konnte. Abweichend vom Arbeitsplan wurde untersucht, wie aussagekräftig die Ergebnisse der Erhebungsmethode wirklich sind und diese für den angedachten Zweck der Datenbankerzeugung geeignet sind. Mit in der Emotionspsychologie etablierten Methoden wurden die Tests erneut durchgeführt und die Ergebnisse mit den Ergebnissen des FCPs verglichen. Dabei zeigte sich, dass die Methoden sich deutlich im Zeitaufwand der Testdurchführung und Auswertung unterscheiden. Auch die „Belastung“ der Probanden und die Verständlichkeit der Testmethode variierten von Methode zu Methode. Erfreulicher Weise stimmten die Ergebnisse aller Methoden weitestgehend überein. Die Probanden gaben unabhängig von der gewählten Testmethodik an, dass es schwer gewesen sei, eine emotionale Wirkung aus den kurzen Musikstücken abzuleiten. Die in den Wahrnehmungsexperimenten gefundenen Zusammenhänge von Tempo, Instrument und Tongeschlecht und der hervorgerufen Emotion wurden schon in vielfältigen Musikklassifikationsalgorithmen beachtet, was eine umfangreiche Literaturrecherche ergab. Aus diesem Grund und der Tatsache, dass die Testreihen sowie andere Arbeitspakete mehr Zeit als geplant in Anspruch genommen haben, musste darauf verzichtet werden weitere Algorithmen zu implementieren. Die gesammelten Daten bezüglich der kleinsten Musikbestandteile und deren emotionaler Wirkung wurden in eine Datenbank eingepflegt. Damit wurde eine entsprechende Nutzeroberfläche generiert. Hier kann man sich die Lage und Metadaten der Musikstücke im zweidimensionalen Valenz‐Arousal‐Modell anzeigen lassen, diese abspielen und nach verschiedenen Merkmalen gruppieren. Die erhobenen Daten mit der entsprechenden GUI können für weitere Forschungen im Bereich von Musikklassifikation nach emotionaler Auswirkung nutzbar sein. Festzustellen ist allerdings, dass die emotionale Wahrnehmung von Menschen schwer messbar ist. Die Anstrengungen müssen daher vergrößert werden, emotionale Bewertung zuverlässig erheben zu können.

Projektbezogene Publikationen (Auswahl)

  • (2012): „Application of Free Choice Profiling for the Evaluation of Emotions Elicited by Music.” In: Proceedings of the 9th International Symposium on Computer Music Modeling and Retrieval (CMMR 2012): Music and Emotions, S. 78–93
    Liebetrau, J.; Schneider, S.; Jezierski, R.
  • „Music and Emotions: A Comparison of Measurement Methods”, In: Proceedings of the 134th AES Convention, 2013 May 4–7, Rome, Italy
    Liebetrau, J.; Schneider, S.
  • „Paired Comparison as a Method for Measuring Emotions” In: Proceedings of the 135th AES Convention, 2013 October, N.Y., USA
    Liebetrau, J.; Nowak, J.; Sporer, T.; Krause, M., Rekitt, M.; Schneider, S.
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung