Detailseite
Projekt Druckansicht

Klassifikation der emotionalen Wirkung von Filmszenen Bewertung des emotionalen Erlebnisses einer Multimedia-Präsentation aus Bild und Ton

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Allgemeine, Kognitive und Mathematische Psychologie
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Sicherheit und Verlässlichkeit, Betriebs-, Kommunikations- und verteilte Systeme
Förderung Förderung von 2016 bis 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 289289379
 
Erstellungsjahr 2021

Zusammenfassung der Projektergebnisse

Kann man Emotionen berechnen? Insbesondere: Können wir vorhersagen, welche Emotion eine Person beim Betrachten eines Videos erlebt? Sogenannte „Appraisal-Modelle“ der Emotionspsychologie gehen davon aus, dass sich die erlebte Emotion aus verschiedenen (meist unbewussten) Bewertungsschritten ergibt, z.B. „Ist das Ereignis angenehm? Ist das Ereignis überraschend? Werde ich mit den Konsequenzen umgehen können?“. Dabei kommt es auch zu körperlichen Reaktionen, wie zum Beispiel einer Veränderung der Hautleitfähigkeit, mimischen (Mikro)Reaktionen, oder Änderungen in Herzschlagfrequenz oder -rhythmus. Es wurde vermutet, dass (a) die Bewertungsschritte mit bestimmten körperlichen Reaktionen zusammenhängen, und (b) die letztendlich erlebte Emotion sich aus der Kombination der einzelnen Bewertungsschritte vorhersagen lässt. Diese Fragen hat das Forschungsprojekt untersucht, welches als Kooperation zwischen dem Lehrstuhl für Datenverarbeitung an der Fakultät Elektrotechnik und Informationstechnik der TU München und dem Lehrstuhl für psychologische Methodenlehre und Diagnostik der LMU München durchgeführt wurde. Basierend auf einem Datensatz zu den Appraisalschritten von erinnerten emotionalen Erlebnissen wurden mehrere Modelle des maschinellen Lernens getestet um die resultierende Emotion vorherzusagen. Dabei konnte die spezifische Emotion mit einer Genauigkeit von 40% und die Emotionsfamilie (eine Zusammenfassung jeweils ähnlicher Emotionen) mit einer Genauigkeit von 77% vorhergesagt werden. Für zwei weitere Studien in dem Projekt wurde eine Datenbank von 188 kurzen Videoclips aufgebaut, die geeignet sind, bei Betrachtern verschiedenste Emotionen auszulösen. Die Videos sind alle lizenzfrei und können von anderen Forschenden nachgenutzt werden. Die Videos wurden dann zum einen in einer großen Onlinestudie eingesetzt, bei der 434 Teilnehmer die Videos bewertet haben, ihre emotionale Reaktion berichtet haben, und auch die einzelnen Appraisal-Schritte. Es konnte gezeigt werden, dass manche Videos mit hoher Uniformität bei den meisten Betrachtern ähnliche Emotionen auslösten, während andere Videos je nach Betrachter eine große Bandbreite an Emotionen ausgelöst haben. Die Persönlichkeit der Betrachter hatte in unserer Studie überraschender Weise keinerlei Einfluss darauf, welche Emotionen (verstärkt) erlebt wurden. Das steht im Widerspruch zu bisherigen Forschungsergebnissen, die (meist mit kleineren Stichproben) solche Zusammenhänge berichtet haben. In einer weiteren Studie wurde ein Teil der Videos in einer aufwändigen Laborstudie verwendet, in der bei den 157 Studienteilnehmern während des Betrachtens der Videos mit Hilfe von Elektromyographie die Aktivität an drei Gesichtsmuskeln gemessen wurde (zygomaticus major, corrugator supercilii und frontalis), sowie die Hautleitfähigkeit und der Herzschlag. Dabei konnte gezeigt werden, dass 13 von 21 erhobenen Bewertungsschritten einen robusten (nicht-linearen) Zusammenhang zu den physiologischen Messreihen zeigen. Am besten konnte der Appraisalcheck „intrinsic pleasantness“ vorhergesagt werden; den größten Einfluss auf die Vorhersage hatte der Gesichtsmuskel „zygomaticus major“ (der „Lächelmuskel“). Alle Veröffentlichungen, Versuchsmaterialien, sowie die erhobenen Forschungsdaten sind frei verfügbar und können zur Verifizierung der berichteten Ergebnisse sowie zur Nachnutzung für weiterführende Fragestellungen nachgenutzt werden.

Projektbezogene Publikationen (Auswahl)

  • (2019). Emotion Prediction with Weighted Appraisal Models— Validating a Psychological Theory of Affect. IEEE Transactions on Affective Computing
    Israel, L. S. F., & Schönbrodt, F. D.
    (Siehe online unter https://doi.org/10.1109/TAFFC.2019.2940937)
  • (2020). Measuring Implicit Motives With the Picture Story Exercise (PSE): Databases of Expert-Coded German Stories, Pictures, and Updated Picture Norms. Journal of Personality Assessment, 103, 392–405
    Schönbrodt, F. D., Hagemeyer, B., Brandstätter, V., Czikmantori, T., Gröpel, P., Hennecke, M., Israel, L. S. F., …, Schultheiss, O. C.
    (Siehe online unter https://doi.org/10.1080/00223891.2020.1726936)
  • (2021). Open Library for Affective Videos (OpenLAV). PsychArchives
    Israel, L., Paukner, P., Schiestel, L., Diepold, K., & Schönbrodt, F.
    (Siehe online unter https://doi.org/10.23668/PSYCHARCHIVES.5042)
  • (2021). Predicting affective appraisals from facial expressions and physiology using machine learning. Behavior Research Methods, 53, 574–592
    Israel, L. S. F., & Schönbrodt, F. D.
    (Siehe online unter https://doi.org/10.3758/s13428-020-01435-y)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung