Detailseite
Projekt Druckansicht

Multimodale Affekterkennung im Verlaufe eines tutoriellen Lernexperiments

Fachliche Zuordnung Arbeitswissenschaft, Ergonomie, Mensch-Maschine-Systeme
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2018 bis 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 394413900
 
Erstellungsjahr 2023

Zusammenfassung der Projektergebnisse

Das grundsätzliche Ziel dieses Forschungsvorhabens war die Konzeption, Entwicklung und Evaluierung von multimodalen automatischen Klassifikatoren für die Erkennung affektiver Nutzerzustände, Überforderung, Frustration, Langeweile oder Irritation wie sie im Interaktionsverlauf mit tutoriellen Systemen zu beobachten sind. Durch eine angepasste Berücksichtigung dieser affektiven Zustände könnte so der Interaktionsverlauf zwischen Nutzer und der eigentlichen Anwendung nutzerfreundlicher und effektiver gestaltet werden. Voraussetzung hierfür ist eine möglichst genaue, robuste Erfassung des affektiven Zustands. Für die multimodale Datenerhebung wurde ein Lernexperiment entwickelt, das anstelle klassischer Emotionsinduktion, kritische Umlernphasen enthielt, die durch Versuch und Irrtum bewältigt werden mussten, sowie wenige zeitlich verzögerte Rückmeldungen. Die Identifikation der neurophysiologischen (fMRT und EEG) Korrelate dieser Ereignisse im Zusammenhang mit einer computationalen kognitiven Modellierung mittels ACT-R lieferten Erkenntnisse über neuronale Prozesse der Strategieanpassung beim Lernen. Für die multimodale Erkennung basierend auf den Signaltypen EKG, EMG, EDA, Atmung, Audio, Video wurden Machine Learning Verfahren wie künstliche neuronale Netze, Support-Vektor-Maschinen und Random-Forest sowie Deep Learning Verfahren zum Lernen anwendungs-relevanter Merkmale und zur Informationsfusion entwickelt und evaluiert. Im Rahmen der methodischen Evaluierung konnten unimodale und multimodale Erkenner erfolgreich entwickelt und erprobt werden. Hierbei zeigte sich, dass eine Qualitätssicherung zur automatisierten Identifikation von Artefakten in den unimodalen Daten unerlässlich ist. Weiterer Forschungsbedarf besteht hinsichtlich der Transferierbarkeit der Modelle auf neue Daten, insbesondere wenn sich diese hinsichtlich der Intensität der gezeigten Emotionen unterscheiden. So ließen sich die auf dem uulmMAC Benchmarkdaten vortrainierten Klassifikatoren nicht erfolgreich auf die im Experiment erhobenen emotionalen Daten anwenden. Dies lässt sich möglicherweise darin begründet, dass die im Lernexperiment gezeigten emotionalen Äußerungen nur sehr schwach ausgeprägt waren und einer anderen statistischen Verteilung genügen als stärker ausgeprägte emotionale Äußerungen. Dieses Resultat hat im weiteren Verlauf des Projektes dazu geführt, dass wir uns bei der Klassifikationsmethodik vom binären Ansatz (Emotion vorhanden: ja|nein) in Richtung der ordinalen Emotionsklassifikation (Emotionsintensitäten: schwach|mittel|stark) bewegt haben. Hierfür wurden erste theoretische Ansätze erarbeitet und auf Datensätzen zur Erkennung von schmerzinduziertem Stress trainiert und evaluiert. Auf Grund der durch Corona bedingten Verzögerungen bei der Datenerhebung, werden diese Ansätze zur multimodalen Emotionserkennung im Laufe des Jahres 2023 durch die Projektpartner weiterbearbeitet. Tastendrücke spielen bei der Erkennung von Emotionen eine untergeordnete Rolle und werden in der Literatur bisher nur wenig beachtet. Im Rahmen des Forschungsprojektes wurden Tastendruckdynamiken mittels unüberwachter Lernverfahren analysiert. Auf diese Weise konnten wir mittels Anomaliedetektion das Phänomen von zögerlichen bzw. mehrfachen Tastendrückens feststellen, welches wiederum verknüpft sein könnte mit emotionalen Zuständen wie Unsicherheit oder Überforderung. Auf Grund des geringen Vorkommens dieser Ereignisse konnten bisher nur vorläufige Resultate erzielt werden, hier werden die Projektpartner im laufenden Jahr weitere Analysen durchführen.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung