Detailseite
Erklärbarkeit zur Verbesserung KI-gestützter Entscheidungsfindung im Bildungsbereich
Antragsteller
Dr. Maximilian Förster; Professor Dr. Mathias Klier
Fachliche Zuordnung
Operations Management und BWL-spezifische Wirtschaftsinformatik
Förderung
Förderung seit 2026
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 577699540
Das aufstrebende Forschungsfeld Explainable Artificial Intelligence (XAI) adressiert die mangelnde Nachvollziehbarkeit von KI-Modellen. Im Kontext von Empfehlungssystemen ermöglichen XAI-Methoden, dass KI-basierte Empfehlungen durch automatisch generierte Erklärungen nachvollziehbar werden – ohne die Leistungsfähigkeit der Modelle zu beeinträchtigen. Konventionell werden erklärbare Empfehlungssysteme eingesetzt, um die Effizienz von Entscheidungen zu steigern, z. B. im E-Commerce, wobei Erklärungen zur Erhöhung der Akzeptanz beitragen. Doch Entscheidungen mit weitreichenden Konsequenzen erfordern Reflektion, also eine kritische Auseinandersetzung mit Wissen und Erfahrungen, um ein tieferes Verständnis für (zukünftige) Entscheidungen zu entwickeln. Dieses Forschungsprojekt untersucht, wie XAI Reflektion in KI-gestützter Entscheidungsfindung fördern kann – basierend auf der Idee, dass KI als Reflexionspartner*in dienen kann. Der zugrunde liegende Problemkontext ist Bildung: Hier können erklärbare Empfehlungssysteme Nutzer*innen bei reflektierten Bildungsentscheidungen unterstützen. Erklärbarkeit kann helfen, Empfehlungen zu verstehen, kritisch zu hinterfragen und fundierte Bildungswege zu wählen. Das Projekt „Erklärbarkeit zur Verbesserung KI-gestützter Entscheidungsfindung im Bildungsbereich“ beantwortet folgende Forschungsfrage: Wie können XAI-Methoden in Empfehlungssystemen Nutzer*innen bei reflektierter Entscheidungsfindung über ihren Bildungsweg unterstützen? Innerhalb der Wirtschaftsinformatik (WI) verfolgt das Projekt das Ziel, methodische Grundlagen für XAI in Empfehlungssystemen zur Unterstützung reflektierter Entscheidungen zu entwickeln und deren Auswirkungen empirisch zu untersuchen. Das Projekt umfasst zwei Arbeitspakete (WP1 und WP2). In WP1 wird eine neuartige XAI-Methode entwickelt, die automatisch Erklärungen zu Empfehlungen im Bildungsbereich generiert – mit dem Ziel, reflektierte Entscheidungen zu fördern. Die Methode basiert auf drei Kernelementen, die in separaten Aufgaben bearbeitet werden. In WP2 erfolgt eine empirische Untersuchung der Methode mittels funktionaler Evaluation, Online- und Feldexperimenten. WP1 und WP2 sind eng verzahnt und verlaufen iterativ in Designzyklen. Die Ergebnisse beinhalten methodische Grundlagen für XAI-Methoden, die Reflektion in KI-gestützter Entscheidungsfindung verbessern können, sowie empirische Erkenntnisse über deren Einfluss auf das Verhalten von Nutzer*innen. Diese Erkenntnisse liefern erste Hinweise, wie Erklärbarkeit die Vision von KI als Reflexionspartner*in realisieren kann und wie erklärbare Empfehlungssysteme Bildungsentscheidungen beeinflussen können.
DFG-Verfahren
Sachbeihilfen
Internationaler Bezug
Israel
Kooperationspartner
Professor Dr. Lior Fink
