Detailseite
TRR 318: Erklärbarkeit konstruieren
Fachliche Zuordnung
Informatik, System- und Elektrotechnik
Geisteswissenschaften
Sozial- und Verhaltenswissenschaften
Geisteswissenschaften
Sozial- und Verhaltenswissenschaften
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 438445824
Das EU-Recht auf Erklärung hat die Notwendigkeit verstärkt, die Fähigkeiten der erklärbaren künstlichen Intelligenz (eXplainable Artificial Intelligence, XAI) zu verbessern, um die Rechte von Personen zu stärken, die von KI-basierten Empfehlungen betroffen sind. Erklärungen dienen unter anderem dem Recht, ein KI-Ergebnis anzufechten, und beugen einem Kontrollverlust vor. Erklärungen können jedoch nur dann ihre Funktion erfüllen, wenn sie relevant sind. Aktuell wird die XAI-Forschung dafür kritisiert, dass sie sich auf die Anforderungen der Entwickler*innen statt der Nutzer*innen (Explainees) richtet. Es bleibt daher eine zentrale Herausforderung, eine Erklärung für einen bestimmten Explainee relevant zu gestalten. Für die erste Förderperiode schlug der TRR eine ko-konstruktive Interaktion als innovativen Ansatz in XAI vor. Wir führten theoretische und empirische Grundlagenforschung durch, um Erklärprozesse und die Beteiligung der Explainees in Mensch-Mensch- und Mensch-KI-Interaktionen zu verstehen. Wir gewannen Einblicke, wie Erklärdialoge strukturiert sind und wie Nutzer*innen modelliert werden können, um Erklärungen daran auszurichten. Darauf aufbauend haben wir erste XAI-Systeme entwickelt, die Nutzer*innen einbeziehen: Diese interagieren ko-konstruktiv und passen den Erklärprozess schrittweise an. Wir haben außerdem Erkenntnisse darüber gewonnen, ob und in welchen Situationen Nutzer*innen daran interessiert sind, die Funktionen von KI zu verstehen. Es zeigt sich, dass die Erklärungsbedürfnisse vielfältig sind und sich dynamisch verändern. Unsere Forschung zur aktiven Beteiligung der Explainees am Erklärprozess und zu den relevanten sozialen Aspekten bildet eine solide Grundlage für das Paradigma der sXAI (social XAI). Wir positionieren uns als Vorreiter, erklärbare KI in Richtung erklärender KI-Systeme weiterzuentwickeln, die eine epistemische Umgebung während einer Interaktion schaffen –einen Kontext–, in der Nutzer*innen selbstbestimmt ihr Wissen aufbauen können. Die Forschung der zweiten Förderperiode wird sich auf die Relevanz von Erklärungen konzentrieren und erklärende Algorithmen mit der Fähigkeit ausstatten, proaktiv und gemeinsam mit den Nutzer*innen einen Kontext zu konstruieren und die relevanten Faktoren zusammen mit dem Explainee zu bestimmen. Unser innovativer Ansatz besteht darin, dass der Kontext selbst als Teil der Interaktion ko-konstruiert wird. Daher erweitern wir unseren sXAI-Ansatz um eine Systematisierung in vier Kontexttypen, die uns zu relevanteren, flexibleren und vielseitigeren XAI-Anwendungen führen. Langfristig planen wir, autonome ko-konstruktive XAI in der realen Welt zu untersuchen, um Erkenntnisse darüber zu gewinnen, wie menschliche Gesprächspartner ihr Verhalten in ko-konstruktiven soziotechnischen Umgebungen (mit)anpassen und dadurch neue Praktiken entwickeln. Diese Erkenntnisse werden unsere theoretische Arbeit ergänzen, die sich mit einer kritischen Reflexion über Ko-Konstruktion als Prozess befasst.
DFG-Verfahren
Transregios
Laufende Projekte
- A01 - Adaptive Erklärungsgenerierung (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M. ; Kopp, Stefan ; Rohlfing, Katharina )
- A02 - Verstehensprozess einer Erklärung beobachten und auswerten (Teilprojektleiterinnen / Teilprojektleiter Buschmeier, Hendrik ; Grimminger, Angela ; Wagner, Petra )
- A03 - Ko-Konstruktion von Erklärungen zwischen KI-Erklärer*in und menschlichen Erklärungsempfän-ger*innen mit und ohne Erregung (Teilprojektleiterinnen Thommes, Kirsten ; Wrede, Britta )
- A04 - Ko-Konstruktion von dualitätsgestützten Erklärungen (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M. ; Kern, Friederike ; Schulte, Carsten )
- A05 - Kontextualisiertes Scaffolding im Mensch-Roboter-Erklärdialog (Teilprojektleiterinnen Rohlfing, Katharina ; Scharlau, Ingrid ; Wrede, Britta )
- A06 - Erklärungen des multimodalen Ausdrucks von Stress in klinischen Erklärungen (Teilprojektleiterinnen Drimalla, Hanna ; Wagner, Petra )
- B01 - Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären (Teilprojektleiterinnen / Teilprojektleiter Cimiano, Philipp ; Esposito, Elena ; Ngonga Ngomo, Axel-Cyrille )
- B05 - Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter (Teilprojektleiterinnen / Teilprojektleiter Schulte, Carsten ; Vollmer, Anna-Lisa )
- B06 - Ethik und Normativität der erklärbaren KI (Teilprojektleiterinnen / Teilprojektleiter Alpsancar, Suzana ; Matzner, Tobias )
- B07 - Kommunikative Praktiken des Erfragens von Informationen und Erklärungen von LLM-basierten Agenten (Teilprojektleiterinnen / Teilprojektleiter Buschmeier, Hendrik ; Kern, Friederike )
- C01 - Erklärungen zur Unterstützung gesunden Misstrauens in Large Language Models (Teilprojektleiterinnen / Teilprojektleiter Hammer, Barbara ; Paaßen, Benjamin ; Scharlau, Ingrid )
- C02 - Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen (Teilprojektleiterinnen / Teilprojektleiter Hüllermeier, Eyke ; Thommes, Kirsten )
- C03 - Interpretierbares maschinelles Lernen: Veränderung erklären (Teilprojektleiterinnen / Teilprojektleiter Hammer, Barbara ; Hüllermeier, Eyke )
- C04 - Metaphern als Mittel der Erklärung (Teilprojektleiterinnen / Teilprojektleiter Scharlau, Ingrid ; Wachsmuth, Henning )
- C05 - Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden (Teilprojektleiter Cimiano, Philipp ; Kopp, Stefan )
- C07 - Ko-Konstruktions-optimierte große Sprachmodelle für Erklärungen (Teilprojektleiter Ngonga Ngomo, Axel-Cyrille ; Wachsmuth, Henning )
- INF - RAG-basierte Informationbereitstellung (Teilprojektleiter Cimiano, Philipp ; Ngonga Ngomo, Axel-Cyrille ; Wachsmuth, Henning )
- MGK - Integriertes Graduiertenkolleg (Teilprojektleiterin Scharlau, Ingrid )
- WIKO - Fragen zu erklärbaren Technologien (Teilprojektleiterinnen / Teilprojektleiter Horwath, Ilona ; Schulte, Carsten ; Verständig, Dan ; Wrede, Britta )
- Z - Zentrales Verwaltungsprojekt (Teilprojektleiterin Rohlfing, Katharina )
Abgeschlossene Projekte
- B03 - Erkundung von Benutzern, Rollen und Erklärungen in realen Kontexten (Teilprojektleiterinnen / Teilprojektleiter Horwath, Ilona ; Matzner, Tobias )
- C06 - Technisch ermöglichtes Erklären von Sprecher-Eigenschaften (Teilprojektleiterinnen / Teilprojektleiter Häb-Umbach, Reinhold ; Wagner, Petra )
Antragstellende Institution
Universität Paderborn
Mitantragstellende Institution
Universität Bielefeld
Beteiligte Institution
Gottfried Wilhelm Leibniz Universität Hannover; Ludwig-Maximilians-Universität München; Technische Universität Berlin
Sprecherin
Professorin Dr. Katharina Rohlfing
