Detailseite
Projekt Druckansicht

TRR 318:  Erklärbarkeit konstruieren

Fachliche Zuordnung Informatik, System- und Elektrotechnik
Geisteswissenschaften
Sozial- und Verhaltenswissenschaften
Förderung Förderung seit 2021
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 438445824
 
Das EU-Recht auf Erklärung hat die Notwendigkeit verstärkt, die Fähigkeiten der erklärbaren künstlichen Intelligenz (eXplainable Artificial Intelligence, XAI) zu verbessern, um die Rechte von Personen zu stärken, die von KI-basierten Empfehlungen betroffen sind. Erklärungen dienen unter anderem dem Recht, ein KI-Ergebnis anzufechten, und beugen einem Kontrollverlust vor. Erklärungen können jedoch nur dann ihre Funktion erfüllen, wenn sie relevant sind. Aktuell wird die XAI-Forschung dafür kritisiert, dass sie sich auf die Anforderungen der Entwickler*innen statt der Nutzer*innen (Explainees) richtet. Es bleibt daher eine zentrale Herausforderung, eine Erklärung für einen bestimmten Explainee relevant zu gestalten. Für die erste Förderperiode schlug der TRR eine ko-konstruktive Interaktion als innovativen Ansatz in XAI vor. Wir führten theoretische und empirische Grundlagenforschung durch, um Erklärprozesse und die Beteiligung der Explainees in Mensch-Mensch- und Mensch-KI-Interaktionen zu verstehen. Wir gewannen Einblicke, wie Erklärdialoge strukturiert sind und wie Nutzer*innen modelliert werden können, um Erklärungen daran auszurichten. Darauf aufbauend haben wir erste XAI-Systeme entwickelt, die Nutzer*innen einbeziehen: Diese interagieren ko-konstruktiv und passen den Erklärprozess schrittweise an. Wir haben außerdem Erkenntnisse darüber gewonnen, ob und in welchen Situationen Nutzer*innen daran interessiert sind, die Funktionen von KI zu verstehen. Es zeigt sich, dass die Erklärungsbedürfnisse vielfältig sind und sich dynamisch verändern. Unsere Forschung zur aktiven Beteiligung der Explainees am Erklärprozess und zu den relevanten sozialen Aspekten bildet eine solide Grundlage für das Paradigma der sXAI (social XAI). Wir positionieren uns als Vorreiter, erklärbare KI in Richtung erklärender KI-Systeme weiterzuentwickeln, die eine epistemische Umgebung während einer Interaktion schaffen –einen Kontext–, in der Nutzer*innen selbstbestimmt ihr Wissen aufbauen können. Die Forschung der zweiten Förderperiode wird sich auf die Relevanz von Erklärungen konzentrieren und erklärende Algorithmen mit der Fähigkeit ausstatten, proaktiv und gemeinsam mit den Nutzer*innen einen Kontext zu konstruieren und die relevanten Faktoren zusammen mit dem Explainee zu bestimmen. Unser innovativer Ansatz besteht darin, dass der Kontext selbst als Teil der Interaktion ko-konstruiert wird. Daher erweitern wir unseren sXAI-Ansatz um eine Systematisierung in vier Kontexttypen, die uns zu relevanteren, flexibleren und vielseitigeren XAI-Anwendungen führen. Langfristig planen wir, autonome ko-konstruktive XAI in der realen Welt zu untersuchen, um Erkenntnisse darüber zu gewinnen, wie menschliche Gesprächspartner ihr Verhalten in ko-konstruktiven soziotechnischen Umgebungen (mit)anpassen und dadurch neue Praktiken entwickeln. Diese Erkenntnisse werden unsere theoretische Arbeit ergänzen, die sich mit einer kritischen Reflexion über Ko-Konstruktion als Prozess befasst.
DFG-Verfahren Transregios

Laufende Projekte

Abgeschlossene Projekte

Antragstellende Institution Universität Paderborn
Mitantragstellende Institution Universität Bielefeld
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung