Detailseite
Erklärungen und Verbesserungsvorschläge für Erklärbarkeitsanforderungen generieren (softXplainer)
Antragsteller
Professor Dr. Kurt Schneider
Fachliche Zuordnung
Softwaretechnik und Programmiersprachen
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 470146331
Software wird immer komplizierter und mächtiger; sie ist manchmal schwierig zu benutzen. Nutzende verstehen oft nicht, was die Software tut oder warum sie es tut. Häufig passen Erwartungen und tatsächliches Systemverhalten nicht zusammen. Nutzenden sind dem komplizierten Systemverhalten ohne Hilfe ausgeliefert; menschliche Experten, die ihnen helfen könnten, stehen oft nicht zur Verfügung. Stattdessen könnten aber Erklärungen helfen, die Verwirrung aufzulösen. Erklärbarkeit bedeutet die Fähigkeit von Software, ihr eigenes Verhalten erklären zu können. Die erste Phase dieses Projekts beschäftigte sich mit Anforderungen an Erklärbarkeit: Was kann vernünftigerweise in Bezug auf Erklärungen erwartet und in Anforderungen gefordert werden? In dieser Fortsetzung des Projekts richtet sich der Fokus nicht mehr auf Anforderungen, sondern darauf, wie sie zur Laufzeit umgesetzt oder unterstützt werden können. Anforderungen werden mit Heuristiken in Verbindung gesetzt, die in der ersten Projektphase erhoben worden waren. Manche dieser Heuristiken definieren Trigger: Unter welchen Umständen sollte eine Erklärung gegeben werden? Ein anderer Typ von Heuristiken sagt aus, wie ein bestimmter Typ von Erklärungen formuliert sein und aussehen sollte. Und ein dritter Typ von Heuristiken gibt eine Empfehlung, welche Arten von Erklärungen nach einem bestimmten Trigger gegeben werden sollte. So ein Satz von Heuristiken soll in einem sogenannten Explainer gebündelt werden. Explainer definieren, wie zugrundeliegende Anforderungen operational umgesetzt werden können und zu konkreten Erklärungen führen. Dabei spielen Telemetriedaten eine große Rolle, um Erklärungen bei Bedarf auszulösen. Wenn die Interaktion von Nutzenden mit dem System bestimmte Muster aufweist, kann dies heuristisch als Anzeichen für Erklärungsbedarf gedeutet werden. Das Projekt untersucht unter anderem, wie Telemetrie-Daten über Nutzerinteraktionen eingesetzt werden können, um in Realzeit Erklärungen zu generieren. Fortgeschrittene Konzepte wie Explainer mit Heuristiken und auch Techniken wie Verhaltensanalyse, Telemetrie und Large Language Models werden zum Werkzeugkasten der Erklärbarkeit hinzugefügt. Angemessene Erklärungen zu erzeugen und weiterzugeben, ist nach wie vor das Hauptziel der Erklärbarkeit. In diesem Projekt kommt jedoch noch eine neue Variante hinzu: Statt den Nutzenden wird dem Entwicklungsteam erklärt, wie es die Software verbessern kann, so dass Erklärungen überflüssig werden. Das geht allerdings nur in speziellen Fällen. Erklärbarkeit hat während der letzten Jahre an Bedeutung zugenommen. Während jedoch in der Explainable AI (XAI) die Interpretation von Resultaten für die Verbesserung der Algorithmen im Vordergrund steht, konzentriert sich das softXplainer-Projekt weiterhin darauf, irgendwelche komplizierte Software den Nutzenden zu erklären. Der Erfolg des Projekts wird mit empirischen Nutzerstudien, mit technischen Vergleichen und durch Praktiker-Bewertungen gemessen.
DFG-Verfahren
Sachbeihilfen
