Detailseite
Projekt Druckansicht

softXplain: Anforderungen für selbst-erklärende Software

Fachliche Zuordnung Softwaretechnik und Programmiersprachen
Förderung Förderung seit 2021
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 470146331
 
Software wird zunehmend komplizierter und schwieriger zu benutzen. Das Verhalten der Software bleibt oft unverständlich. Das ergibt sich aus einer Inkonsistenz zwischen erwartetem und beobachtetem Verhalten der Software. Wer Software benutzt, kann in der Regel niemanden um Erklärungen und Hilfe bitten. Mit Erklärbarkeit (bzw. Erklärungsfähigkeit, engl.: Explainability) ist die Fähigkeit von Software gemeint, ihr eigenes Verhalten zu erklären. Solche Erklärungen sollen die Verwirrung bei der Benutzung verringern und letztlich die Akzeptanz steigern. Ähnlich wie Benutzbarkeit, Security oder Wartbarkeit handelt es sich bei der Erklärbarkeit um eine Qualitätseigenschaft der Software.Bei der Anforderungsspezifikation werden funktionale und nicht-funktionale Eigenschaften unterschieden. Qualitätseigenschaften wie Erklärbarkeit gehören zu den nicht-funktionalen Eigenschaften. Für jede solche Eigenschaft müssen die genaue Bedeutung und der Grad ihrer Umsetzung in einem Softwareprojekt spezifiziert werden. Da sich verschiedene Qualitätseigenschaften oft widersprechen, wird es nicht eine für alle Aspekte gleichermaßen ideale Lösung geben. Daher ist es wichtig, sinnvolle Anforderungen aufzustellen, was in Hinsicht auf Erklärbarkeit in einem Softwareprojekt erreicht werden soll: Gute Anforderungen beschreiben Funktionen, die nützlich in der Anwendung sind, realistisch umsetzbar und ausgewogen mit konkurrierenden Qualitätsanforderungen. Qualitativ hochwertige Anforderungen sind eine Voraussetzung für nützliche selbst-erklärende Software. Um solche Anforderungen aufstellen zu können, sind zuvor eine Reihe von Schlüsselfragen zu klären: Wie kann die Software erfahren, welches Verhalten von ihr erwartet wird? Wie lässt sich erkennen, ob Menschen Erklärungen benötigen? Und was ist die richtige Form und der geeignete Zeitpunkt für solche Erklärungen? Das Projekt soll diese Schlüsselfragen beantworten. Darauf werden ausführbare Demonstratoren aufbauen, die relevante Funktionen zur Erklärbarkeit enthalten. Damit soll empirisch untersucht werden, ob die entwickelten Konzepte geeignet sind, um nützliche Anforderungen für Erklärbarkeit von Software aufzustellen, und ob sie letztlich die Zufriedenheit mit dem System verbessern können.Selbst-Erklärbarkeit von Software wird derzeit immer wichtiger, weil komplizierte Softwaresyste,e im Alltag immer präsenter und mächtiger werden. Künstliche Intelligenz und Maschinelles Lernen tragen dazu bei, dass Verhalten unverständlicher und schwerer erklärbar ist. In softXplain geht es jedoch nicht darum, diesen Aspekt zu vertiefen, da dies andernorts bereits geschieht. Vielmehr soll generell komplizierte, selbt-erklärende Software untersucht werden.Die Validierung der identifizierten Probleme und der Lösungsvorschläge erfolgt mit Experimenten. Dazu werden Demonstratoren entwickelt, die Herausforderungen und vorgeschlagenen Lösungsansätze illustrieren und für die empirische Validierung zugänglich machen.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung