Detailseite
Projekt Druckansicht

Theoretische Garantien für erklärbares maschinelles Lernen

Fachliche Zuordnung Künstliche Intelligenz und Maschinelle Lernverfahren
Förderung Förderung seit 2025
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 560788681
 
Methoden des maschinellen Lernens werden zunehmend in sozialen Kontexten sowie für Anwendungen in der Wissenschaft eingesetzt. Gleichzeitig sind die Modelle des maschinellen Lernens extrem komplex geworden. Viele Nutzer*innen haben wenig Vertrauen in die Vorhersagen von Black-Box-Modellen, und selbst für Experten*innen des maschinellen Lernens ist es schwierig, systematische Fehler in der Machine-Learning-Lösung zu entdecken. Um dem entgegen zu wirken, wird oft erklärbares maschinelles Lernen hinzugezogen: Während Entscheidungsfunktionen hochkomplex und global schwer zu beschreiben sind, wird dann versucht, deren Entscheidungen zumindest lokal zu erklären. Ziel dieses Projektantrags ist es, mathematische Garantien für lokale Posthoc-Erklärungen zu entwickeln und zu beweisen, insbesondere für Methoden zur feature attribution. Solche formalen Garantien sind besonders dann wichtig, wenn es um risikoreiche Anwendungen in sozialen Kontexten geht, in denen Transparenz gesetzlich vorgeschrieben ist, oder bei Anwendungen des maschinellen Lernens in der Wissenschaft, wo das Ziel darin besteht, die zugrundeliegende Wahrheit zu entdecken. In beiden Fällen müssen wir unsere Werkzeuge kritisch bewerten, um gültige Aussagen machen zu können.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung