Detailseite
Strukturierte Erklärbarkeit von Interaktionen in Deep Learning Modellen mit Anwendung auf Pathogenitätsprädiktion
Antragstellerinnen / Antragsteller
Professorin Dr. Nadja Klein; Professor Dr. Bernhard Renard
Fachliche Zuordnung
Medizininformatik und medizinische Bioinformatik
Epidemiologie und Medizinische Biometrie/Statistik
Statistik und Ökonometrie
Epidemiologie und Medizinische Biometrie/Statistik
Statistik und Ökonometrie
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 459422098
Die Erklärung und das Verständnis der zugrundeliegenden Wechselwirkungen von Genomregionen sind entscheidend für eine angemessene Charakterisierung des Phänotyps von Krankheitserregern, z. B. für die Vorhersage der Virulenz eines Organismus oder der Resistenz gegen Medikamente. Bestehende Methoden zur Klassifizierung der zugrundeliegenden komplexen Datenmengenvon Genomsequenzen stehen aufgrund der hohen Dimensionalität vor dem Problem der Erklärbarkeit, was die Visualisierung, die Intepretierbarkeit und die Rechtfertigung von Klassifizierungsentscheidungen erschwert. Dies gilt insbesondere für Interaktionen, wie z. B. bei genomischen Regionen. Um diese Herausforderungen zu bewältigen, werden wir Methoden zur Variablenselektion und strukturierten Erklärbarkeit entwickeln, die Interaktionen wichtiger Eingabevariablen erfassen: Genauer gesagt gehen wir diese Herausforderungen (i) im Rahmen eines tiefen gemischten Modells für binäre Ergebnisse an, das verallgemeinerte lineare gemischte Modelle und eine tiefe Variante strukturierter Prädiktoren vereint. Dabei kombinieren wir logistische Regressionsmodelle mit Deep Learning, um komplexe Interaktionen in genomischen Daten zu entschlüsseln. Wir ermöglichen insbesondere dann eine Schätzung, wenn keine explizit formulierten Einflussgrößen für die Modelle verfügbar sind, wie dies beispielsweise bei Genomdaten der Fall ist. Darüber hinaus werden wir (ii) Methoden zur besseren Erklärung von Interaktionen aufKlassifizierungsentscheidungen wie die Layerwise Relevance Propagation erweitern. Indem wir diese beiden komplementären Ansätze sowohl auf der Modell- als auch auf der Erklärbarkeitsebene untersuchen, ist es unser Hauptziel, strukturierte Erklärungen zu formulieren und zu postulieren, die nicht nur Erklärungen erster Ordnung für einzelne Variablen von Klassifizierungsentscheidungen liefern, sondern auch deren Interaktionen berücksichtigen. Obwohl unsere Methoden durch unsere genomischen Daten motiviert sind, können sie nützlich sein und auf andere Anwendungsbereiche ausgedehnt werden, in denen Interaktionen von Interesse sind.
DFG-Verfahren
Forschungsgruppen