Detailseite
Projekt Druckansicht

Benchmarking von Debiasing-Methoden für Künstliche Intelligenz in der Neurobildgebung-Forschung

Antragstellerin Dr. Didem Stark
Fachliche Zuordnung Klinische Neurologie; Neurochirurgie und Neuroradiologie
Förderung Förderung seit 2025
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 565037378
 
Dieses Projekt zielt darauf ab, die kritische Frage von Bias und Fairness bei Anwendungen künstlicher Intelligenz (KI) in der Neurobildgebung anzugehen, mit dem Ziel, Fairness und Gerechtigkeit im Gesundheitswesen zu fördern. KI hat die Neurobildgebung revolutioniert, indem sie eine präzise Analyse von Gehirnscans zur Diagnose neurologischer und psychischer Störungen ermöglicht. Allerdings weisen diese Systeme häufig Bias auf, der mit demografischen Faktoren wie Geschlecht, Alter, ethnischer Zugehörigkeit und sozioökonomischem Status zusammenhängt. Dies kann die Diagnosegenauigkeit untergraben und gesundheitliche Ungleichheiten verstärken. Diese Forschung zielt darauf ab, Debiasing-Methoden systematisch zu benchmarken und sie anhand von Fairness-Metriken zu evaluieren, die dann für die Entwicklung fairerer KI-Modelle für den klinischen Einsatz verwendet werden können. Die Studie verwendet einen zweistufigen Ansatz, bei dem synthetische und reale Datensätze eingesetzt werden. Synthetische Hirnbilder, die mithilfe von Latent-Diffusions-Modellen (LDMs) generiert werden, ermöglichen die kontrollierte Evaluation von Fairness-Metriken und Debiasing-Techniken. Reale Datensätze wie ADNI oder die UK Biobank werden für Aufgaben wie die Vorhersage des Hirnalters, die Detektion der Alzheimer-Krankheit und die Klassifikation von Alkoholkonsumstörungen verwendet, wobei eine Reihe von Machine-Learning-Modellen eingesetzt wird, darunter lineare Regression, Support Vector Machines (SVM) und Convolutional Neural Networks (CNN). Ein zentraler Schwerpunkt liegt auf der Evaluation von Debiasing-Methoden, die algorithmischen Bias in KI-Systemen mithilfe von Fairness-Kriterien wie Equality of Opportunity, Predictive Equality und Equalized Odds minimieren. Zu diesen Debiasing-Methoden gehören Preprocessing-Techniken wie Data Reweighing, In-Processing-Techniken wie adversariales Debiasing und Regularisierung sowie Postprocessing-Techniken wie die Optimierung von Equalized Odds. Subgruppenspezifische Modelle und die Integration demografischer Attribute in KI-Systeme werden ebenfalls untersucht, um ihr Potenzial zur Verbesserung von Fairness zu bewerten. Darüber hinaus wird eine Open-Source-Toolbox entwickelt, die Forschenden und Stakeholdern ermöglicht, Fairness-Metriken zu evaluieren und Debiasing-Methoden auf verschiedene Datensätze und Vorhersageaufgaben anzuwenden, insbesondere im Bereich der klinischen Neurobildgebung. Durch die Reduzierung algorithmischen Bias soll dieses Projekt die Inklusivität und Zuverlässigkeit von KI-Modellen in der klinischen Neurobildgebung verbessern. Ich bin überzeugt, dass diese Arbeit ein bedeutender Schritt in Richtung einer verantwortungsvollen Integration von KI in die Gesundheitsversorgung ist, insbesondere in den klinischen Neurowissenschaften, und gleichzeitig deren Vorteile für alle zugänglich macht.
DFG-Verfahren WBP Stelle
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung