Detailseite
Projekt Druckansicht

UDNN: Wissenschaftliches Verstehen und Tiefe Neuronale Netzwerke

Fachliche Zuordnung Theoretische Philosophie
Förderung Förderung seit 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 508844757
 
“Deep Neural Networks” (DNNs) sind eine spezielle Technik im Bereich des Maschinellen Lernens, die in den letzten Jahren mit erstaunlichen Erfolgen glänzen konnte. Insbesondere in der Wissenschaft hat die Verwendung solcher DNNs zu echten Durchbrüchen geführt, wie etwa unlängst bei der bisher nur schwerlich möglichen Voraussage dreidimensionaler Proteinstrukturen auf Basis von Aminosäure-Sequenzen. Gleichzeitig entsprechen solche DNNs aber komplizierten, anpassbaren mathematischen Funktionen, und weder die Funktionen selbst, noch die erfolgreichen Methoden ihrer Anpassung, sind i.d.R. gegenwärtig vollends verstanden. Ein DNN kann also z. B. erfolgreich voraussagen, wie eine Proteinstruktur aussehen wird, ohne dass dabei hinreichend klar ist, wie es das tut. Schlimmer noch, ist es oft unklar, welche (versteckten) Informationen in diesem Prozess aus den Daten extrahiert werden; und in manchen Fällen lässt sich zeigen, dass dies hochrelevante Informationen für ein echtes Verstehen von z. B. Protein-Faltungsmechanismen sind. Ein zentrales Ziel der Wissenschaft, wenn nicht sogar das zentrale Ziel, ist aber eben das Verstehen: Welche Prozesse oder Mechanismen führen dazu, dass das Protein so aussieht, wie es aussieht? Wie hängt die Faltung eines Proteins mit seinen Umweltbedingungen zusammen? Die oben beschriebene Intransparenz führt bei allem Erfolg also gleichzeitig zu einem echten Hindernis für wissenschaftlichen Fortschritt. Das vorliegende Projekt zielt darauf ab, die wissenschaftlich relevanten Teile der Forschung zur „eXplainable Artificial Intelligence“ (XAI), die sich mit der Transparentmachung solcher Algorithmen befasst, philosophisch zu analysieren; d. h., darin vorgeschlagene „Erklärungen“ in Hinblick auf philosophische Verstehensbegriffe sowie auf die Möglichkeit neuer Arten des Erklärens und/ oder Verstehens zu untersuchen. Es soll außerdem die Möglichkeit des Verstehens ohne Erklärung mithilfe von DNNs untersucht werden, welche von einigen Philosophen bereits in Ansätzen behauptet worden ist. Des Weiteren sollen die Grenzen der (wissenschaftlichen) XAI und der DNN-lastigen Forschung in Hinblick auf die Ziele der Wissenschaft untersucht werden. D.h.: ist davon auszugehen, dass die Präsenz von teils unerklärten DNN-Erfolgen die Ziele der Wissenschaft von Verstehen hin zu reiner Voraussage verlagert? Oder werden Wissenschaftler weiterhin nach Verstehen streben (und wenn, dann wie)?
DFG-Verfahren Emmy Noether-Nachwuchsgruppen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung