Detailseite
Projekt Druckansicht

Modell-Entwicklung in den Neurowissenschaften: über die Einfachheit und Generalisierbarkeit von Mechanistischen Erklärungen

Fachliche Zuordnung Theoretische Philosophie
Förderung Förderung von 2018 bis 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 413568662
 
Erklärungen in den Neurowissenschaften basieren oft auf mechanistischen Modellen. Viele Gehirn-Mechanismen enthalten jedoch eine große Anzahl unterschiedlicher Komponenten und umfassen mehrere Organisationsebenen. Dies hat zur Folge, dass Neurowissenschaftler bestimmte Entscheidungen treffen müssen: Welche Komponenten und Ebenen sollten in einem erklärenden Modell enthalten sein? Oder anders: Welches Modell ist das Beste aus einer Menge von konkurrierenden mehrstufigen mechanistischen Modellen? Es ist möglich zu zeigen, dass Neurowissenschaftler neben anderen Kriterien mehr oder weniger explizite Vereinfachungs- und Generalisierungs-Kriterien verwenden, um solche Auswahlprobleme zu lösen. Einfachheit zielt auf Fragen ab wie: Wie viele Ebenen sollten einbezogen werden, um ein bestimmtes Verhaltens- oder kognitives Phänomen mechanistisch zu erklären? Wie genau sollen die Komponenten und Wechselwirkungen dieser verschiedenen Ebenen beschrieben werden? Die in diesem Zusammenhang relevanten Einfachheits-Erwägungen sind von grundlegend anderer Natur als klassische Kurvenanpassungsverfahren. Die Generalisierbarkeit betrifft Fragen wie: Wie viele Phänomene sollte ein bestimmtes Modell anwenden, und über wie viele Individuen und Arten sollte es verallgemeinern? Die Ausgewogenheit der dualen Kriterien ist von größter Wichtigkeit bei der Entwicklung von Modellen für Viele-Ebenen-Mechanismen des Gehirns.Das übergeordnete Ziel dieses Projekts ist es, die Normen und Praktiken zu untersuchen, mit denen Einfachheit und Generalisierbarkeit als Kriterien für die Entwicklung von Modellen von Viele-Ebenen-Mechanismen in den Neurowissenschaften angewendet werden. Anhand von Fallstudien wird ermittelt, wie diese Kriterien in der aktuellen Forschung angewendet werden und werden sollten. Damit klärt dieses Projekt, mit welchen Strategien die besten mechanistischen Erklärungen entwickelt und ausgewählt werden können. Es wird daher erwartet, dass es nicht nur zu einer verbesserten philosophischen Konzeption der mechanistischen Erklärung in den Neurowissenschaften beiträgt, sondern auch normative Hilfskriterien für die aktuelle wissenschaftliche Forschung liefert. Die konkreteren Ziele dieses Projekts sind: (1) Es soll ein verbessertes philosophisches Verständnis der mechanistischen Erklärung auf mehreren Ebenen in den Neurowissenschaften entwickelt werden, wobei Einfachheit und Generalisierbarkeit als Kriterien im Vordergrund stehen. (2) Es soll eine Case-Study-basierte Analyse des Kriteriums der Einfachheit für die Bewertung von mechanistischen Erklärungen unternommen werden. (3) Es soll ein besseres Verständnis des Kriteriums der Generalisierbarkeit in mechanistischen Erklärungen artikuliert werden. (4) Es sollen normative Leitlinien für die Modellentwicklung und Modellauswahl zu formuliert werden, die in der zukünftigen neurowissenschaftlichen Forschung Anwendung finden können.
DFG-Verfahren Sachbeihilfen
Ehemaliger Antragsteller Professor Dr. Carlos Zednik, bis 9/2020
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung