Synaptische Plastizität: von Biophysik zu Lernvermögen
Statistische Physik, Nichtlineare Dynamik, Komplexe Systeme, Weiche und fluide Materie, Biologische Physik
Zusammenfassung der Projektergebnisse
Informationen sind im Gehirn als bestimmte Verbindungsmuster zwischen den Nervenzellen gespeichert, in den Synapsen bzw. ihrer jeweiligen Verbindungsstärke. Synaptische Plastizität bezeichnet die Fähigkeit, die Stärke dieser Verbindungen durch Erfahrung zu verändern, und bildet somit die Voraussetzung für Erinnerung und Lernen. Dieses Forschungsprojekt hat sich mit synaptischer Plastizität auf zwei Ebenen beschäftigt. Auf der molekularen Ebene ist die synaptische Stärke großenteils durch die Größe des postsynaptischen Proteinkomplexes aus sog. Gerüstproteinen und Neurotransmitterrezeptoren bestimmt. Jedoch sind sowohl die Rezeptoren als auch die sie bindenden Gerüstproteine einem konstanten Austausch mit außersynaptischen Reservoirs unterworfen. Zusammen mit der Gruppe von Antoine Triller sind wir der Frage nachgegangen, inwieweit die biophysikalischen Prozesse Proteinaggregation, -austausch und -diffusion in der neuronalen Zellmembran zu wohldefinierten synaptische Stärken führen können trotz der inhärenten Labilität der einzelnen Komponenten. Mit Hilfe eines theoretischen Modells und Computersimulationen konnten wir zeigen, dass diese Prozesse in der Tat Langzeitstabilität der synaptischen Verbindungen einerseits und molekulare Fluktuationen andererseits miteinander versöhnen können; unser Modell erlaubt darüber hinaus genaue Vorhersagen über den quantitativen Zusammenhang zwischen biophysikalischen Parametern und synaptischer Größe. Am Beispiel inhibitorischer Synapsen konnten wir die quantitative Übereinstimmung unserer Vorhersagen und experimenteller Beobachtungen überprüfen, sowie unsere Vorhersage außersynaptisch anzutreffender Proteinkomplexe aus Gerüstproteinen und Neurotransmitterrezeptoren bestätigen. Perspektivisch ermöglicht ein besseres Verständnis der synaptischer Größendynamik zugrunde liegenden biophysikalischen Mechanismen eine präzisere Untersuchung der durch plastische Prozesse modifizierten Parameter. Das Erlernen bestimmter Aktivitätsmuster als Reaktion auf verschiedene jeweilige Eingangsstimulationen findet auf der Ebene neuronaler Netze statt und lässt sich als ein neuronaler Algorithmus begreifen. Das Kleinhirn, oder Zerebellum, eignet sich aufgrund seiner stereotypischen Struktur und gut dokumentierten Rolle in motorischem Lernen besonders gut, potentielle Lernalgorithmen zu untersuchen. In Zusammenarbeit mit der Gruppe von Boris Barbour haben wir eine neue Theorie zerebellaren Lernens entwickelt, die erstmals eine konkrete biologische Implementierung eines "stochastischen Gradientenabstiegs" vorschlägt und Limitierungen früherer Theorien zerebellaren Lernens überwindet. Während traditionell die Vorstellung bestand, dass einzelne Purkinjezellen präzise, synaptische Plastizität kontrollierende Fehlerinformation über ihre Aktivität erhalten (und somit komplexe Bewegungsabläufe ebenso komplexe Informationen benötigen, welche neuronale Aktivität für den fehlerhaften Bewegungsablauf ursächlich war), beruht der neue Algorithmus auf stochastischer Erprobung möglicher Modifikationen synaptischer Stärke, deren positiver oder negativer Einfluss auf den gewünschten Bewegungsablauf zur Konsolidierung oder zum Verwerfen dieser Modifikationen führt. Entscheidend ist hier, dass die Fehler signalisierenden Kletterfasern der unteren Olive gleichzeitig als Erzeuger der stochastischen Perturbationen dienen. Die Theorie führt zu neuen Vorhersagen für die Regeln synaptischer Plastizität zwischen Parallelfasern und Purkinjezellen, die wir tatsächlich experimentell nachweisen konnten. Mit Hilfe von Computersimulationen und eines vereinfachten Modells, das analytische Berechnungen ermöglicht, haben wir die Konvergenzeigenschaften und die Kapazität unseres Algorithmus weitergehend untersucht und charakterisiert. Experimente zur Untersuchung des vorgeschlagenen Algorithmus in vivo werden aktuell durchgeführt.
Projektbezogene Publikationen (Auswahl)
-
(2017). An aggregation-removal model for the formation and size determination of postsynaptic scaffold domains. PLoS Computational Biology, 13(4), e1005516–18.
Ranft, Jonas; Almeida, Leandro G.; Rodriguez, Pamela C.; Triller, Antoine & Hakim, Vincent
-
Cerebellar learning using perturbations. eLife, Vol. 7. 2018, e31599.
Bouvier, Guy; Aljadeff, Johnatan; Clopath, Claudia; Bimbard, Célian; Ranft, Jonas; Blot, Antonin; Nadal, Jean-Pierre; Brunel, Nicolas; Hakim, Vincent & Barbour, Boris
