Multiphotonen-Mikroskop mit in-vivo-Setup
Zusammenfassung der Projektergebnisse
Wir haben im Zuge der schnellen Entwicklung im Feld beschlossen i) Imagingverfahren direkt an wachen, kopffixierten Tieren zu etablieren, ii) dies mit eine virtuellen linearen Umgebung zu kombinieren sowie iii) direkt mit der Entwicklung von tiefen Imagingverfahren zu beginnen, die eine Messung neuronaler Aktivität z.B. im Gyrus dentatus erlauben (knapp 2mm unter der kortikalen Oberfläche). Entsprechend haben wir die folgenden technologischen Entwicklungen seit Dezember 2014 abgeschlossen. Entwicklung von tiefem Imaging. Wie bei dem Partnersystem wurde tiefes Imaging auch an diesem System etabliert. Dieses System wurde in der Etablierungsphase vorwiegend für Imaginganwendungen in der CA3 Region des Hippokampus benutzt. Es ist qualitativ hochwertiges Imaging von einzelnen Axonen in der CA3 region in wachen Tieren gelungen. Enscheidende Schritte für ein qualitativ gutes Imaging war die Entwicklung einer neuen Kopfixierung und eines kranialen Fensters, das auch bei tiefen Strukturen eine Konservierung einer hohen numerischen Apertur erlaubt. Zusätzlich ist an diesem System Imaging in der CA1 Region etabliert worden. Entwicklung von dual-color Imaging. Wir haben zusätzlich gleichzeitiges Imaging mit GCaMP6s sowie in den roten Spektralbereich verschobenen Indikatoren (jRGECO) in wachen Tieren etabliert. Dies hat z.B. erlaubt die Aktivität in afferenten axonalen Systemen zu detektieren, gleichzeitig mit dem Imaging der Zellaktivität. Hierfür war die Einkopplung und Justage eines zweiten, langwelligen Faserlasers notwendig (1050 nm, Fidelity, Coherent). Das gleichzeitige dual-color Imaging ist gut etabliert. Entwicklung von Imaging individueller Axone. Es ist gelungen, individuelle Axone im wachen Tier reliabel darzustellen und mit Hilfe von GCaMP6s Aktivität zu messen. Dies erlaubt nun die Darstellung der Aktivität spezfischer glutamaterger, GABAerger, oder modulatorischer Projektionssysteme (Etabliert bereits für glutamaterge und cholinerge modulatorische Axone). Entwicklung eines linear Track mit virtueller Realität für Experimente an wachen Tieren. Es wurde ein lineares Laufband für Experimente an wachen Tieren entwickelt. Das Laufband erlaubt die Generierung präzise definierter polysensorischer Umgebungen (somatosensorisch, akustisch, optisch, olfaktorisch). Das System erlaubt die zeitlich koordinierte Registrierung von Imagingdaten, sowie von Laufgeschwindigkeit, Position auf dem Laufband, Pupillendurchmesser mit Hilfe von Pupillometrie. Es wurde ein integriertes System mit zentraler Steuerung durch LabView entwickelt. Die Entwicklung von Analyseverfahren für die Verhaltensexperimente in Zusammenhang mit Imagingdaten wurde ebenfalls wesentlich vorangetrieben. Analyse: Die Analyse komplexer Imagingdaten wurde inklusive Korrektur von Bewegungsartefakten (Steadyscan Matlab toolkit), der Detektion von Zellen mit Aktivität (nichtnegativen Matrixfaktorisierungs-basierter Algorithmus), sowie von Custom-Algorithmen in Matlab etabliert. Komplexere Algorithmen (Deep Learning) sind in Kooperation mit theoretischen Gruppen (Prof. Schmid) in der Entwicklung. Zur Analyse wurde ein Prozessorcluster etabliert (32 Kerne), das eine schnelle Auswertung mit Matlab erlaubt.