Detailseite
Projekt Druckansicht

Über das Erlernen von Entscheidungskriterien: Von der Signalentdeckungstheorie zur neuronalen Implementation

Fachliche Zuordnung Biologische Psychologie und Kognitive Neurowissenschaften
Kognitive und systemische Humanneurowissenschaften
Förderung Förderung von 2019 bis 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 424828846
 
Das Verhalten von Tieren wird durch Stimuli und Handlungskonsequenzen kontrolliert, und Tiere können lernen, ihr Verhalten so anzupassen, dass positive Konsequenzen (z.B. Belohnungen) erzielt und negative Konsequenzen (z.B. Bestrafungen) vermieden werden. Jedoch ist es in natürlichen Umgebungen häufig nicht klar, welche Handlung auf einen bestimmten Reiz hin erfolgen sollte, um diese Ziele zu erreichen. Außerdem sind die Kontingenzen von Reizen, Handlungen und Handlungskonsequenzen im Allgemeinen weder deterministisch noch statisch, so dass das Verhalten kontinuierlich an sich ändernde Umweltbedingungen angepasst werden muss.Innerhalb der Signalentdeckungstheorie kann solches Lernen unter Unsicherheit durch eine Anpassung des Entscheidungskriteriums beschrieben werden. Obwohl die Signalentdeckungstheorie sehr erfolgreich Verhalten auf Marr's "Computational Level" ("Was ist der Zweck eines bestimmten Prozesses?") erklären kann, sagt sie wenig zum "Algorithmic Level", also wie das Kriterium in Reaktion auf wechselnde Umweltbedingungen angepasst wird.In früheren Arbeiten haben wir ein auf Belohnungslernen basierendes Modell vorgeschlagen, dass Einsichten aus Signalentdeckungstheorie und klassischer Lerntheorie kombiniert. Die einfache Grundannahme des Modells ist, dass das Entscheidungskriterium so angepasst wird, dass belohnte Antworten wahrscheinlicher werden. In diesem Projektantrag beschreiben wir eine Reihe von Experimenten mit Ratten und Menschen, in denen wir unser auf Belohnungslernen basierendes Modell mit Modellen kontrastieren, die ausschließlich aus Fehlern lernen und sich bei der Beschreibung menschlichen Entscheidungsverhaltens bislang bewährt haben. Außerdem möchten wir unser Modell in weiteren Versuchsbedingungen testen und verfeinern. Schließlich möchten wir vom "Algorithmic Level" ("Welche Variablen sind repräsentiert, und wie werden sie miteinander verrechnet?") eine Ebene tiefer zum "Implementational Level" gehen, indem wir theoretische Modellierung, Verhaltensanalyse und optogenetische transiente Inaktivierung relevanter Hirnstrukturen kombinieren.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung