Detailseite
Projekt Druckansicht

Theoretisches Verständnis der Fähigkeit neuronale Systeme, Modelle der Umwelt zu repräsentieren, zu erlernen und zur Verhaltensplanung zu nutzen.

Fachliche Zuordnung Sicherheit und Verlässlichkeit, Betriebs-, Kommunikations- und verteilte Systeme
Förderung Förderung von 2004 bis 2006
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 5430650
 
Wie können neuronale Systeme ein Modell der Umwelt repräsentieren, erlernen und damit komplexe Handlungsabfolgen planen und steuern? Es scheint offensichtlich, dass der Mensch interne Modelle seiner Umwelt erlernt und zur Verhaltensplanung nutzt. Konventionelles, modell-freies Reinforcement Lernen verneint jedoch solche Modelle, während modell-basiertes Reinforcement Lernen, das echte Planung ermöglicht, bisher kaum in einen konnektionistisch plausiblen Rahmen eingebettet wurde. Im Projekt soll ein Modell eines neuronalen Systems erarbeitet werden, das Wissen um die perzeptuellen Konsequenzen von Aktionen erlernt, so ein "Weltmodell" neuronal repräsentiert und zielgerichtete Handlungsplanung realisiert. Das System wird direkt an kontinuierliche Sensor- und Motorsignale koppeln und nur auf lokalen Mechanismen basieren. Ein besonderes Augenmerk liegt auf der Selbst-Organisation der neuronalen Repräsentation von "Zuständen", ähnlich den Selbst-Organisierenden Karten, jedoch gleichermaßen an Aktionen gekoppelt. Das Ziel ist hier die Selbst-Organisation verhaltensbasierter neuronaler Repräsentationen in einem konnektionistischen Weltmodell. Die Methodik basiert einerseits auf der Theorie neuronaler Informationsverarbeitung und des Maschinellen Lernens, insbesondere der Modellierung von Maxkov-Entscheidungs-Prozessen, andererseits auf dynamischen neuronalen Systemen.
DFG-Verfahren Emmy Noether-Auslandsstipendien
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung