Detailseite
Projekt Druckansicht

Kooperative Lokalisierung und Objekterkennung (CoLOR)

Fachliche Zuordnung Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung Förderung von 2006 bis 2014
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 24000310
 
Das Projekt CoLOR soll Beiträge zur Lokalisierung, Navigation und Objekterkennung in verteilten UWB-Sensornetzwerken liefern. Das mögliche Anwendungsszenario ist durch mobile bzw. gezielt positionierte Knoten eines verteilten Sensornetzwerks beschrieben, die in einer unbekannten Umgebung ausgebracht werden und ohne eine Infrastuktur auskommen müssen, wie das z.B. in einer Notfallsituation, etwa im Zusammenhang mit einer Feuer- oder Erdbebenkatastrophe oder eines Terroranschlags der Fall sein könnte. Die Sensorknoten sollen in der Lage sein, sich in der unbekannten Umgebung selbständig zu orientieren. Dazu müssen sie die geometrische Struktur der Umgebung erkennen und auf das Koordinatensystem des Sensornetzwerks beziehen können. Sie sollen unbekannte Objekte aufspüren und identifizieren, statische und bewegte Objekte unterscheiden, Personen auffinden und ihre Lebensfunktionen testen. Sie sollen auch gefährliche Situation, wie Brandquellen und verschüttete Personen delektieren und die Baukonstruktion grob auf Beschädigung prüfen. Der Vorteil von UWB für diese Anwendung ist die Fähigkeit, auch bei schlechter optischer Sicht zu arbeiten und Objekte hochauflösend zu orten. UWB-Wellen können Objekte durchdringen und Information über ihre innere Struktur bzw. über ihre Materialzusammensetzung liefern. Wir unterscheiden dabei zunächst ein multistatisches Szenario, das aus einer Anzahl weit verteilter, kooperierender Sensorknoten besteht und ein Fledermausszenario das durch intelligentere Sensoren, die mit einem bistatischen UWB-Radar ausgestattet sind, beschrieben wird. Die daraus resultierenden sensorischen Fähigkeiten erlauben diesen Knoten, charakteristische Merkmale der Ausbreitungsumgebung selbständig zu delektieren und zu erkennen. Die Sensoren arbeiten schließlich zusammen, um sich selbständig in der unbekannten Umgebung zu orientieren. Dabei werden die verteilten Sensoren im multistatischen Szenario eher ein vollständiges (globales) Abbild der Umgebung liefern, während die autonomen Sensoren des Fledermausszenarios zu einer partielle Karte mit mehr Detailtiefe beitragen werden. Dementsprechend werden wir die grundsätzlichen Strategien und Algorithmen für die Kooperation der heterogenen Sensorknoten aufbauend auf UWB Messungen und Simulationen ausarbeiten. Dazu gehören Verfahren der Signal Verarbeitung, der Parameterschätzung, Ortung, Merkmalsextraktion, Prinzipien der Sensordatenfusion, Abbildungsverfahren usw. Insbesondere sollen solche Algorithmen untersucht werden, die eine Echtzeitimplementierung in einem verteilten Sensornetz versprechen.
DFG-Verfahren Schwerpunktprogramme
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung