Detailseite
Projekt Druckansicht

Überwachungsvideos für tragbare Kameras in der Cloud

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Arbeitswissenschaft, Ergonomie, Mensch-Maschine-Systeme
Förderung Förderung von 2015 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 243643046
 
Dies ist ein Fortsetzungsantrag zur Weiterführung des DFG-Projekts Ereignisgesteuerte Zusammenfassung von Überwachungsvideos in Adaptiven Kamera-Netzwerken (AZ: RI 658/25-1) im Rahmen des Trilateralen DFG-Programms für Deutschland, Israel und Palästina. Die Förderung des momentan (für 2 Jahre) bewilligten Projekts endet im September 2017. Der Fortsetzungsantrag beschreibt Verbesserungen des bisherigen Systems, wie (1) Integration von Videos verschiedener Kameratypen (statisch und dynamisch), z.B. von Mobiltelefonen und tragbaren Kameras, die heute auch von Polizeibeamten getragen werden, (2) Re-Identifizierung und Segmentierung desselben Objekts in nicht-überlappenden Kamera-Ansichten und (3) einer neuen Cloud-Computing-Plattform, mit Zugriffs- und Versionskontrollen.Statische Videokameras werden heutzutage überall installiert, als Sicherheitsmaßnahme zur Kriminalitätsbekämpfung oder Verkehrsüberwachung. Mobile Kameras befinden sich heute in jedem Smartphone und tragbare Kameras werden immer populärer für Polizisten, Soldaten oder Benutzer, die GoPros tragen. In diesem Fortsetzungsantrag sollen die Fähigkeiten von stationären Überwachungskameras erweitert werden, durch Verwendung von Videos beweglicher Kameras, um eine umfassendere Szenenanalyse zu erhalten. Zusätzlich wird das System auf eine Verwendbarkeit in der Cloud ausgerichtet. Im Fortsetzungsprojekt sollen Videos von fest installierten und beweglichen Kameras auf einem gemeinsamen Cloud-Server gespeichert werden, auf den alle Partner zugreifen können. Diese können reine Videodaten und Video-Metadaten (XML-Files) abrufen, um ihre lokalen Algorithmen darauf anzuwenden und die Resultate in die Cloud hochzuladen. Der Cloud-Server stellt erweiterte Dienste zur Verfügung, wie z.B. die Kontrolle von unterschiedlichen Versionen und den Zugriff auf die Metadaten. Da das Blickfeld jeder Kamera begrenzt ist, ist es unbedingt erforderlich, die Informationen der verschiedenen Kameras zu integrieren, um einen großen Überwachungsbereich abzudecken und ein weiträumiges komplettes Szenario umfassender interpretieren zu können. Dies erfordert eine Objektverfolgung über multiple Kameras hinweg, die Generierung einer Gesamtansicht der kompletten Szene aus den verschiedenen Kamerabildern und die integrierte Aktionserkennung aus diesen multiplen Kamerainformationen. Eines der Hauptinnovationen dieses Projektes ist die Integration von fest installierten und beweglichen Kameras sowie die Re-Identifizierung von verfolgten Objekten, basierend auf einer Cloud-Infrastruktur.Die drei Partner ergänzen sich sehr gut, um das Projekt zu realisieren: Partner TUM besitzt die Expertisen im Bereich Objektdetektion, Segmentierung und Personenverfolgung. Die Expertisen von Partner HUJI liegen im Bereich Computer Vision und Bildverarbeitung für Kalibrierung, Videozusammenfassung und Videoanalyse von tragbaren Kameras. AQU besitzt insbesondere Erfahrung im Bereich der Entwicklung verteilter Systeme und Cloud-Computing.
DFG-Verfahren Sachbeihilfen
Internationaler Bezug Israel, Palästina
Kooperationspartner Professor Dr. Michael Werman
ausländische Mitantragsteller Professor Radwan Kasrawi, seit 9/2020; Professor Dr.-Ing. Shmuel Peleg; Professor Dr. Raid Zaghal, von 5/2018 bis 8/2020
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung