Detailseite
Projekt Druckansicht

Near-Sensor Computing mit ressourceneffizienten Stochastischen Schaltungen

Fachliche Zuordnung Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Rechnerarchitektur, eingebettete und massiv parallele Systeme
Förderung Förderung von 2019 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 411773202
 
Viele aufkommende Systeme folgen dem „Sensorenschwarm“-Paradigma und verknüpfen die Gewinnung von Sensordaten mit ihrer sofortigen Verarbeitung. In Anwendungen wie Umwelt-Monitoring, Überwachung entlegener Gebiete oder Verarbeitung von Gesundheitsdaten durch implantierbare Geräte herrschen extreme Ressourcenbeschränkungen. Die eingesetzten Sensorknoten können keine Hochleistungsprozessoren beinhalten, um Sensorrohdaten zu verarbeiten, so dass diese über Drahtlosverbindungen an einen leistungsfähigen „Infrastrukturkern“ übermittelt werden müssen. Near-Sensor Computing vermeidet die Übertragung von Rohdaten durch relativ langsame, energiehungrige und potentiell unzuverlässige und unsichere Kanäle. Dafür werden dedizierte Hardware-Blöcke zur ressourceneffizienter Verarbeitung von Sensordaten direkt an ihrer Quelle eingesetzt. Besonders für Klassifikationsanwendungen, die mit sehr großem Datenaufkommen verbunden sind, ist der Gewinn durch Near-Sensor Computing vielversprechend.Das Ziel dieses Projekts ist die Entwicklung von Entwurfsmethoden für kostengünstige und leistungseffiziente Hardware-Schaltungen für Near-Sensor Computing auf der Basis von Stochastic Computing (SC). Das SC-Paradigma erlaubt extrem kompakte, fehlertolerante und leistungseffiziente Realisierungen von komplexen Funktionen. Die Nachteile von SC, die Geschwindigkeits- und Genauigkeitseinbußen, fallen bei Near-Sensor Computing weniger ins Gewicht, da die Sensordaten ohnehin ungenau sind und die Berechnungen in vielen Szenarien nur sporadisch anfallen. Ein Schwerpunkt des Projekts ist die SC-Realisierung von Neuronalen Netzwerken (NNs) für Klassifikationsaufgaben, von „leichtgewichtigen“ NNs bis hin zu vollständigen Convolutional NNs für Deep Learning. Es wird nach guten SC-Darstellungen von NNs gesucht. Um große und komplexe NNs darzustellen, werden Fortschritte bei den theoretischen Grundlagen von SC benötigt, insbesondere ein verbessertes Verständnis von Korrelationen, Zufallszahlengenerierung und bei hybriden stochastisch-binären Architekturen. Die theoretischen Erkenntnisse zusammen mit den entwickelten NN-Strukturen werden eine Synthese- und Optimierungsmethodik ergeben. Das Projekt ist in sechs Tasks und zwei eng verbundene Gebiete jeweils mit Schwerpunkt auf Theorie bzw. auf Anwendungen unterteilt. Im Rahmen des Projekts setzen wir unsere langjährige und fruchtbare Zusammenarbeit mit Prof. John P. Hayes von der University of Michigan, Ann Arbor, einem der führenden Wissenschaftler auf dem Gebiet des Stochastic Computing, fort. Das Projekt hat das Potential, Intelligenz in kleinste IoT-Geräte zu bringen, für welche die Vorteile von stochastischen Schaltungen, geringe Größe und Leistungsaufnahme, Fehlertoleranz und Biokompatibilität, besonders zur Geltung kommen.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung