Code-modulierte evozierte Potentiale zur Steuerung eines Brain-Computer Interface
Sicherheit und Verlässlichkeit, Betriebs-, Kommunikations- und verteilte Systeme
Zusammenfassung der Projektergebnisse
Brain-Computer Interfaces (BCIs) basierend auf code-modulierten visuell evozierten Potentialen (c-VEPs) haben gezeigt, dass sie sich gut für schnelle Kommunikation eigenen. Ziel dieses Projekts war die Weiterentwicklung von BCI-Systemen die auf der Basis von Code-Modellierung arbeiten um die Systeme auch mittels andere Sinnesmodalitäten nutzbar zu machen, mit dem Ziel diese auch bei gelähmten Patienten einsetzen zu können. Im Rahmen dieses Projekts konnte gezeigt werden, dass sich code-modulierte Potentiale auch bei anderen Sinnes-Modalitäten (sensorisch, auditorisch) finden lassen. Für auditorisch evozierte Potentiale wurde auch gezeigt, dass dadurch eine BCI-Steuerung möglich ist. Neben den auditorisch evozierte Potentialen lässt sich bei diesem System allerdings auch eine Lateralisierung der Alpha-Aktivität im Gehirn feststellen, welche eine bessere BCI-Steuerung ermöglich als durch die Nutzung der auditorisch evozierten Potentiale. Auf Grund zwischenzeitlicher Publikationen anderer Gruppen hat sich der Verdacht verstärkt, dass BCI-Kommunikation bei complete locked-in Patienten vermutlich auf Grund fehlender kognitiver Kapazitäten oder Bewusstseinstrübung nicht möglich ist. Aus diesem Grund wurde vom geplanten Projektverlauf abgewichen und sich in diesem Projekt stärker auf die Nutzung visuell evozierter Potentiale konzentriert und nicht wie ursprünglich geplant auf ein BCI-System zur Verwendung bei complete locked-in Patienten. Daher wurde eine Methode entwickelt, mit der sich die neuronale Reaktion auf visuelle Stimulation vorhersagen lässt. Das Muster mit der ein visueller Stimulus flackert (Wechsel zwischen Schwarz und Weiß) kann dabei beliebig sein und die Methode ist in der Lage, sowohl die im EEG gemessene Reaktion auf einen Stimulus vorherzusagen, als auch umgekehrt das Stimulationsmuster anhand des gemessenen EEGs zu erkennen. Durch Nutzung von Deep Learning Verfahren konnte somit gezeigt werden, dass sich 500.000 unterschiedliche Stimulationsmuster anhand von 2 Sekunden EEG mit einer Genauigkeit bis zu 100% unterscheiden lassen. Ein BCI welches diese Methode nutzt konnte bei dem besten Probanden im Online Versuch eine Information Transfer Rate (ITR) von 1237 bit/min erreichen, was mit Abstand die höchste ITR ist, die für eine Brain-Computer Interface berichtet wurde. Somit konnte zum Abschluss des Projekts das bisher schnellste BCI System präsentiert werden, welches zudem in einem asynchronen Modus arbeitet und über die Erkennung eines non-control states verfügt, bei der erkannt wird ob der Benutzer das System gerade nutzen möchte oder nicht. Mit einer Schreibgeschwindigkeit von bis zu 48 fehlerfreien Buchstaben ist das entwickelte BCI System somit das schnellte System, welches zugleich auch komfortabel von Patienten zu Hause genutzt werden könnte.
Projektbezogene Publikationen (Auswahl)
-
(2017). A high-speed brain-computer interface (BCI) using dry EEG electrodes. PloS one, 12(2), e0172400
Spüler, M.
-
(2018). Alpha-band lateralization during auditory selective attention for brain– computer interface control. Brain-Computer Interfaces, 5(1), 23-29
Spüler, M., & Kurek, S.
-
(2018). Modelling the brain response to arbitrary visual stimulation patterns for a flexible high-speed Brain-Computer Interface. PloS one, 13(10), e0206107
Nagel, S., & Spüler, M.
-
(2018). The effect of monitor raster latency on VEPs, ERPs and Brain–Computer Interface performance. Journal of neuroscience methods, 295, 45-50
Nagel, S., Dreher, W., Rosenstiel, W., & Spüler, M.
-
(2019). Asynchronous non-invasive high-speed BCI speller with robust non-control state detection. Scientific Reports, 9, Article numer: 8269
Nagel, S., & Spüler, M.
-
(2019). Questioning the Evidence for BCI-based Communication in the Complete Locked-in State. PLoS Biol, 17(4), e2004750
Spüler, M.
-
(2019). World's Fastest Brain-Computer Interface: Combining EEG2Code with Deep Learning
Nagel, S., & Spüler, M.