Detailseite
Projekt Druckansicht

Code-modulierte evozierte Potentiale zur Steuerung eines Brain-Computer Interface

Antragsteller Dr. Martin Spüler
Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Sicherheit und Verlässlichkeit, Betriebs-, Kommunikations- und verteilte Systeme
Förderung Förderung von 2015 bis 2019
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 274840190
 
Erstellungsjahr 2019

Zusammenfassung der Projektergebnisse

Brain-Computer Interfaces (BCIs) basierend auf code-modulierten visuell evozierten Potentialen (c-VEPs) haben gezeigt, dass sie sich gut für schnelle Kommunikation eigenen. Ziel dieses Projekts war die Weiterentwicklung von BCI-Systemen die auf der Basis von Code-Modellierung arbeiten um die Systeme auch mittels andere Sinnesmodalitäten nutzbar zu machen, mit dem Ziel diese auch bei gelähmten Patienten einsetzen zu können. Im Rahmen dieses Projekts konnte gezeigt werden, dass sich code-modulierte Potentiale auch bei anderen Sinnes-Modalitäten (sensorisch, auditorisch) finden lassen. Für auditorisch evozierte Potentiale wurde auch gezeigt, dass dadurch eine BCI-Steuerung möglich ist. Neben den auditorisch evozierte Potentialen lässt sich bei diesem System allerdings auch eine Lateralisierung der Alpha-Aktivität im Gehirn feststellen, welche eine bessere BCI-Steuerung ermöglich als durch die Nutzung der auditorisch evozierten Potentiale. Auf Grund zwischenzeitlicher Publikationen anderer Gruppen hat sich der Verdacht verstärkt, dass BCI-Kommunikation bei complete locked-in Patienten vermutlich auf Grund fehlender kognitiver Kapazitäten oder Bewusstseinstrübung nicht möglich ist. Aus diesem Grund wurde vom geplanten Projektverlauf abgewichen und sich in diesem Projekt stärker auf die Nutzung visuell evozierter Potentiale konzentriert und nicht wie ursprünglich geplant auf ein BCI-System zur Verwendung bei complete locked-in Patienten. Daher wurde eine Methode entwickelt, mit der sich die neuronale Reaktion auf visuelle Stimulation vorhersagen lässt. Das Muster mit der ein visueller Stimulus flackert (Wechsel zwischen Schwarz und Weiß) kann dabei beliebig sein und die Methode ist in der Lage, sowohl die im EEG gemessene Reaktion auf einen Stimulus vorherzusagen, als auch umgekehrt das Stimulationsmuster anhand des gemessenen EEGs zu erkennen. Durch Nutzung von Deep Learning Verfahren konnte somit gezeigt werden, dass sich 500.000 unterschiedliche Stimulationsmuster anhand von 2 Sekunden EEG mit einer Genauigkeit bis zu 100% unterscheiden lassen. Ein BCI welches diese Methode nutzt konnte bei dem besten Probanden im Online Versuch eine Information Transfer Rate (ITR) von 1237 bit/min erreichen, was mit Abstand die höchste ITR ist, die für eine Brain-Computer Interface berichtet wurde. Somit konnte zum Abschluss des Projekts das bisher schnellste BCI System präsentiert werden, welches zudem in einem asynchronen Modus arbeitet und über die Erkennung eines non-control states verfügt, bei der erkannt wird ob der Benutzer das System gerade nutzen möchte oder nicht. Mit einer Schreibgeschwindigkeit von bis zu 48 fehlerfreien Buchstaben ist das entwickelte BCI System somit das schnellte System, welches zugleich auch komfortabel von Patienten zu Hause genutzt werden könnte.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung