Project
Deep learning voor EEG en audioverwerking in neurogestuurde hoortoestellen
In een situatie waar meerdere sprekers tegelijk praten, kan het gezonde menselijke auditieve systeem focussen op een specifieke spreker. Huidige hoorapparaten kunnen echter onvoldoende dit vermogen nabootsen. Voor personen met een gehoorverlies kan dit leiden tot meerdere problemen, zoals bijvoorbeeld sociale isolatie. Voor doeltreffende ruisonderdrukking en correcte versterking van de spreker, is het cruciaal om te detecteren op welke spreker(s) er gefocust wordt. Door spraaksignalen te vergelijken met elektro-encefalografie (eeg) signalen, is het aangetoond dat zulke decodering van neurale activiteit mogelijk is. Om auditieve aandachtsdecodering (AAD) uit te kunnen voeren in zogenoemde cocktail-party scenario’s, streven we ernaar om adaptieve machine learning methodes te gebruiken. In tegenstelling tot de huidige state-of-the-art decoders, zal het onderzoeken van een variëteit aan architecturen van diepe neurale netwerken waarschijnlijk decoderingsaccuraatheden verbeteren en leiden tot betere generaliseerbaarheid van decoders over subjecten. Voor real-life situaties, is het verder essentieel om het vermogen om snel te switchen in aandacht, te verbeteren. Minder pre-processing stappen en de hoge flexibiliteit van neurale netwerken zullen uiteindelijk leiden tot een end-to-end brain computer interface set-up voor real-time (closed-loop) aandachtsdecodering met eeg.