< Terug naar vorige pagina

Project

Deep learning voor EEG en audioverwerking in neurogestuurde hoortoestellen

In een situatie waar meerdere sprekers tegelijk praten, kan het gezonde menselijke auditieve systeem focussen op een specifieke spreker. Huidige hoorapparaten kunnen echter onvoldoende dit vermogen nabootsen. Voor personen met een gehoorverlies kan dit leiden tot meerdere problemen, zoals bijvoorbeeld sociale isolatie. Voor doeltreffende ruisonderdrukking en correcte versterking van de spreker, is het cruciaal om te detecteren op welke spreker(s) er gefocust wordt. Door spraaksignalen te vergelijken met elektro-encefalografie (eeg) signalen, is het aangetoond dat zulke decodering van neurale activiteit mogelijk is. Om auditieve aandachtsdecodering (AAD) uit te kunnen voeren in zogenoemde cocktail-party scenario’s, streven we ernaar om adaptieve machine learning methodes te gebruiken. In tegenstelling tot de huidige state-of-the-art decoders, zal het onderzoeken van een variëteit aan architecturen van diepe neurale netwerken waarschijnlijk decoderingsaccuraatheden verbeteren en leiden tot betere generaliseerbaarheid van decoders over subjecten. Voor real-life situaties, is het verder essentieel om het vermogen om snel te switchen in aandacht, te verbeteren. Minder pre-processing stappen en de hoge flexibiliteit van neurale netwerken zullen uiteindelijk leiden tot een end-to-end brain computer interface set-up voor real-time (closed-loop) aandachtsdecodering met eeg.

Datum:17 jul 2020 →  15 okt 2021
Trefwoorden:auditory attention decoding (AAD), deep learning
Disciplines:Computationele biomodellering en machine learning, Audiologie, Biomedische signaalverwerking
Project type:PhD project