Project
Block-gequantiseerde en data-efficiënte DNN's op vectorprocessoren aan de rand
Sommige van de krachtigste algoritmen voor machinaal leren, de zogenaamde deep learning algoritmen of deep neural networks, vergen enorme hoeveelheden rekenwerk en geheugen tijdens de training. Als gevolg hiervan is het trainen van een neuraal netwerk vaak niet efficiënt, omdat het tijd, ruimte en energie vraagt. In dit doctoraat wordt nagegaan hoe bestaande trainingsalgoritmes hardware-efficiënter kunnen worden gemaakt en worden minder conventionele en nieuwe trainingsalgoritmes onderzocht. Specifiek zal ook onderzocht worden hoe het geheugen en de computationele complexiteit van training gereduceerd kunnen worden met behoud van een goede algoritmische nauwkeurigheid. Het uiteindelijke doel zou zijn om on-chip training efficiënt te maken, zelfs aan de rand.