< Terug naar vorige pagina

Project

Optimalisatie-kaders voor diepe kernel-gebaseerde modellen

Diep leren en kernel-gebaseerd leren zijn krachtige methodes in machinaal leren en data-gedreven modellering. Vanuit een optimalisatie en model-representatie standpunt gebeurt het leren van diepe voorwaartse neurale netwerken in primaire vorm. Kernel-gebaseerd leren daarentegen is dikwijls gekarakteriseerd door middel van duale representaties in connectie met het primaire probleem dat ook oneindig dimensionaal kan zijn. In dit project hebben we als bedoeling om nieuwe optimalisatie-kaders te onderzoeken voor diepe kernel-gebaseerde modellen. Hierbij komen kenmerken maps en kernels over meerdere niveaus voor en kunnen er verschillende objectieven zijn voor de opeenvolgende niveaus. De onderzoekshypothese is dat een uitgebreid kader, dat zowel diepe voorwaartse neurale netwerken als diepe kernel-gebaseerde modellen omvat, kan leiden tot belangrijke nieuwe inzichten en verbeterde resultaten. Om dit te realizeren zullen we aspecten van optimalisatie-modellering bestuderen (waaronder variationele principes, formuleringen voor gedistribueerd leren, consensus schemas), versnelde algoritmen en leren met een tegenstander.
Datum:1 okt 2018 →  30 sep 2022
Trefwoorden:kernel methodes, support vector machines, diep leren, optimaal regelen
Disciplines:Modellering, Biologische systeemtechnologie, Signaalverwerking, Controlesystemen, robotica en automatisatie, Ontwerptheorieën en -methoden, Mechatronica en robotica, Computertheorie, Toegepaste wiskunde, Computerarchitectuur en -netwerken, Distributed computing, Informatiewetenschappen, Informatiesystemen, Programmeertalen, Scientific computing, Theoretische informatica, Visual computing, Andere informatie- en computerwetenschappen