< Terug naar vorige pagina

Project

Neurale netwerken onder epistemische onzekerheid voor robuuste voorspelling

Hoewel kunstmatige intelligentie (AI) de afgelopen jaren opmerkelijk is verbeterd, beperkt het onvermogen om met fundamentele onzekerheid om te gaan de toepassing ervan ernstig. Dit proefschrift zal AI opnieuw uitvinden om de onzekerheid die voortkomt uit onze gedwongen gedeeltelijke kennis van de wereld op de juiste manier te behandelen. Zoals momenteel wordt toegepast, kan AI niet met vertrouwen voorspellingen maken die robuust genoeg zijn om de test te doorstaan van gegevens die worden gegenereerd door processen die anders zijn (zelfs door kleine details, zoals aangetoond door 'vijandige' resultaten die diepe neurale netwerken voor de gek kunnen houden) van die welke tijdens de training zijn bestudeerd. Hoewel dit probleem onder verschillende namen wordt herkend (bijvoorbeeld 'overfitting'), lijkt traditionele Machine Learning (ML) het niet op niet-incrementele manieren aan te pakken. Als gevolg hiervan hebben AI-systemen last van broos gedrag en zijn ze moeilijk te bedienen in nieuwe situaties, b.v. aanpassen aan het rijden bij hevige regen of aan de verschillende rijstijlen van andere weggebruikers, b.v. voortkomen uit culturele kenmerken. Dit proefschrift zal AI opnieuw uitvinden door de onzekerheid die voortkomt uit onze gedwongen gedeeltelijke kennis van de wereld op de juiste manier te behandelen. Het paradoxale principe van epistemische AI is dat AI in de eerste plaats moet leren van de gegevens die het niet kan zien.

Datum:5 nov 2021 →  Heden
Trefwoorden:Uncertainty, Epistemic AI
Disciplines:Adaptive agents en intelligente robotica
Project type:PhD project