< Terug naar vorige pagina

Project

Naar de volgende generatie van interactieve en adaptieve verklaringsmethoden

Ondanks de lange onderzoeksgeschiedenis naar verklaringsmethoden door de Machine Learning, AI en Recommender Systems onderzoeksgemeenschappen, worden de huidige inspanningen geconfronteerd met enorme moeilijkheden: hedendaagse modellen zijn complexer en minder interpreteerbaar dan ooit. Aangezien dergelijke modellen in veel dagelijkse toepassingen worden gebruikt, wordt het rechtvaardigen van hun beslissingen voor niet-deskundige gebruikers met weinig of geen technische kennis alleen maar crucialer. Hoewel er verschillende verklaringsmethoden zijn voorgesteld, is er weinig werk verricht om te evalueren of de voorgestelde methoden inderdaad de menselijke interpreteerbaarheid vergroten. Veel bestaande methoden vereisen ook veel expertise en zijn statisch. Verschillende onderzoekers hebben het belang van interactie ook benadrukt. In dit project zullen we de volgende generatie van model-agnostische verklaringsmethoden onderzoeken die zijn afgestemd op de behoeften van niet-deskundige gebruikers. We zullen ook onderzoeken hoe deze verklaringsmethoden kunnen worden gecombineerd om krachtigere verklaringsinterfaces te ontwikkelen en hoe dergelijke interfaces dynamisch kunnen worden aangepast aan verschillende persoonlijke en situationele kenmerken.

Datum:1 jan 2021 →  Heden
Trefwoorden:interactive and adaptive explanation methods
Disciplines:Andere computer ingenieurswetenschappen, informatietechnologie en mathematische ingenieurswetenschappen niet elders geclassificeerd