< Terug naar vorige pagina

Project

Multimodale relationele interpretatie voor diepe modellen.

Interpretatie en verklaring van diepe modellen is van cruciaal belang voor de brede acceptatie van systemen die erop vertrouwen. Modelinterpretatie bestaat uit het verkrijgen van inzicht in de informatie die een model uit een reeks voorbeelden heeft geleerd. Modelverklaring richt zich op het rechtvaardigen van de voorspellingen die een model voor een gegeven input doet. Terwijl er een steeds groter wordende aandacht is om modelverklaring te onderzoeken, heeft modelinterpretatie aanzienlijk minder aandacht gekregen. Met dit project willen we een grote stap vooruit zetten in de interpretatie en het begrip van diepe neurale netwerken. Meer specifiek richten we onze inspanningen op vier complementaire richtingen. Ten eerste door de berekeningen van modelinterpretatie-algoritmen te verminderen en de helderheid van de visualisaties die ze produceren te verbeteren. Ten tweede, door interpretatie-algoritmen te ontwikkelen die complexe structuren kunnen ontdekken die zijn gecodeerd in de te interpreteren modellen. Ten derde, door algoritmen te ontwikkelen om multimodale interpretaties te produceren op basis van verschillende soorten gegevens, zoals afbeeldingen en tekst. Ten vierde, door een evaluatieprotocol voor te stellen om de prestaties van algoritmen voor modelinterpretatie objectief te beoordelen. Als resultaat willen we een aantal basisprincipes voorstellen die kunnen worden gevolgd om elk bestaand en toekomstig diep complex model beter te begrijpen.
Datum:1 mei 2020 →  Heden
Trefwoorden:INTERPRETATIE, COMPUTER VISION, DIEP LEREN, MACHINAAL LEREN
Disciplines:Datamining, Machine learning en besluitvorming, Artificiële intelligentie niet elders geclassificeerd, Computervisie