< Terug naar vorige pagina

Project

Computationele modellen voor big data algoritmen.

Het ontwerp van efficiënte algoritmen is een centraal thema in de informatica. Echter, recente experimenten tonen aan dat vele algoritmen aan efficiëntie inboeten wanneer grote hoeveelheden aan data ("Big Data") aanwezig zijn. Dit geldt met name voor query-evaluatie methoden in de context van databanken. Helaas kunnen de bestaande theoretische technieken voor het analyseren van algoritmen niet onderscheiden of een algoritme al dan niet efficiënt is op big data. Inderdaad, algoritmen die beschouwd worden als efficiënt in de klassieke zin blijken dat niet meer te zijn wanneer het big data betreft. Dit vraagt om een grondige herziening van de klassieke complexiteitstheorie. Het hoofddoel van dit project is dan ook de ontwikkeling van dergelijke theoretische fundamenten met bijhorende computationele complexiteitsanalyse die de efficiëntie van algoritmen in de context van big data kunnen karakteriseren.
Datum:1 mrt 2014 →  31 jul 2015
Trefwoorden:THEORIE DATABANKEN, COMPLEXITEIT
Disciplines:Toegepaste wiskunde, Computerarchitectuur en -netwerken, Distributed computing, Informatiewetenschappen, Informatiesystemen, Programmeertalen, Scientific computing, Theoretische informatica, Visual computing, Andere informatie- en computerwetenschappen