Titel Promotor Affiliaties "Korte inhoud" "Optimaliseren van geavanceerde analytische taken over gedistribueerde data" "Frank NEVEN" "Applied Computer Science Lab, Databases en Theoretische Informatica" "In het tijdperk van big data worden bedrijven en wetenschappelijke instellingen geconfronteerd met gegevens die voorkomen in variëteiten en volumes die nog nooit eerder zijn aangetroffen. Tegelijkertijd bestaan ​​er nieuwe behoeften en verwachtingen over het inzicht en de intelligentie die kunnen worden afgeleid uit deze gegevenssets met behulp van voorspellende analyses via statistische en machine-learning modellen en algoritmen. Hoewel sampling een veelgebruikte, gebruikte techniek is om de kloof tussen grote datasets en diepe analyses te overbruggen via experttools, is er tegenwoordig, gedreven door goedkope opslag- en verwerkingscapaciteit, een enorme vraag om de volledige dataset te gebruiken. In dit voorstel richten we ons op de ondersteuning van geavanceerde big data-analyse door een nieuwe generatie gedistribueerde query-engines. Hier wordt de term big data-analyse gebruikt als een overkoepelende term voor complexe taken die traditionele querybewerkingen combineren, zoals tabel joins en bewerkingen uit lineaire algebra, zoals matrixvermenigvuldiging. In het bijzonder proberen we big data-analyses te ondersteunen vanuit een databaseperspectief, waarbij een gedistribueerde query-engine een solide ondersteunende omgeving biedt voor effectieve berekening en optimalisatie van typische geavanceerde analytische taken. Het algemene doel van dit project is bij te dragen tot een beter fundamenteel begrip van hoe complexe data-analytische workflows kunnen worden uitgevoerd in een big data-setting, waarbij distributie en parallellisatie centraal staan." "Mutation testing: minder, slimmer en sneller." "Serge Demeyer" "Lund University, Antwerpen Systemen en software Modellering (AnSyMo)" "Software updates zijn onvermijdelijk geworden in het digitale tijdperk en de release-cycli binnen ICTbedrijven volgen elkaar steeds sneller op. Tesla bijvoorbeeld zet elke maand één keer nieuwe software in zijn auto's; Amazon gaat nog sneller en laadt elke 12 seconden wijzigingen op hun servers! Met zulke snelle release-cycli neemt de behoefte aan aan e_ective kwaliteitscontrole toe: softwareteams doen al wat in hun macht ligt om te voorkomen dat fouten doorsijpelen tot in productie. Arti_ciële fouten (zogenaamde mutaties) injecteren is de vandaag de dag de beste bekende techniek om het foutdetectievermogen van een testbatterij in een vroeg stadium volautomatisch te veri_ëren. Maar deze aanpak is momenteel te traag om op industriële schaal te worden ingezet. Daarom zal het NEXT–O–TEST project drie verschillende invalshoeken bestuderen om testmutaties te analyseren (minder, slimmer en sneller) zodat ze e_ectief kunnen worden ingezet, zelfs bij snelle release-cycli. Zo zal NEXT–O–TEST het NEXOR Consortium toelaten om zijn expertise rond ""kwaliteitscontrole en testautomatisatie"" te versterken en zijn status als kernlabo binnen Flanders Make verzekeren." "Load balancing en scheduling in grootschalige computer systemen." "Benny Van Houdt" "Internet Data Lab (IDLab)" "De betrachting van dit project bestaat erin om nieuwe wachtrijmodellen te introduceren en te analyseren die inzichten verschaffen in de performantie van bestaande en nieuwe load balancing oplossingen voor grootschalige computer systemen. Bijzondere aandacht zal gaan naar de analyse van scheduling problemen met server affiniteit (zoals in MapReduce clusters), scheduling oplossingen die gebruik maken van redundantie (om de latency van server variabiliteit op te vangen) en state-full scheduling oplossingen. De analyze van deze scheduling oplossingen zal gebeuren aan de hand van mean field modellen en trace-based simulatie. Het project combineert technieken uit stochastische modellering, probabiliteit, dynamische systemen, numerieke analyze en simulatie." "Ctrl-APP: Applicatie-gedreven configuratie en verificatie van draadloze netwerken door middel van een beheerlaag voor applicaties." "Steven Latré" "Universiteit Gent, Internet Data Lab (IDLab)" "Iedereen die gebruik maakt van draadloze communicatietechnologieën zoals Wi-Fi heeft zeker ervaring met een slecht werkend netwerk. 'Better Wi-Fi performance' googelen, levert alleen al 64.000 resultaten op. Dit leidt vaak tot ontevredenheid en frustratie, niet alleen vanwege de slechte prestaties zelf, maar ook vanwege het onvermogen de oorzaak van het probleem te achterhalen. Waarom zijn draadloze netwerken niet voldoende intelligent om hun configuratie te optimaliseren aan de noden van de diverse applicaties? Wanneer we kijken naar de laatste evoluties, dan zien we dat de flexibiliteit van deze netwerken toeneemt en zo beheersmogelijkheden bieden die kunnen worden gebruikt om te definiëren hoe data moet worden gebruikt. Er is dus flexibiliteit en de netwerken kunnen worden beheerd, maar we stellen dat zonder te herdefiniëren hoe applicaties in het netwerkmanagement passen, men configuraties zal blijven uitvoeren op basis van onvolledige informatie. Op deze manier worden suboptimale draadloze netwerkprestaties en de ontevredenheid van de gebruiker in stand gehouden. Daarom wil Ctrl-APP een nieuw netwerkparadigma opzetten, genaamd appdaptive networking. Dit wordt bereikt door de scheiding van data en control plane, een typisch netwerkconcept, uit te breiden naar applicaties. Op deze manier kunnen applicaties intenties doorgeven aan het netwerk, kunnen de netwerken op de juiste manier worden geïnstrueerd om fijnmazige diagnostiek uit te voeren en kan de resulterende kennis gebruikt worden om automatisch de beste configuratie te leren en uit te voeren." "Krediet voor deelname aan congres in het buitenland aan Winter Simulation Conference, Göteborg Zweden 09-12/12/2018" "Niels MARTIN" Beleidsinformatica "- Abstract van gepresenteerde paper 1: Wanneer een bedrijf simulatie wil gebruiken om beslissingsondersteunende informatie te genereren, moet een simulatiestudie uitgevoerd worden. Het gebruiken van een duidelijke stapsgewijze methode om zo'n studie aan te pakken zorgt ervoor dat geen stappen over het hoofd worden gezien en versterkt de betrouwbaarheid van de studie tegenover beslissingsnemers. In deze paper wordt een methode om simulatiestudies uit te voeren voorgesteld, dewelke bestaat uit negen stappen met continue evaluatie als centraal feedbackmechanisme. De methode vormt een synthese van bestaande methoden in de literatuur en positioneert het daadwerkelijk bouwen van een simulatiemodel in gespecialiseerde software binnen een groter geheel. De toepassing van de methode wordt geïllustreerd middels een simulatiestudie die in realiteit werd uitgevoerd binnen de context van een spoedgevallendienst. Deze toepassing toont aan dat het relatieve gewicht van de verschillende stappen in de methode kan verschillen naargelang de specifieke kenmerken van het project. - Abstract van gepresenteerde paper 2: Simulatie kan de analyse en verbetering van bedrijfsprocessen ondersteunen en is bijgevolg een waardevolle techniek om studenten aan te leren. Bijgevolg worden inleidende simulatiecursussen in diverse studieprogramma's opgenomen. Naast het voorzien van theoretische kennis aan studenten en hen vertrouwd maken met het gebruik van simulatiesoftware, is het eveneens belangrijk hen kennis te laten maken met de complexiteit van het uitvoeren van simulatiestudies in de praktijk. In dit verband beschrijft deze paper de integratie van een reële simulatiestudie in een inleidende simulatiecursus. Naast de inhoud van de simulatiestudie worden eveneens het pedagogisch design, feedback van studenten, feedback van het bedrijf en uitdagingen voor de docent beschreven. Feedback van studenten toont aan dat, hoewel het project als uitdagend werd gepercipieerd, de reële simulatiestudie in grote leermogelijkheden voorziet." "Krediet voor deelname aan congres in het buitenland aan the International Conference on Business Process Management, Sydney Australië 09-14/09/2018." "Niels MARTIN" Beleidsinformatica "Abstract van de gepresenteerde paper: Ziekenhuizen worden zich alsmaar bewuster van de nood om hun bedrijfsprocessen te beheren. In dit verband wordt process mining steeds vaker gebruikt om inzicht te verwerven in processen binnen de gezondheidszorg, hetgeen de analyse van event logs uit het hospital information system vereist. Process mining onderzoek concentreert zich vooral op het ontwikkelen van nieuwe technieken of het toepassen van bestaande technieken. Het is echter zo dat de kwaliteit van elk van deze analyses uiteindelijk afhangt van de kwaliteit van de event log. Er is nochtans weinig onderzoek gedaan naar de verbetering van de datakwaliteit in het process mining domein, hetgeen het thema is van deze paper. Meer specifiek bespreekt deze paper vanuit conceptueel oogpunt de kansen die indoor location systems data voorziet om problemen inzake datakwaliteit in event logs aan te pakken. Bovendien reflecteert deze paper over de hieraan verbonden uitdagingen. Op deze wijze voorziet de paper de conceptuele basis voor een nieuw onderzoeksdomein dat focust op de systematische integratie van een event log met indoor location systems data." "Reële-tijd adaptief 'cross-layer' dynamisch spectrum-management voor vijfde-generatie bedrade breedbandtoegangsnetwerken." "Internet Data Lab (IDLab)" "Het onderzoek naar de prestaties van de fysische laag van communicatienetwerken richt zich vooral op het ontwikkelen van nieuwe transmissietechnieken, zoals MIMO, OFDM/DMT. De fysieke laag is echter meestal op een statische wijze geconfigureerd en is dus zelden in staat de tijdsdimensie echt te exploiteren. De bovenliggende lagen van de protocol stack hebben cruciale tijd gerelateerde informatie (bv. netwerk verkeer) die zou kunnen worden gebruikt op de fysieke laag om dynamisch verschillende configuraties te selecteren en aldus de prestaties te verbeteren. Het doel van dit project is dan ook in real-time adaptive fysische laag controle algoritmen te ontwikkelen die kan gecombineerd worden met hogere lagen netwerk functies om aldus de tijdsdimensie beter te exploiteren. Dit zal gebeuren in de context van de 5de generatie breedband koper toegangsnetwerk (5GBB). Dit netwerk voorziet een hybrid fiber-DSL systeem waar de glasvezel eindigt op de grens publiek-prive domein. De beperkt lengte van koper verbinding, samen met het gebruik van specifieke transmissie technieken laat toe data rates van 10Gbps te bekomen. Bovendien is het de bedoeling om adaptive fysische laag control algoritmen te ontwikkelen die in real time werken." "Het oplossen van vraagstukken uit de kansrekening en combinatoriek in natuurlijke taal." "Centrum voor Computerlinguïstiek, Psycholinguïstiek en Sociolinguïstiek (CLiPS)" "In dit project wordt een volautomatische aanpak ontwikkeld die toelaat oefeningen op te lossen over combinatoriek en waarschijnlijkheidsleer, zoals die in inleidende tekstboeken in discrete wiskunde kunnen gevonden worden. De mogelijkheid dergelijke problemen op te lossen is een belangrijke cognitieve en intellectuele vaardigheid en wordt geëvalueerd als onderdeel van academische toelatingsproeven zoals de SAT, GMAT en GRE. De vraagstukken zullen geformuleerd worden in natuurlijke taal en de taak voor het systeem is om automatisch de vragen te beantwoorden. We zullen een twee-stappen aanpak ontwikkelen hiervoor. In de eerste stap analyseren en transformeren we de natuurlijke taal vraag naar een hoog-niveau model geformuleerd in een declaratieve taal. In de tweede stap wordt dit hoog-niveau model opgelost door de inferentiemechanismen van de declaratieve modelleringstaal te gebruiken. De taal en de inferentiemechanismen zijn gebaseerd op de principes van probabilistisch programmeren, een steeds populairder programmeerparadigma. Hoewel het onmiddellijke doel van het project het oplossen van de vraagstukken is, is het lange termijn doel om bij te dragen tot de automatisering van het oplossen van probabilistische en combinatorische problemen en toe te laten dit soort problemen in natuurlijke taal te modelleren en programmeren, twee doelstellingen die uiterst relevant zijn voor cognitive computing en artificiële intelligentie" "MED-ENS: Opwaarderen van machine learning ensembles om medische uitdagingen aan te pakken" "Celine Vens" "Maatschappelijke Gezondheidszorg en Eerstelijnszorg, Campus Kulak Kortrijk" "Ensemble-methoden worden op grote schaal gebruikt voor voorspellende algoritmen voor machinaal leren, met uitstekende voorspellende prestaties, gecombineerd met haalbare rekentijden. Dit domein wordt geconfronteerd met verschillende uitdagingen die een optimale toepassing van ensemble-methoden verhinderen. In dit project zullen we deze uitdagingen aanpakken door ensemble-methoden te upgraden." "Het ontdekken en exploiteren van interactie patronen in netwerken." "Toon Calders" "Engineering Management, ADReM Data Lab (ADReM)" "De meeste werken in netwerk analyse concentreren zich op statische graafstructuren en zoeken naar patronen om bijvoorbeeld de meest invloedrijke nodes in het netwerk te vinden. Weinig bestaande werken bestuderen dynamische netwerken met herhaalde interacties tussen nodes. Het doel van dit project is om deze lacune weg te werken door nieuwe methoden te ontwikkelen om patronen te ontdekken in de interacties tussen netwerk nodes. Deze interactie patronen kunnen bijvoorbeeld karakteriseren hoe informatie zich verspreidt in sociale netwerken, of geldstromen in financiële netwerken in kaart brengen. In het project beschouwen we drie orthogonale dimensies. De eerste dimensie is het patroon type. We beschouwen onder andere temporele paden, informatie cascades en cycles. Om een gemotiveerde keuze te maken betreffende patroontype om te bestuderen, laten we ons leiden door drie cases: twee interactie netwerken met betaaldata, een met een marketing doel en een ander om betalingsproblemen bij leningen te voorspellen, en een sociaal netwerk met een toepassing in micro-financiering. De tweede dimensie betreft hoe we het patroon type gaan zoeken: is het de bedoeling alle voorkomens van een bepaald patroontype te vinden, of zoeken we top-patronen die vaker voorkomen dan andere. De derde en laatste dimensie betreft het computationele model dat we gebruiken: batch met random access, one-pass, of streaming. Het is belangrijk dat de methodes schaalbaar zijn en kunnen werken met data van grote interactie netwerken. De belangrijkste bijdrage van dit project ligt in de combinatie van streaming technieken, pattern mining en sociaal netwerk analyse, gevalideerd in drie echte use cases."