< Terug naar vorige pagina

Project

Projectie methodes voor geparametriseerde en multiparameter eigenwaarde problemen

Matrix eigenwaarde problemen komen vaak voor in wetenschappelijk rekenen. In deze thesis focussen we ons op veralgemeningen van het eigenwaarde probleem, namelijk geparametriseerde en multiparameter eigenwaarde problemen. De betrokken matrices zijn groot, wat maakt dat eigenwaarden berekenen rekenkundig duur is. Daarom hebben we baat bij het maken van technieken die de eigenschappen van het onderliggend probleem ten volle benutten.

In elk van de methodes in deze thesis wordt er iteratief een deelruimte opgebouwd en lossen we in plaats van grote eigenwaarde problemen, de eigenwaarde problemen geprojecteerd op een kleine deelruimte op. Deze geprojecteerde eigenwaarde problemen zijn veel kleiner en aldus computationeel goedkoper. De vraag is dan hoe je deze deelruimte zo efficiënt mogelijk opstelt. In elk van de drie problemen die in deze thesis worden beschouwd, is de manier waarop deze worden opgesteld verschillend.

De eerste twee algoritmes die we voorstellen, handelen over geparametriseerde eigenwaarde problemen. Hier hangt de matrix/het matrix pencil af van parameters en willen we een globale benadering van een extreme eigenwaarde (grootste/kleinste in absolute waarde of met grootste reëele deel) bepalen. We discretiseren de parameterruimte en we benaderen de gezochte eigenwaarde in alle punten van deze eindige verzameling.

In het eerste algoritme richten we ons specifiek op matrix pencils waarvan de matrices symmetrisch zijn en minstens één van de twee moet positief definiet zijn. Hier is het idee dat elke vector in de deelruimte die we opbouwen, berekent is aan de hand van informatie van één punt in de parameterruimte. Dit punt is het punt in dewelke de benadering van de eigenwaarde het slechtst is op dat moment volgens het residu. We kunnen dus stellen dat we enkel lokale info gebruiken om onze deelruimte op te stellen.

Dit verandert in het tweede algoritme dat we voorstellen. Hier lossen we ook geparametriseerde eigenwaarde problemen op maar nu werken we enkel met standaard eigenwaarde problemen waarbij de matrix wel asymetrisch mag zijn. Hier nemen we een bestaande deelruimte-methode om eigenwaarden te bepalen en breiden we deze methode uit zodat we tegelijk de methode voor heel veel punten kunnen toepassen. De deelruimte die we gebruiken, vloeit voort uit informatie die van alle parameterpunten afkomstig is.

Het laatste probleem dat we behandelen is het oplossen van multiparameter eigenwaarde problemen. Dit soort problemen zijn equivalent met het oplossen van een potentieel heel groot gegeneraliseerd eigenwaardeprobleem. De deelruimte-methode die hiervoor gemaakt is, is gebaseerd op de Tensor-Trein representatie van het probleem. De deelruimte die hieruit voortvloeit wordt ook voorgesteld binnen het raamwerk van Tensor-Treinen. In een iteratie doen we een update van één core van de tensor die de eigenvectoren voorstelt, terwijl de andere cores vast worden gehouden.

In het eerste algoritme richten we ons specifiek op matrix pencils waarvan de matrices symmetrisch zijn en minstens één van de twee moet positief definiet zijn. Hier is het idee dat elke vector in de deelruimte die we opbouwen, berekent is aan de hand van informatie van één punt in de parameterruimte. Dit punt is het punt in dewelke de benadering van de eigenwaarde het slechtst is op dat moment. We kunnen dus stellen dat we enkel lokale info gebruiken om onze deelruimte op te stellen.

Dit verandert in het tweede algoritme dat we voorstellen. Hier lossen we ook geparametriseerde eigenwaardeproblemen op maar nu werken we enkel met standaard eigenwaardeproblemen waarbij de matrix wel asymetrisch mag zijn. Hier nemen we een bestaande deelruimte-methode om eigenwaarden te bepalen en breiden we deze methode uit zodat we tegelijk de methode voor heel veel punten kunnen toepassen. De deelruimte die we gebruiken, vloeit voort uit informatie die van alle parameterpunten afkomstig is.

Het laatste probleem dat we behandelen is om multiparameter eigenwaardeproblemen op te lossen. Dit soort problemen zijn equivalent met het oplossen van een heel groot gegeneraliseerd eigenwaardeprobleem. De deelruimte-methode die hiervoor gemaakt is, is gebaseerd op de Tensor-Trein representatie van het probleem. De deelruimte die hieruit voortvloeit wordt ook voorgesteld binnen het raamwerk van Tensor-Treinen.

Datum:18 mei 2017 →  14 apr 2021
Trefwoorden:geparametriseerde eigenwaarde problemen, multiparameter eigenwaarde problemen
Disciplines:Toegepaste wiskunde, Scientific computing
Project type:PhD project