Transformer-gebaseerde taalmodellen herdenken als middel voor analyse in zowel de linguïstiek als andere velden met tekst-gedreven methodologieën KU Leuven
Recent onderzoek naar 'machine learning' methodes gebaseerd op neurale 'transformer' architecturen hebben voor grote vooruitgang gezorgd op een brede waaier aan toepassingen in de natuurlijke taal verwerking, zoals machine vertaling en 'natural language understanding' over het algemeen. Voorafgaande studies tonen aan dat het zelf-gesuperviseerde 'language modeling' leerdoel waarop dergelijke neurale methoden worden getraind, modelen oplevert ...