Abstract
Diep leren heeft opmerkelijk succes bereikt in het oplossen van complexe problemen in diverse domeinen. Ondanks het algemeen gebruik ervan, blijft het fundamentele concept van generalisatie naar ongeziene data – dat ervoor zorgt dat het model de trainingsdata niet memoriseert, maar in plaats daarvan de onderliggende kenmerken leert – niet goed begrepen. De generalisatieprestatie wordt vaak post-hoc geëvalueerd via de voorspellingsnauwkeurigheid op test data. Het analyseren van generalisatie zonder test data echter, onthult het leerproces en of het model de beoogde kenmerken capteert. Dit omvat vaak de evaluatie van de complexiteit van het model, namelijk door een analyse van de beslissingsgrenzen en de geleerde parameters van het model. Huidige inspanningen zijn gericht op het vaststellen van generalisatiegrenzen of bepalen van simpele maatstaven die correleren met het generalisatievermogen van het model. Dit project heeft in plaats daarvan tot doel om topologische data analyse, meer bepaald persistente homologie, te exploiteren om de intrinsieke structuren van beslissingsgrenzen, getrainde parameters en activaties te beschrijven, die bijdragen aan superieure generalisatie. Het begrijpen van deze relatie biedt aanzienlijk potentieel voor het verbeteren van het modelontwerp, interpreteerbaarheid en hulpbron efficiëntie, en het verschaffen van waardevolle inzichten in het gedrag en tekortkomingen van diep leren, als leidraad voor toekomstige onderzoeksrichtingen.
Onderzoeker(s)
Onderzoeksgroep(en)
Project type(s)