Abstract
Aanbevelingssystemen gebaseerd op multi-armed bandit-algoritmen worden steeds vaker gebruikt. Echter, hun evaluatiemethoden weerspiegelen vaak niet goed de dynamische aard van aanbevelingsscenario's in de echte wereld en verwaarlozen aspecten zoals, rechtvaardigheid, diversiteit en gebruikerstevredenheid op lange termijn. Dit belemmert de ontwikkeling van algoritmen die goed presteren in de praktijk en heeft invloed op verschillende sectoren, waaronder nieuws, e-commerce en streamingdiensten. In dit project pakken we deze kritieke kwesties aan door een uitgebreid kader te creëren voor het evalueren van bandit-algoritmen in diverse aanbevelingsscenario's en het ontwikkelen van nieuwe algoritmen om huidige tekortkomingen aan te pakken. We stellen voor om de state-of-the-art bandit-algoritmen te beoordelen, hun beperkingen te identificeren en nieuwe methoden te introduceren die zich op die beperkingen richten. Het project zal gebruikmaken van publieke datasets en een nieuw simulatie-omgeving om realistische en reproduceerbare resultaten te waarborgen. Ons onderzoek zal leiden tot fundamentele tools en inzichten, waardoor de ontwikkeling mogelijk wordt van effectievere en verantwoordelijke aanbevelingssystemen die de tevredenheid van gebruikers verbeteren.
Onderzoeker(s)
Onderzoeksgroep(en)
Project type(s)