Atelier «Bayesian optimisation, experimental design and bandits» en Sierra Nevada, en Espagne
Ces dernières années, on a observé de grands progrès en matière d'approches d'apprentissage pour le processus décisionnel séquentiel. Ces progrès ont été constatés dans différentes communautés qui emploient une terminologie différente: l'optimisation bayésienne, la conception expérimentale, les bandits (bandits armés x, bandits contextuels, bandits du processus gaussien), la détection active, les systèmes personnalisés de recommandation, la configuration d'algorithme automatique, l'apprentissage de renforcement, etc.
Les mêmes communautés ont également tendance à utiliser d'autres méthodologies. Certaines portent par exemple sur la performance pratique, et d'autres davantage sur les aspects théoriques d'un problème. Ainsi, on observe une grande gamme de méthodes pour l'échange de l'exploration et de l'exploitation dans l'apprentissage.
L'évènement rassemblera des parties prenantes afin d'identifier les différences et les points communs, de proposer des références communes, de réviser les nombreuses applications pratiques et de réduire l'écart entre la théorie et la pratique.Pour de plus amples informations, consulter: cliquer ici(s’ouvre dans une nouvelle fenêtre)