-
Explorer les algorithmes de bandits linéaires et à noyaux, en mettant en lumière une application dans le domaine de l’imagerie microscopique.
-
Maitriser les concepts clés et les algorithmes importants pour l’optimisation de fonctions à l’aide de méthodes de bandits.
-
Apprendre à estimer des paramètres et la construction de régions de confiance en utilisant la régression, en s’appuyant sur les informations des sources fournies.
-
Acquérir des notions de base de systèmes markoviens et de contrôle linéaire robuste.
-
Couvrir les algorithmes de planification, en commençant par les bases et en progressant vers des concepts plus avancés.
-
Connaître les fondements de l’apprentissage par renforcement profond.
-
Mettre en oeuvre l’approximation de fonction en apprentissage par renforcement.
-
Explorer les limites de l’apprentissage profond.
A l’issue de cette formation, vous allez acquérir les compétences suivantes :
-
Apprentissage séquentiel et bandits manchots pour l’optimisation.
-
Algorithms UCB, TS.
-
Systèmes linéaires, estimation et incertitudes.
-
Markov Decision Processes, Dynamic Programming.
-
Planifications, Optimistic planning, MCTS et ses variantes.
-
Apprentissage par renforcement approché.
-
LSPI, DQN, PPO, SAC et leur variantes.
Public cible : ingénieurs et développeurs