Orateur
Description
L'apprentissage en profondeur et les réseaux de neurones constituent des
sous-domaines majeurs de l'intelligence artificielle. Actuellement, l'apprentissage profond occupe une place prépondérante dans le domaine scientifique, démontrant des performances remarquables. Après une revue sur l'architecture et le fonctionnement des réseaux de neurones classiques, On explorera trois types de réseaux plus avancés : les ODE-RNN (Réseaux de Neurones avec Équations Différentielles Ordinaires), les CT-RNN (Réseaux de Neurones Récurrents en Temps Continu) et les LTCs (Liquid Time-constant Networks). On abordera les notions des réseaux de neurones classiques, en introduisant les concepts fondamentaux des systèmes dynamiques pour mieux appréhender les principes des ODE-RNN. Malgré les avancées significatives qu'apportent les ODE neuronales dans la modélisation des dynamiques temporelles, elles ne sont pas exemptes de limitations. C'est dans ce contexte que des modèles plus sophistiqués, tels que les CT-RNN et les LTCs, ont émergé. Le focus sera mis sur les modèles CT-RNN et LTCs, détaillant les propriétés des LTCs d'un point de vue mathématique et expliquant la notion de mesure de l'expressivité. La mise en œuvre sera faite sur une application utilisant des données MNIST pour réaliser des prédictions au moyen des LTCs.
Laboratoire du porteur | LIRIS |
---|---|
Montant du financement (si stage 600euros*nbmois) : | 3000 |