11–12 juil. 2024
Campus Rockefeller Lyon 1
Fuseau horaire Europe/Paris
Édition 2024

Liquid Time-Constant Networks

12 juil. 2024, 12:20
20m
Médiathèque Paul ZECH (Campus Rockefeller Lyon 1)

Médiathèque Paul ZECH

Campus Rockefeller Lyon 1

Entrée par le 1 rue Charles JUNG 69373 Lyon Cedex 08
Stage de niveau M1 Session 3B Session 3B

Orateur

NAIMA DEBIT (FORMATION INGENIEUR MAM, POLYTECH LYON)

Description

L'apprentissage en profondeur et les réseaux de neurones constituent des
sous-domaines majeurs de l'intelligence artificielle. Actuellement, l'apprentissage profond occupe une place prépondérante dans le domaine scientifique, démontrant des performances remarquables. Après une revue sur l'architecture et le fonctionnement des réseaux de neurones classiques, On explorera trois types de réseaux plus avancés : les ODE-RNN (Réseaux de Neurones avec Équations Différentielles Ordinaires), les CT-RNN (Réseaux de Neurones Récurrents en Temps Continu) et les LTCs (Liquid Time-constant Networks). On abordera les notions des réseaux de neurones classiques, en introduisant les concepts fondamentaux des systèmes dynamiques pour mieux appréhender les principes des ODE-RNN. Malgré les avancées significatives qu'apportent les ODE neuronales dans la modélisation des dynamiques temporelles, elles ne sont pas exemptes de limitations. C'est dans ce contexte que des modèles plus sophistiqués, tels que les CT-RNN et les LTCs, ont émergé. Le focus sera mis sur les modèles CT-RNN et LTCs, détaillant les propriétés des LTCs d'un point de vue mathématique et expliquant la notion de mesure de l'expressivité. La mise en œuvre sera faite sur une application utilisant des données MNIST pour réaliser des prédictions au moyen des LTCs.

Laboratoire du porteur LIRIS
Montant du financement (si stage 600euros*nbmois) : 3000

Auteur principal

NAIMA DEBIT (FORMATION INGENIEUR MAM, POLYTECH LYON)

Co-auteur

Documents de présentation