Institut de Mathématiques de Toulouse

Accueil > Événements Scientifiques > Séminaires & Groupes de Travail > Groupes de Travail > GdT Mathématiques de l’apprentissage

Mathématiques de l’apprentissage

par Aurélien Garivier, Sébastien Gerchinovitz - publié le , mis à jour le

Ce groupe de travail hebdomadaire est dédié à l’étude mathématique des problèmes et des algorithmes de machine learning. Bien que rattaché à l’équipe-projet AOC qui réunit des membres de l’IMT et de l’IRIT, il est ouvert à toutes les personnes se sentant concernées par cette thématique sur le site toulousain, afin d’échanger des idées et de susciter des collaborations. Nous alternons entre exposés formels, séances de lecture, debriefings post-conférences, ou simples discussions.

* lieu : 1R3 - salle MIP si possible, sinon à voir selon disponibilités.
* fréquence : toutes les semaines le jeudi 12h30-13h30.




  • Lundi 6 mai 12:30-13:30 - Bezirgen Veliyev - Aarhus University

    Functional sequential treatment allocation

    Résumé : In this paper we study a treatment allocation problem with multiple treatments, in which the individuals to be treated arrive sequentially. The goal of the policy maker is to treat every individual as well as possible. Which treatment is “best’’ is allowed to depend on various characteristics (functionals) of the individual-specific outcome distribution of each treatment. For example measures of welfare, inequality, or poverty. We propose the Functional Sequential Allocation policy, and provide upper bounds on the regret it incurs compared to the oracle policy that knows the best treatment for each individual. These upper bounds increase sublinearly in the number of treatment assignments and we show that this regret guarantee is minimax optimal. In addition, the assumptions under which this regret guarantee is established are as weak as possible—even a minimal weakening of them will imply non-existence of policies with regret increasing sub-linearly in the number of assignments.
    Link for the preprint : https://arxiv.org/pdf/1812.09408.pdf

    Lieu : Salle 106, bâtiment 1R1


  • Jeudi 9 mai 10:30-11:45 - Sébastien Gerchinovitz et François Malgouyres - IMT

    Théorie du deep learning : optimisation et erreur de généralisation

    Lieu : Amphithéâtre Schwartz, Bât 1R3

    Notes de dernières minutes : Cet exposé est la suite de l’exposé du 15 avril à propos de résultats théoriques pour le deep learning. Nous présenterons ici deux types de résultats : des garanties sur la complexité statistique des réseaux feed-forward (qui impliquent un contrôle de l’erreur de généralisation), et des propriétés relatives à l’optimisation (non-convexe) des paramètres de ces réseaux : calcul du gradient, propriétés de la fonction objectif.


iCal