Institut de Mathématiques de Toulouse

Accueil > Événements Scientifiques > Séminaires & Groupes de Travail > Groupes de Travail > GdT Mathématiques de l’apprentissage

Mathématiques de l’apprentissage

par Aurélien Garivier, Sébastien Gerchinovitz - publié le , mis à jour le

Ce groupe de travail hebdomadaire est dédié à l’étude mathématique des problèmes et des algorithmes de machine learning. Bien que rattaché à l’équipe-projet AOC qui réunit des membres de l’IMT et de l’IRIT, il est ouvert à toutes les personnes se sentant concernées par cette thématique sur le site toulousain, afin d’échanger des idées et de susciter des collaborations. Nous alternons entre exposés formels, séances de lecture, debriefings post-conférences, ou simples discussions.

* lieu : 1R3 - salle MIP si possible, sinon à voir selon disponibilités.
* fréquence : toutes les semaines le jeudi 12h30-13h30.




  • Jeudi 3 mai 12:30-13:30 - Fabien Panloup - LAREMA, Université d'Angers

    Une méthode multilevel-Romberg pour la simulation de mesures de Gibbs

    Résumé : Dans cet exposé basé sur un travail en collaboration avec G. Pagès, on présentera une méthode combinant l’approche Multilevel et l’accélération de Richardson-Romberg pour approcher et/ou simuler les mesures invariantes de diffusions. Plus précisément, l’approximation est obtenue via une combinaison bien choisie de mesures d’occupations de schémas d’Euler (multi-pas) de la diffusion considérée. Dans le résultat principal, on montrera qu’une optimisation des paramètres de l’algorithme conduit à une complexité de l’ordre de epsilon^2*log(epsilon) pour une erreur quadratique fixée à epsilon. Lorsque le drift de la diffusion dérive d’un potentiel, la mesure invariante est une mesure de Gibbs. Ainsi, dans le cadre de la statistique bayésienne par exemple, ce type d’approche peut générer une alternative efficace aux méthodes MCMC usuelles pour la simulation de la loi a posteriori.

    Lieu : Room 106, building 1R1, UPS.


  • Jeudi 17 mai 12:30-13:30 - Thien Trang Bui - IMT

    Groupe de lecture Deep Learning

    Résumé : Presentation of the paper :
    Unsupervised learning by predicting noise, Piotr Bojanowski and Armand Joulin (2017).

    Lieu : Salle 207, bât 1R2


  • Jeudi 31 mai 12:30-13:30 - Gilles Richard - IRIT

    The future of ML : autoML !

    Résumé : Forget about ’import keras, model.add(Conv2D(32, (3, 3), input_shape=(64,64,3),activation=’relu’))’,
    too boring… Let’s autoML do the job for you !
    autoML is the last attempt to make computer clever : a proper program can
    get your data, pre-process these data and find the best available predictive model
    for you. In this talk, we will (try to) understand the ideal pipeline from data
    to predictors, and how it can be automatically built.
    We will first see how the issue is theoretically addressed, then practically solved.
    We can consider autoML as a new step toward UML (for Universal Machine Learning !).

    Lieu : Salle 207, bât 1R2


  • Jeudi 28 juin 12:30-13:30 - Sébastien Gerchinovitz and Pierre Ménard - IMT

    Reading group Deep Learning

    Résumé : We will present the paper Some Theoretical Properties of GANs by Biau, Cadre, Sangnier, and Tanielian.


iCal