Institut de Mathématiques de Toulouse

Accueil > Événements Scientifiques > Séminaires & Groupes de Travail > Séminaires > Séminaire de Statistique

Séminaire de Statistique

par Agnès Lagnoux - publié le , mis à jour le

Organisateurs : Agnès Lagnoux, Jean-Marc Azais et François Bachoc

Jour et lieu habituels : le mardi à 11h00 en salle 106 (bâtiment 1R1).




  • Mardi 21 novembre 11:00-12:00 - Nicolas Verzelen - INRA Montpellier

    Variable clustering : optimal bounds and a convex approach

    Résumé : The problem of variable clustering is that of grouping similar components of a $p$-dimensional vector $X = (X_1 , \ldots , X_p)$, and estimating these groups from $n$ independent copies of $X$. Although K-means is a natural strategy for this problem, I will explain why it cannot lead to perfect cluster recovery. Then, I will introduce a correction that can be viewed as a penalized convex relaxation of K-means. The clusters estimated by this method are shown to recover the partition $G$ at a minimax optimal cluster separation rate.

    Lieu : Salle 106, Bat 1R1


  • Mardi 28 novembre 11:00-12:00 - Thierry Klein - ENAC -IMT

    A venir

    Lieu : Salle 106 Bat 1R1


  • Mardi 5 décembre 09:15-10:45 - Eric Moulines - Polytechnique

    Séminaire de rentrée Probabilités-Statistiques : Algorithmes de simulation de Langevin

    Résumé : Les algorithmes de Langevin ont connu récemment un vif regain d’intérêt dans la communauté de l’apprentissage statistique, suite aux travaux de M. Welling et Y.W. Teh (‘Bayesian learning via Stochastic gradient Langevin dynamics’, ICML, 2011). Cette méthode couplant approximation stochastique et méthode de simulation permet d’envisager la mise en œuvre de méthodes de simulation en grande dimension et pour des grands ensembles de données. Les applications sont très nombreuses à la fois dans les domaines « classiques » des statistiques bayésiennes (inférence bayésienne, choix de modèles) mais aussi en optimisation bayésienne.
    Dans cet exposé, nous présenterons quelques travaux récents sur l’analyse de convergence de cet algorithme. Nous montrerons comment obtenir des bornes explicites de convergence en distance de Wasserstein et en variation totale dans différents cadres (fortement convexe, convexe différentiable, super-exponentiel, etc.). Nous nous intéresserons tout particulièrement à la dépendance de ces bornes dans la dimension du paramètre. Nous montrerons aussi comment étendre ces méthodes pour des fonctions convexes mais non différentiables en nous inspirant des méthodes de gradient proximaux.

    Lieu : Amphi Schwartz


  • Mardi 19 décembre 11:00-12:00 - Claire Boyer - UPMC

    Structured compressed sensing and theoretical optimal sampling strategies

    Résumé : First, we will theoretically justify the applicability of compressed sensing (CS) in real-life applications. To do so, CS theorems compatible with physical acquisition constraints will be introduced. These results do not only encompass structure in the acquisition but also structured sparsity of the signal of interest. This theory considerably extends the standard framework of CS. Secondly, recent advances on optimal sampling in CS will be presented, in the sense that the sampling strategy minimizes the bound on the required number of measurements for CS recovery.

    Lieu : Salle 106, Bat 1R1


iCal