Institut de Mathématiques de Toulouse

Accueil > Événements Scientifiques > Séminaires & Groupes de Travail > Séminaires > Séminaire de Probabilités

Séminaire de Probabilités

par Jonas Kahn, Laurent Miclo - publié le , mis à jour le

Organisateurs : Max Fathi, Jonas Kahn et Laurent Miclo.

Horaire et lieu habituels : le mardi à 9h45 en amphithéâtre L. Schwartz (bâtiment 1R3).

Calendrier




  • Mardi 21 novembre 09:45-10:45 - Thomas Budzinski - ENS Paris

    Flips sur les triangulations de la sphère : une borne inférieure pour le temps de mélange

    Résumé : Une des manières les plus naturelles de simuler une triangulation
    uniforme de la sphère à n faces est d’utiliser une méthode de Monte-Carlo
     : on démarre avec une triangulation quelconque puis, de manière répétée,
    on choisit une arête uniformément et on la "flippe", i.e. on l’efface et
    on la remplace par l’autre diagonale du quadrilatère qui se forme. On
    montrera que le temps de mélange de la chaîne de Markov obtenue est au
    moins en n^5/4.


  • Mardi 28 novembre 09:45-10:45 -

    Séminaire de Probabilités [annulé]

  • Mardi 5 décembre 09:15-10:45 - Eric Moulines - Ecole Polytechnique

    Séminaire de rentrée Probabilités-Statistiques : Algorithmes de simulation de Langevin

    Résumé : Les algorithmes de Langevin ont connu récemment un vif regain d’intérêt dans la communauté de l’apprentissage statistique, suite aux travaux de M. Welling et Y.W. Teh (‘Bayesian learning via Stochastic gradient Langevin dynamics’, ICML, 2011). Cette méthode couplant approximation stochastique et méthode de simulation permet d’envisager la mise en œuvre de méthodes de simulation en grande dimension et pour des grands ensembles de données. Les applications sont très nombreuses à la fois dans les domaines « classiques » des statistiques bayésiennes (inférence bayésienne, choix de modèles) mais aussi en optimisation bayésienne.
    Dans cet exposé, nous présenterons quelques travaux récents sur l’analyse de convergence de cet algorithme. Nous montrerons comment obtenir des bornes explicites de convergence en distance de Wasserstein et en variation totale dans différents cadres (fortement convexe, convexe différentiable, super-exponentiel, etc.). Nous nous intéresserons tout particulièrement à la dépendance de ces bornes dans la dimension du paramètre. Nous montrerons aussi comment étendre ces méthodes pour des fonctions convexes mais non différentiables en nous inspirant des méthodes de gradient proximaux.

    Lieu : Amphithéâtre Schwartz


  • Mardi 12 décembre 09:30-10:30 - Christophe Garban - Université Lyon 1

    Séminaire de Probabilités

  • Mardi 19 décembre 09:45-10:45 - Radu Ignat - IMT

    Séminaire de Probabilités

  • Mardi 16 janvier 2018 09:45-10:45 - Nathanaël Enriquez - Université Paris-Sud

    Deux versions équivalentes de l’hypothèse de Riemann

    Résumé : Nous proposons deux versions équivalentes de l’hypothèse de Riemann. Je
    passerai du temps sur la première dont la preuve de l’équivalence avec HR est
    élémentaire. Elle concerne la probabilité que deux entiers aléatoires indépendants
    de même loi géométrique soient premiers entre eux. L’autre, dont la preuve de
    l’équivalence avec HR est plus sophistiquée, concerne le nombre de chemins convexes
    à sommets entiers joignant l’origine au point de coordonnées (n,n).
    (Travail en collaboration avec Julien Bureaux)


iCal