Groupe de travail consacré aux statistiques bayésiennes dans toute leur variété.

En alternance au CREST-ENSAE (plan d'accès) et à l'Ecole Nationale Supérieure des Télécommunications, site Dareau (plan d'accès).

Deux séances par mois à 15h30. Pour toute information, contacter Nicolas Chopin, Aurélien Garivier ou Judith Rousseau.

21.02.2012
Optimal Stopping of Markov chain, Gittins Index and Related Optimization
In this talk I will discuss the problem of Optimal Stopping (OS) of Markov Chains (MCs), the methods for its solution, the classical and the generalized Gittins indices and related problems: the Katehakis-Veinott Restart Problem and the Whittle family of Retirement Problems.
The celebrated Gittins index, its generalizations and related techniques play an important role in applied probability models, resource allocation problems, optimal portfolio management problems as well as other problems of financial mathematics. It is well known that a connection exists between the Ratio (cycle) maximization problem, the Katehakis-Veinott (KV) Restart Problem and the Whittle family of Retirement Problems, and that their key characteristics, the classical Gittins index, the KV index, and the Whittle index are equal in a classical setting. These indices were generalized by the author (Statistics and Probability Letters, 2008) in such a way that it is possible to use the so called State Elimination algorithm, developed earlier to solve the OS of MCs problem to calculate this common index. One of the goals of this talk is to demonstrate also that the equality of these indices is a special case of a similar equality for three simple abstract optimization problems. A more general – continue, quit, restart problem will be also discussed.
slides en ligne ici
14.05.2009
CREST
Aude Grelaud
Méthode ABC et choix de modèle
à 14h
* Christoph Leuenberger, Université de Fribourg, "ABC and Model Selection in Population Genetics"
* Oliver Ratman, Imperial College London, "Model Criticism based on likelihood-free inference, with an application to protein network evolution"
* Richard Wilkinson, University of Sheffield, "The error in ABC"
* Marc Briers, QinetiQ Malvern, "Trans-dimensional SMC-ABC for multiple CBRN source-term estimation";
disponibles sur Arxiv
29.04.2009
TELECOM
Trading bias for precision: decision theory for intervals and sets
En DA103 : Lecture de l'article de Kenneth Rice, Thomas Lumley, Adam Szpiro, Department of Biostatistics, University of Washington

Interval- and set-valued decisions are an essential part of statistical inference. Despite this, the justification behind them is often unclear, leading in practice to a great deal of confusion about exactly what is being presented. In this paper we review and attempt to unify several competing methods of interval-construction, within a formal decision-theoretic framework. The result is a new emphasis on interval-estimation as a distinct goal, and not as an afterthought to point estimation.
We also see that representing intervals as trade-offs between measures of precision and bias unifies many existing approaches – as well as suggesting interpretable criteria to calibrate this trade-off. The novel statistical arguments produced allow many extensions, and we apply these to resolve several outstanding areas of disagreement between Bayesians and frequentists.
23.03.2009
TELECOM
Utilisation d'inégalités bayésiennes en théorie de l'information
Il sera principalement question de l'article suivant : Q. Xie and A. R. Barron, Minimax redundancy for the class of memoryless sources, IEEE Trans. Inform. Theory, Vol. IT-43, No. 2, pp. 646-657, March 1997. Après une brève introduction sur le codage, qui fera en particulier le lien entre redondance minimax et statistiques bayésiennes, nous nous intéresserons au cas des sources sans mémoire en alphabet fini. Un développement asymptotique de la redondance minimax de ces classes sera obtenu ; on verra que le prior de Jeffreys est asymptotiquement le moins favorable, mais que la stratégie de codage associée n'est pas asymptotiquement minimax. Enfin, ces résultats concernant le prior de Jeffreys seront adaptés à l'étude de certaines classes de sources en alphabet infini, pour obtenir des minorations assez précises de la redondance minimax (ces derniers résultats sont disponibles ici).
19.02.2009
ENSAE
Choix de modèle basé sur des projections
Nott & Leng

Dupuis & CPR
05.02.2009
ENSAE
Inégalités PAC-Bayésiennes
Dans cet exposé, on s'intéressera particulièrement aux problèmes de classification supervisée ou de régression avec perte quadratique, et aux bornes PAC-Bayésiennes qui proposent un contrôle du risque d'une procédure randomisée de classification en fonction de deux termes principaux:
1) le risque empirique de la procédure, observé sur un échantillon i.i.d.;
2) la divergence de Küllback entre la procédure de randomisation et une loi a priori.
Historiquement, les premières bornes dites "PAC-Bayésiennes" ont été introduites par McAllester (1998) dans le but de combiner l'approche PAC à la Vapnik et l'approche Bayésienne: "Bayesian algorithms are highly effective when the Bayesian assumptions hold but can over fit when those assumptions fail. PAC algorithms avoid over-fitting in all i.i.d. experimental settings but can not be tuned with the kind of detailed information that an informative Bayesian provides. The PAC-Bayesian theorems and algorithms (...) attempt to get the best of both PAC and Bayesian approaches."
En fait, l'approche PAC-Bayésienne s'est révélée être un outil particulièrement efficace pour démontrer des inégalités oracle en sélection de modèle (résultats de Catoni 2001, 2007, Audibert 2004, Dalalyan & Tsybakov 2008), l'utilisation de la loi a priori permettant un contrôle fin de la complexité de l'estimateur. De plus, les estimateurs obtenus ayant la forme de lois a posteriori, peuvent être calculés à l'aide de méthodes de simulations, contrairement à d'autres méthodes de sélection de modèles dont la complexité algorithmique explose avec le nombre de modèles considérés (cf. par exemple Dalalyan & Tsybakov).
Dans un premier temps, je présenterai la construction d'une borne PAC-Bayésienne basique, et la construction explicite d'un estimateur minimisant cette borne. Je présenterai ensuite les résultats plus récents permettant d'obtenir des vitesses optimales.
19.01.2009
TELECOM
Gibbs posterior for variable selection...
Gibbs posterior for variable selection in high-dimensional classification and data mining, de Jiang & Tanner.
In the popular approach of "Bayesian variable selection" (BVS), one uses prior and posterior distributions to select a subset of candidate variables to enter the model. A completely new direction will be considered here to study BVS with a Gibbs posterior originating in statistical mechanics. The Gibbs posterior is constructed from a risk function of practical interest (such as the classification error) and aims at minimizing a risk function without modeling the data probabilistically. This can improve the performance over the usual Bayesian approach, which depends on a probability model which may be misspecified. Conditions will be provided to achieve good risk performance, even in the presence of high dimensionality, when the number of candidate variables K. can be much larger than the sample size n. In addition, we develop a convenient Markov chain Monte Carlo algorithm to implement BVS with the Gibbs posterior.
15.12.2008
AgroPT
Exact Minimax Strategies... par Liang et Barron
Exact Minimax Strategies for Predictive Density Estimation, Data Compression, and Model Selection, Liang et Barron, IEEE 2004, vol 50, No. 11 p. 2708-2726 Andrew Barron l'a photocopié; le pdf se trouve sur sa page personelle.
Cette lecture est précédée de 14h à 15h d'une conférence donnée par Andrew Gelman: Red State, Blue State, Rich State, Blue State: Why Americans vote the way they do? (également rue Claude Bernard) en salle 10 (INAPG/AGROPARISTECH, 16 rue Claude Bernard 75005, metro Censier Daubenton). La séance du Groupe de lecture est prévue dans la même salle.
01.12.2008
TELECOM
La méthode des forêts aléatoires
Nous présenterons différentes méthodes d'estimation non paramétrique basées sur des arbres. Tout d'abord, nous étudierons en détails la construction et les propriétés d'un arbre CART (Classification And Regression Trees). Ensuite nous évoquerons quelques méthodes d'agrégation d'arbres, comme le bagging et les forêts aléatoires. Nous verrons ce qu'apporte l'agrégation par rapport à un unique arbre, ainsi que les propriétés des estimateurs obtenus.
Slides de l'exposé
10.11.2008
CREST
Separation measures and the geometry of Bayes factor selection for classification
Je présenterai le papier suivant: Separation measures and the geometry of Bayes factor selection for classification Jim Q. Smith 1 , Paul E. Anderson 1 and Silvia Liverani qui est dans le dernier no paru de JRSSB. Il est disponible ici: http://www2.warwick.ac.uk/fac/sci/statistics/crism/research/working_papers/2006/paper06-10/06-10w.pdf
27.10.2008
CREST
BART: Bayesian Additive Regression Trees
le papier discuté lors de notre première séance est: BART: Bayesian Additive Regression Trees Hugh A. Chipman, Edward I. George, Robert E. McCulloch disponible en ligne: (6eme dans la liste) http://www-stat.wharton.upenn.edu/~edgeorge