Institut de Mathématiques de Toulouse

Home > Scientific Events > Seminars > Séminaires > Séminaire de Statistique

Séminaire de Statistique

by Dominique Bontemps, Mélisande Albert, Pierre Neuvial - published on , updated on

Organisateurs : Mélisande Albert, Dominique Bontemps, Pierre Neuvial

Jour et lieu habituels : le mardi à 11h15 en salle 106 (bâtiment 1R1).




  • Tuesday 9 April 11:15-12:15 - John Einmahl - Tilburg University

    Goodness-of-fit testing for copulas : a distribution-free approach.

    Résumé : Consider a random sample from a continuous multivariate distribution function F with copula C. In order to test the null hypothesis that C belongs to a certain parametric family, we construct an empirical process on the unit hypercube that converges weakly to a standard Wiener process under the null hypothesis. This process can therefore serve as a ‘tests generator’ for asymptotically distribution-free goodness-of-fit testing of copula families. We also prove maximal sensitivity of this process to contiguous alternatives. Finally, we demonstrate through a Monte Carlo simulation study that our approach has excellent finite-sample performance, and we illustrate its applicability with a data analysis.

    Lieu : bât 1R3, salle de conférence du premier étage (MIP)


  • Tuesday 16 April 09:15-10:45 - Patricia Reynaud-Bouret (Séminaire commun proba-stat) - Université de Nice Sophia-Antipolis

    Réseaux de neurones et connectivité fonctionnelle

    Résumé : Apres un petit résumé des connaissances à avoir sur les réseaux de neurones biologiques, j’expliquerai pourquoi les neurobiologistes s’intéressent autant à la connectivité fonctionnelle, qui peut se voir mathématiquement comme un graphe d’indépendance locale entre neurones ou entre aires cérébrales. En particulier, ils pensent que cela peut contribuer à décoder le code neural. Je montrerai comment on peut reconstruire ce graphe et comment on peut obtenir des garanties mathématiques sur cette reconstruction même si on observe qu’une petite partie d’un réseau potentiellement infini de neurones d’un point de vue mathématique.

    Lieu : amphi Schwartz


  • Tuesday 30 April 11:15-12:15 - Alejandra Cabaña - Universitat Autònoma de Barcelona

    Embedding in law of discrete time ARMA processes in continuous time stationary processes

    Résumé : Given any stationary time series $\{X_n: n \in \mathbb{Z}\}$ satisfying an ARMA$(p, q)$ model for arbitrary $p$ and $q$ with infinitely divisible innovations, we construct a continuous time stationary process $\{x_t: t \in \mathbb{R} \}$ such that the distribution of $\{x_n: n \in \mathbb{Z} \}$, the process sampled at discrete time, coincides with the distribution of $\{X_n\}$. In particular the autocovariance function of $\{x_t\}$ interpolates that of $\{X_n\}$.

    Lieu : bât 1R3, salle de conférence du premier étage (MIP)


  • Tuesday 7 May 11:15-12:15 - Philippe Berthet - IMT

    Autour des quantiles joints : distances, contrastes, surfaces, champs, processus, approximations browniennes

    Résumé : Panorama large et non exhaustif de résultats de convergence en loi pour différents objets aléatoires construits à partir d’une collection de quantiles empiriques joints, eux-mêmes générés simultanément pas un ou plusieurs échantillons via une collection structurée de transformations. Les objets aléatoires d’intérêt sont des distances (de type Kantorovitch, coût convexe symétrique), des intégrales pondérées (indices de type Gini), des contrastes (côut convexe non symétrique), des surfaces fermées (quantiles ou distances, directionnels ou indexées par les coûts), des ensembles (différences symétriques entre un ensemble de niveau convexe et ses estimateurs), des champs de vecteurs (de profondeur, de projection aléatoire), ou de processus (des quantiles d’un processus). Leur motivation provient de différents contextes statistiques d’enjeu actuel, notamment les données fonctionnelles ou distribution, le recours aux quantiles pour raison de robustesse et contrôle des extrêmes, dans un cadre d’estimation jointe ou de test multiple, d’adéquation ou de comparaison. Le cas unidimensionnel cuisiné à la sauce Brownienne sera le point d’entrée vers le cadre joint et directionnel. L’un des outils mathématiques sous-jacents est le couplage par le processus Gaussien d’approximation de la mesure empirique quantile, qui permet à chaque fois de préciser les lois limites avec vitesse de convergence faible à taille d’échantillon fixée, et d’énoncer des résultats de type Berry-Esseen uniformes. Lorsque de l’information a priori est injectée, c’est ce processus qui change, et réduit les variances limites. Parmi les travaux évoqués, certains sont joints avec J.-C. Fort, T. Klein, J.H.J. Einmahl, A. Ahidar, M. Albertus.

    Lieu : Salle 106 (1R1)


  • Tuesday 14 May 11:15-12:15 - Mickael Albertus - IMT

    Processus empirique associé à la méthode du Raking-Ratio

    Résumé : Le Raking-Ratio est une méthode très utilisée en statistique pour combiner et prendre en compte dans les estimations une information auxiliaire que l’on aurait a priori, donnée par la probabilité des ensembles de partitions données. Pour étudier cette méthode du point de vue de la théorie des processus empiriques il est nécessaire d’introduire des nouveaux objets statistiques et d’étudier leurs propriétés, comme leur comportement asymptotique.
    Je présenterai également la méthode du bootstrap, une méthode de rééchantillonage introduite par Efron. Je montrerai comment adapter cette méthode pour simuler la loi du processus empirique associée à la méthode du Raking-Ratio.

    Lieu : Salle 106 (1R1)


  • Tuesday 28 May 11:15-12:15 - Vincent Brault - Laboratoire Jean Kuntzmann, Université Grenoble Alpes

    Segmentation croisée des colonnes et des lignes d’une matrice : comparaison de deux procédures avec une application à l’étude des trajets de véhicules autonomes

    Résumé : Dans la recherche sur les véhicules autonomes, l’un des freins est l’utilisation de GPS précis au centimètre près coûtant quelques dizaines de milliers d’euros. Pour contourner ce problème, il est proposé d’utiliser des caméras pour les véhicules effectuant un même trajet (comme les bus de ville par exemple). Dans ce cadre, nous sommes amenés à étudier la similarité entre des images de l’environnement prises à différents moments (Birem et al., 2014). Les données résumées issues de séquences vidéo réelles (Korrapati et al., 2013) se présentent sous forme de matrices dans lesquelles des lieux différenciés (e.g. ligne droite, intersection…) correspondent à des blocs relativement homogènes. Le but est de proposer une méthode automatique pour estimer les frontières de ces blocs.
    Pour répondre à cette question, il existe des algorithmes développés pour l’analyse des données Hi-C issue de la biologie (Dixon et al., 2012) dont la problématique est similaire. En particulier, Brault et al. (2017a) proposent une segmentation basée sur des procédures LASSO (Least Absolute Shrinkage and Selection Operator) et Brault et al. (2017b) une autre fondée sur des statistiques de rang.
    Dans le cadre de cet exposé, nous commencerons par rappeler les deux modèles associés et les procédures associées. Nous confronterons ensuite celles-ci sur leurs qualités d’estimation des ruptures suivant plusieurs scénarios et sur le temps de calcul. Nous terminerons par l’étude des résultats obtenus dans le cadre de données de séquences vidéos (Korrapati et Mezouar, 2014).

    Lieu : Salle de conférences du 1er étage (1R3)


  • Tuesday 4 June 11:15-12:15 - Jean-Marc Bardet - Université Paris 1

    Sélection de modèles et test d’adéquation pour les séries chronologiques affines causales

    Résumé : La classe des séries chronologiques affines causales contient l'essentiel des séries chronologiques classiques (notamment les processus ARMA ou GARCH) et celles moins classiques à mémoire infinie (AR($\infty$) ou APARCH($\infty$) par exemple). Nous nous intéressons ici à la question du choix d'un modèle à partir d'une trajectoire observée pour toute une famille de modèles de séries chronologiques affines causales (par exemple l'ensemble des ARMA(p,q) et GARCH(p',q')). Grâce à l'estimation par quasi-maximum de vraisemblance effective pour tous ces modèles, et d'un critère de sélection par pénalisation, nous donnons des conditions permettant la consistance de la démarche, c'est-à-dire la sélection asymptotique du vrai modèle. Un test de type portemanteau permet également de tester asymptotiquement l'adéquation des données au modèle sélectionné. Des simulations sont réalisées et montrent notamment que le critère BIC peut ne pas être consistant en cas de séries à mémoire infinie. Travail joint avec Kamila Kare (Paris 1) et William Kengne (Cergy)

    Lieu : Salle de conférences du 1er étage (1R3)


  • Tuesday 11 June 11:15-12:15 - Julien Chiquet - AgroParisTech, INRA MIA Paris

    Variational inference for Poisson lognormal models: application to multivariate analysis of count data

    Résumé : Many application domains such as ecology or genomics have to deal with multivariate count data. A typical example is the joint observation of the respective abundances of a set of species in a series of sites, aiming to understand the co-variations between these species. The Gaussian setting provides a canonical way to model such dependencies, but does not apply in general. We adopt here the Poisson lognormal (PLN) model, which is attractive since it allows one to describe multivariate count data with a Poisson distribution as the emission law, while all the dependencies is kept in an hidden friendly multivariate Gaussian layer. While usual maximum likelihood based inference raises some issues in PLN, we show how to circumvent this issue by means of a variational algorithm for which gradient descent easily applies. We then derive several variants of our algorithm to apply PLN to PCA, LDA and sparse covariance inference on multivariate count data. We illustrate our method on microbial ecology datasets, and show the importance of accounting for covariate effects to better understand interactions between species.

    Lieu : Salle 106 (bâtiment 1R1)


  • Tuesday 18 June 11:15-12:15 - Daniel Egea Roca - Universitat Autònoma de Barcelona

    From Hypothesis Testing to Statistical Change Detection and its Application to Global Navigation Satellite Systems

    Résumé : The goal of our presentation is to show the audience an overview of the detection theory with special emphasis on sequential approaches and Sequential Change Detection (SCD). We first provide a historical overview of the evolution of the theory and application of SCD. This will lead to the mathematical formulation of sequential detection, paving the way to introduce the framework of SCD. The objective of the first part of the talk is to provide the mathematical foundations of sequential detection and the most common detection criteria used in practice. The second part of the talk will focus on the study of different use cases. In particular, to see the practical application of the theoretical concepts of SCD we show its application to the field of global navigation satellite systems (GNSSs). The idea is to show the audience how to apply SCD to a particular detection problem so that they can get an idea of how to apply SCD to other problems.

    Lieu : Salle de conférences du 1er étage (1R3)


  • 1 | 2 | 3 | 4 | 5 | 6

iCal