Institut de Mathématiques de Toulouse

Accueil > Événements Scientifiques > Séminaires & Groupes de Travail > Anciens Séminaires > Groupe de travail image

Groupe de travail image

par François Malgouyres - publié le , mis à jour le

Le groupe de travail Image réunit des chercheurs de plusieurs disciplines ayant un intérêt commun pour le traitement d’images et la vision par ordinateur.

Pour toute information, n’hésitez pas à contacter les organisateurs :

  • denis.kouame@irit.fr,
  • Francois.Malgouyres@math.univ-toulouse.fr,
  • jean-yves.tourneret@enseeiht.fr

Organisateur(s) : D. Kouamé (IRIT), F. Malgouyres (IMT), J.Y. Tourneret (IRIT)
Jour et lieu habituels : Lundi 14h, salle 106, Bât 1R1




  • Lundi 25 mars 2013 14:00-16:00 - Mathias Paulin - UPS - IRIT

    Méthodes de Monte-Carlo pour la simulation de l’éclairage en informatique graphique

    Résumé : La simulation de l’élairage en informatique graphique est un point central pour la génération d’images de synthèses pour le divertissement (cinéma, communication, …) ou pour la simulation (optique, acoustique, médicale, …). Dans le domaine de l’optique, cette simulation consiste en la résolution, dans un environnement géométrique 3D éventuellement non stationaire, de l’équation de transfert radiatifs. La résolution de ce problème direct doit être abordée selon deux axes : la précision de la simulation
    et la complexité computationelle associée. Concernant la précision de la simulation, Les méthodes asymptotiques d’intégration numérique de type Monte-Carlo représentent à l’heure actuelle les méthodes les plus efficaces. Cependant, la complexité computationelle liée à ces méthodes reste
    importante, non pas en terme de mémoire, ce qui les rends très intéressante dans le cas de simulation de scènes complexes, mais bien en terme de temps calcul.
    Dans cet exposé, nous poserons les bases de la simulation de l’éclairage en informatique graphique selon deux formulations de l’équation de transfert radiatif en montrerons comment exploiter ces formulations afin de proposer des algorithmes de simulation efficaces. Puis, nous détaillerons l’ensemble de la chaîne de simulation à mettre en place pour l’obtention d’images de synthèse de haute qualité en des temps de calcul
    acceptables. Nous terminerons par la présentation des poblèmes ouverts et des directions actuelles de recherche en informatique graphique liées à la simulation de l’éclairage.

    Lieu : IMT, Salle 207 (Pellos), Bât. 1R2


  • Lundi 15 avril 2013 14:00-16:00 - Julien Mairal - INRIA

    Backpropagation rules for sparse coding

    Résumé : Modeling data with linear combinations of a few elements from a learned dictionary has been the focus of much recent research in machine learning, neuroscience and signal/image processing. For signals such as natural images that admit such sparse representations, it is now well established that these models are well suited to restoration tasks. In this context, learning the dictionary amounts to solving a large-scale matrix factorization problem, which can be done efficiently with classical optimization tools. The same approach has also been used for learning features from data for other purposes, e.g., image classification, but tuning the dictionary in a supervised way for these tasks has proven to be more difficult. In this work, we present a general formulation for supervised dictionary learning adapted to a wide variety of tasks, and present an efficient algorithm for solving the corresponding optimization problem. Experiments on handwritten digit classification, nonlinear inverse image problems, and compressed sensing demonstrate that our approach is effective in large-scale settings, and is well suited to supervised and semi-supervised classification, as well as regression tasks for data that admit sparse representations.

    Lieu : ENSEEIHT, salle B105


  • Lundi 6 mai 2013 14:00-15:30 - Frédéric Pascal - Supélec-Sondra

    Robust covariance matrices estimation and applications to SAR and Hyperspectral images processing

    Résumé : This talk deals with problems of covariance matrix estimation in radar/signal processing. Under the widely used Gaussian assumption, the Sample Covariance Matrix (SCM) estimate provides optimal results in terms of estimation performance. However, when the data turn to be non-Gaussian, the resulting performance can be strongly degraded. To fill this gap, I will first introduce the general framework of the Robust Estimation Theory : elliptical distributions and M-estimators and their statistical performance. Then, I will show some recent results, applied to classification problems in polarimetric SAR images as well as detection problems in Hyperspectral images.

    Lieu : ENSEEIHT - Salle B105


  • Lundi 6 mai 2013 15:30-17:00 - Stéphanie Allassonnière - Ecole Polytechnique, CMAP

    L’anatomie numérique : un enjeu mathématique

    Résumé : This seminar will give an overview of Computational Anatomy. Computational Anatomy aims at characterizing the variability of anatomical shapes or images of organs. This could enable to find correlations between the shape of an organ and clinical diagnosis, physiological or genetic parameters.
    I will first present the goals and mathematical tools which are needed for such methods. In particular, we will focus on the Deformable Template framework, which assumes that the shapes that come from a given group (in term of age, sex, disease) are close to each other up to a class of deformations.
    Then I will introduce the registration issue which is the central tool in this context. Its goal is to find the ’optimal’ deformation which maps one shape onto another one. I will present some techniques which have been proposed to solve it. It will bring me to the Large Deformation Diffeomorphic Metric Mapping (LDDMM). This mathematically well-grounded method allows us to consider the registration of landmarks, curves, surfaces and images in the same framework.
    The last part of this presentation will focus on the statistical questions that arise when we are provided with a population of images or shapes. The main issue is how can we compute a mean and a "deviation" from this set. The main tools and results will be presented.

    Lieu : ENSEEIHT - Salle B105


  • Lundi 13 mai 2013 14:00-15:30 - Jean-François Giovannelli - Groupe Signal et Image - IMS - Bordeaux

    Pénalisation L2+L1 et algorithme ADMM en synthèse de Fourier et application à la radio-héliographie.

    Résumé : Résumé : Le travail présenté est motivé par une application en radio-héliographie (imagerie du soleil dans les longueurs d’onde radio) par interférométrie (à partir d’un réseau d’antenne). Cet instrument mesure des coefficients de Fourier bruités de l’objet inconnu sur une grille incomplète et la reconstruction des images pose donc un problème de synthèse de Fourier. Par ailleurs, les objets d’intérêt présentent la particularité de posséder une composante impulsionnelle et une composante étendue superposées. Nous présentons une méthode permettant la reconstruction de deux cartes reposant sur une double pénalité convexe : un terme L1 pour la composante impulsionnelle et un terme de L2 pour la composante étendue. A cela s’ajoutent des contraintes de positivité et de support. L’optimisation repose sur un algorithme de lagrangien augmenté et une descente de alternée (ADMM). Les résultats présentés montrent les capacités à la fois de séparation des deux composantes et de sur-résolution de la composante impulsionnelle.
    Le travail est publié dans J.-F. Giovannelli and A. Coulais, "Positive deconvolution for superimposed extended sources and point sources", Astronomy and astrophysics, vol. 439, pp. 401-412, 2005 et il est disponible là : http://giovannelli.free.fr/Papers/AetAParu.pdf

    Lieu : ENSEEIHT - Salle B105


  • Lundi 13 mai 2013 15:30-17:00 - Nelly Pustelnik - CNRS

    Epigraphical Projection and Proximal Tools for Solving Constrained Convex Optimization Problems

    Résumé : We propose a proximal approach to deal with a class of convex optimization problems involving nonlinear constraints. A large family of such constraints, proven to be effective in the solution of inverse problems, can be expressed as the lower level set of a sum of convex functions evaluated over different, but possibly overlapping, blocks of the signal. For such constraints, the associated projection operator generally does not have a simple form. We circumvent this difficulty by splitting the lower level set into as many epigraphs as functions involved in the sum. A closed half-space constraint is also enforced, in order to limit the sum of the introduced epigraphical variables to the upper bound of the original lower level set.
    In this presentation, we focus on a family of constraints involving linear transforms of distance functions to a convex set or l_1,p norms with p=2 or p=+infty. In these cases, the projection onto the epigraph of the involved function has a closed form expression.
    The proposed approach is validated in the context of image restoration
    with missing samples, by making use of TV-like constraints. Experiments
    show that our method leads to significant improvements in term of convergence speed over existing algorithms for solving similar constrained problems.

    Lieu : ENSEEIHT, Salle B105


  • Mardi 21 mai 2013 14:00-15:30 - Jalal Fadili - Image and Signal Processing, GREYC CNRS UMR 6072, ENSICAEN

    Stable Recovery with Sparse Analysis Regularization

    Résumé : This work investigates the theoretical guarantees of l1-analysis regularization when solving linear inverse problems. Most of previous works in the literature have mainly focused on the sparse synthesis prior where the sparsity is measured as the l1 norm of the coefficients that synthesize the signal from a given dictionary. In contrast, the more general analysis regularization minimizes the l1 norm of the correlations between the signal and the atoms in the dictionary. The corresponding variational problem encompasses several well-known regularizations such as the discrete total variation and the Fused Lasso. We give a sufficient condition to ensure that a signal is the unique solution of the l1-analysis regularization in the noiseless case. The same condition also guarantees exact analysis support recovery and l2-robustness of the l1-analysis minimizer vis-à-vis an enough small noise in the measurements. This condition turns to be sharp for the robustness of the sign pattern. To show partial support recovery and l2-robustness to an arbitrary bounded noise, we introduce a stronger sufficient condition. When specialized to the l1-synthesis regularization, our results recover some corresponding recovery and robustness guarantees previously known in the literature. From this perspective, our work is a generalization of these results. We finally illustrate these theoretical findings on several examples to study the robustness of the 1-D total variation, shift-invariant Haar and Fused Lasso regularizations.

    Lieu : IMT - Salle 129 Bâtiment 1R2


  • Mardi 21 mai 2013 15:30-17:00 - Jalal Fadili - Image and Signal Processing, GREYC CNRS UMR 6072, ENSICAEN

    Stable Recovery with Analysis Decomposable Priors

    Résumé : In this paper, we investigate in a unified way the structural properties of solutions to inverse problems. These solutions are regularized by the generic class of semi-norms defined as a decomposable norm composed with a linear operator, the so-called analysis type decomposable prior. This encompasses several well-known analysis-type regularizations such as the discrete total variation (in any dimension), analysis group-Lasso or the nuclear norm. Our main results establish sufficient conditions under which uniqueness and stability to a bounded noise of the regularized solution are guaranteed. Along the way, we also provide a necessary and sufficient uniqueness result that is of independent interest and goes beyond the case of decomposable norms.

    Lieu : IMT - Salle 129 Bâtiment 1R2


  • Lundi 27 mai 2013 14:00-15:30 - Amel Benazza - URISA - SUPCOM

    Indexation d’images dans le domaine transformé en ondelettes

    Résumé : Ces dernières années ont vu la multiplication de banques d’images grâce aux progrès continus en matière d’acquisition d’images et de stockage. A des
    fins scientifiques, commerciales ou militaires, les experts en
    analyse d’images sont souvent amenés à retrouver dans une base d’images cible, les images semblables à une image-requête donnée. Pour répondre à ce besoin, des systèmes de recherche d’images par le contenu ont été mis au point. Ils sont généralement organisés autour de deux étapes principales. La première consiste à extraire les descripteurs (ou encore signatures) qui caractérisent le contenu de chaque image. La seconde étape vise la recherche proprement dite des images ayant les signatures les plus proches de celles de l’image-requête. Par ailleurs, l’augmentation des volumes d’images stockés rend plus compliquées les tâches d’archivage et de gestion pour l’accès aux données. A cet égard, une technique compression est appliquée aux images stockées en vue de réduire leur taille. Les décompositions en multirésolution, en particulier les transformations en ondelettes, sont l’une des techniques de compression les plus utilisées en
    imagerie compte tenu de leurs multiples avantages. En effet, elles assurent un
    taux de compression élevé, une bonne caractérisation du contenu
    de l’image, ainsi qu’une analyse en mutirésolution permettant une
    reconstruction progressive des données. Dans le contexte d’indexation d’images, il est intéressant de mettre au point des systèmes de recherche d’images par le contenu opérant directement sur des données codées, afin d’éviter leur décodage avant de procéder à l’indexation proprement dite. Les signatures qui sont souvent choisies correspondent aux paramètres d’un
    modèle de la loi des coefficients d’ondelettes. Dans le cas d’images multispectrales, une approche intuitive consisterait à modéliser séparément les sous-bandes résultantes des transformations en multirésolution des différents canaux de l’image multispectrale à différents étages et à différentes orientations. En réalité, une forte dépendance existe entre les coefficients des différentes canaux spectraux. Dans la première partie de cet exposé, nous montrerons qu’il s’avère plus judicieux de les exploiter en cherchant un modèle de loi conjointe mettant en jeu des copules. De plus, nous décrirons une procédure de recherche plus rapides exploitant l’échelonnabilité de la reconstruction assurée par les décompositions multirésolution.
    La seconde partie de l’exposé portera sur les solutions originales proposées pour contrer l’impact négatif sur les performances du système de recherche de la quantification des images de la base de données et des images-requêtes à des débits différents.

    Lieu : ENSEEIHT - Salle B105


  • 1 | 2 | 3

iCal