S'abonner à l'agenda

Séminaire Statistique

organisé par l'équipe Statistique

  • Bruno Lecoutre

    Intervalles de confiance pour une proportion et pour le rapport de deux proportions - Applications aux événements rares

    11 janvier 2011 - 14:00Salle de séminaire 418

    Dans les essais cliniques, les études des effets indésirables rares mais sévères de nouveaux médicaments nécessitent des méthodes d'inférence statistique performantes. Les différentes méthodes disponibles pour construire un intervalle de confiance pour une proportion (modèle binomial) et pour le rapport de deux proportions(modèle de Poisson) seront passées en revues et comparées.
  • Abdallah Elamine

    Régression linéaire locale pour des données fonctionnelles

    1 février 2011 - 14:00Salle de séminaire 418

    Dans ce travail, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles. Tout d'abord, on propose un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur proposé en utilisant une méthode de décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma variation sont posées.
  • Cédric Heuchenne

    Testing for one-sided alternatives in nonparametric censored regression

    8 février 2011 - 14:00Salle de séminaire 418

    Assume we have two populations satisfying the general model Y_j=m_j(X_j)+\varepsilon_j, j=1,2, where m(.) is a smooth function, \varepsilon has zero location and Y_j is possibly right-censored.
    In this paper, we propose to test the null hypothesis H_0: m_1=m_2 versus the one-sided alternative H_1: m_1 This paper is in collaboration with Juan Carlos Pardo Fernandez.
  • Laurent Gardes

    Estimation non-parametrique de quantiles conditionnels

    8 mars 2011 - 14:00Salle de séminaire 418

  • Yuri Goegebeur

    Kernel estimators for the second order parameter in extreme value statistics

    22 mars 2011 - 14:00Salle de séminaire 418

  • Frédéric Richard

    Analyse statistique de l'anisotropie de textures à partir de champs gaussiens à densité spectrale

    29 mars 2011 - 14:00Salle de séminaire 418

  • Stéphane Loisel

    Mathématiques appliquées à la gestion des risques en actuariat

    5 avril 2011 - 14:00Salle de séminaire 418

  • Gilles Stupfler

    Méthodes des moments d'ordre élevé pour un point terminal

    12 avril 2011 - 14:00Salle de séminaire 418

  • Adeline Samson

    Estimation de paramètres d'équations différentielles stochastiques et détection de rupture. Application à la modélisation de la vascularisation de tumeurs.

    3 mai 2011 - 14:00Salle de séminaire 418

  • Antoine Schorgen

    Indépendance asymptotique en théorie des valeurs extrêmes

    10 mai 2011 - 14:00Salle de séminaire 418

  • Andréa Rau

    Inférence rétrospective de réseaux de gènes avec Approximate Bayesian Computation (ABC)

    24 mai 2011 - 14:00Salle de séminaire 418

  • Génia Babykina

    Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle. Application aux défaillances des réseaux d'eau

    31 mai 2011 - 14:00Salle de séminaire 418

    Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse des défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés aux instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplète d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). L'approche pour l'intégration d'une covariable dépendante du temps est élaborée. Les méthodes de simulation des données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateurs (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre d'individus n et asymptotique en durée d'observation T.
  • Célestin Kokonendji

    Méthode de noyaux associés

    7 juin 2011 - 14:00Salle de séminaire 418

  • Eric Parent

    Hierarchical model for successive removal data with habitat and time covariates

    20 septembre 2011 - 14:00Salle de séminaire 418

  • Clémence Rigaux

    MCMC ou ABC ? Bonheurs et tourments de mise en œoeuvre sur un cas de risque sanitaire

    4 octobre 2011 - 14:00Salle de séminaire 418

    Nous cherchons à améliorer un modèle d'analyse quantitative des risques microbiologiques grâce à de l'information issue de données de contamination de vieillissement. Pour cela nous utilisons des méthodes d'inférence bayésienne, qui permettent de faire remonter l'information issue de ces données le long de notre modèle, et donc d'améliorer notre connaissance sur les lois a priori du modèle. Notre modèle, complexe, traite de l'évolution de la contamination en Bacillus cereus, une bactérie pathogène, le long d'une chaîne de fabrication de purée de légumes. Nous mettons en place une première méthode d'inférence bayésienne approchée, l'ABC, et discutons des difficultés soulevées par la mise en place de cette méthode sur notre cas d'étude. Puis nous mettons en place une méthode d'inférence bayésienne par MCMC. Les résultats obtenus avec cette méthode semblent cohérents, suggérant par exemple une sous-estimation de certains paramètres de résistance thermique. Ils mettent en lumière l'intérêt d'une telle approche.
  • Philippe Bastien

    Sparse PLS et extension

    8 novembre 2011 - 14:00Salle de séminaire 418

  • Séverine Demeyer

    Approche bayésienne des modèles à équations structurelles utilisant l'expansion paramétrique

    22 novembre 2011 - 14:00Salle de séminaire 418

  • Florence Carpentier

    Estimer la dispersion du pollen à partir de données microsatellites en utilisant l'ABC

    29 novembre 2011 - 14:00Salle de séminaire 418

    La dispersion du pollen est une composante majeure des flux de gènes des végétaux. Estimer cette dispersion à l'échelle d'un épisode de reproduction est nécessaire pour prédire la dynamique de la diversité génétique à court terme et comprendre les conséquences de changements actuels de l'environnement sur les populations (fragmentation du milieu, réchauffement climatique). Dans ce cadre, il faut pouvoir estimer cette dispersion pour un nombre important de populations, et donc à partir d'un nombre limité de données (échantillonnage minimum). Il est alors utile de prendre en compte de manière optimale les informations incomplètes concernant le paysage dans ces expérimentations, notamment la spatialisation des individus. Actuellement, les méthodes estimant la dispersion du pollen à partir de marqueurs microsatellites se divisent en deux catégories (Smouse et Sork, 2004): (i) les méthodes directes qui nécessitent un échantillonnage exhaustif (positions et génotypes de tous les adultes) et permettent d'estimer des modèles complexes, (ii) les méthodes indirectes qui requièrent seulement un échantillon d'adultes du site mais qui supposent une répartition aléatoire des individus inconnus et n'admettent qu'un seul modèle. En utilisant l'Approximate Bayesian Computation (ABC) (Beaumont et al., 2002), une méthode d'estimation reposant sur des simulations, nous montrons comment introduire l'information partielle (positions d'individus supplémentaires sans génotype renseigné) dans les méthodes indirectes et intégrer de la variation de fertilité. Sur un jeu de données réelles (Sorbus torminalis) nous obtenons ainsi des estimations plus proches de celles issues des méthodes directes basées sur des données plus nombreuses. Cette nouvelle méthode permet non seulement d'obtenir des estimations comparables à celles des méthodes directes mais fournit aussi des intervalles de crédibilité pour ces estimations, que les méthodes indirectes ne fournissaient pas jusqu'à maintenant. (Travail en collaboration avec Joel Chadoeuf et Etienne K. Klein)
  • Claire Coiffard

    Estimation d'une fonction multifractale

    6 décembre 2011 - 14:00Salle de séminaire 418

  • Jade Nguyen

    Estimation récursive dans un modèle semi-paramétrique de régression

    13 décembre 2011 - 14:00Salle de séminaire 418