event

Séminaire Statistique

organisé par l'équipe Statistique

  • Intervalles de confiance pour une proportion et pour le rapport de deux proportions - Applications aux événements rares

    — Bruno Lecoutre

    11 janvier 2011 - 14:00Salle de séminaire 418

    Dans les essais cliniques, les études des effets indésirables rares mais sévères de nouveaux médicaments nécessitent des méthodes d'inférence statistique performantes. Les différentes méthodes disponibles pour construire un intervalle de confiance pour une proportion (modèle binomial) et pour le rapport de deux proportions(modèle de Poisson) seront passées en revues et comparées.
  • Régression linéaire locale pour des données fonctionnelles

    — Abdallah Elamine

    1 février 2011 - 14:00Salle de séminaire 418

    Dans ce travail, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles. Tout d'abord, on propose un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur proposé en utilisant une méthode de décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma variation sont posées.
  • Testing for one-sided alternatives in nonparametric censored regression

    — Cédric Heuchenne

    8 février 2011 - 14:00Salle de séminaire 418

    Assume we have two populations satisfying the general model Y_j=m_j(X_j)+\varepsilon_j, j=1,2, where m(.) is a smooth function, \varepsilon has zero location and Y_j is possibly right-censored.
    In this paper, we propose to test the null hypothesis H_0: m_1=m_2 versus the one-sided alternative H_1: m_1 This paper is in collaboration with Juan Carlos Pardo Fernandez.
  • Estimation non-parametrique de quantiles conditionnels

    — Laurent Gardes

    8 mars 2011 - 14:00Salle de séminaire 418

  • Kernel estimators for the second order parameter in extreme value statistics

    — Yuri Goegebeur

    22 mars 2011 - 14:00Salle de séminaire 418

  • Analyse statistique de l'anisotropie de textures à partir de champs gaussiens à densité spectrale

    — Frédéric Richard

    29 mars 2011 - 14:00Salle de séminaire 418

  • Mathématiques appliquées à la gestion des risques en actuariat

    — Stéphane Loisel

    5 avril 2011 - 14:00Salle de séminaire 418

  • Méthodes des moments d'ordre élevé pour un point terminal

    — Gilles Stupfler

    12 avril 2011 - 14:00Salle de séminaire 418

  • Estimation de paramètres d'équations différentielles stochastiques et détection de rupture. Application à la modélisation de la vascularisation de tumeurs.

    — Adeline Samson

    3 mai 2011 - 14:00Salle de séminaire 418

  • Indépendance asymptotique en théorie des valeurs extrêmes

    — Antoine Schorgen

    10 mai 2011 - 14:00Salle de séminaire 418

  • Inférence rétrospective de réseaux de gènes avec Approximate Bayesian Computation (ABC)

    — Andréa Rau

    24 mai 2011 - 14:00Salle de séminaire 418

  • Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle. Application aux défaillances des réseaux d'eau

    — Génia Babykina

    31 mai 2011 - 14:00Salle de séminaire 418

    Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse des défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés aux instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplète d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). L'approche pour l'intégration d'une covariable dépendante du temps est élaborée. Les méthodes de simulation des données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateurs (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre d'individus n et asymptotique en durée d'observation T.
  • Méthode de noyaux associés

    — Célestin Kokonendji

    7 juin 2011 - 14:00Salle de séminaire 418

  • Hierarchical model for successive removal data with habitat and time covariates

    — Eric Parent

    20 septembre 2011 - 14:00Salle de séminaire 418

  • MCMC ou ABC ? Bonheurs et tourments de mise en œoeuvre sur un cas de risque sanitaire

    — Clémence Rigaux

    4 octobre 2011 - 14:00Salle de séminaire 418

    Nous cherchons à améliorer un modèle d'analyse quantitative des risques microbiologiques grâce à de l'information issue de données de contamination de vieillissement. Pour cela nous utilisons des méthodes d'inférence bayésienne, qui permettent de faire remonter l'information issue de ces données le long de notre modèle, et donc d'améliorer notre connaissance sur les lois a priori du modèle. Notre modèle, complexe, traite de l'évolution de la contamination en Bacillus cereus, une bactérie pathogène, le long d'une chaîne de fabrication de purée de légumes. Nous mettons en place une première méthode d'inférence bayésienne approchée, l'ABC, et discutons des difficultés soulevées par la mise en place de cette méthode sur notre cas d'étude. Puis nous mettons en place une méthode d'inférence bayésienne par MCMC. Les résultats obtenus avec cette méthode semblent cohérents, suggérant par exemple une sous-estimation de certains paramètres de résistance thermique. Ils mettent en lumière l'intérêt d'une telle approche.
  • Sparse PLS et extension

    — Philippe Bastien

    8 novembre 2011 - 14:00Salle de séminaire 418

  • Approche bayésienne des modèles à équations structurelles utilisant l'expansion paramétrique

    — Séverine Demeyer

    22 novembre 2011 - 14:00Salle de séminaire 418

  • Estimer la dispersion du pollen à partir de données microsatellites en utilisant l'ABC

    — Florence Carpentier

    29 novembre 2011 - 14:00Salle de séminaire 418

    La dispersion du pollen est une composante majeure des flux de gènes des végétaux. Estimer cette dispersion à l'échelle d'un épisode de reproduction est nécessaire pour prédire la dynamique de la diversité génétique à court terme et comprendre les conséquences de changements actuels de l'environnement sur les populations (fragmentation du milieu, réchauffement climatique). Dans ce cadre, il faut pouvoir estimer cette dispersion pour un nombre important de populations, et donc à partir d'un nombre limité de données (échantillonnage minimum). Il est alors utile de prendre en compte de manière optimale les informations incomplètes concernant le paysage dans ces expérimentations, notamment la spatialisation des individus. Actuellement, les méthodes estimant la dispersion du pollen à partir de marqueurs microsatellites se divisent en deux catégories (Smouse et Sork, 2004): (i) les méthodes directes qui nécessitent un échantillonnage exhaustif (positions et génotypes de tous les adultes) et permettent d'estimer des modèles complexes, (ii) les méthodes indirectes qui requièrent seulement un échantillon d'adultes du site mais qui supposent une répartition aléatoire des individus inconnus et n'admettent qu'un seul modèle. En utilisant l'Approximate Bayesian Computation (ABC) (Beaumont et al., 2002), une méthode d'estimation reposant sur des simulations, nous montrons comment introduire l'information partielle (positions d'individus supplémentaires sans génotype renseigné) dans les méthodes indirectes et intégrer de la variation de fertilité. Sur un jeu de données réelles (Sorbus torminalis) nous obtenons ainsi des estimations plus proches de celles issues des méthodes directes basées sur des données plus nombreuses. Cette nouvelle méthode permet non seulement d'obtenir des estimations comparables à celles des méthodes directes mais fournit aussi des intervalles de crédibilité pour ces estimations, que les méthodes indirectes ne fournissaient pas jusqu'à maintenant. (Travail en collaboration avec Joel Chadoeuf et Etienne K. Klein)
  • Estimation d'une fonction multifractale

    — Claire Coiffard

    6 décembre 2011 - 14:00Salle de séminaire 418

  • Estimation récursive dans un modèle semi-paramétrique de régression

    — Jade Nguyen

    13 décembre 2011 - 14:00Salle de séminaire 418