• Pierre Latouche

    Estimation of the graphon function of a W-graph model

    12 janvier 2015 - 13:30Salle de séminaires 309

  • Emilie Kaufmann

    Stratégies bayésiennes et fréquentistes pour l'allocation séquentielle de ressources

    16 mars 2015 - 14:00Salle de séminaires 309

    Résumé : dans cet exposé, nous discutons de stratégies optimales pour l'allocation séquentielle de ressources, pour laquelle le modèle statistique du bandit stochastique à plusieurs bras est adopté. Dans ce modèle, un agent interagit avec un ensemble de K lois de probabilité inconnues (appelées 'bras' en référence aux bras des machines à sous – ou bandits manchots – dans un casino). Lorsque l'agent tire un bras, il observe une réalisation de la distribution associée à ce bras. Cette réalisation peut être vue comme une récompense et l'objectif de l'agent est alors de trouver une stratégie séquentielle de tirage des bras (ou algorithme de bandit) qui maximise la somme des récompenses accumulées. Cet objectif de "minimisation du regret" fait sens dans de nombreuses applications, à commencer par les essais cliniques, domaine qui a motivé l'introduction des modèles de bandit. Un autre objectif possible dans un modèle de bandit est de découvrir le plus rapidement possible le(s) (m) meilleur(s) bras (i.e. les distributions ayant les moyennes les plus élevées), sans subir de perte lorsqu'on tire des "mauvais" bras (i.e. des bras d'espérance faible).
    Pour chacun de ces objectifs, nous nous attachons à définir une notion d'optimalité, grâce à des bornes inférieures sur la performance d'une bonne stratégie, et nous proposons de nouveaux algorithmes dans le cadre des modèles de bandit paramétriques. Certaines des améliorations proposées reposent sur l'utilisation d'intervalles de confiance construits à l'aide de la divergence de Kullback-Leibler, d'autres sont liées à l'exploitation d'une loi a posteriori sur les bras et donc à l'utilisation d'outils bayésiens pour résoudre un problème de nature fréquentiste.
  • Pierre Barbillon

    Estimation paramétrique pour des modèles mixtes complexes à l'aide de méta-modèles

    9 novembre 2015 - 14:00Salle de séminaires 309

    Les processus biologiques sont très souvent mesurés de manière répétée sur un même sujet. Cela donne naturellement lieu à des données longitudinales. Ces données sont généralement analysées grâce à des modèles mixtes qui permettent de discriminer la variabilité inter-sujet de la variabilité intra-sujet. Les fonctions de régression utilisées dans ces modèles intègrent des mécanismes biologiques complexes qui peuvent être des solutions d'équations différentielles ordinaires multi-dimensionnelles ou d'équations aux dérivées partielles. Lorsque ces solutions n'ont pas de forme analytique, on fait appel à des méthodes numériques qui se révèlent très coûteuses en temps de calcul. Les méthodes statistiques couramment utilisées pour estimer les paramètres des modèles mixtes se fondent sur l'utilisation d'une version stochastique de l'algorithme EM (SAEM) que l'on couple avec un algorithme MCMC. Cet algorithme demande un grand nombre d'évaluations des fonctions de régression du modèle ce qui n'est pas praticable si ces fonctions sont coûteuses. C'est pourquoi nous aurons recours à un méta-modèle fondé sur une approximation par processus gaussien des fonctions coûteuses. Nous intégrerons la nouvelle source d'incertitude due à cette approximation dans ce que nous appellerons un méta-modèle mixte. Nous établirons le lien entre la qualité d'approximation du méta-modèle et la proximité entre les estimations obtenues dans le modèle mixte exact et dans le ``méta-modèle'' mixte. Des simulations numériques seront également proposées pour illustrer la pertinence de cette approche.
  • Mélanie Blazère

    Partial Least Squares: une nouvelle approche au travers de polynômes orthogonaux.

    30 novembre 2015 - 14:00Salle de séminaire 418

    Résumé : La méthode des moindres carrés partiels aussi appelée PLS est très utilisée de nos jours pour la prédiction en régression multivariée,notamment lorsque l'on a de fortes corrélations au sein des variables explicatives ou lorsque ces dernières dépassent en nombre les observations que l'on a à disposition. La PLS est une méthode de réduction de dimension astucieuse qui cherche à résoudre le problème de multicollinéarité en créant de nouvelles variables latentes qui maximisent la variance des variables initiales tout en restant optimales pour la prédiction. Si la PLS se révèle être un outil très utile et puissant dans de nombreux domaines, elle n'en reste pas moins une procédure complexe et peu de ses propriétés théoriques sont connues. Ceci est essentiellement du au fait que la fonction de dépendance qui lie l'estimateur à la réponse et à la matrice d'expérience est complexe et qu'il n'en existait pas jusqu'à présent d'expression analytique explicite. Dans cet exposé, je vous présenterai une nouvelle façon de considérer la PLS, basée sur les liens étroits qu'elle a avec des polynômes orthogonaux particuliers que j'expliciterai et que nous appellerons par la suite polynômes résiduels. La théorie des polynômes orthogonaux nous permettra alors de donner une expression analytique explicite pour ces polynômes résiduels. Nous verrons que cette expression montre clairement de quelle façon l'estimateur PLS dépend du signal et du bruit. Nous montrerons ensuite la puissance de cette nouvelle approche au travers de l'analyse des propriétés statistiques de la PLS, et ceci en établissant notamment de nouveaux résultats sur son risque empirique et son erreur quadratique moyenne de prédiction. Nous évoquerons aussi certaines de ses propriétés de seuillage. Nous conclurons enfin en montrant comment l'approche par polynômes orthogonaux fournit un cadre unifié, qui permet de retrouver directement des propriétés déja connues de la PLS mais démontrées en passant par des approches variées et différentes de la notre.