event

Séminaire Doctorants

organisé par l'équipe DOCT

  • Homologie persistante et applications à la classification du style musical

    — Victoria Callet

    12 janvier 2023 - 16:30Salle de conférences IRMA

    L’homologie persistante est un outil calculatoire datant de la fin du XXème siècle qui se trouve être à la limite entre la topologie algébrique et les mathématiques appliquées. Le principe est de comprendre la structure topologique d’un objet de départ par approximations successives : pour cela, on utilise la théorie des complexes simpliciaux et l’homologie simpliciale, dont nous commencerons par rappeler les bases. En pratique, on extrait de notre objet un nuage de points que l’on transforme en un complexe simplicial filtré, et ce en utilisant une méthode bien précise appelée méthode de Vietoris-Rips. Le principe de l’homologie persistante est alors de mesurer l’évolution des différentes classes d’homologie et plus précisément leurs durées de vie au cours de la filtration choisie : pour cela, nous représenterons ces informations sur des graphiques appelés codes-barres. Ce sont ces mêmes codes-barres qui permettront ensuite d’analyser ou encore de comparer plusieurs objets de départ : c’est ce qu’on appelle l’analyse topologique de données. En guise d’illustration, nous verrons comment appliquer ce procédé à la classification du style musical.
  • Comment fabrique-t-on des réseaux de neurones ?

    — Mickaël Bestard

    19 janvier 2023 - 16:30Salle de conférences IRMA

    L'avènement des DeepL, Dall-e et autres ChatGPT chatoyants nous montre au moins une chose, les réseaux de neurones artificiels sont désormais incontournables dans notre quotidien. Le but de cet exposé sera de se familiariser avec les deux ingrédients principaux de cette révolution technologique, à savoir la descente de gradient stochastique et la différentiation automatique. Ces deux outils répondent essentiellement à des problématiques liées au monde du numérique et des données en grande dimension, et les applications s'étendent de la régression linéaire à la résolution en "temps réel" d'équations aux dérivées partielles non linéaires.
  • Le paradoxe de Stein

    — Alex Podgorny

    26 janvier 2023 - 16:30Salle de conférences IRMA

    Le paradoxe de Stein est un résultat statistique complètement contre-intuitif de premier abord. Il semble justifier qu'il vaut mieux combiner des données sans aucun rapport pour estimer leur espérance, au lieu de les considérer séparément. Supposons par exemple que l'on s'intéresse aux votes pour Trump à une élection, aux nouveau-nées filles en Chine, et aux britanniques ayant les yeux bleus. Alors, en utilisant l'estimateur de James-Stein, on estimera en particulier la proportion de votant pour Trump en utilisant le nombre de filles nées dans un hôpital chinois et le nombre de personnes aux yeux bleus dans une ville anglaise ! Comprendre ce paradoxe, c'est comprendre un peu mieux la statistique que l'on pourrait aussi appeler "la mathématique de l'induction". Nous aborderons dans ce séminaire les notions d'échantillon, d'estimateur, de qualité d'une estimation... Ce "paradoxe" a ouvert le champ des techniques d'estimation dites "contractantes", utilisées aujourd'hui par exemple en machine learning.