Partenaires

Logo IRMA
Logo CNRS
Logo UDS


Rechercher

Sur ce site

 
 IRMA, UMR 7501
 7 rue René-Descartes
 67084 Strasbourg Cedex
 Tél. 33 (0)3 68 85 01 29
 Fax. 33 (0)3 68 85 03 28

Accueil > Agenda > Séminaires réguliers > Agenda des séminaires, colloquium et groupes de travail

Agenda des séminaires, colloquium et groupes de travail

L’agenda des soutenances de thèses et habilitations à diriger des recherches est disponible ici.

Faire une recherche dans l’agenda depuis 1999.

Séminaires à venir

  • jeudi 22-04-2021 à 10h45 (Web-séminaire) - Séminaire Calcul stochastique

    Anna Ben-Hamou (LPSM/UPMC) : "Cutoff pour des chaînes de Markov permutées"

    Une chaîne de Markov sur un espace d'états fini peut mettre très longtemps avant de converger vers sa mesure stationnaire. Elle peut même ne jamais mélanger du tout. Une question qui se pose souvent est alors celle de l'accélération des chaînes de Markov: peut-on construire une perturbation simple de la chaîne qui garantisse un mélange rapide? Dans cet exposé, nous nous intéresserons à la perturbation suivante: on se donne une bijection sur l'espace d'états, et l'on considère la chaîne qui alterne entre des sauts gouvernés par la chaîne initiale, et des sauts déterministes gouvernés par la bijection. La question est alors de savoir quelles bijections donnent lieu à une accélération. Dans un premier temps, nous verrons que si la bijection satisfait une condition d'expansion par rapport à la chaîne initiale, alors le temps de mélange de la chaîne permutée est logarithmique en la taille de l'espace d'états, pour toute chaîne initiale satisfaisant certaines hypothèses (il s'agit d'une amélioration d'un résultat similaire obtenu par Chatterjee et Diaconis, 2020). Dans un deuxième temps, nous verrons qu'en fait presque toutes les bijections conviennent: si la bijection est choisie uniformément au hasard, alors la chaîne permutée présente un cutoff en un temps caractérisé par le taux d'entropie de la chaîne initiale.

  • jeudi 22-04-2021 à 14h00 (Web-séminaire) - Séminaire Arithmétique et géométrie algébrique

    Stefan Schreieder (Hannover) : "Refined unramified cohomology and algebraic cycles"

    We introduce refined unramified cohomology groups, explain their relation to classical unramified cohomology, and prove some general comparison theorems to certain cycle groups. This generalizes and simplifies work of Bloch--Ogus, Colliot-Thelene--Voisin, Voisin, and Ma, who dealt with cycles of low (co-)dimension. Our approach has several applications. For instance, it allows to construct the first example of a variety whose Griffiths group has infinite torsion subgroup.

  • vendredi 23-04-2021 à 11h00 (Web-séminaire) - Groupe de travail Détection d anomalies

    Etienne Birmelé (IRMA) : "Profondeur statistique"

  • jeudi 29-04-2021 à 10h45 (Web-séminaire) - Séminaire Calcul stochastique

    Franz Merkl (LMU (Munich)) : "TBA"

    TBA

  • mardi 04-05-2021 à 14h00 (Web-séminaire) - Séminaire Algèbre et topologie

    Ivan Marin (Université de Picardie) : "Normalisateurs de sous-groupes de réflexions"

    Résumé : Soit W un groupe de réflexions (réel, complexe) et W_0 un sous-groupe engendré par des réflexions. Le normalisateur de W_0 dans W admet une structure riche, et bien comprise dans le cas réel. Motivé par l'étude de l'algèbre de Yokonuma-Hecke, j'ai introduit en 2017 une 'algèbre de Hecke' associée à ces normalisateurs, qui déforme par monodromie l'algèbre de groupe du normalisateur et étend l'algèbre de Hecke usuelle de W_0.

    Dans cet exposé je rappellerai cette construction et présenterai des travaux récents, d'une part concernant sa structure, qui ont été obtenu avec T. Gobet et A. Henderson, et d'autre part concernant une 'algèbre de Cherednik' et un 'foncteur KZ' associés à la situation, qui eux sont l'objet de la thèse de mon étudiant H. Fallet.




    (Si vous assistez au séminaire pour la première fois, merci de contacter Vladimir DOTSENKO pour le code d'accès.)

  • mardi 04-05-2021 à 14h00 (Web-séminaire) - Séminaire Equations aux dérivées partielles

    Rémi Robin (Sorbonne Université) : "A préciser"

    Lien bbb : https://bbb.unistra.fr/b/lau-u4x-y3x

  • mercredi 05-05-2021 à 14h00 (Web-séminaire) - Groupe de travail Machine Learning

    Léo Bois (Université de Strasbourg) : "Base des réseaux de neurones convolutifs (CNN)"

    Lien BBB : https://bbb.unistra.fr/b/fra-cq9-vhr-pmi

  • jeudi 06-05-2021 à 10h45 (Web-séminaire) - Séminaire Calcul stochastique

    Chenlin Gu (ENS Paris) : "TBA"

    TBA

  • mardi 18-05-2021 à 14h00 (Web-séminaire) - Séminaire Equations aux dérivées partielles

    Christophe Prud'homme (Université de Strasbourg) : "Méthode hdg"

    Lien bbb : https://bbb.unistra.fr/b/lau-u4x-y3x

  • mercredi 19-05-2021 à 14h00 (Web-séminaire) - Groupe de travail Machine Learning

    Laurent Navoret / Joubine Aghili - Nicolas Juillet (Université de Strasbourg) : "Processus Gaussien / Mélange Gaussien"

    Lien BBB : https://bbb.unistra.fr/b/fra-cq9-vhr-pmi

  • jeudi 20-05-2021 à 10h45 (Web-séminaire) - Séminaire Calcul stochastique

    Erlend Grong (University of Bergen) : "TBA"

    TBA

  • lundi 24-05-2021 à 13h00 (Web-séminaire) - Séminaire Statistique

    Marc Hallin (Université libre de Bruxelles ) : "Fully Distribution-Free Center-Outward Rank Tests for Multiple-Output Regression and MANOVA"

    Extending rank-based inference to a multivariate setting such as multiple-output regression or MANOVA with unspecified $d$-dimen\-sional error density has remained an open problem for more than half a century. None of the many solutions proposed so far is enjoying the combination of distribution-freeness and efficiency that makes rank-based inference a successful tool in the univariate setting. A concept of {\it center-outward} multivariate ranks and signs based on measure transportation ideas has been introduced recently. Center-outward ranks and signs are not only distribution-free but achieve in dimension $d>1$ the (essential) maximal ancillarity property of traditional univariate ranks, hence carry all the ``distribution-free information" available in the sample. We derive here the H\' ajek representation and asymptotic normality results required in the construction of center-outward rank tests for multiple-output regression and MANOVA. When based on appropriate spherical scores, these fully distribution-free tests achieve parametric efficiency in the corresponding models.

  • mercredi 26-05-2021 à 14h00 (Web-séminaire) - Groupe de travail Machine Learning

    Clémentine Courtès - Emmanuel Franck / Michel Duprez (Université de Strasbourg) : "Profondeur de réseaux et disparition de gradient / Réseaux de neurones informés physiquement (PINNS)"

    Lien BBB : https://bbb.unistra.fr/b/fra-cq9-vhr-pmi

  • jeudi 27-05-2021 à 09h00 (Web-séminaire) - Séminaire Sem in

    Clément Tauber (Strasbourg) : "à venir"

  • vendredi 04-06-2021 à 14h00 (Salle de conférences IRMA) - Soutenance habilitation Analyse

    Thomas Dreyfus (Université Strasbourg) : "Quelques applications de la théorie de Galois différentielle"

  • lundi 07-06-2021 à 13h00 (Web-séminaire) - Séminaire Statistique

    Julie Delon (MAP5, Université de Paris) : "Une distance de Wasserstein entre mélanges de gaussiennes et quelques applications en traitement d'image"

    Les modèles de mélanges de gaussiennes (GMM) s’avèrent particulièrement utiles pour représenter des distributions de probabilité complexes de données réelles. Par exemple, en traitement d’images, de nombreux travaux utilisent des GMM pour représenter des distributions de patchs dans les images, et ces modèles sont utilisés comme a priori pour la restauration d’image ou la synthèse de texture. Le transport optimal et les distances de Wasserstein sont aujourd’hui massivement utilisés pour analyser des statistiques extraites des images ou comme métriques en apprentissage profond. Si le transport optimal peut être utilisé pour définir des géodésiques entre GMM, les interpolées ainsi définies ne conservent pas la propriété d’être des mélanges de gaussiennes. Afin de conserver cette propriété, nous définissons une nouvelle distance entre mélanges en restreignant l’ensemble des mesures de couplage à des GMM dans la formulation originale du transport optimal. De manière surprenante, on montre que cette distance entre mélanges peut se réécrire sous la forme d’un problème de transport discret, ce qui la rend simple à calculer même en grande dimension. On étudie ses propriétés, le problème multi-marginal associé et les barycentres pour cette formulation. On illustre son utilisation en traitement d’images.

  • mercredi 16-06-2021 à 14h00 (Web-séminaire) - Groupe de travail Machine Learning

    Emmanuel Franck / Han-Ping Li (Université de Strasbourg) : "Kernel PCA / Positionnement multi-dimensionel"

    Lien BBB : https://bbb.unistra.fr/b/fra-cq9-vhr-pmi