-
Wavelet based density estimation for noise reduction in plasma simulations using particles.
— Romain Nguyen Van Yen
15 décembre 2009 - 14:00Salle de séminaires 309
When the effect of collisions can be neglected, plasmas are described by
the Vlasov kinetic equation coupled with the Maxwell equations for the
electromagnetic fields.
A variety of methods based on following particles trajectories have been
used for a long time to obtain a numerical approximation of this system
at an affordable cost.
For given computational resources, the accuracy of such simulations are
currently mostly due to the noise which tends to appear due to the
chaotic character of this many-body system.
To reduce this noise, we propose and study a method based on wavelets,
previously introduced in the statistical literature to estimate
probability densities given a finite number of independent measurements.
Its application to plasma simulations can be viewed as a natural
extension of the classical finite size particles (FSP) approach,
with the advantage of estimating more accurately distribution functions
that have localized sharp features.
Furthermore, the moments of the particle distribution function can be
preserved with a good accuracy, and there is no constraint on the
dimensionality of the system.
In this work, we have tested the efficiency of our method for denoising
particle distribution functions obtained using classical solvers. We
show with a sequence of increasingly realistic test cases that we
achieve a reduction of the level of noise as good as with a previously
introduced method based on the Proper Orthogonal Decomposition, and at
at a much lower computational cost.
-
Étude mathématique et numérique du transport d'aérosols dans les voies supérieures du poumon humain.
— Ayman Moussa
24 novembre 2009 - 14:00Salle de séminaires 309
Résumé : La compréhension du transport d'aérosols dans les voies respiratoires est motivée, entre autre, par la perfection de l'aérosolthérapie. Nous présenterons tout d'abord le modèle considéré, applicable aux voies supérieures du poumon, puis nous présenterons les résultats mathématiques obtenus sur des couplages d'équations de type fluide/cinétique. L'exposé se poursuivra par la description d'une méthode ALE/particulaire développée pour simuler l'évolution d'un aérosol injecté dans l'air, en domaine fixe ou mobile. Le code implémenté a ensuite été utilisé en particulier dans le cadre d'une collaboration avec une équipe de l'INSERM à Tours, afin de reproduire numériquement une expérience réalisée in vitro.
-
Dans les réacteurs de fusion par confinement magnétique, l'érosion des parois provoquée par la libération de neutrons très énergétiques du plasma produit de grandes quantités de poussières. Une arrivée d'air accidentelle dans l'enceinte à vide du réacteur à l'arrêt pourrait entrainer la mobilisation de ces poussières, engendrant divers risques liés à la sûreté du réacteur. Les modèles d'aérosol fluide-cinétique n'étant pas valables en atmosphère raréfiée, nous proposons dans ce travail des modèles cinétiques permettant de décrire l'évolution des particules de poussière au début d'un accident de perte de vide.
Le premier de ces modèles est constitué d'un couplage de deux équations de type Boltzmann, dans lequel l'interaction entre les particules de poussière et les molécules de gaz est décrite au travers d'opérateurs de collision. La simulation numérique par une méthode de type Direct Simulation Monte-Carlo de ce modèle d'avérant trop coûteuse lorsque le rayon des particules devient trop grand, nous introduisons alors un modèle asymptotique approchant le précédent lorsque le rapport de masse entre une molécule et une particule de poussière tend vers 0. Ce modèle est constitué d'un couplage entre une équation de Vlasov et une équation de Boltzmann, par l'intermédiaire d'une force de trainée. La mise en œuvre numérique de ce système est réalisée par couplage entre une méthode particulaire et une méthode DSMC. Nous comparons numériquement les modèles Boltzmann-Boltzmann et Vlasov-Boltzmann introduits, et nous les appliquons ensuite à la simulation de scénarios d'accident de perte de vide.
-
-
-
"Méthodes géométriques pour le contrôle approché de l'équation de
Schrödinger à spectre discret"
(travail réalisé en collaboration avec P. Mason, M. Sigalotti et U. Boscain)
On s'intéresse à un système quantique contrôlé par un champ électrique
(laser).
Mathématiquement, l'évolution de ce système est décrite par l'équation
de Schrödinger
$x'=(H_0+u(t) H_1)x$, où $x$ est un point dans un espace de Hilbert (de
dimension infinie en général),
$H_0$ et $H_1$ sont deux opérateurs anti-adjoints (pas forcément bornés)
et $t \mapsto u(t)$ est un contrôle scalaire.
On supposera dans la suite que $H_0$ est un opérateur à spectre discret.
Le principal résultat est que, sous des conditions génériques sur $H_0$
et $H_1$, ce système quantique est approximativement contrôlable sur la
sphère unité de $H$.
L'outil essentiel de la preuve est l'application de techniques de
contrôle géométrique aux approximations de Galerkyn en dimension finie.
On déduira de cette étude des estimations sur le norme L1 des contrôles
induisant une transition d'une source donnée à un but donné.
-
-
Les \'etoiles \`a neutrons repr\'esentent l'aboutissement ultime de
l'\'evolution stellaire. Ces derni\`eres ann\'ees, l'astrophysique de
ces objets compacts a grandement b\'en\'efici\'e de l'av\`enement des
t\'elescopes terrestres et spatiaux dans le domaine des rayons~X
et~$\gamma$. Toutefois, ces \'etoiles <> restent mal
comprises, notamment dans leur activit\'e de haute et de tr\`es haute
\'energie telle que l'accélération de particules, les chocs
relativistes ou encore leur rayonnement pulsé.
Dans cet expos\'e, dans une premi\`ere partie, je passerai
bri\`evement en revue quelques probl\`emes li\'es \`a notre
compr\'ehension des \'etoiles \`a neutrons et notamment de leur
magn\'etosph\`ere et de leur vent.
Dans une seconde partie, je montrerai comment aborder certains de ces
problèmes à l'aide de simulations numériques de type Particle-In-Cell
(PIC) pour la modélisation de l'écoulement du plasma autour d'une
telle étoile.
Après une description des différents algorithmes numériques
nécessaires pour résoudre les équations du mouvement (force de
Lorentz) et les équations de Maxwell, je montrerai quelques résultats
concernant le ph\'enom\`ene de reconnexion magn\'etique en régime
relativiste et les instabilités de plasma engendrés dans un tel
système.
Je terminerai par quelques perspectives sur les développements futurs
et améliorations à apporter à mon code PIC: flexibilité de la
géométrie employée (cartésienne, cylindrique ou sphérique), méthode
d'intégration temporelle implicite ou explicite, discrétisation
spatiale en différences finies ou développement (pseudo-)spectrale sur
une base de polynômes de Fourier-Legendre-Chebyshev par exemple.
-
Many time-depending problems in science and engineering can be described
by the initial-value problem for a nonlinear evolution equation of first or second order. In this talk, we
present new results on the convergence of the temporal semi-discretisation by several standard methods on
uniform and non-uniform time grids.
The evolution equation under consideration is assumed to be governed by a
time-depending operator that is coercive, monotone, and fulfills a certain
growth and continuity condition. Strongly continuous perturbations are
also studied.
By employing algebraic relations, which reflect the stability of the
numerical method, and based upon the theory of monotone operators, the
convergence of piecewise polynomial prolongations of the time discrete
solutions towards a weak solution is shown. The analysis does not require
any additional regularity of the exact solution. The results apply to
several fluid flow problems such as incompressible non-Newtonian
shear-thickening fluid flow.
-
Seabirds breeding on islands are vulnerable to introduced predators, such as rats and cats, and the removal of such predators is generally viewed as a priority for seabird conservation and restoration. However, multiple invasive mammal species interacting may generate unexpected outcomes following the removal (eradication) of one
species. Generally these indirect interactions are not well understood or demonstrated. We propose and study a prey (seabird)- mesopredator(rat)-superpredator (cat) model, taking into account the juvenile stages in the prey population, in order to direct conservation management for seabird conservation. We give a more biologically realistic differential system than those studied before, in particular for long-lived seabird species. We present a theoretical study and show existence and uniqueness of a positive solution as well as a qualitative study of the equilibria that may appear.
Then, using the theory of nonstandard finite difference schemes, we construct a reliable algorithm that preserves the properties of the continuous system. Finally, we use biologically realistic parameters available for the representative Barau's petrel, an endemic seabird from Reunion island, to present numerical simulations that support the theoretical study. Cats play the major role in seabird prey population dynamics. Seasonality in seabird breeding delays but does not prevent extinction. In all scenarios cat control (or preferably eradication) is imperative to prevent extinction of vulnerable long- lived seabirds.
-
Résumé :
Le cadre de la présentation est la résolution numérique de l'équation
de Vlasov en utilisant une grille de l'espace des phases. Ce travail
fait suite au code LOSS 2D qui utilise la méthode semi-Lagrangienne
pour discrétiser l'équation de Vlasov en deux dimensions de l'espace
des phases. Une méthode d'interpolation mettant en oeuvre des splines
locales nous avait permis (il y a quelques temps déjà) de proposer un
code parallèle[1] (LOSS 2D). Le simulateur était extensible jusque
quelques dizaines de processeurs.
La même type d'approche peut aussi être employée sur les nouveaux
dispositifs de calcul de type GPGPU. Une seule de ces cartes
graphiques embarquent des dizaines voire des centaines de processeurs.
Pour utiliser les cartes GPGPU, Nvidia a développé un paradigme de
programmation (couplé à une abstraction du matériel) spécifique appelé
CUDA. A l'heure actuelle, un problème majeur pour les applications de
calcul sientifique utilisant ce type de matériel réside dans le fait
que les calculs flottants doivent être réalisés en simple précision.
Durant la présentation, j'aborderai les problèmes numériques et
algorithmiques liés à la contrainte du calcul en simple précision.
Les algorithmes parallèles liés à l'implantation du code sur GPGPU
seront décrits. Les performances du code LOSS 2D (version CUDA)
seront présentées.
[1] Crouseilles (N.), Latu (G.), Sonnendrücker (E.). Hermite spline
interpolation on patches for parallely solving the Vlasov-Poisson
equation. Int. J. Appl. Math. Comput. Sci.. 2007, Vol. 17, No. 3, pp
335-349. http://dx.doi.org/10.2478/v10006-007-0028-x
dpt-info ~
-
Attention, jour inhabituel (jeudi).
-
We analyze the exact null controllability of the system $\boldsymbol{y^{\prime\prime}}+\boldsymbol{A^{\varepsilon}}\boldsymbol{y}=\boldsymbol{0}$ in $\omega\times (0,T)$
which models the vibrations of a thin elastic and homogeneous shell. The self-adjoint operator $\boldsymbol{A^{\varepsilon}}$ is the sum of a mixed order operator $\boldsymbol{A_M}$ and a fourth order operator
$\varepsilon^2 \boldsymbol{A_F}$ while $\varepsilon$ denotes the thickness of the shell.
For any $\varepsilon$ positive, the resolvent of $\boldsymbol{A^{\varepsilon}}$ is compact so that the multiplier method provides an observability inequality in $\boldsymbol{V^{\varepsilon}}=(H^1(\omega)\times H^1(\omega)\times H^2(\omega))\times (L^2(\omega))^3$ assuming that the time of controllability $T>T^{\star}(\varepsilon,\Vert C\Vert_{L^{\infty}(\omega)})$ is large enough. $C$ denotes the curvature of the shell. However, when $\varepsilon$ goes to zero, the minimal time blows up so that the observability is not uniform w.r.t. $\varepsilon$. This phenomenon is due to the non-empty essential spectrum of $\boldsymbol{A_M}$. Assuming that the shell is well-inhibited, we first show that the limit system $\boldsymbol{y^{\prime\prime}}+\boldsymbol{A_M}\boldsymbol{y}=\boldsymbol{0}$ in $\omega\times (0,T)$ is observable only in a subset of $\boldsymbol{V^0}=(H^1(\omega)\times H^1(\omega)\times L^2(\omega))\times (L^2(\omega))^3$ related to the orthogonal space of $\sigma_{ess
}(\boldsymbol{A_M})$. Then, coming back to $\varepsilon>0$ and taking into account the densification of $\sigma(\boldsymbol{A^{\varepsilon}})$ all over $\mathbb{R}^{+}$ (due to the boundary layer near $\partial\omega$), we determine the subspace of $\boldsymbol{V}^{\varepsilon}$ for which the observability holds uniformly w.r.t. $\varepsilon$. This subspace permits to ensure that - observability (and so controllability) and limit as $\varepsilon$ goes to zero - commute. Numerical illustrations are also given.
\textbf{Key Words.} Shell equation, Exact and Partial controllability, Essential spectrum, Ingham theorem, Asymptotic analysis.
-
-
A balancing domain decomposition method with congruent subdomains for the Stokes equations
— Atsushi Suzuki
24 mars 2009 - 14:00Salle de séminaires 309
Iterative substructuring method with a balancing Neumann-Neumann
method, which is also called as a balancing domain decomposition
method, is an an efficient parallel computational algorithm for finite
element equations. A target domain is decomposed into a union of
subdomains and sub-problems are solved repeatedly to minimize the
residual on the artificial interface among subdomains. Direct solvers,
e.g. LU-factorization, in subdomain can perform fast computation, but
much memory is required to store work arrays for factorization
process. In the case where the target domain consists of a union of
congruent subdomains, we can set all sub-problems to be common by
introducing an orthogonal projection to treat the boundary conditions
separately. Only one factorization process of direct solver in the
reference subdomain is needed. This technique can reduce both memory
requirement and computational cost for factorization of direct
solver. An implementation of the algorithm for the discretized Stokes
equations by a stabilized finite element method is shown.
-
Résumé :
Production végétale et architecture des plantes (Ph de Reffye, équipe Digiplante Inria-Cirad-Ecp)
La modélisation de la production végétale a pour but de prédire les récoltes d’un point de vue quantitatif et d’optimiser les itinéraires culturaux. Initiée par le Hollandais de Witt (1978), elle s’appuie sur des paramètres climatiques (lumière, eau, température) et des indices végétaux comme l’indice foliaire et l’indice de récolte, pour mettre en équation la photosynthèse dont le résultat est une production de matière sèche/ jour/ m² (MS).
De leur côté pour les besoins de l’image de synthèse naissante, les informaticiens se sont intéressés à la simulation 3D des plantes (notamment Françon à Strasbourg). Ceux-ci croyaient que des modèles mathématiques puissants avec peu de paramètres, comme les fractals, les arbres combinatoires, etc… pouvaient construire des architectures de plantes réalistes, mais les résultats se sont montrés décevant. Or l’architecture végétale est une affaire de botanique et les modèles architecturaux des arbres issus des travaux de Hallé et Oldeman (1970) apportent les connaissances nécessaires aux informaticiens pour construire des plantes virtuelles dont le développement et la géométrie, sont fidèles à la réalité.
La modélisation du développement végétal (création des organes par les méristèmes) a été spécialement étudiée sous forme d’automates stochastiques à Montpellier à l’UMR Amap (Cirad, Inra, Cnrs,Ird,Ustl).
Le modèle de croissance végétale GreenLab a été développé par les équipes Digiplante (INRIA-ECP-CIRAD) et GreenLab du Liama (Chine). L’architecture de la plante fournit par méthode inverse l’historique du processus de croissance. On peut calculer les paramètres du développement et des fonctions sources puits à partir des mesures prélevées sur les plantes dans un peuplement et la validation du modèle a été déjà réalisée sur de nombreuses cultures (céréales, légumes) en France, Chine et Hollande..
Pour chaque plante on peut définir une carte paramétrique qui rassemble les paramètres endogènes de la croissance, bien séparés des paramètres climatiques. Ils devraient fournir de nouveaux critères pour la sélection et permettre le contrôle du modèle afin d’optimiser rigoureusement les itinéraires culturaux (irrigation, traitement). Telle est l’ambition de l’introduction de l’architecture des plantes en Agronomie.
-
-
Attention, jour inhabituel
-
-
Attention, horaire inhabituel
-
-