Séminaire de mathématiques appliquées (archives)

Guillaume MOREL
Etablissement de l'orateur
Université de Rennes 1 - INRIA Rennes
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

We are interested in a class of problems consisting in an initial state which is a perturbation of a given periodic equilibrium for the 1D-1D two species Vlasov-Poisson system. For this kind of initial conditions it is natural to consider a well-balanced (WB) scheme which preserves exactly a given stationary solution. In our case the WB scheme is based on a semi-lagrangian scheme and is obtained using a standard micro-macro decomposition. To test the scheme, exact non homogeneous periodic solutions to the Vlasov-Poisson model are constructed and numerical comparisons are made with a standard semi-lagrangian discretization.

Jérôme Casse
Etablissement de l'orateur
New York University Shanghai
Date et heure de l'exposé
Lieu de l'exposé
Laboratoire de Mathématiques Jean Leray
Résumé de l'exposé

La percolation de dernier passage dirigée est, classiquement, un modèle de croissance dans le quart de plan discret. Pour croitre de la case (i, j), il faut que les cases (i−1, j) et (i, j −1) soient présentes dans notre amas de croissance, puis attendre un temps al ́eatoire τ(i,j). Ce modèle est notemment intéressant pour modéliser le temps d’asséchement d’un terrain. Dans cet exposé, je présente une généralisation de la percolation de dernier passage dirigée dans le cas où le temps à attendre τ(i,j) dépend des temps d’arrivée des cases (i−1,j) et (i,j−1) dans l’amas et je présente ce modèle non pas comme un modèle de croissance dans le quart de plan, mais dans un cylindre de taille L. Dans le cylindre, il apparait ainsi une ligne de front pour notre amas. L’objet de cet exposé va être d’étudier deux propriétés asymptotiques (en temps) de cette ligne de front: sa vitesse et sa forme. Nous verrons que, dans des cas particuliers dits solubles ou intégrables, cette vitesse et cette forme ont une forme explicite en fonction des paramètres du modèle. Puis, j’expliquerai par quelle magie ces cas sont solubles, alors que les autres ne les sont a priori pas.

Mazen Ali
Etablissement de l'orateur
Institute for Numerical Mathematics, Ulm University
Date et heure de l'exposé
Lieu de l'exposé
Laboratoire Mathématiques Jean Leray
Résumé de l'exposé

We want to identify and describe the mathematical structure of sparsity in high-dimensional problems. Systems that depend on a large number of variables are known to suffer from the curse of dimensionality: their complexity generally grows exponentially in the number of variables. Nevertheless, decades of research have shown that in many cases such systems can be accurately approximated with polynomial complexity.Perhaps the most studied phenomena in this context are entangled quantum mechanical systems obeying are laws.In such case, the information content scales much slower than the size of the system. In this talk we will discuss the links between entropy area laws and low-rank approximation. We will see how a PDE operator with local (NNI) structure admits eigenfunctions with favorable approximation properties.This will lead to an area law for the system states described by the eigenfunctions. 

Miguel Angel Fernandez
Etablissement de l'orateur
LJLL - INRIA Paris
Date et heure de l'exposé
Lieu de l'exposé
Laboratoire Mathématiques Jean Leray
Résumé de l'exposé

The numerical simulation of elastic thin-walled bodies immersed in an incompressible viscous fluid is an essential ingredient in the mathematical modeling of many living systems: From the opening and closing dynamics of heart valves to the wings of a bird interacting with the air or the fins of a fish moving in water.
The numerical methods for the simulation of these systems generally fall into one of the following two categories: fitted and unfitted mesh methods. Fitted mesh methods are known to deliver optimal accuracy for moderate interface displacements, but they become cumbersome or lose efficiency in presence of topological changes (e.g., due to contacting solids). Unfitted mesh methods, such as the Immersed Boundary/Fictitious Domain methods or the recently developed Nitsche-XFEM method, allow for arbitrary interface displacements but this flexibility comes at a price: the mismatch between the fluid and solid meshes complicates the interface coupling. In this talk, we will review some of these approaches by comparing them on some known FSI benchmarks involving moving interfaces and topology changes. We will also introduce a new time splitting scheme for a particular class of fictitious domain approximations, which invokes the fluid and solid solvers only once per time-step without compromising stability and accuracy.

Khaled Saleh
Etablissement de l'orateur
Université Claude Bernard, Lyon 1
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

En mécanique des fluides, le nombre de Mach est un nombre sans dimension qui exprime le rapport de la vitesse locale d'un fluide à la vitesse du son dans ce même fluide. Lorsque ce nombre est très petit, les compressions dues aux variations de pression peuvent être négligées, et l'écoulement peut être considéré, en première approximation, comme étant incompressible.

D'un point de vue théorique, de nombreuses recherches ont pour objectif de justifier rigoureusement la transition d'un écoulement à nombre de Mach strictement positif, c'est-à-dire compressible, vers un écoulement à nombre de Mach nul, c'est-à-dire incompressible.

D'un point de vue applicatif, peuvent intervenir, dans de nombreuses configurations industrielles, des transitions entre un écoulement incompressible ou faiblement compressible vers un écoulement fortement compressible. C'est le cas par exemple lorsque l'on étudie des situations accidentelles dans le domaine de la sûreté nucléaire. Il est alors essentiel de disposer de méthodes numériques permettant de simuler des écoulements à tout nombre de Mach.

Depuis quelques années, un effort important a été consacré au développement de schémas pour la simulation numérique des écoulements compressibles sur mailles décalées, c'est-à-dire s'appuyant sur une discrétisation en espace (structurée ou non) des variables scalaires au centre des mailles et des vitesses aux faces de celles-ci. Les propriétés usuelles ont été démontrées pour ces schémas: existence de solutions, préservation des états admissibles, stabilité, inégalités d'entropie, consistance au sens de Lax. Outre leur simplicité et leur efficacité (les flux numériques sont très aisés à construire), ces schémas présentent l'intérêt suivant : si l'on suppose la masse volumique constante, ils dégénèrent vers un algorithme standard (et éprouvé) pour l'incompressible. Dans cet exposé, nous nous plaçons dans le cadre des équations de Navier-Stokes compressibles barotropes, et démontrons que la convergence vers le schéma pour l'incompressible est réellement obtenue: à maillage fixé, lorsque le nombre de Mach tend vers zéro, la masse volumique tend effectivement vers une constante maille par maille. L'analyse présentée ici adapte au niveau discret la théorie développée dans le papier de Lions et Masmoudi (1998) au niveau continu pour les solutions faibles. Elle s'étend à deux discrétisations en temps différentes, qui ont pour résultat de découpler les équations en faisant apparaître un problème elliptique discret pour la pression. Ce sont ces schémas qui ont un intérêt en pratique ; l'un d'entre eux est utilisé quotidiennement dans le logiciel P2REMICS de l'IRSN, pour la simulation des déflagrations en phase gazeuse (explosion d'hydrogène).

Date et heure de l'exposé
Lieu de l'exposé
Résumé de l'exposé
Olivier Zahm
Etablissement de l'orateur
INRIA Grenoble
Date et heure de l'exposé
Lieu de l'exposé
salle des séminaires
Résumé de l'exposé

Uncertainty Quantification (UQ) aims at characterizing and quantifying the impact of some input parameters of interest, generally modelled as random variables, onto the outcome of a computational model. The goal could be for instance to estimate the mean behaviour of a system or its probability of failure. Often the model is too expensive to evaluate so that the UQ analysis is realized on a surrogate model, meaning an approximation that allows fast evaluations of the input-to-output relashionship. However, approximation of multivariate functions is a difficult task when the number of input parameters is large. Identifying the directions where the function does not vary significantly is a key preprocessing step to reduce the complexity of the approximation algorithms.

In this talk, we propose and analyze gradient-based methods that permit to detect such a low-dimensional structure. The methodology consists in minimizing an upper-bound of the approximation error obtained using Poincaré-type inequalities. We show the connection with standard screening techniques used in Global Sensitivity Analysis. We then explain how this methodology naturally extends to nonlinear dimension reduction, e.g. when the function is not constant along a subspace but along a low-dimensional manifold.

Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Guidel
Résumé de l'exposé
Laurence Cherfils
Etablissement de l'orateur
Université la Rochelle
Date et heure de l'exposé
Lieu de l'exposé
Laboratoire de Mathématiques Jean Leray
Résumé de l'exposé

L'équation de Cahn-Hilliard a été introduite en 1958 pour modéliser la separation de phases dans des materiaux binaires. Elle a ensuite ete generalisee en 2007 par A. Bertozzi & al. pour la retouche d'images binaires (noir et blanc). Je presenterai les principaux resultats theoriques associes a cette equation ainsi que des exemples numeriques d'application a la retouche d'image. Puis je proposerai deux variantes de ce modele pour l'appliquer a la retouche d'images colorees ou en degrade de gris.

Malgorzata Bogdan
Etablissement de l'orateur
Université de Wroclaw
Date et heure de l'exposé
Lieu de l'exposé
Résumé de l'exposé

Sorted L-One Penalized Estimator is a relatively new convex optimization procedure for identifying predictors in large data bases. In this lecture we will present the method, some theoretical and empirical results illustrating its properties and the applications in the context of genomic and medical data. Apart from the classical version of SLOPE we will also discuss its spike and slab version, aimed at reducing the bias of estimators of regression coefficients. When discussing SLOPE we will also present some new theoretical results on the probability of discovering the true model by LASSO (which is a specific instance of SLOPE) and its thresholded version