Séminaire de mathématiques appliquées (archives)

Céline Caldini-Queiros
Etablissement de l'orateur
Max Planck Institüt für Plamaphysik, Munich
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Cette présentation porte sur les équations gyro-cinétiques et traite un développement rigoureux des limites de l'équation de Vlasov avec différents opérateurs de collision dans un champ magnétique fort, ainsi que du développement de méthodes numériques basées sur une décomposition micro-macro de la fonction de distribution des particules.

Samuel Kokh
Etablissement de l'orateur
Maison de la simulation, CEA Saclay
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

We present a discretization strategy for compressible fluids systems for unstrutctured grids based a Lagrange-Remap approach that does not involve any moving mesh. We present the stability properties of this solver and present a natural semi-implicit extension of the method that allows to remain stable under a CFL condition involving only the material velocity. We present another modification of the solver that allows to provide an accurate and stable solver for simulation involving low-Mach regions in the flow. This work is a collaboration with Christophe CHALONS and Mathieu GIRARDIN.

Rémi Catellier
Etablissement de l'orateur
Rennes 1
Date et heure de l'exposé
Lieu de l'exposé
salle Eole
Résumé de l'exposé

Un certain nombre d'équations aux dérivées partielles stochastiques très singulières présentent des problèmes dans leur définition même. C'est le cas, entre autres, de l'équation de KPZ, mais aussi de l'équation de quantisation stochastique en dimension 3. Les méthodes classiques d'analyse ne permettent pas de définir cette équation, et il s'avère que pour lui donner un sens, il est nécessaire de soustraire un constante infinie et de considérer formellement un nouveau problème. La théorie des distributions paracontrolées, qui combine des idées de la théorie des chemins rugueux avec la décomposition de Paley-Littlewood et le paraproduit, est un bon cadre pour donner un sens à cette renormalisation, et résoudre (localement) cette équation.

Dans une première partie nous introduirons donc la notion de distributions paracontrolées, et dans une deuxième partie, nous montrerons comment cette théorie peut s'appliquer à l'équation de quantisation stochastique en dimension 3.

Nicolas Vauchelet
Etablissement de l'orateur
LJLL, Université Pierre et Marie Curie, Paris 6
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Chemotaxis is the phenomenon in which cells direct their motion according to a chemical present in their environment. Since experimental observations have shown that the motion of bacteria (e.g. Escherichia Coli) is due to the alternation of 'runs and tumbles', mathematical modelling thanks to a kinetic description has been proposed. The starting point of the study is the so-called Othmer-Dunbar-Alt model governing the dynamics of the distribution function of cells. From this system, macroscopic model can be derived after rescaling. When the taxis is small compared to the unbiased movement of cells, the scaling must be of diffusive type.

Raphaël Loubère
Etablissement de l'orateur
Institut de Mathématiques de Toulouse (IMT)
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

We investigate the coupling of the Multi-dimensional Optimal Order Detection (MOOD) method and the Arbitrary high order DERivatives (ADER) approach in order to design a new high order accurate, robust and computationally efficient Finite Volume (FV) scheme dedicated to solve nonlinear systems of hyperbolic conservation laws on unstructured triangular and tetrahedral meshes in two and three space dimensions, respectively.

The Multi-dimensional Optimal Order Detection (MOOD) method for 2D and 3D geometries has been introduced in a recent series of papers [1, 2, 3] for mixed unstructured meshes. It is an arbitrary high-order accurate Finite Volume scheme in space, using polynomial reconstructions with a posteriori detection and polynomial degree decrementing processes to deal with shock waves and other discontinuities.

In the following work, the time discretization is performed with an elegant and efficient one-step ADER procedure [4, 5]. Doing so, we retain the good properties of the MOOD scheme, that is to say the optimal high-order of accuracy is reached on smooth solutions, while spurious oscillations near singularities are prevented. The ADER technique permits not only to reduce the cost of the overall scheme as shown on a set of numerical tests in 2D and 3D, but it also increases the stability of the overall scheme.
A systematic comparison between classical unstructured ADER-WENO schemes and the new ADER-MOOD approach has been carried out for high-order schemes in space and time in terms of cost, robustness, accuracy and efficiency.

A large suite of classical numerical test problems has been solved on unstructured meshes for three challenging multi-dimensional systems of conservation laws: the Euler equations of compressible gas dynamics, the classical equations of ideal magneto-Hydrodynamics (MHD) and finally the relativistic MHD equations (RMHD), which constitutes a particularly challenging nonlinear system of hyperbolic partial differential equation.

If time permits we will present the extension of the a posteriori treatment to construct a subcell limiter for Discontinuous Galerkin methods of high accuracy (polynomial degree 9).

References:
[1] S. Clain, S. Diot, and R. Loubère, A high-order finite volume method for systems of conservation laws-multi-dimensional optimal order detection (MOOD). Journal of Computational Physics, 230(10):4028 – 4050, 2011.
[2] S. Diot, S. Clain, and R. Loubère, Improved detection criteria for the multi-dimensional optimal order detection (MOOD) on unstructured meshes with very high-order polynomials. Computers and Fluids, 64:43 – 63, 2012.
[3] S. Diot, R. Loubère, and S. Clain, The MOOD method in the three-dimensional case: Very-high-order finite volume method for hyperbolic systems. International Journal of Numerical Methods in Fluids, 73:362–392, 2013.
[4] M. Dumbser, Arbitrary high order PNPM schemes on unstructured meshes for the compressible Navier- Stokes equations. Computers and Fluids, 39:60–76, 2010.
[5] M. Dumbser, M. Castro, C. Parés, and E.F. Toro, ADER schemes on unstructured meshes for non-conservative hyperbolic systems: Applications to geophysical flows. Computers and Fluids, 38:1731 – 1748, 2009.

Magali Champion
Etablissement de l'orateur
Institut de Mathématiques de Toulouse
Date et heure de l'exposé
Lieu de l'exposé
salle Eole
Résumé de l'exposé

In this presentation, we focus on a theoretical analysis and the use of statistical and optimization methods in the context of sparse linear regressions in a high-dimensional setting. The first part of this work is dedicated to the study of statistical learning methods, more precisely penalized methods and greedy algorithms. The second part concerns the application of these methods for gene regulatory networks inference. Gene regulatory networks are powerful tools to represent and analyse complex biological systems, and enable the modelling of functional relationships between elements of these systems. We thus propose to develop optimization methods to estimate relationships in such networks.

Athanasios Rakitzis
Etablissement de l'orateur
IUT de Nantes
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Among the numerous practical application of Statistical Process Control (SPC) is the monitoring of the number of defecting (non-conforming) items that are produced from a manufacturing company or the number of the incidents of a disease in a specic area. The basic aim is to detect any kind of change (e.g., an increase in the number of non-conforming items) quickly and accurately. In such cases, the available data are usually discrete (counts) and for process monitoring, the ordinary control charts for attributes (e.g., np-, p-, c- and u-charts) are used in practice. The main assumption is that the data come from the Poisson or the binomial distribution.

Due to technological advancements and automation progress, many processes are now characterized by a low fraction of non-conforming items. That kind of processes are known as high-yield processes and it is very common to have an excessive number of samples with zero non-conforming items. Consequently, due to the inherent over-dispersion of data, the ordinary schemes for attributes cannot be eactively used because of the high false alarm rates and the low statistical power in the detection of changes in the parameters of the process.

In this talk, new control charts, which are suitable for the monitoring of high-yield processes, are proposed and studied. Instead of the ordinary Poisson and binomial distributions, we assume that a proper parametric model for the process is the zero-inaged Poisson (ZIP) or the zero-inated Binomial (ZIB) distribution. We provide the Markov chain methodology for the theoretical study of each chart as well as aspects of their statistical design. Also, numerical comparisons between the dievent control charting techniques are given. Finally, the practical application of the proposed techniques is discussed.
(joint work with Prof. Philippe Castagliola and Prof. Petros Maravelakis)

Tom Rohmer
Etablissement de l'orateur
Université de Nantes
Date et heure de l'exposé
Lieu de l'exposé
salle Eole
Résumé de l'exposé

Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans cette présentation, il sera proposé deux tests non paramétriques de détection de ruptures dans la distribution d'observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d'alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multipli- cateurs est proposée pour la statistique de test; sa validité asymptotique sous l'hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d'un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l'une utilise un rééchantillonnage de la statistique, l'autre est fondée sur une estimation de la loi limite de la statistique de test.

Konstantin Brenner
Etablissement de l'orateur
Laboratoire J.A. Dieudonné, Université de Nice Sophia-Antipolis
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Les fractures qui constituent les chemins privilèges pour l'écoulement et le transport jouent un rôle fondamental dans le domaine d'hydrogéologie, dans l'ingénierie minière ou pétrolière. Nous nous intéressons au modèle asymptotique dans lequel les fractures sont représentées explicitement par les interfaces de codimension 1.

On commencera par la présentation du problème continu et de sa discrétisation centrée aux nœuds. Les schémas nodaux qui sont attractifs grâce à leur cout faible sur les maillages tétraédriques ont toutefois une réputation d’être peu précises lorsque la perméabilité du milieu possède des fortes variations. Nous allons voir comment ce défi peut être relevé. Le nouveau schéma sera comparé numériquement à l'approche CVFE classique.

Dans un deuxième temps nous allons nous tourner vers l’analyse de plus théorique. En s’appuyant sur les travaux récents de R. Eymard et al. nous formulerons les conditions suffisant de la convergence d’un schéma numérique abstrait.