Séminaire de mathématiques appliquées (archives)

Pierre Mollo
Etablissement de l'orateur
Eindhoven University of Technology
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Une grande partie des modèles numériques décrivant des systèmes physiques demandent des simulations nécessitant des grosses capacité de calculs et dépendant de nombreux paramètres. L'objectif de la réduction de modèle est d'utiliser quelques états du système obtenus via des évaluations du modèle numérique afin d'estimer de nouveaux états à moindre coût de calculs. L'une des méthodes permettant cela est la Méthode des Bases Réduites (RBM) : l'idée est d'approcher la variété décrivant l'ensemble des solutions par un espace vectoriel, puis de projeter le problème initial sur ce dernier. Cette méthode permet d’accélérer largement les résolutions de problèmes nécessitant de nombreuses évaluations du modèle numérique (exemples : problèmes inverses, contrôle). En contrepartie, pour assurer la validité des résultats, il est essentiel de disposer d'estimateurs fiables renseignant sur l'erreur introduite par la réduction. Dans notre approche, nous proposons une variation de la RBM qui minimise l'erreur introduite sur les éventuelles mesures du système, un point critique pour la résolution de problèmes inverses.

Samuel Tréton
Etablissement de l'orateur
LMBA
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

This talk adresses the long-term behavior of reaction-diffusion equations ∂tu = Δu + f(u) in RN, where the growth function f behaves as u1+p when u is near the origin. Specifically, we are interested in the persistance versus extinction phenomena in a population dynamics context, where the function u represents a density of individuals distributed in space. The degenerated behavior f(u) ∼ u1+p near the null equilibrium models the so-called Allee effect, which penalizes the growth of the population when the density is low. This effect simulates factors such as inbreeding, mating difficulties, or reduced resistance to extreme climatic events. We will begin the presentation by discussing a result linking the questions of persistence and extinction with the dimension N and the intensity of the Allee effect p, as established in the classical paper by Aronson and Weinberger (1978). This result is closely related to the seminal work of Fujita (1966) on blow-up versus global existence of solutions to the superlinear equation ∂tu = Δu + u1+p. Following these preliminary results, we will focus on a reaction-diffusion system involving a “heat exchanger”, where the unknowns are coupled through the diffusion process, integrating super-linear and non-coupling reactions. An analysis of the solution frequencies for the purely diffusive heat exchanger will allow us to estimate its “dispersal intensity”, which is a key information for addressing blow-up versus global existence in such semi-linear problems. This work represents a first step toward Fujita-type results for systems coupled by diffusion and raises several open questions, particularly regarding the exploration of more intricate diffusion mechanisms.

Agustin Somacal
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

The presentation will be divided in two parts: (1) We will briefly introduce the linear inverse problem setting in which we seek to approximate an unknown function from measurements by an element of a linear space. However, linear spaces become ineffective for approximating simple and relevant families of functions, such as piecewise smooth functions, that typically occur in hyperbolic PDEs (shocks) or images (edges). We will then analyze which conditions can give us certified recovery bounds for inversion procedures based on nonlinear approximation spaces. (2) We will apply this framework to the recovery of general bidimensional shapes from cell-average data (high-resolution images from coarser cell averages). Then we will show how to build fast higher order methods to reconstruct interfaces as well as two strategies to deal with non-smooth interfaces presenting corners.

Maxime Boucher
Etablissement de l'orateur
Namur
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

In this presentation, we tackle the problem of detecting serial correlation in the context of directional data. Motivated by a real data example involving sunspots locations, we define a concept of runs properly adapted to the directional context. We then show that tests based on the latter runs enjoy some local and asymptotic property against local alternatives with serial dependence. We compute the finite sample performances of our tests using Monte Carlo simulations and show their usefulness on a real data illustration that involves the analysis of sunspots locations for various solar cycles. According to the time, we will evoke the goodness of fit problem for the longitude of the location of sunspots (then circular data) using trigonometrics moments.

Léo Meyer
Etablissement de l'orateur
Universität Wien
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Les adipocytes ou cellules adipeuses sont présentes dans le tissu adipeux où elles jouent un rôle de stockage d’énergie sous la forme d’une vésicule lipidique dans leurs cytoplasmes. A partir de données obtenues chez le rat, on observe que la distribution en taille (rayon des cellules) est bimodale: elle a deux maxima locaux. Dans cet exposé je présenterais different modèles permettant d’expliquer ce caractère bimodale ainsi que des résultats théoriques et numériques sur ces modèles, en collaboration avec Magali Ribot et Romain Yvinec. Je montrerais notamment un résultat de convergence entre les modèles de Becker-Doring et de Lifshitz-Slyozov ainsi que des solutions numériques bimodales de ces modèles. Enfin je présenterais des résultats d’estimations de paramètres sur ces données en collaboration avec Chloé Audebert, Anne-Sophie Giacobbi et Hedi Soula.

Julie Delon
Etablissement de l'orateur
MAP5
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Gaussian Mixture Models (GMMs) are ubiquitous in statistics and machine learning and are especially useful in applied fields to represent probability distributions of real datasets. Optimal transport can be used to compute distances or geodesics between such mixture models, but the corresponding Wasserstein geodesics do not preserve the property of being a GMM. In this talk, we show that restricting the set of possible coupling measures to GMMs transforms the original infinitely dimensional optimal transport problem into a finite dimensional problem with a simple discrete formulation, well suited to applications where a clustering structure is present in the data. We also present possible extensions of this Wasserstein-type distance between GMMs that remain invariant to isometries. Inspired by the Gromov-Wasserstein distance, these extensions can also be used to compare GMMs of different dimensions.

Olivier Zahm
Etablissement de l'orateur
INRIA Grenoble
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Transport-based density estimation methods are gaining popularity due to their efficiency in generating samples from the target density to be approximated. In this talk, we introduce a sequential framework for constructing a deterministic transport map as the composition of Knothe-Rosenblatt (KR) maps built in a greedy manner. The key ingredient is the introduction of an arbitrary sequence of 'bridging densities,' which is used to guide the sequential algorithm. While tempered (or annealed) bridging densities are natural to use in the context of Bayesian inverse problems, diffusion-based bridging densities are more suitable when the target density is known from samples only. To build each of the KR maps, we first estimate the intermediate density using Sum-of-Squares (SoS) density surrogates, and then we analytically extract the KR map of that precomputed approximation. We also propose a convergence analysis of the resulting algorithm with respect to the alpha-divergence, which generalizes previous results from the literature. Additionally, we numerically demonstrate our method on several benchmarks, including Bayesian inference problems and unsupervised learning tasks.

Thomas Vigier
Etablissement de l'orateur
Institut des mathématiques de Bordeaux
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Les modèles hydrodynamiques pour la fusion par confinement inertiel doivent être fermés en four- nissant une loi pour le flux de chaleur des électrons. Dans la plupart des cas hors-équilibre, la loi locale de Spitzer-Härm est insuffisante pour restituer l’ensemble des phénomènes physiques. En effet, la présence de forts gradients de température engendre l’apparition de flux de température non locaux qui rendent cette approche macroscopique incomplète. Pour restituer cet effet cinétique, la résolution d’une équation cinétique coûteuse à l’échelle microscopique serait requise. Néanmoins, du fait des situations physiques considérées, des modèles à l’échelle mésoscopique [1, 2] s’avèrent suffisants. En particulier, une approche aux moments permet de répondre à ces besoins de modélisation et de réduire le coût numérique ; d’autre part, l’utilisation d’un tel modèle hyperbolique, du fait de sa construction, présente l’avantage d’être suffisamment flexible pour y ajouter une physique plus complexe (champs magnétiques par exemple).

Dans ce travail, nous nous concentrons sur la résolution numérique du modèle M1 du transport ther- mique non local sans champ magnétique. La nature multi-échelle de ce modèle rend l’élaboration d’un schéma numérique difficile en termes de préservation de l’asymptotique pour capter les différents ré- gimes en fonction du nombre de Knudsen. Pour traiter ce problème, nous nous proposons d’utiliser UGKS (Unified Gas Kinetic Schema) [3, 4] ; un schéma robuste pour l’équation cinétique reposant sur la solution intégrale de l’équation cinétique pour élaborer les flux. Cette méthode présente l’avantage de préserver l’asymptotique de l’équation en résolvant correctement à la fois le régime non local associé à du transport (hyperbolique) et le régime local associé à de la diffusion (parabolique). Pour obtenir un schéma pour le modèle aux moments, une méthode générique est proposée dans laquelle le flux numérique d’UGKS est fermé avec la fonction de distribution M1. Cette technique revient à projeter la fonction de distribution dans l’espace M1 à chaque pas de temps dans UGKS.

Afin d’implémenter ce schéma, une méthode de quadrature pour calculer des demi-moments de fonction de distribution M1 sur la sphère est proposée. De plus, une extension à l’ordre 2 n’affectant pas la préservation de l’asymptotique est suggérée. La flexibilité de ce schéma est aussi démontrée dans sa capacité à dégénérer vers un schéma de diffusion arbitrairement choisi. Finalement, cette nouvelle méthode est validée et testée sur différents cas tests.

Kaniav Kamary
Etablissement de l'orateur
CentraleSupélec BioMathCS, Paris-Saclay University, MICS laboratory, Biomathematics team
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

TBA

Hermann Matthies
Etablissement de l'orateur
Institute of Scientific Computing, TU Braunschweig, Technische Universität Braunschweig
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Hilbert, in his 1900 so-called "problems lecture", formulated as 6th problem the challenge to find an axiomatic basis for mechanics and probability. Kolmogorov's 1933 "Grundbegriffe" monograph was widely accepted as an adequate answer to this challenge regarding the axiomatisation of --- one has to say now --- "classical" probability. Coincidentally, 1900 is also the year when Planck formulated his thesis of energy quanta, which would give rise to quantum theory, and which requires a new probability theory. This became clear after Heisenberg's 1925 paper and his Göttingen colleagues' works afterwards, which together with Dirac introduced the algebraic point of view, culminating in von Neumann's 1932 monograph on the widely known Hilbert space representation of quantum mechanics; which actually appeared before Kolmogorov's monograph. The main difference between the classical and the "new" probability lay in the non-commutativity of random variables. Today there are also other areas where such quantum like behaviour (QLB) seems to occur.

The algebraic view offers a way on how to treat both classical and quantum like phenomena in a unified mathematical setting. And although probabilists today seem to be happy with Kolmogorov's approach based on measure theory, it may be interesting to look at the subject through a different pair of glasses. This algebraic view also offers a more direct way to address random variables with values in infinite dimensional spaces, something which with classical measure theory can only be done in a somewhat circumlocutory fashion. It also helps to separate purely algebraic questions from analytical ones, but of course thrives in the interplay of both.

Without wanting to present a strict axiomatic derivation, the start will be an early --- and in the light of modern theory also abstract algebraic --- view on random variables, as can be found implicitly in the work of early probabilists like the Bernoullis. Their properties are sketched as emanating from simple operational requirements regarding random variables, the mean or expectation, as well as sampling or observations. Concrete representations of this abstract setting connect it with algebras of linear mappings and the spectral theory of these, and one may recover Kolmogorov's classical characterisation as one particular representation.

Striking differences between classical or commutative probability and non-commutative probability appear already with simple linear algebra. As this is a subject which nowadays all engineering and science students learn at a very early stage, it may also be an interesting approach to teaching probability. And possible novel devices like quantum computers can be described in this setting.

This algebraic view has also a functional analytic extension, which can be used to construct generalised random variables and "ideal elements". It allows the specification of not only analogues of all the classical spaces of random variables, but to go beyond this and address questions of "smoothness" on the one hand, and the definition of idealised elements resp. "generalised" random variables on the other hand. This very much echoes the construction of distributions resp. generalised functions in the sense of Sobolev and Schwartz.