Séminaire de mathématiques appliquées (archives)

Willem van Zuijlen du Wias
Etablissement de l'orateur
Weierstrass Institute in Berlin
Date et heure de l'exposé
Lieu de l'exposé
salle des séminaires
Résumé de l'exposé

In this talk I will introduce the quenched Edwards--Wilkinson equation, which models the growth of an interface among an obstacle field. Due to the elasticity effect of the laplacian, obstacle may slow down or stop the growth of the interface. When the driving force is low and there is enough disorder of the obstacle field, the interface may get pinned. But for a large enough driving force, there is a positive speed of propagation of the interface. I will give the intuition for this phenomenon, mention what is done in the literature and then will turn to this equation with a Gaussian disorder, which is white in the spatial component. Due to the irregularity we need tools from Rough Paths, like the (stochastic) sewing lemma and regularisation by noise in order to show well-posedness. I will explain the idea behind these tools and how we apply them. This is joint work with Toyota Matsuda and Jaeyun Ji.

Florian Salin
Etablissement de l'orateur
INRIA, Université de Strasbourg
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

L’objectif de cet exposé est l’étude d’une équation de diffusion non linéaire fractionnaire posée sur un domaine bornée. Cette équation constitue une variante de l’équation des milieux poreux ou de l’équation de diffusion rapide, dans laquelle le laplacien est remplacé par un laplacien fractionnaire. Dans le cas des milieux poreux, les solutions présentent une décroissance à vitesse algébrique, tandis que dans le cas de la diffusion rapide, elles présentent un phénomène d’extinction en temps fini: à partir d’un certain temps elles sont uniformément nulles. Par ailleurs, les solutions convergent vers les solutions à variables séparées, lorsque le temps tend vers l’infini dans le cas des milieux poreux, ou lorsqu’il tend vers le temps d’extinction dans le cas de la diffusion rapide. Nous introduirons ensuite un schéma numérique qui préserve ces propriétés qualitatives. Ce schéma permettra de déterminer numériquement le temps d’extinction ainsi que le taux de convergence vers les solutions à variables séparées.

Marion Naveau
Etablissement de l'orateur
Agro Ouest
Date et heure de l'exposé
Lieu de l'exposé
Séminaire de Mathématiques Appliquées
Résumé de l'exposé

Titre : Sélection de variables en grande dimension dans les modèles non-linéaires à effets mixtes : méthode, application et garanties théoriques. Résumé : La problématique de la sélection de variables en grande dimension, caractérisée par un nombre significativement plus élevé de covariables que d'observations, est bien étudiée dans le contexte des modèles de régression standard. Cependant, peu d'outils sont actuellement disponibles pour aborder cette question dans le cadre des modèles non-linéaires à effets mixtes, où les données sont collectées de façon répétée sur plusieurs individus. Ma thèse a porté sur le développement d’une procédure de sélection de covariables en grande dimension pour ces modèles, en étudiant à la fois leurs implémentations pratiques et leurs propriétés théoriques. Cette méthode repose sur un prior bayésien de type spike-and-slab gaussien et l’algorithme SAEM (Stochastic Approximation of Expectation Maximisation Algorithm). Nous en illustrons l’intérêt à travers une application concrète visant à identifier des marqueurs génétiques potentiellement impliqués dans le processus de sénescence du blé tendre. D’un point de vue théorique, nous avons analysé les propriétés fréquentistes des distributions a posteriori et établi des taux de contraction a posteriori autour des vraies valeurs des paramètres dans un modèle non-linéaire à effets mixtes sous prior spike-and-slab discret, comparables à ceux observés dans des modèles linéaires.

Jessie Levillain
Etablissement de l'orateur
Centre National des Etudes Spatiales (CNES)
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Les cils et flagelles présentent un mouvement périodique caractéristique, leur permettant de nager aussi efficacement que possible dans un fluide visqueux. La génération d’un tel mouvement est possible grâce à une structure d’activation interne périodique présente tout le long du filament, appelée axonème. Dans l’axonème, les forces sont générées par des moteurs moléculaires qui, tous ensemble, contribuent à la courbure du filament.

Après avoir étudié le modèle de moteur moléculaire, on proposera plusieurs versions de systèmes couplés d’équations aux dérivées partielles, modélisant l’activation dans une cellule de périodicité. Les résultats théoriques seront également illustrés par des simulations numériques.

Hugo Henneuse
Etablissement de l'orateur
Paris Saclay
Date et heure de l'exposé
Lieu de l'exposé
séminaire de Mathématiques Appliqués
Résumé de l'exposé

La détection et la localisation des modes d'une densité de probabilité (i.e., les points où la densité atteint un maximum local) constituent un problème classique de statistique non paramétrique. L’estimation du mode global, lorsqu’il est unique, en particulier pour les densités unimodales, a longtemps concentré l’attention, conduisant à la fois à la conception d’algorithmes efficaces et à une caractérisation précise des vitesses minimax sous différentes hypothèses sur la densité sous-jacente. Le problème plus général de l’estimation de l’ensemble des modes est plus difficile. Plusieurs approches ont été proposées, notamment les méthodes de type mean-shift, qui donnent des résultats satisfaisants en pratique, mais dont les performances restent peu comprises théoriquement. Dans cette présentation, nous proposerons une alternative fondée sur un outil central de l’analyse topologique des données (TDA) : l’homologie persistante et sa représentation pratique via les diagrammes de persistance. Nous présenterons plusieurs résultats sur la consistance de cette approche, pour de larges classes de densités pouvant admettre des discontinuités (y compris en les modes) ainsi que son optimalité au sens minimax. Au-delà de l’estimation des modes, nous discuterons également du problème de l’estimation des diagrammes de persistance pour de telles densités.

Title : Estimation of Multiple Modes and Persistent Homology.

Abstract : Detecting and localizing the modes of a probability density (i.e., the points where the density attains a local maximum) is a classical problem in nonparametric statistics. Estimating the global mode, when it is unique, particularly for unimodal densities, has long attracted attention, leading both to the design of efficient algorithms and to a precise characterization of minimax rates under various assumptions on the underlying density. The more general problem of estimating the set of all modes is considerably more challenging. Several approaches have been proposed, notably mean-shift methods, which perform well in practice but whose theoretical properties remain poorly understood. In this talk, we will propose an alternative approach based on a central tool from topological data analysis (TDA): persistent homology and its practical representation through persistence diagrams. We will present several results on the consistency of this method for broad classes of densities, including those that may have discontinuities (even at the modes), as well as its minimax optimality. Beyond mode estimation, we will also discuss the problem of estimating persistence diagrams for such densities.

Sébastien Riffaud
Etablissement de l'orateur
EPFL, Lausanne, Suisse
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Dans cet exposé, nous allons présenter des intégrateurs BUG (Basis-Update & Galerkin) d’ordre élevé basés sur des méthodes de Runge-Kutta explicites. Ces intégrateurs dynamiques de rang faible sont des extensions d’ordre élevé de l’intégrateur BUG et sont construits en effectuant une étape BUG à chaque étape de la méthode de Runge–Kutta. De cette manière, l’intégrateur Runge-Kutta BUG est robuste face à la présence de petites valeurs singulières et n’implique pas d’étape d’intégration tem- porelle rétrograde. Nous fournissons une borne d’erreur qui montre que l’intégrateur Runge–Kutta BUG conserve l’ordre de convergence de la méthode Runge–Kutta associée jusqu’à ce que l’erreur atteigne un plateau correspondant à l’erreur de troncature de rang faible. Cette borne d’erreur est finalement validée expérimentalement. Les résultats numériques démontrent la convergence d’ordre élevé de l’intégrateur Runge–Kutta BUG et sa précision supérieure par rapport à d’autres intégrateurs dynamiques de rang faible proposés dans la littérature.

Sandrine Dallaportta
Etablissement de l'orateur
LMA, Université de Poitiers
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

On s'intéresse à la mesure empirique associée à un processus ponctuel dans R^d, comme par exemple les valeurs propres d'une matrice aléatoire ou les particules d'un gaz de Coulomb. Dans le but d'étudier sa vitesse de convergence, on s'intéresse à la distance de Wasserstein d'ordre p entre cette mesure empirique et sa moyenne, particulièrement en dimension 2. Une borne sur cette distance est obtenue sous une hypothèse sur les moments centrés d'ordre p du nombre de points dans des carrés, ce qui revient pour p=2 à supposer que le processus est hyperuniforme. Notons que les processus déterminantaux hyperuniformes satisferont ces hypothèses pour tout p>=1. Travail en collaboration avec Raphaël Butez (Université de Lille) et David García-Zelada (Sorbonne Université).

Etienne Lassalle
Etablissement de l'orateur
LS2N
Date et heure de l'exposé
Lieu de l'exposé
Salles des Séminaires
Résumé de l'exposé

We consider the problem of learning a graph modeling the statistical relations of the d variables of a dataset with n samples. Standard approaches amount to searching for a precision matrix representative of a Gaussian graphical model that adequately explains the data. However, most maximum likelihood-based estimators usually require storing the d^2 values of the empirical covariance matrix, which can become prohibitive in a high-dimensional setting. In this talk, we adopt a “compressive” viewpoint and aim to estimate a sparse precision matrix from a sketch of the data, i.e., a low-dimensional vector of size m≪d^2 carefully designed from the data using nonlinear random features (e.g., rank-one projections). Under certain spectral assumptions, we show that it is possible to recover the precision matrix from a sketch of size m=Ω((d+2k)log(d)), where k is the maximal number of edges of the underlying graph. These information-theoretic guarantees are inspired by the compressed sensing theory. We investigate the possibility of achieving practical recovery with an iterative algorithm based on the graphical lasso, viewed as a specific denoiser. We compare our approach and the graphical lasso on synthetic datasets, demonstrating its favorable performance even when the dataset is compressed. Joint work with : Titouan Vayer, Rémi Gribonval and Paulo Gonçalves.

Olivier Zindy
Etablissement de l'orateur
LPSM
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Gaussian fields with logarithmically decaying correlations, such as branching Brownian motion and the two-dimensional Gaussian free field, are conjectured to form universality class of extreme value statistics (notably in the work of Carpentier & Le Doussal and Fyodorov & Bouchaud). This class is the borderline case between the class of IID random variables, and models where correlations start to affect the statistics. In this talk, I will describe a general approach based on rigorous works in spin glass theory to describe features of the Gibbs measure of these Gaussian fields. I will focus on the two-dimensional discrete Gaussian free field. At low temperature, we show that the normalized covariance of two points sampled from the Gibbs measure is either 0 or 1. This is used to prove that the joint distribution of the Gibbs weights converges in a suitable sense to that of a Poisson-Dirichlet variable. (with L.-P. Arguin, 2015).

In a second work (with M. Pain, 2021), we prove absence of temperature chaos for the two-dimensional discrete Gaussian free field using the convergence of the full extremal process, which has been obtained by Biskup and Louidor. This means that the overlap of two points chosen under Gibbs measures at different temperatures has a nontrivial distribution. Whereas this distribution is the same as for the random energy model when the two points are sampled at the same temperature, we point out here that they are different when temperatures are distinct: more precisely, we prove that the mean overlap of two points chosen under Gibbs measures at different temperatures for the DGFF is strictly smaller than the REM's one. Therefore, although neither of these models exhibits temperature chaos, one could say that the DGFF is more chaotic in temperature than the REM.

Finally, I will discuss in detail (depending on the time left) recent works with B. Bonnefont (ex-PhD student, now Post-Doc at University of Geneva) and M. Pain (CR @Toulouse), on questions suggested by B. Derrida.

Mathias Oster
Etablissement de l'orateur
Aachen
Date et heure de l'exposé
Lieu de l'exposé
Salles des Séminaires
Résumé de l'exposé

This talk is about learning the parameter-to-solution map for systems of partial differential equations (PDEs) that depend on a potentially large number of parameters covering all PDE types for which a stable variational formulation (SVF) can be found. A central constituent is the notion of variationally correct residual loss function, meaning that its value is always uniformly proportional to the squared solution error in the norm determined by the SVF, hence facilitating rigorous a posteriori accuracy control. It is based on a single variational problem, associated with the family of parameter dependent fiber problems, employing the notion of direct integrals of Hilbert spaces. Since in its original form, the loss function is given as a dual test norm of the residual, a central objective is to develop equivalent computable expressions. A first critical role is played by hybrid hypothesis classes, whose elements are piecewise polynomial in (low-dimensional) spatio-temporal variables with parameter-dependent coefficients that can be represented, for example, by neural networks. Second, working with first order SVFs, we distinguish two scenarios: (i) the test space can be chosen as an L2-space (such as for elliptic or parabolic problems) so that residuals can be evaluated directly as elements of L2; (ii) when trial and test spaces for the fiber problems depend on the parameters (as for transport equations), we use ultraweak formulations. In combination with discontinuous Petrov-Galerkin concepts, the hybrid format is then instrumental to arrive at variationally correct computable residual loss functions. Our findings are illustrated by numerical experiments representing (i) and (ii), namely elliptic boundary value problems with piecewise constant diffusion coefficients and pure transport equations with parameter-dependent convection fields.