Séminaire de mathématiques appliquées (archives)

Fabien Baeriswyl
Etablissement de l'orateur
Université Technique de Vienne
Date et heure de l'exposé
Lieu de l'exposé
Salle de séminaire
Résumé de l'exposé

Dans cette présentation, nous discutons de résultats asymptotiques, en particulier de variation régulière et de déviations larges, pour certaines classes de processus en clusters de Poisson et pour quelques fonctionnelles associées. L’accent est mis sur le cas du processus de Hawkes (marqué), qui sert de fil conducteur et d’exemple central. Nous illustrons ensuite la pertinence des hypothèses du cadre théorique par une application à des données sismologiques suisses. Il s’agit d’une travail conjoint avec Valérie Chavez-Demoulin et Olivier Wintenberger.

Etienne Lasalle
Etablissement de l'orateur
CNRS
Date et heure de l'exposé
Lieu de l'exposé
salle de séminaire
Résumé de l'exposé

During an epidemic outbreak, decision makers crucially need accurate and robust tools to monitor the pathogen propagation. The effective reproduction number, defined as the expected number of secondary infections stemming from one contaminated individual, is a state of the art indicator quantifying the epidemic intensity. Numerous estimators have been developed to precisely track the reproduction number temporal evolution. Yet, COVID 19 pandemic surveillance raised unprecedented challenges due to the poor quality of worldwide reported infection counts. When monitoring the epidemic in different territories simultaneously, leveraging the spatial structure of data significantly enhances both the accuracy and robustness of reproduction number estimates. However, this requires a good estimate of the spatial structure.

Emma Lagracie
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Le problème inverse de l’électrophysiologie cardiaque vise à reconstruire l’activité électrique du cœur à partir de mesures non invasives de potentiels électriques à la surface du torse. Ce problème est mathématiquement mal posé au sens de Hadamard, ce qui le rend particulièrement difficile à résoudre. Il est classiquement formulé comme un problème de minimisation contraint par une équation aux dérivées partielles. Dans un premier temps, je présenterai une approche visant à mieux contraindre ce problème par l’élaboration d’un nouveau modèle d’EDP de contrainte. Dans un second temps, j'introduirai une approche complémentaire, fondée sur le filtrage bayésien, permettant de mieux intégrer et visualiser les incertitudes associées à la résolution du problème et aux résultats obtenus.

Frank den Hollander
Etablissement de l'orateur
Leiden University (Netherlands)
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Consider a group of individuals who form a social network. For each individual in the group compute its friendship-bias, i.e., the difference between the average number of friends of its friends and the number of its friends (all friendships are mutual), and average these numbers over all the individuals in the group. It turns out that the latter average is always non-negative, and is strictly positive as soon as not all individuals have exactly the same number of friends. This fact, which at first glance seems counterintuitive, goes under the name of friendship paradox.

Based on joint work with Rajat Hazra (Leiden), Nelly Litvak (Eindhoven) and Azadeh Parvaneh (Leiden).

Agustin Somacal
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Natural gradient descent (NGD) can be seen as a preconditioned update where parameter changes are driven by a functional perspective. In a spirit similar to Newton’s method, the NGD update uses, instead of the Hessian, the Gram matrix of the generating system of the tangent space to the approximation manifold at the current iterate, with respect to a suitable metric. Although its assemblage and inversion is prohibitively expensive in the context of large machine learning models, it becomes not only feasible but necessary when we look at scientific machine learning problems using models not requiring as many parameters. Sill, both gradient and natural gradient descent will get stuck at any local minima. Furthermore, when the approximation class is a non-linear manifold (i.e. neural networks) or the loss function is other than L² distance (KL-divergence for a classification problem, PDE residual as in physics informed learning) even the natural gradient might yield non-optimal directions at each step. The talk will focus on how we can tackle these situations by introducing a Natural version of classical inertial dynamic methods like Nestorov or Heavy-ball.

Antonin Della Noce
Etablissement de l'orateur
CERMICS ENPC
Date et heure de l'exposé
Lieu de l'exposé
salle de séminaire
Résumé de l'exposé

Bayesian Inversion consists of deriving the posterior distribution of unknown parameters or functions from partial and indirect observations of a system. When the dimension of the search space is high or infinite, methods leveraging local information, such as derivatives of different orders, of the target probability measure have the advantages to converge faster than Monte-Carlo sampling techniques. Nevertheless, many applications are characterized by posterior distributions with low regularity or gradients that are intractable to compute. An interesting research direction consists in using interacting particle systems to explore the potential landscape, and Ensemble Kalman Sampler (EKS) is one of those. In this talk, we consider a simplified EKS dynamics, where the gradient of the potential is approximated by finite differences using independent Ornstein-Uhlenbeck processes that explore the neighborhood of the candidate parameter. We will characterize the invariant distribution of this system and compare its dynamics to the overdamped Langevin process.

Djahou Tognon
Etablissement de l'orateur
Institut Denis Poisson, Université d'Orléans
Date et heure de l'exposé
Lieu de l'exposé
Résumé de l'exposé

Dans cette présentation, nous nous intéresserons à deux méthodes numériques indépen- dantes permettant d’accélérer et d’améliorer la résolution des EDP.

Récemment, ParaOpt, un algorithme parallèle en temps a été proposé pour résoudre les systèmes découlant de problèmes de contrôle optimal associés à des équations différentielles partielles (EDP). Cet algorithme combine la résolution des problèmes d’évolution forward/backward avec la boucle d’optimisation. Sa convergence et la précision de l’approximation numérique dépendent du schéma de pas de temps utilisé pour discrétiser le problème. Une première analyse de convergence a été présentée dans M.J. Gander, F. Kwok et J. Salomon SISC (2020) dans le cas restreint de la méthode implicite d’Euler pour les problèmes de contrôle optimal linéaire-quadratique impliquant des systèmes dissipatifs. Dans cette présentation, nous généraliserons ce résultat au cas où une méthode de Runge-Kutta est utilisée pour discrétiser le problème de contrôle optimal. Nous expliquons en particulier comment la discrétisation de la fonctionnelle doit être adaptée au schéma considéré et comment des conditions supplémentaires s’ajoutent aux conditions d’ordre habituel des méthodes de Runge-Kutta pour obtenir l’ordre de convergence attendu. Aphynity [Yuan Yin et al., J. Stat. Mech. (2021) 124012] est une approche consistant à ajouter un terme correctif sous la forme d’un réseau neurone à une EDP afin de prévoir avec précision l’évolution d’un système et d’identifier correctement ses paramètres physiques. L’apprentissage est alors effectué dans la boucle externe du solveur considéré, de sorte que l’entraînement se fait indirectement par le biais d’un schéma en temps. Nous décrirons l’influence du schéma choisi sur le réseau résultant et montrerons, dans des cas particuliers, que l’ordre d’approximation des termes corrigés correspond à l’ordre du schéma utilisé. Nous expliquerons également comment optimiser l’apprentissage par une approche de type Richardson.

Tiphaine Delaunay
Etablissement de l'orateur
LAGA, Institut Galilée, Université Sorbonne Paris Nord
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

My presentation is set within the framework of inverse problems. The main objective is to determine initial conditions, the state, or parameters of a system from available observations, with a particular focus on biological applications. We concentrate on sequential methods in data assimilation, where observations are incorporated as they become available. In this context, I present two examples: the reconstruction of a source term in a wave equation, and the determination of both state and parameters in a PDE system modeling tumor growth. For the first problem, we define a Kalman estimator in infinite dimensions that sequentially estimates the source term. We show that this sequential estimator is equivalent to minimizing a functional, which allows us to perform convergence analysis under observability conditions. The second project studies the evolution of non-spherical tumor growth by combining mathematical modeling with data assimilation from biological measurements. The general strategy is to extract relevant information from images of spheroids, formulate a PDE model for tumor evolution, and then reduce it to an ODE model. A reduced ROUKF coupled with a Luenberger observer is then used to estimate both the state and the parameters.

Guillaume Chennetier
Etablissement de l'orateur
CERMICS ENPC
Date et heure de l'exposé
Lieu de l'exposé
salle de séminaire
Résumé de l'exposé

Abstract: Piecewise Deterministic Markov Processes (PDMPs) describe deterministic dynamical systems whose parameters undergo random jumps, making them versatile tools for modeling complex stochastic phenomena. Yet, simulating their trajectories can be computationally demanding. For a broad class of inference problems, an optimal sampling strategy can be characterized in terms of a generalized "committor function". We introduce a new adaptive importance sampling method designed to efficiently generate rare PDMP trajectories. The approach unfolds in two stages. First, in an offline phase, the PDMP is coarse-grained into a simpler graph-based process, enabling explicit computation of key quantities and yielding a low-cost approximation of the committor function. Then, in an online phase, trajectories are sampled from a distribution guided by this approximation and iteratively improved via cross-entropy minimization. We provide asymptotic guarantees for the method and demonstrate its effectiveness through the estimation of the failure probability of a complex industrial system.

Willem van Zuijlen du Wias
Etablissement de l'orateur
Weierstrass Institute in Berlin
Date et heure de l'exposé
Lieu de l'exposé
salle des séminaires
Résumé de l'exposé

In this talk I will introduce the quenched Edwards--Wilkinson equation, which models the growth of an interface among an obstacle field. Due to the elasticity effect of the laplacian, obstacle may slow down or stop the growth of the interface. When the driving force is low and there is enough disorder of the obstacle field, the interface may get pinned. But for a large enough driving force, there is a positive speed of propagation of the interface. I will give the intuition for this phenomenon, mention what is done in the literature and then will turn to this equation with a Gaussian disorder, which is white in the spatial component. Due to the irregularity we need tools from Rough Paths, like the (stochastic) sewing lemma and regularisation by noise in order to show well-posedness. I will explain the idea behind these tools and how we apply them. This is joint work with Toyota Matsuda and Jaeyun Ji.