Séminaire de mathématiques appliquées (archives)

Victor Michel-Dansac
Etablissement de l'orateur
INRIA TONUS - IRMA Strasbourg
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

We describe a parallel and quasi-explicit Discontinuous Galerkin (DG) kinetic scheme for solving systems of balance laws. The solver is CFL-less (i.e., the CFL number can be arbitrary) and has the complexity of an explicit scheme. It can be applied to any hyperbolic system of balance laws. In this work, we assess the performance of the scheme in the particular cases of the three-dimensional wave equation and of Maxwell’s equations. We measure the benefit of the unconditional stability by performing experiments with very large CFL numbers. In addition, the parallel possibilities of the method are investigated.

Destin ASHUZA CIRUMANGA
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

La datation par le radiocarbone est l'une des méthodes les plus utilisées en archéologie et en paléoanthropologie pour établir la chronologie sur les 50 000 à 60 000 dernières années. Elle repose sur la mesure de l'activité résiduelle du carbone 14 présent dans la matière organique des objets à dater. Cependant les mesures C14 relevées en laboratoire ne permettent pas d'obtenir directement les vrais âges des objets datés. Il faut alors passer par une étape de calibration en utilisant un modèle mathématique qui permet d'obtenir les vrais âges de ces objets lorsque l'on a leurs âges C14 mesurés en laboratoire. Néanmoins on constate qu'il y a un problème de robustesse avec les différentes mises à jour des courbes de calibration largement utilisées par la communauté du C14. L'un des objectifs de ma thèse est de trouver une façon d'améliorer la robustesse de cette courbe de calibration en explorant notamment la modélisation par les réseaux de neurones.

Le but de cet exposé est de vous présenter mon sujet de thèse et mes premiers travaux. Je vais donc commencer par une présentation rapide de la méthode de datation par le radiocarbone en expliquant pourquoi il est nécessaire de calibrer les âges C14. Ensuite, je vais présenter rapidement la méthodologie statistique utilisée pour construire la dernière courbe publiée en 2020. Enfin, je vais présenter l'approche et les pistes de modélisation par réseaux de neurones sur lesquelles je travaille actuellement.

Yann Issartel
Etablissement de l'orateur
CREST - ENSAE
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires (visio)
Résumé de l'exposé

Motivated by applications in archeology for relative dating of objects, or in 2D-tomography for angular synchronization, we consider the problem of statistical seriation where one seeks to reorder a noisy disordered matrix of pairwise affinities. This problem can be recast in the powerful latent space terminology where the affinity between a pair of items is modeled as a noisy observation of a function f(xi,xj) of the latent points xi, xj of the two items in a one-dimensional space. This reformulation naturally leads to the problem of estimating the latent positions in the latent space. Under non-parametric assumptions on the affinity function f, we introduce a procedure that provably localizes all the latent positions with a maximum error of the order of the square root of log(n)/n. This rate is proven to be minimax optimal. Different computationally efficient procedures are also analyzed, under different set of assumptions. Our general results can be instantiated to the original problem of statistical seriation, leading to new bounds for the maximum error in the ordering.

Alexandre Rege
Etablissement de l'orateur
Ecole polytechnique fédérale de Zurich
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

TBA

Alexandre rege
Etablissement de l'orateur
ETH Zürich
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

We study the Bernstein-Landau paradox in the collisionless motion of an electrostatic plasma in the presence of a constant external magnetic field. In the presence of the magnetic field, the electric field and the charge density fluctuation have an oscillatory behavior in time, this is the physical phenomenon known as the Bernstein-Landau paradox. This is radically different from Landau damping, in the case without magnetic field, where the electric field tends to zero for large times. We consider this problem from a new point of view. Instead of analyzing the linear magnetized Vlasov-Poisson system, as it is usually done, we study the linear magnetized Vlasov-Ampère system. We formulate the magnetized Vlasov-Ampère system as a Schrödinger equation with a self-adjoint magnetized Vlasov-Ampère operator in the Hilbert space of states with finite energy. The magnetized Vlasov-Ampère operator has a complete set of orthonormal eigenfunctions, that include the Bernstein modes. The expansion of the solution of the magnetized Vlasov-Ampère system in the eigenfunctions shows the oscillatory behavior in time. 

Louis Filstroff
Etablissement de l'orateur
Aalto University
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires (mais visio)
Résumé de l'exposé

Active learning is usually applied to acquire labels of informative data points in supervised learning, to maximize accuracy in a sample-efficient way. However, maximizing the accuracy is not the end goal when the model is subsequently used for decision-making, for example in personalized medicine or economics. We argue that when acquiring samples sequentially, separating learning and decision-making is sub-optimal, and we introduce an active learning strategy which takes the down-the-line decision problem into account. Specifically, we adopt a Bayesian experimental design approach, and the proposed criterion maximizes the expected information gain on the posterior distribution of the optimal decision. We compare our targeted active learning strategy to existing alternatives on both simulated and real data, and show improved performance in decision-making accuracy.

https://arxiv.org/pdf/2106.04193.pdf

Hedi Hadiji
Etablissement de l'orateur
University of Amsterdam
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

L’optimisation convexe en ligne (Online Convex Optimization) est le cadre abstrait standard permettant d’étudier les problèmes d’apprentissage où les données sont traitées de façon séquentielle. Je décrirai une version distribuée de cadre. Dans ce problème, des agents formant les noeuds d’un graphe coopèrent pour minimiser leurs pertes cumulées. A chaque tour, l’environnement sélectionne un agent qui devra choisir une action avant d’observer la fonction de perte subie, puis de communiquer avec ses voisins. Je présenterai une classe d’algorithmes dits ‘adaptatif au comparateur’, qui ont reçu beaucoup d’attention ces dernières années, et qui nous seront utiles pour obtenir des garanties satisfaisantes à notre problème. En ajustant ces méthodes à notre cadre distribué (et en particulier aux délais induits par la transmission de l’information), je décrirai un algorithme s’adaptant de façon optimale à la structure du graphe, en un sens que je préciserai.

Frédérique Charles
Etablissement de l'orateur
Sorbonne Université - Laboratoire Jacques Louis Lions
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

On s'intéresse dans cet exposé à des modèles décrivant l'évolution de particules (telles que des particules solides de poussière ou des goutelettes) dans un gaz raréfié. De nombreux modèles de spray pour les mélanges gaz-particules existent, mais la plupart du temps le gaz (appelé aussi la "phase porteuse" dans les modèles de spray) est décrit par des équations portant sur les grandeurs macroscopiques du fluide. On adopte ici une approche à l'échelle mésoscopique pour décrire le gaz. Je présenterai deux types de modèles destinés à décrire une situation où les particules (correspondant à la phase "dispersée" du spray) sont macroscopiques comparées aux molécules.

Dans la première modélisation que nous considérons, la phase de particules est décrite par une fonction de densité, dont les variables sont le temps, la position, la vitesse, et éventuellement de la température de surface des particules. L'évolution des densités en gaz et en particules est décrite par un couplage de deux équations de type Boltzmann, dont les opérateurs intégraux décrivent l'interaction entre les molécules et les particules. Différents mécanismes collisionnels sont considérés, conduisant à des modèles plus simples à étudier d'un point de vue mathématique, ou plus riches d'un point de vue physique. Une aymptotique de masse faible permet ensuite de dériver un couplage de type Vlasov-Boltzmann, moins coûteux à simuler par méthode particulaire.

Dans une seconde modélisation, le système gaz-particules est cette fois vu comme un gaz évoluant en domaine mouvant. Les particules sont alors traitées individuellement au lieu d'être considérées au niveau mésoscopique comme dans le modèle précédent. Nous montrons l'existence de solutions pour un problème aux limites avec conditions de réflexion diffuse aux bords. Des simulations numériques 2d-2v illustrent l'effet du mouvement des particules sur la densité et la température du gaz.

Jerome Stenger
Etablissement de l'orateur
EDF et IMT
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

La quantification d'incertitudes a pour but d'évaluer l'impact d'un manque de connaissance des paramètres d'entrées (considérés aléatoires) sur les résultats d'une expérience numérique. Dans ce travail, nous prenons en compte un second niveau d'incertitude qui affecte le choix du modèle probabiliste des paramètres d'entrées. Nous évaluons les bornes d'une quantité d'intérêt sur l'ensemble des mesures de probabilités uniquement définies par leur bornes et certains de leurs moments. Du fait du grand nombre de contraintes, l'optimisation numérique est complexe. Nous montrons que le problème d'optimisation peut se paramétriser sur les points extrémaux de cet espace de mesures de probabilité contraintes. De plus, nous proposons une nouvelle paramétrisation libre de contraintes basées sur les moments canoniques

Lionel Riou-Durand
Etablissement de l'orateur
University of Warwick
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Sampling approximations for high dimensional statistical models often rely on so-called gradient-based MCMC algorithms. It is now well established that these samplers scale better with the dimension than other state of the art MCMC samplers, but are also more sensitive to tuning [5]. Among these, Hamiltonian Monte Carlo is a widely used sampling method shown to achieve gold standard d^{​​​​​1/4}​​​​​ scaling with respect to the dimension [1]. However it is also known that its efficiency is quite sensible to the choice of integration time, see e.g. [4], [2]. This problem is related to periodicity in the autocorrelations induced by the deterministic trajectories of Hamiltonian dynamics. To tackle this issue, we develop a robust alternative to HMC built upon Langevin diffusions (namely Metropolis Adjusted Langevin Trajectories, or MALT), inducing randomness in the trajectories through a continuous refreshment of the velocities. We study the optimal scaling problem for MALT and recover the d^{​​​​​1/4}​​​​​ scaling of HMC proven in [1] without additional assumptions. Furthermore we highlight the fact that autocorrelations for MALT can be controlled by a uniform and monotonous bound thanks to the randomness induced in the trajectories, and therefore achieves robustness to tuning. Finally, we compare our approach to Randomized HMC ([2], [3]) and establish quantitative contraction rates for the 2-Wasserstein distance that support the choice of Langevin dynamics.

This is a joint work with Jure Vogrinc (University of Warwick)