Séminaire de mathématiques appliquées (archives)

Teddy Pichard
Etablissement de l'orateur
CMAP & Ecole Polytechnique
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

The method of moments is commonly used to reduce a kinetic equation into a fluid model. In this talk, I will present this technique as a semi-discretization with respect to the kinetic variable. I will focus on the main properties expected for this approximation, namely the positivity of an underlying kinetic approximation, a.k.a. the realizability, the strong or weak hyperbolicity and the entropy dissipation of the resulting system. I will present some novelties around these approximations, classified in three categories: the quadrature-based methods, the entropy-based methods and the realizability-based methods. Eventually, I will give some ideas on how to analyze such approximations and illustrate it on some kinetic toy problems.

Sébastien Da Veiga
Etablissement de l'orateur
ENSAI, CREST
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Stein thinning is a promising algorithm proposed by (Riabiz et al., 2022) for post-processing outputs of Markov chain Monte Carlo (MCMC). The main principle is to greedily minimize the kernelized Stein discrepancy (KSD), which only requires the gradient of the log-target distribution, and is thus well-suited for Bayesian inference. The main advantages of Stein thinning are the automatic remove of the burn-in period, the correction of the bias introduced by recent MCMC algorithms, and the asymptotic properties of convergence towards the target distribution. Nevertheless, Stein thinning suffers from several empirical pathologies, which may result in poor approximations, as observed in the literature. In this work, we conduct a theoretical analysis of these pathologies, to clearly identify the mechanisms at stake, and suggest improved strategies. Then, we introduce the regularized Stein thinning algorithm to alleviate the identified pathologies. Finally, theoretical guarantees and extensive experiments show the high efficiency of the proposed algorithm. This is joint work with Clément Bénard and Brian Staber.

Li
Etablissement de l'orateur
LS2N
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

In this paper, we study the asymptotic behavior of the global solution to a degenerate forest kinematic model, under the action of a perturbation modelling the impact of climate change. When the main nonlinearity of the model is assumed to be monotone, we prove that the global solution converges to a stationary solution, by showing that a Lyapunov function deduced from the system satisfies a Lojasiewicz-Simon gradient inequality. Under suitable assumptions on the parameters, we prove the continuity of the flow and of the stationary solutions with respect to the perturbation parameter. Although, due to a lack of compactness, the system does not admit the global attractor, we succeed in proving the robustness of the weak attractors, by establishing the existence of a family of positively invariant regions. We also present numerical simulations of the model and experiment the behavior of the solution under the effect of several types of perturbations. Finally, we show that the forest kinematic model can lead to the emergence of chaotic patterns

Averil Prost
Etablissement de l'orateur
Laboratoire de Mathématiques de l'INSA de Rouen
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

A population can be represented as a sum of individuals or as a continuum. Both approaches are unified if one uses probability measures, which are a very convenient tool when endowed with the Wasserstein distance. In this setting, one can study control problems over the dynamic of the population by using roughly the same tools as in classical Euclidian spaces. We present one of such extensions, namely the characterization of the value function of a control problem as the minimal viscosity supersolution of a Hamilton-Jacobi equation.

Polina Arsenteva
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

This talk addresses the problem of adverse effects induced by radiotherapy on healthy tissues. The goal is to propose a mathematical framework to compare the effects of different irradiation modalities, to be able to ultimately choose those treatments that produce the minimal amounts of adverse effects for potential use in the clinical setting. The adverse effects are studied through the in vitro omic response of human endothelial cells. We encounter the problem of extracting key information from complex temporal data that cannot be treated with the methods available in literature. We model the fold changes, the object that encodes the difference in the effect of two experimental conditions, in the way that allows to take into account the uncertainties of measurements as well as the correlations between the observed entities. We construct a distance, with a further generalization to a dissimilarity measure, allowing to compare the fold changes in terms of all the important statistical properties. Finally, we propose a computationally efficient algorithm performing clustering jointly with temporal alignment of the fold changes. The key features extracted through the latter are visualized using two types of network representations, for the purpose of facilitating biological interpretation.

Refs: 1) Arsenteva, P., Benadjaoud, M. A., and Cardot, H. (2023). Joint clustering with alignment for temporal data in a one-point-per-trajectory setting. arXiv:2311.10282. 2) Arsenteva, P., Guipaud, O., Paget, V., Santos, M. D., Tarlet, G., Milliat, F., Cardot, H., and Benadjaoud, M. A. (2024). Comparing cellular response to two radiation treatments based on key features visualization. bioRxiv 2024.02.29.582706.

Blanche Buet
Etablissement de l'orateur
Laboratoire de Mathématiques d'Orsay
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

We propose a natural framework for the study of surfaces and their different discretizations based on varifolds. Varifolds have been introduced by Almgren to carry out the study of minimal surfaces. Though mainly used in the context of rectifiable sets, they turn out to be well suited to the study of discrete type objects as well. While the structure of varifold is flexible enough to adapt to both regular and discrete objects, it allows to define variational notions of mean curvature and second fundamental form based on the divergence theorem. Thanks to a regularization of these weak formulations, we propose a notion of discrete curvature (actually a family of discrete curvatures associated with a regularization scale) relying only on the varifold structure. We performed numerical computations of mean curvature and Gaussian curvature on point clouds in R^3 to illustrate this approach. Though flexible, varifolds require the knowledge of the dimension of the shape to be considered. By interpreting the product of the Principal Component Analysis, that is the covariance matrix, as a sequence of nested subspaces naturally coming with weights according to the level of approximation they provide, we are able to embed all d-dimensional Grassmannians into a stratified space of covariance matrices. Building upon the proposed embedding of Grassmannians into the space of covariance matrices, we generalize the concept of varifolds to what we call flagfolds in order to model multi-dimensional shapes.

Joint work with: Gian Paolo Leonardi (Trento), Simon Masnou (Lyon) and Xavier Pennec (INRIA Sophia).

Yann Cabanes
Etablissement de l'orateur
postdoc Ottawa
Date et heure de l'exposé
Lieu de l'exposé
Salle 3 (zoom)
Résumé de l'exposé

L'objectif du travail présenté est l'étude de séries temporelles radar qui sont par nature des séries temporelles complexes centrées. Dans la première partie de cette présentation, nous souhaitons réaliser le clustering de fouillis radar, c'est-à-dire des données radar liées à l'environnement tels les mers, les forêts ou les champs environnants. Nous supposerons que les séries temporelles complexes observées suivent un modèle autorégressif gaussien stationnaire centré. De telles séries temporelles peuvent être représentées par leurs matrices de covariance qui sont des matrices Toeplitz hermitiennes définies positives. Elles peuvent également être représentées par les coefficients du modèle autorégressif. Certains coefficients autorégressifs appelés coefficients de réflexion sont de module strictement inférieur à 1 et déterminent entièrement le modèle autorégressif. Nous munirons cet espace de représentation d'une métrique riemannienne inspirée de la métrique de la géométrie de l'information sur les matrices hermitiennes définies positives. La variété riemannienne obtenue est une variété produit faisant intervenir plusieurs disques de Poincaré (autant que l'ordre du modèle autorégressif). Nous utiliserons alors l'algorithme des k-means dans cette variété riemannienne pour réaliser le clustering de fouillis radar. Dans la seconde partie de cette présentation, nous chercherons à faire de la détection et de la classification de drones à partir de séries temporelles radar. Les séries temporelles associées aux drones ne sont pas stationnaires, elles se distinguent par l'effet micro-Doppler induit par la rotation des hélices. Les séries temporelles complexes seront alors segmentées en fenêtres d'observation plus courtes. Pour chaque fenêtre, nous supposerons que la courte série temporelle observée est stationnaire et nous la représenterons par un point dans la variété riemannienne présentée dans la première partie. Nous obtiendrons alors une série temporelle riemannienne dont nous exploiterons les caractéristiques géométriques et statistiques pour faire de la détection et de la classification de drones.

Solym Manou Abi
Etablissement de l'orateur
Laboratory of Mathematics and Applications (LMA), UMR CNRS 7348, Poitiers
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Dans cet exposé, je vais aborder l'inférence statistique en discutant de plusieurs méthodes, notamment la méthode des fonctions caractéristiques et l'algorithme EM, approche Bayésienne, approche statistiques des extrêmes dans le contexte des lois stables. Ensuite, je présenterai une adaptation de certaines de ces méthodes à l'estimation des paramètres des coefficients de diffusion d'une équation différentielle stochastique dirigée par un processus stable, en utilisant une approche d'approximation numérique. Je vais également évoquer quelques applications réelles associées (en épidémiologie ou finance) tout au long de l'exposé. En fonction du temps disponible, je conclurai mon exposé par un résumé synthétique d'autres modèles stochastiques de recherche auxquels je m'intéresse dans un cadre d'estimation statistique motivé par des applications réelles en épidémiologie ou en santé environnement.

Références : 1. Ibrahim Bouzalmat, Benoîte de Saporta and Solym Manou-Abi. Parameter estimation for a hidden linear birth and death process with immigration. arXiv:2303.00531v2 2. Solym M. Manou-Abi. Approximate solution for a class of stochastic differential equation driven by stable processes. hal.science/hal-04217398v3 3. Omar Hajjaji, Solym M. Manou-Abi and Yousri Slaoui. Parameter estimation for stable distributions and their mixture. https://hal.science/hal-04218721 4. Solym M. Manou-Abi. Parameter estimation for a class of stable driven stochastic differential equation. https://hal.science/hal-04268224v4

Estelle MEDOUS
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Dans les enquêtes probabilistes, il arrive que la base de sondage de la population d’intérêt ne soit pas disponible. S’il existe une base de sondage liée à la population d’intérêt, un échantillon peut être obtenu par échantillonnage indirect. On peut ensuite déterminer les poids d'échantillonnage grâce à la méthode généralisée de partage des poids (MGPP) introduite par Deville et Lavallée (2006)[1] et Lavallée (2007)[2]. La MGPP est une méthode avantageuse, car il existe dans certaines situations des poids d’échantillonnage minimisant la variance de l’estimateur en résultant. Cependant, c’est une méthode complexe à appliquer quand les liens entre les populations sont difficiles à observer. Une solution est de considérer une population intermédiaire, liée à la base de sondage et à la population d’intérêt, puis d’utiliser un échantillonnage indirect double. Les poids d’échantillonnage peuvent être déterminés grâce à une MGPP double : la MGPP est utilisée deux fois, d’abord entre la base de sondage et la population intermédiaire, puis entre la population intermédiaire et la population d’intérêt. La MGPP double permet de réduire le nombre de liens à observer (Médous et al., 2023 [3]). Elle est donc plus facile à mettre en place que la MGPP, mais résulte souvent en une perte de précision. Néanmoins, il existe dans certaines situations des poids d’échantillonnage minimisant la variance de la MGPP double de manière à ne plus perdre en précision par rapport à la MGPP, tout en conservant les facilités de mise en place de la MGPP double. Quand ces poids ne sont pas calculables, comme dans l’enquête française sur le trafic postal, un poids alternatif peut être utilisé pour améliorer la précision de l’estimateur obtenu par MGPP double. Les résultats sont illustrés par des simulations Monte-Carlo et une application à l’estimation du trafic postal.

Mots-clés : Enquêtes, sondage indirect, méthode généralisée de partage des poids, plan de sondage complexe, population finie

Références : [1] Deville, J.-C. et Lavallée, P. (2006). Indirect sampling: the foundations of the generalized weight share method, Survey methodology, 32(2), 165-176. [2] Lavallée, P. (2007). Indirect sampling, Springer-Verlag New York. [3] Médous, E., Goga, C., Ruiz-Gazen, A., Beaumont, J. F., Dessertaine, A. et Puech, P. (2023). Many-to-One indirect sampling with application to the French postal traffic estimation. Annals of Applied Statistics,17 (1), 838-859