Séminaire des doctorants (archives)

Klervi Le Gall
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

L'analyse de la marche est devenue un levier important dans la compréhension et le suivi médical de la sclérose en plaques. Le dispositif eGait (brevet en cours ; eGait, 2021) permet de construire un biomarqueur appelé Signature de Marche (SdM) qui caractérise la rotation de la hanche d'un individu au cours d'un cycle de marche moyen où les rotations sont représentées par des quaternions unitaires. L'IGP fournit une mesure quantitative de la marche à un moment donné. Une méthode de classification semi-supervisée a été développée (Drouin et al., 2022). Afin de tester cette méthode de clustering, nous avons besoin d'un grand volume de données, c'est pourquoi l'objectif de ce travail est de pouvoir générer des SdM synthétiques et leurs EDSS correspondants, indiscernables des données initiales. L'approche de génération de données synthétiques s'inspire de la méthode avatar (Guillaudeux et al., 2022) en l'adaptant aux séries temporelles de quaternions et aux données mixtes. Elle combine l'analyse en composantes principales fonctionnelles, l'ACP pour les données mixtes, et les distances entre les IGP observés. Nous appliquons cette méthode pour générer des patients synthétiques à partir des données de 27 patients atteints de sclérose en plaques issues d'une étude menée en collaboration avec l'équipe de neurologie du CHU de Nantes.

======================================================

Abstract: Gait analysis has become an important lever in the understanding and medical follow-up of multiple sclerosis. The eGait device (patent pending; eGait, 2021) allows to build a biomarker called Individual Gait Pattern (IGP) which characterizes the rotation of the hip of an individual during an average walking cycle where rotations are represented by unit quaternions. The IGP provides a quantitative measure of gait at a given time. A clustering method has been developed (Drouin et al., 2022). In order to test this clustering method, we need a large volume of data, which is why the objective of this work is to be able to generate synthetic IGPs and their corresponding EDSS, indistinguishable from the initial data. The synthetic data generation approach is inspired by the avatar method (Guillaudeux et al., 2022) by adapting it to quaternion time series and mixed data. It mixes Functional Principal Component Analysis, PCA for mixed data, and distances between observed IGPs. We apply this method to generate synthetic patient from the data of 27 multiple sclerosis patients from a study conducted in collaboration with the neurology team of the Nantes University Hospital.

Clément Cardoen
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Auval
Résumé de l'exposé

Dans cet exposé, je partirai d'une loi de conservation quelconque et vous introduirai différentes notions de solution. Nous partirons d'abord de la notion de solution classique, la solution forte. Ensuite, nous nous intéresserons aux solutions faibles, et aux problèmes d'unicité des solutions dans ce cadre. Enfin, nous arriverons aux solutions mesure-valuées, et aux différentes problématiques qui leur sont propres. Je reformulerai rapidement ce problème en un problème portant sur les moments, et, selon le temps restant, vous parlerai des méthodes numériques utilisées pour résoudre le problème au moments.

Prérequis : aucun

=======================================================

Abstract: In this talk, I'll start with any conservation law and introduce you to different notions of solution. We'll start with the notion of the classical solution, the strong solution. Then we'll look at weak solutions, and the problems of uniqueness of solutions in this framework. Finally, we'll come to measure-valued solutions, and the various problems that are specific to them. I'll quickly reformulate this problem as a problem of moments, and, depending on the time remaining, I'll tell you about the numerical methods used to solve the problem of moments.

Prerequisites: none

Damine Prel
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Auval
Résumé de l'exposé

Dans cet exposé, je ferais d'abord quelques "rappels" sur l'analyse numérique. Je présenterais des schémas numérique en temps ainsi que la notion d'ordre de convergence. Je parlerai ensuite d'équations différentielles hautement oscillantes mettant en difficulté les méthodes usuelles. J'introduirai alors une méthode pour construire des schémas numériques uniformément précis, bien plus robuste pour ce genre de problèmes. Celle-ci se base sur une reformulation double-échelle de l'équation initiale où sont séparées les échelles de temps lente et rapide. On utilise le degré de liberté obtenu par cette reformulation en préparant la condition initiale à l'aide d'un développement de Chapman-Enskog. Cet exposé sera illustré par des courbes (durement acquises) d'ordre de convergence.

===================================================

In this talk, I will start by some racalls about numerical analysis. I will present some time's numerical schemes and the notion of convergence order. After that, I will speak about highly oscillatory differential equations. Usual method are bad on this kind of problems. I will introduce a method to construct uniformly accurate numerical scheme, more robust on these problems. This method lie on a two-scales reformulation of the initial equation where slow and fast time scale are splitted. We then use the degree of freedom obtained with this reformulation by preparing the initial condition using Chapman-Enskog expansion. This talk will be illustrated convergence order curves.

Thibault Chailleux
Etablissement de l'orateur
Université Angers
Date et heure de l'exposé
Lieu de l'exposé
Salle Hypathia
Résumé de l'exposé

Résumé : Quelle est la longueur moyenne d'une corde du cercle unité ? Selon la méthode employée pour désigner une corde, on peut obtenir des réponses tout à fait différentes à cette question qui paraît pourtant simple. Ce phénomène, connu sous le nom de paradoxe de Bertrand, illustre le fait qu'il n'existe pas toujours de densité (ou mesure) canonique sur des ensembles d'objets géométriques, décourageant ainsi la recherche d'une réponse objective à cette question.

Cependant, selon le contexte dans lequel on étudie le problème, certaines densités peuvent avoir des propriétés d'uniformité qui les rendent préférables aux autres. La géométrie intégrale étudie ainsi les densités qui sont invariantes par des groupes de transformations agissant sur ces objets géométriques. Une fois ces mesures déterminées, on peut obtenir des formules intégrales reliant différentes propriétés de ces objets (le cas le plus connu étant sans doutes le problème de l'aiguille de Buffon).

Dans cet exposé, après avoir présenté une version simplifiée du paradoxe de Bertrand et fait quelques rappels accessibles sur les formes différentielles, nous étudierons le cas particulier de l'ensemble des droites affines du plan, où le groupe des transformations considérées sera celui des transformations affines, puis nous déduirons certaines formules de géométries intégrales (dont la surprenante formule de Cauchy-Crofton). Nous déterminerons enfin la solution au paradoxe de Bertrand apportée par la géométrie intégrale.

Lucas Morel
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Tout est dans le titre, nous allons essayer de comprendre par le calcul les homologies des espaces suivants : le carré, le tore et le plan projectif réel (ou la sphère si l’audience préfère). Grâce à ces dernières nous auront obtenu une méthode topologique (dans le monde des déformations continues) pour distinguer ces objets ! Vous aurez besoin de votre théorie des groupes et c'est tout.

=======================================================

Everything is in the title, we will try to understand by calculation the homologies of the following spaces: the square, the torus and the real projective plane (or the sphere if the audience prefers). Thanks to these we will have obtained a topological method (in the world of continuous deformations) to distinguish these objects! You will need your group theory and that's it.

Marie Poirier
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle de séminaire
Résumé de l'exposé

L'IRM de diffusion est une méthode non invasive d'imagerie médicale, qui permet de cartographier les microstructures du cerveau, afin de détecter et suivre des maladies neurologiques telles que la sclérose en plaque. Nous verrons ensemble comment fonctionne l'IRM de diffusion, quels sont les modèles mathématiques qu'on applique aux images, et comment les améliorer. Nous étudierons quelques images obtenues grâce à cette technique.

=============================================

Diffusion MRI is a non-invasive method of medical imaging that maps the microstructures of the brain to detect and monitor neurological diseases such as multiple sclerosis. We will see together how diffusion MRI works, what mathematical models are applied to the images, and how to improve them. We will study some images obtained with this technique.

Agnès Brard
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

André Sainte-Laguë (1882-1950) est un enseignant, chercheur et vulgarisateur des mathématiques de l’entre-deux-guerres. Dans ses travaux, il affirme que les mathématiques sont par nature expérimentales et développe une forme d'expérimentation comme administration de la preuve. Sainte-Laguë mobilise cette méthode pour enseigner les mathématiques au lycée, les vulgariser auprès des visiteurs du Palais de la Découverte et dans ses recherches. Le travail de thèse de Sainte-Laguë sur les réseaux (ou graphes) permet d’illustrer comment il met en œuvre concrètement l’expérimentation dans ses recherches mathématiques. Ce travail académique, documenté par plus de cinq cents références, me permet également de proposer une histoire de la théorie des graphes. Pour conclure cette communication, je vous ferai visiter l’exposition que j’ai organisée au CRDM avec les archives inédites d’une des petites-filles d’André Sainte-Laguë.

Alexandre Pasco
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Une EDP peut être résolue numériquement via des méthodes de discrétisations (Elements Finis, Volumes Finis, etc.), issues d’un maillage espace-temps, dont la finesse contrôlera l’erreur commise. Obtenir une grande précision implique de résoudre un système numérique de (très) grande taille, nécessitant d’importantes ressources de calcul. Cela pose problème lorsque l’on veut en résoudre un grand nombre avec des ressources limitées.

La réduction de modèle vise à approximer un ensemble de solutions (numériques) issues d’une EDP paramétrique par des structures de faible dimension. Une méthodes classique est celle des Bases Réduites, utilisant sur un sous-espace vectoriel construit par un algorithme glouton.

Dans cet exposé nous utiliserons l’exemple de la diffusion 2D pour comprendre comment cette méthode fonctionne. Nous verrons comment approximer rapidement et précisément une solution par un espace de faible dimension, et comment construire efficacement cet espace.

Prérequis : bases d’algèbre linéaire (valeur propres).

========== English version ==========

Model Reduction for parameterized PDEs: why and how ?

We can solve numerically a PDE using discretization methods (Finite Element, Finite Volume), based on some space-time meshing, whose fineness controls the error. Obtaining high accuracy implies solving a (very) large numerical system, requiring important computational resources. This is an issue when one wants to solve many of them with limited resources.

Model Reduction aims to approximate the set of (numerical) solutions from parameterized PDE by using low-dimensional structures. The Reduced Basis method is a classical approach, which is based on a vector subspace built via a greedy algorithm.

During this talk, we will use the 2D diffusion equation as an example to detail how the RB method works. We will learn how to approximate a solution using a low-dimensional vector subspace, with controlled accuracy and low computational cost, as well as how to build efficiently such a subspace.

Prerequisites: Linear algebra basics (eigenvalues).

Elric Angot
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

Avant l'invention des mathématiques, même avant l'apparition des premiers rites religieux, l'Homme s'est de tout temps posé une grande question : combien y-a-t-il de numérotations d'un rectangle de hauteur 2 et de longueur n qui sont croissantes pour la ligne du bas, la ligne du haut, et dont, terme à terme, chaque élément du bas d'une colonne est plus petit que celui du haut de cette colonne ? C'est pour répondre à cette question existentielle que je donnerai un séminaire mardi prochain, à 14 heures. Venez avec feuille et crayon, et vous verrez qu'un détour par les séries entières permettra de répondre à cette interrogation préhistorique.

Le niveau requis pour comprendre cette conférence est de savoir faire le DL de (1+x)^{1/2}. A part ça, il n'y aura que des belles mathématiques.

=======================================================

Abstract: Before the invention of mathematics, even before the appearance of the first religious rites, Man has always asked himself a great question : how many numberings of a rectangle of height 2 and length n are there that are increasing for the bottom line, the top line, and of which, term by term, each element of the bottom of a column is smaller than the one of the top of this column? It is to answer this existential question that I will give a seminar will give a next Tuesday at 2 pm. Come with paper and pencil, and you will see that a detour through the whole series will help answer this prehistoric question.

The level required to understand this lecture is to be able to do the DL of (1+x)^{1/2}. Apart from that, there will be only beautiful mathematics.