Klervi Le Gall
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole
Résumé de l'exposé

L'analyse de la marche est devenue un levier important dans la compréhension et le suivi médical de la sclérose en plaques. Le dispositif eGait (brevet en cours ; eGait, 2021) permet de construire un biomarqueur appelé Signature de Marche (SdM) qui caractérise la rotation de la hanche d'un individu au cours d'un cycle de marche moyen où les rotations sont représentées par des quaternions unitaires. L'IGP fournit une mesure quantitative de la marche à un moment donné. Une méthode de classification semi-supervisée a été développée (Drouin et al., 2022). Afin de tester cette méthode de clustering, nous avons besoin d'un grand volume de données, c'est pourquoi l'objectif de ce travail est de pouvoir générer des SdM synthétiques et leurs EDSS correspondants, indiscernables des données initiales. L'approche de génération de données synthétiques s'inspire de la méthode avatar (Guillaudeux et al., 2022) en l'adaptant aux séries temporelles de quaternions et aux données mixtes. Elle combine l'analyse en composantes principales fonctionnelles, l'ACP pour les données mixtes, et les distances entre les IGP observés. Nous appliquons cette méthode pour générer des patients synthétiques à partir des données de 27 patients atteints de sclérose en plaques issues d'une étude menée en collaboration avec l'équipe de neurologie du CHU de Nantes.

======================================================

Abstract: Gait analysis has become an important lever in the understanding and medical follow-up of multiple sclerosis. The eGait device (patent pending; eGait, 2021) allows to build a biomarker called Individual Gait Pattern (IGP) which characterizes the rotation of the hip of an individual during an average walking cycle where rotations are represented by unit quaternions. The IGP provides a quantitative measure of gait at a given time. A clustering method has been developed (Drouin et al., 2022). In order to test this clustering method, we need a large volume of data, which is why the objective of this work is to be able to generate synthetic IGPs and their corresponding EDSS, indistinguishable from the initial data. The synthetic data generation approach is inspired by the avatar method (Guillaudeux et al., 2022) by adapting it to quaternion time series and mixed data. It mixes Functional Principal Component Analysis, PCA for mixed data, and distances between observed IGPs. We apply this method to generate synthetic patient from the data of 27 multiple sclerosis patients from a study conducted in collaboration with the neurology team of the Nantes University Hospital.

nom
Burzacchi
prenom
Arianna
université
Politecnico di Milano
pays
Italie
Date arrivée
Date de depart
intitulé du poste
Parrain
Aymeric Stamm
Annee
Grégory Ginot
Etablissement de l'orateur
Université Paris 13
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Le but de l'exposé est d'étudier une généralisation dans les algèbres supérieures de la relation entre une algèbre de Lie et son algèbre enveloppante, et plus précisément du centre et complexe de déformations de cette dernière. La motivation pour cette étude sont les théories des champs topologiques dans le cadre perturbatif.

Ayoub Belhadji
Etablissement de l'orateur
ENS Lyon
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

We study the approximation of a square integrable function from a finite number of its evaluations at well-chosen nodes. The function is assumed to belong to a reproducing kernel Hilbert space (RKHS), the approximation to be one of a few natural finite-dimensional approximations, and the nodes to be drawn from one of two probability distributions. Both distributions are related to determinantal point processes, and use the kernel of the RKHS to favor RKHS-adapted regularity in the random design. While previous work on determinantal sampling relied on the RKHS norm, we prove mean-square guarantees in L2 norm. We show that determinantal point processes and mixtures thereof can yield fast rates, and that they shed some light on how the rate changes as more smoothness is assumed, a phenomenon known as superconvergence. Besides, determinantal sampling generalizes i.i.d. sampling from the Christoffel function, a standard in the literature. In particular, determinantal sampling guarantees the so-called instance optimality property for a smaller number of function evaluations than i.i.d. sampling.

Référence : https://hal.science/hal-04181079/

Michel Vaquié
Etablissement de l'orateur
Institut de Mathématiques de Toulouse
Date et heure de l'exposé
Lieu de l'exposé
Salle Hypatia
Résumé de l'exposé

Pour tout objet x dans une catégorie C il est possible de définir la catégorie des modules de Beck au-dessus de x, comme la catégorie Ab(C/x) des objets en groupe abélien de la catégorie C/x. Nous pouvons en déduire, au moins pour toute catégorie localement présentable, la notion de module cotangent ou de module des différentielles Ω de x dans Ab(C/x). Dans le cas de la catégorie k-Alg des k-algèbres commutatives au-dessus d’un anneau k, la catégorie des modules de Beck Ab(k-Alg/A) au-dessus d’une k-algèbre A est équivalente à la catégorie A-Mod des A-modules et le module des différentielles est égal au module des différentielles de Kähler de A. Le but de cet exposé est de montrer pour toute catégorie localement présentable des résultats qui généralisent les propriétés classiques des modules des différentielles de Kähler.

Type de contrat ou réseau
Contact
Bellanger
Contact E-mail
lise.bellanger@univ-nantes.fr
Dates
date de fin du contrat
Organisme
Clément Cardoen
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle Auval
Résumé de l'exposé

Dans cet exposé, je partirai d'une loi de conservation quelconque et vous introduirai différentes notions de solution. Nous partirons d'abord de la notion de solution classique, la solution forte. Ensuite, nous nous intéresserons aux solutions faibles, et aux problèmes d'unicité des solutions dans ce cadre. Enfin, nous arriverons aux solutions mesure-valuées, et aux différentes problématiques qui leur sont propres. Je reformulerai rapidement ce problème en un problème portant sur les moments, et, selon le temps restant, vous parlerai des méthodes numériques utilisées pour résoudre le problème au moments.

Prérequis : aucun

=======================================================

Abstract: In this talk, I'll start with any conservation law and introduce you to different notions of solution. We'll start with the notion of the classical solution, the strong solution. Then we'll look at weak solutions, and the problems of uniqueness of solutions in this framework. Finally, we'll come to measure-valued solutions, and the various problems that are specific to them. I'll quickly reformulate this problem as a problem of moments, and, depending on the time remaining, I'll tell you about the numerical methods used to solve the problem of moments.

Prerequisites: none

Zacharie Naulet
Etablissement de l'orateur
IMO
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Hidden Markov models (HMMs) are flexible tools for clustering dependent data coming from unknown populations, allowing nonparametric modelling of the population densities. Identifiability fails when data are in fact independent, and we study the frontier between learnable and unlearnable two-state nonparametric HMMs. Interesting new phenomena emerge when the cluster distributions are modelled via density functions (the `emission' densities) belonging to standard smoothness classes compared to the multinomial setting [1]. Notably, in contrast to the multinomial setting previously considered, the identification of a direction separating the two emission densities becomes a critical, and challenging, issue. Surprisingly, it is possible to "borrow strength" from estimators of the smoothest density to improve estimation of the other. We conduct precise analysis of minimax rates, showing a transition depending on compared smoothnesses of the emission densities.

Philipp Trunschke
Etablissement de l'orateur
LMJL
Date et heure de l'exposé
Lieu de l'exposé
Salle des séminaires
Résumé de l'exposé

Many functions of interest exhibit weighted summability of the coefficients with respect to some dictionary of basis functions. This property allows us to derive close-to-optimal best n-term approximation rates by means of a new weighted version of Stechkin’s Lemma. It is well known that these best n-term approximations can be estimated efficiently from samples. In fact, highly refined sample complexity results guarantee quasi-best n-term approximations with high probability. But the algorithm that perform this approximation have a time complexity that is linear in the size of the dictionary of basis functions. This is problematic, since this size typically grows rapidly when the dimension of the sought function increases. To bypass this issue, we propose to encode the coefficients in a simultaneously sparse and low-rank tensor format. Compared to a direct sparse approximation, the resulting sparse tensors trees have the advantage that we can use a large (tensor product) dictionary with a manageable time complexity. We transfer the close-to-optimal sample complexity results of the classical weighted sparse vectors to our new model class of sparse and low-rank tensors. For this we utilise a novel result that allows us to transfer the restricted isometry property from one set to another that is sufficiently close to the first one.