Le but de cette présentation est de donner une catégorification du polynôme de Jones en partant des bases de la théorie des noeuds. Cette catégorification, l'homologie de Khovanov, est un invariant puissant pour les nœuds et entrelacs.
Projective geometry was mainly developed in the 19th century and
its combination with algebraic geometry made projective algebraic geometry
an important breakthrough in mathematics. In the first part, I will
present real projective geometry with some concrete examples. In the
second part, I will refer to real enumerative problems, concerning with
counting numbers of signed curves in certain real projective spaces, known
as Welschinger's invariants.
Les processus de Hawkes sont des processus stochastiques étudiés à partir des années 70. Même si à l’origine, ils pouvaient être appliqués à l’étude des séismes, ils trouvent maintenant de nombreux domaines d’application en neuroscience, en finance, etc. Une partie de ces processus, appelée « processus de Hawkes auto-excitants » a été particulièrement étudiée ces dernières décennies, et de nombreux résultats sont connus. Mon travail consiste à étudier d’autres processus de Hawkes, dits auto-inhibants, et de montrer certains résultats, comme une loi des grands nombres, un théorème central limite et un principe de grandes déviations.
Ici, je me concentrerai sur la construction des processus de Hawkes et sur la loi des grands nombres.
In this talk we will present motives, techniques and results of a community that has emerged in the 1980s. Econophysicists, as they describe themselves, try to fill the gap between micro and macro economics using techniques from statistical physics. After presenting the techniques used in the community, we will illustrate how their models fit the real world.
Le but de l'exposé est d'expliquer comment change le nombre de solutions x à l'équation f(x)=y lorsque la valeur régulière y (ou l'application propre f) varie.
A classic problem in statistics is to test whether two populations of observations are similar (i.e. equally distributed). The first tests developed were parametric, it means that we had to make strong assumptions on the underlying distribution, typically Gaussian assumptions. They were also not well-defined for high-dimension (when the number of features exceeds the number of observations).
Recently, non-parametric two-sample tests especially designed for high-dimension were developed. I will present a group of such tests very popular in the machine learning community, which takes roots in kernel methods, a branch of non-linear statistics
Soutenance de thèse de Cécile Habertisch, 15 décembre 2020
Date de début de l'actualité
15-12-2020 14:00
Date de fin de l'actualité
15-12-2020 17:00
Cécile Habertisch soutiendra sa thèse le mardi 15 décembre 2020 à 14h en distanciel via l'outil Zoom.
Le jury sera composé de:
Albert COHEN, Sorbonne Universités, Examinateur,
Virgine EHRLACHER, Ecole des Ponts Paristech, Examinateur,
Lars GRASEDYCK, RTWH Aachen University, Rapporteur,
Fabio NOBILE, Ecole Polytechnique Fédérale de Lausanne, Rapporteur,
Anthony NOUY, Centrale Nantes, Directeur de thèse,
Guillaume PERRIN, CEA,DAM,DIF, Encadrant.
Résumé :
Uncertainty quantification problems for numerical models require a lot of simulations, often very computationally costly (in time and/or memory). This is why it is essential to build surrogate models that are cheaper to evaluate. In practice, the output of a numerical model is represented by a function, then the objective is to construct an approximation.
The aim of this thesis is to construct a controlled approximation of a function while using as few evaluations as possible.
In a first time, we propose a new method based on weighted least-squares to construct the approximation of a function onto a linear approximation space. We prove that the projection verifies a numerical stability property almost surely and a quasi-optimality property in expectation. In practice we observe that the sample size is closer to the dimension of the approximation space than with existing weighted least-squares methods.
For high-dimensional approximation, and in order to exploit potential low-rank structures of functions, we consider the model class of functions in tree-based tensor formats. These formats admit a multilinear parametrization with parameters forming a tree network of low-order tensors and are therefore also called tree tensor networks. In this thesis we propose an algorithm for approximating functions in tree-based tensor formats. It consists in constructing a hierarchy of nested subspaces associated to the different levels of the tree. The construction of these subspaces relies on principal component analysis extended to multivariate functions and the new weighted least-squares method. To reduce the number of evaluations necessary to build the approximation with a certain precision, we propose adaptive strategies for the control of the discretization error, the tree selection, the control of the ranks and the estimation of the principal components.
Dans cet exposé on commence par présenter la formule de la co-aire, qui relie l'intégrale d'une fonction de R^d dans R a la mesure d-1 dimensionnelle de ses zéros. On fera la preuve très simple en dimension 1. Si f est un processus stochastique gaussien stationnaire, alors le passage à l'espérance nous permet de montrer la formule de Katz-Rice, qui donne le nombre moyen de zéro (ou le volume moyen des zéros en dimension supérieure) d'un tel processus.
Nous choisirons ensuite un processus particulier, plus précisément une somme Gaussienne de fonctions propres. En dimension 1, on retrouve la théorie des polynômes trigonométriques aléatoires. On en déduira une asymptotique en loi du volume des zéros, puis on donnera un regard plus approfondi en observant que ce processus converge localement vers un processus limite.
comment