La procédure LOL (Learning Out Of Leaders) permet de résoudre des problèmes de régression
en grande dimension, sans phase d’optimisation.
Cette procédure, extrêmement simple, est composée de deux seuillages successifs.
Le premier seuillage induit une réduction de dimension en sélectionnant les covariables
potentiellement intéressantes pour le modèle de régression.
Le deuxième seuillage sélectionne les coefficients du modèle à retenir.
Sous des conditions de sparsité et de cohérence, cette procédure est consistante et
les vitesses de convergence peuvent être calculées.
Pour faciliter l'utilisation de cette procédure, une heuristique
permettant la calibration des seuils théoriques est conjointement proposée.
Dans le cadre d’une collaboration entre le LPMA et RTE, nous avons appliqué
cette procédure à la modélisation fonctionnelle des signaux de consommation électrique.
Nous montrons qu’un ajustement parcimonieux des signaux de consommation offre des propriétés
intéressantes dans un cadre de prévision.
Références:
M. Mougeot, D. Picard, and K. Tribouley. Learning out of leaders.
J. R. Stat. Soc. Ser. B Stat. Methodol., 74 :1{39, 2012.
M. Mougeot, D. Picard, and K. Tribouley.
Sparse approximation and fit of intraday load curves in a high dimensional framework.
Advances in Adaptive Data Analysis, 5,4 :1-23, 2013.
M. Mougeot, D. Picard, V Lefieux, and L Maillard-Teyssier. Forecasting intra day load
curves using sparse functional regression.
Modeling and Stochastic Learning for Forecasting in High Dimension, (in press).