Régression isotonique itérée

Nom de l'orateur
Nicolas Jegou
Etablissement de l'orateur
Rennes 2
Date et heure de l'exposé
Lieu de l'exposé
Salle Eole

L’objet de cette communication est de présenter une nouvelle technique pour l’estimation de la fonction de régression dans un cadre univarié et lorsque celle-ci est à variation bornée. Partant du résultat selon lequel une telle fonction se décompose en la somme d’une fonction croissante et d’une fonction décroissante, l’idée est de combiner deux méthodes classiques en statistique non paramétrique : la régression isotonique d’une part, l’estimation des modèles additifs de l’autre. Plus précisément, la méthode consiste à itérer la régression isotonique selon l’algorithme backfitting. On dispose ainsi à chaque itération d’un estimateur de la fonction de régression résultant de la somme d’une partie croissante et d’une partie décroissante. Nous illustrerons tout d’abord le comportement de l’estimateur lorsque le nombre de points est fixé. On montrera en particulier que le fait d’itérer l’algorithme tend à reproduire les données. On verra également comment l’égalité de l’algorithme avec celui consistant à itérer la régression isotonique selon un algorithme de type réduction itérée du biais permet d’identifier les limites individuelles des séquences croissante et décroissante. Nous présenterons ensuite le résultat de consistance qui a été obtenu. Dans une seconde partie, nous nous pencherons sur l’étude pratique de l’estimateur. Comme augmenter le nombre d’itérations conduit au sur-ajustement, il n’est pas souhaitable d’itérer la méthode jusqu’à la convergence. Nous verrons en particulier comment adapter, à notre cadre non linéaire, des critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...). L’étude pratique montrant un comportement intéressant lorsque la fonction de régression possède des points de rupture, nous appliquerons l’algorithme à des données réelles de type puces CGH où la détection de ruptures est d’un intérêt crucial.