Régression isotonique itérée
Séminaire Probabilités & Statistique
23/05/2013 - 14:00 Nicolas Jégou (Université de Rennes 2) Salle 1 - Tour IRMA
L'objet de cette communication est de présenter une nouvelle technique pour l'estimation de la fonction de régression dans un cadre univarié et lorsque celle-ci est à variation bornée. Partant du résultat selon lequel une telle fonction se décompose en la somme d'une fonction croissante et d'une fonction décroissante, l'idée est de combiner deux méthodes classiques en statistique non paramétrique : la régression isotonique d'une part, l'estimation des modèles additifs de l'autre. Plus précisement, la méthode consiste à itérer la régression isotonique selon l'algorithme backfitting. On dispose ainsi à chaque itération d'un estimateur de la fonction de régression résultant de la somme d'une partie croissante et d'une partie décroissante. Nous illustrerons tout d'abord le comportement de l'estimateur lorsque le nombre de points est fixé. On montrera en particulier que le fait d'itérer l'algorithme tend à reproduire les données. On verra également comment l'égalite de l'algorithme avec celui consistant a itérer la régression isotonique selon un algorithme de type réduction itérée du biais permet d'identifier les limites individuelles des séquences croissante et décroissante. Nous présenterons ensuite le résultat de consistance qui a ete obtenu. Dans une seconde partie, nous nous pencherons sur l'étude pratique de l'estimateur. Comme augmenter le nombre d'itérations conduit au sur-ajustement, il n'est pas souhaitable d'itérer la méthode jusqu'à la convergence. Nous verrons en particulier comment adapter, à notre cadre non linéaire, des critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...). L'étude pratique montrant un comportement intéressant lorsque la fonction de régression possède des points de rupture, nous appliquerons l'algorithme à des données réelles de type puces CGH ou la détection de ruptures est d'un interêt crucial. Mots cles : Régression non paramétrique, Régression isotonique, Modèle additif, Algorithme Backfitting.