Contribution à la régression non paramétrique avec un processus erreur d'autocovariance générale et application en pharmacocinétique

English

Spécialité : Mathématiques Appliquées

18/09/2019 - 14:00 Mme Djihad Benelmadani (Université Grenoble Alpes) Amphithéâtre - Maison Jean Kuntzmann

Mots clé :
  • observations corrélées
  • fonction d'autocovariance
  • espace de Hilbert à noyau autoreproduisant
  • règle des trapèzes
  • normalité asymptotique
  • pharmacocinétique.
Dans cette thèse, nous considérons le modèle de régression avec plusieurs unités expérimentales, o{\\`u} les erreurs forment un processus d'autocovariance dans un cadre générale, c'est-à-dire, un processus du second ordre (stationnaire ou non stationnaire) avec une autocovariance non différentiable le long de la diagonale.  Nous sommes intéressés, entre autres, à l'estimation non paramétrique de la fonction de régression de ce modèle. 

Premièrement, nous considérons l'estimateur classique proposé par Gasser et Müller. Nous étudions ses performances asymptotiques quand le nombre d'unités expérimentales et le nombre d'observations tendent vers l'infini.  Pour un échantillonnage régulier, nous améliorons les vitesses de convergence d'ordre supérieur de son biais et de sa  variance. Nous montrons aussi sa normalité asymptotique dans le cas des erreurs corrélées. 

Deuxièmement, nous proposons un nouvel  estimateur à noyau  pour la fonction de régression, basé sur une propriété de projection.  Cet estimateur est construit à travers la fonction d'autocovariance des erreurs et une fonction particulière appartenant à l'Espace de Hilbert à Noyau Autoreproduisant (RKHS) associé à la fonction d'autocovariance.  Nous étudions les performances asymptotiques de l'estimateur en utilisant les propriétés de RKHS. Ces propriétés nous permettent d'obtenir la vitesse optimale de convergence de la variance de cet estimateur.  Nous prouvons sa normalité asymptotique, et montrons que sa variance est asymptotiquement plus petite que celle de l'estimateur de Gasser et Müller. Nous conduisons une étude de simulation pour confirmer nos résultats théoriques.

Troisièmement, nous proposons un nouvel estimateur à noyau pour la fonction de régression. Cet estimateur est construit en utilisant la règle numérique des trapèzes, pour approximer l'estimateur basé sur des données continues. Nous étudions aussi sa performance asymptotique et nous montrons sa normalité asymptotique. En outre, cet estimateur permet d'obtenir le plan d'échantillonnage optimal pour l'estimation de la fonction de régression. Une étude de simulation est conduite afin de tester le comportement de cet estimateur dans un plan d'échantillonnage de taille finie, en terme d'erreur en moyenne quadratique intégrée (IMSE). De plus, nous montrons la réduction dans l'IMSE en utilisant le plan d'échantillonnage optimal au lieu de l'échantillonnage uniforme. 

Finalement, nous considérons une application de la régression non paramétrique dans le domaine  pharmacocinétique. Nous proposons l'utilisation de l'estimateur non paramétrique à noyau pour l'estimation de la fonction de concentration.  Nous vérifions son bon comportement par des simulations et une analyse de données réelles. Nous investiguons aussi le problème de l'estimation de l'Aire Sous la Courbe de concentration (AUC), pour lequel nous proposons un nouvel estimateur à noyau, obtenu par l'intégration de l'estimateur à noyau de la fonction de régression. Nous montrons, par une étude de simulation, que le nouvel estimateur est meilleur que l'estimateur classique en terme d'erreur en moyenne quadratique. Le problème crucial de l'obtention d'un plan d'échantillonnage optimale pour l'estimation de l'AUC est discuté en utilisant l'algorithme de recuit simulé généralisé.

Directeurs:

  • Mr Karim Benhenni (Université Grenoble Alpes )
  • Mme Sana Louhichi (Université Grenoble Alpes )

Raporteurs:

  • Mme Sophie Dabo-Niang (Université de Lille )
  • Mr Salim Bouzebda (Sorbonne Université )

Examinateurs:

  • Mme Marianne Clausel (Université de Lorraine )
  • Mme Clementine Prieur (Université Grenoble Alpes )