Réduction de dimension linéaire et non linéaire basée sur les gradients

English

Spécialité : Mathématiques Appliquées

8/12/2025 - 12:56 Romain Verdière (Université Grenoble Alpes) Salle de séminaire 1, bâtiment IMAG, 150 Pl. du Torrent, 38400 Saint-Martin-d'Hères.

Mots clé :
  • uncertainty quantification
  • function approximation
  • neural networks
  • autoencoders
  • mollifiers
Les modèles de grande dimension sont omniprésents en science et en ingénierie, mais ils sont souvent trop coûteux à évaluer directement. Cette thèse développe de nouvelles méthodes de réduction de dimension basées sur les gradients, permettant de construire des approximations de modèle plus efficaces, en particulier lorsqu’on ne dispose que d’un nombre limité de simulations. L’idée centrale consiste à utiliser une stratégie de « majoration puis minimisation », où l’erreur de reconstruction est contrôlée grâce à des inégalités de type Poincaré.

La première partie de la présentation introduit un framework de réduction de dimension non linéaire dans lequel la feature map est définie comme les premières composantes d’un C1-difféomorphisme paramétré par un réseau de neurones inversible (Affine coupling flows). Une astuce d’augmentation de dimension permet d'accroître l’expressivité de la méthode tout en restant dans le cadre théorique. Cette méthodologie s’étend naturellement aux sorties vectorielles et aux architectures de type autoencodeur. Enfin, nous montrons par des expériences numériques sur des modèles de référence que cette approche surpasse les méthodes de l'état de l'art basées sur les gradients.

La seconde partie de la présentation traite des difficultés associées à la réduction de dimension linéaire appliquée à des modèles fortement oscillants, pour résoudre ce problème nous proposons Mollified Active Subspaces (MAS). En lissant les gradients avant l’analyse, MAS fournit une borne d’erreur calculable et permet une sélection de variables plus fiable dans ce contexte. 

Dans l’ensemble, ce travail fait progresser la réduction de dimension linéaire et non linéaire basée sur les gradients, en apportant de nouveaux éclairages théoriques et des algorithmes pratiques pour la quantification d’incertitude en grande dimension.

Directeurs:

  • Professeur Clémentine Prieur (Université Grenoble Alpes )
  • Docteur Olivier Zahm (Université Grenoble Alpes )

Rapporteur·e·s:

  • Professeur Yohann De Castro (Centrale Lyon )
  • Professeur Alain Celisse (Université Paris 1 Panthéon-Sorbonne )

Examinateur·trice·s:

  • Professeur Rémi Gribonval (ENS Lyon )
  • Professeur Olivier Roustant (INSA Toulouse )
  • Professeur Houman Owhadi (Caltech university )
  • Docteur Simon Barthelmé (CNRS, GIPSA-lab )