Plans d’expériences pour la calibration de codes de calcul coûteux

English

Spécialité : Mathématiques Appliquées

25/06/2025 - 14:00 Adama BARRY (Université Toulouse 3) K. Johnson (1R3, 1er étage) - Institut de Mathématiques de Toulouse 1 R.3, Université Paul Sabatier, 118 Rte de Narbonne, 31400 Toulouse. Lien Zoom : https://univ-tlse3-fr.zoom.us/j/99006236165?pwd=1FMqQq6Gw9lD6soTbQaACwQXWCTlKg.1 ID de réunion: 990 0623 6165 Code secret: 344369

Mots clé :
  • design of physical experiments
  • design of numerical experiments
  • Gaussian processes
  • Bayesian optimization.
Dans cette thèse, nous étudions le problème de calibration bayésienne de codes de calculs coûteux, à sortie scalaire,
vectorielle ou fonctionnelle, à l’aide de données physiques en nombre limité. Un code de calculs est dit coûteux lorsque
son évaluation requiert un temps de calcul important. Dans ce contexte, l’inférence bayésienne sur ses paramètres
nécessite l’utilisation d’un émulateur ou modèle de substitution.
Nous introduisons une stratégie en deux étapes combinant une sélection optimale du plan d’expériences physiques
(pour les mesures physiques à effectuer sur le terrain) et du plan d’expériences numériques (pour la construction
de l’émulateur par processus gaussien). La première phase consiste à construire un émulateur initial par processus
gaussien, qui servira au calcul des critères d’optimalité du plan d’expériences physiques. Deux types de critères sont
introduits. D’une part, des critères bayésiens basés sur la distribution a posteriori des paramètres de calibration. Ces
critères ont la particularité de prendre en compte l’ensemble des incertitudes, qu’elles soient liées aux observations
physiques, numériques ou aux paramètres du code de calculs. D’autre part, un critère utilisant la variation du code
en fonction de ses paramètres combiné à la répartition du plan dans l’espace expérimental. Ce dernier se distingue
par son coût d’optimisation réduit. Pour optimiser ces critères, quatre algorithmes sont proposés : le recuit simulé,
un algorithme glouton, un algorithme génétique et un algorithme d’optimisation stochastique par perturbation
simultanée. Après acquisition des données physiques, l’émulateur est amélioré par une planification séquentielle
d’expériences numériques, guidée par un critère d’acquisition visant une réduction progressive de l’incertitude de
calibration. Deux critères d’acquisition, exclusivement dédiés à la calibration, ont été définis : le premier repose sur la
somme des variances a posteriori des paramètres de calibration et le second est basé sur l’erreur de prédiction des
observations physiques. L’émulateur final est ensuite utilisé pour approcher la densité a posteriori des paramètres
à l’aide d’un échantillonnage Monte Carlo par chaînes de Markov, couplé à une estimation non paramétrique par
noyaux. Une application numérique sur des fonctions analytiques à sortie scalaire a permis d’évaluer la pertinence
des critères et des stratégies de planification d’expériences numériques, en les comparant à d’autres approches de
l’état de l’art. De plus, une adaptation de la méthodologie de calibration aux codes de calculs à sortie vectorielle ou
fonctionnelle est proposée.
Enfin, la méthodologie a été appliquée à la calibration d’un simulateur numérique dédié au stockage géologique
du CO2, en utilisant des données synthétiques.

Président·e:

DR Nathalie BARTOLI (ONERA)

Directeurs:

  • PR François BACHOC (Université Toulouse 3 )
  • PR Clémentine PRIEUR (UGA )

Rapporteur·e·s:

  • PR Pierre BARBILLON (AgroParisTech )
  • DR Olivier Le Maître (Ecole Polytechnique )

Examinateur·trice·s:

  • DR Luc PRONZATO (CNRS Côte d'Azur )
  • Invité Sarah BOUQUET (IFP Energies Nouvelles )
  • Invité Miguel MUNOZ ZUNIGA (IFP Energies Nouvelles )