Plans d’expériences pour la calibration de codes de calcul coûteux
Spécialité : Mathématiques Appliquées
25/06/2025 - 14:00 Adama BARRY (Université Toulouse 3) K. Johnson (1R3, 1er étage) - Institut de Mathématiques de Toulouse 1 R.3, Université Paul Sabatier, 118 Rte de Narbonne, 31400 Toulouse. Lien Zoom : https://univ-tlse3-fr.zoom.us/j/99006236165?pwd=1FMqQq6Gw9lD6soTbQaACwQXWCTlKg.1 ID de réunion: 990 0623 6165 Code secret: 344369
Mots clé :
- design of physical experiments
- design of numerical experiments
- Gaussian processes
- Bayesian optimization.
Dans cette thèse, nous étudions le problème de calibration bayésienne de codes de calculs coûteux, à sortie scalaire, vectorielle ou fonctionnelle, à l’aide de données physiques en nombre limité. Un code de calculs est dit coûteux lorsque son évaluation requiert un temps de calcul important. Dans ce contexte, l’inférence bayésienne sur ses paramètres nécessite l’utilisation d’un émulateur ou modèle de substitution. Nous introduisons une stratégie en deux étapes combinant une sélection optimale du plan d’expériences physiques (pour les mesures physiques à effectuer sur le terrain) et du plan d’expériences numériques (pour la construction de l’émulateur par processus gaussien). La première phase consiste à construire un émulateur initial par processus gaussien, qui servira au calcul des critères d’optimalité du plan d’expériences physiques. Deux types de critères sont introduits. D’une part, des critères bayésiens basés sur la distribution a posteriori des paramètres de calibration. Ces critères ont la particularité de prendre en compte l’ensemble des incertitudes, qu’elles soient liées aux observations physiques, numériques ou aux paramètres du code de calculs. D’autre part, un critère utilisant la variation du code en fonction de ses paramètres combiné à la répartition du plan dans l’espace expérimental. Ce dernier se distingue par son coût d’optimisation réduit. Pour optimiser ces critères, quatre algorithmes sont proposés : le recuit simulé, un algorithme glouton, un algorithme génétique et un algorithme d’optimisation stochastique par perturbation simultanée. Après acquisition des données physiques, l’émulateur est amélioré par une planification séquentielle d’expériences numériques, guidée par un critère d’acquisition visant une réduction progressive de l’incertitude de calibration. Deux critères d’acquisition, exclusivement dédiés à la calibration, ont été définis : le premier repose sur la somme des variances a posteriori des paramètres de calibration et le second est basé sur l’erreur de prédiction des observations physiques. L’émulateur final est ensuite utilisé pour approcher la densité a posteriori des paramètres à l’aide d’un échantillonnage Monte Carlo par chaînes de Markov, couplé à une estimation non paramétrique par noyaux. Une application numérique sur des fonctions analytiques à sortie scalaire a permis d’évaluer la pertinence des critères et des stratégies de planification d’expériences numériques, en les comparant à d’autres approches de l’état de l’art. De plus, une adaptation de la méthodologie de calibration aux codes de calculs à sortie vectorielle ou fonctionnelle est proposée. Enfin, la méthodologie a été appliquée à la calibration d’un simulateur numérique dédié au stockage géologique du CO2, en utilisant des données synthétiques.
Président·e:
DR Nathalie BARTOLI (ONERA)Directeurs:
- PR François BACHOC (Université Toulouse 3 )
- PR Clémentine PRIEUR (UGA )
Rapporteur·e·s:
- PR Pierre BARBILLON (AgroParisTech )
- DR Olivier Le Maître (Ecole Polytechnique )
Examinateur·trice·s:
- DR Luc PRONZATO (CNRS Côte d'Azur )
- Invité Sarah BOUQUET (IFP Energies Nouvelles )
- Invité Miguel MUNOZ ZUNIGA (IFP Energies Nouvelles )