Les
codes de calcul simulant des phénomènes
variés
profitent en permanence du développement des
capacités de
calcul des processeurs. Mais ce gain en réalisme se paye en
difficulté à appréhender le
comportement du code
développé. En quelque sorte, les
performances des
codes se rapprochant de la réalité, leur
compréhension devient tout aussi délicate que celle
du
réel, et de nombreuses questions restent sans
réponse
satisfaisante, comme la détection de paramètres
influents
ou l’influence de la méconnaissance de certains
paramètres sur les prévisions
effectuées. Depuis
le début des années 90 ont été
développées des techniques ad hoc, faisant émerger un nouveau domaine,
celui des
plans d'expériences numériques.
Dans ce cadre, nous avons proposé et continuons à
développer des méthodes de
planification d’expérience visant à
permettre une
bonne précision pour la propagation
d’incertitudes, l'optimisation, l'analyse de sensibilité... On
notera par ailleurs que la principale difficulté vient du
fait
que la plupart du temps, les expériences numériques sont
reproductibles, contrairement aux expériences
réelles, ce qui rend problématique l'utilisation de la
théorie classique qui a suivi les travaux de R. Fisher. De ce
fait, les métamodèles utilisés se démarquent notablement de la
génération issue du modèle linéaire, et l'apprentissage par processus
gaussiens ou via les méthodes à noyaux y trouvent une place de choix. |