2022-04681 - Post-Doctorant F/H Réduction de dimension semi-supervisée

Niveau de diplôme exigé : Thèse ou équivalent

Fonction : Post-Doctorant

A propos du centre ou de la direction fonctionnelle

Le centre de recherche Inria Grenoble - Rhône-Alpes regroupe un peu moins de 600 personnes réparties au sein de 22 équipes de recherche et 7 services support à la recherche.

Son effectif est distribué sur 3 campus à Grenoble, en lien étroit avec les laboratoires et les établissements de recherche et d'enseignement supérieur (Université Grenoble Alpes, CNRS, CEA, INRAE, …), mais aussi avec les acteurs économiques du territoire.

Présent dans les domaines du calcul et grands systèmes distribués, logiciels sûrs et systèmes embarqués, la modélisation de l’environnement à différentes échelles et la science des données et intelligence artificielle, Inria Grenoble - Rhône-Alpes participe au meilleur niveau à la vie scientifique internationale par les résultats obtenus et les collaborations tant en Europe que dans le reste du monde.

Contexte et atouts du poste

Dans le cadre d'une collaboration INRIA - CEA - IFPEN, ce postdoc de 12 mois débutera automne 2022. Il se déroulera sur le campus de l'université de Grenoble. Pour plus d'information, contacter

 - Miguel MUNOZ ZUNIGA (miguel.munoz-zuniga@ifpen.fr)

 - Thomas PERRILLAT-BOTTONET (thomas.perrillat-bottonet@cea.fr)

 - Olivier ZAHM (olivier.zahm@inria.fr)

Mission confiée

Dans le cadre de l'étude et de l'utilisation de codes de calcul, un besoin récurrent concerne la réduction de dimension supervisée des entrées du code afin de réduire les besoins computationnels et améliorer la qualité des analyses. En effet, déterminer les entrées pertinentes à l'explication des sorties d'intérêts permet notamment de réduire la taille des plans d'expériences nécessaire aux analyses (réduction du besoin en simulations couteuses), formuler des analyses de sensibilité sur des entrées influentes, construire des méta-modèles plus efficacement et de meilleure qualité, ou encore de donner de meilleurs taux de convergence des algorithmes d'optimisation.

Dans la littérature il est récurrent d'utiliser plutôt des stratégies non-supervisées (PCA, KL) pour réduire la dimension des entrées avec potentiellement dans un second temps des analyses de sensibilités comme complément supervisé. En effet l'approche non-supervisé a l'avantage de ne pas nécessiter de simulation (approche a priori). Les approches supervisées peuvent nécessiter un nombre de simulations relativement conséquent pour obtenir des résultats pertinents ce qui n'est pas toujours accessible en début d'analyse. On peut citer par exemple les cas où les simulations arrivent de manière séquentielle : assimilation de données en temps réelle, enrichissement adaptatif d'un plan d'expériences.

Dans ce context nous proposons une approche semi-supervisée dans laquelle un compromis entre réduction de dimension non-supervisée et supervisée est mise en place en fonction du nombre courant de simulations. Cette approche pourra par exemple se formuler comme un problème d'optimisation du type

Alors que l'optimisation sur h peut être réalisé analytiquement (PCA), l'optimisation sur f est plus délicate. Nous envisageons d'utiliser des approches à noyau [1,2] ou bien des approches qui utilisent les gradients du modèle [3,4,5]. Si ces dernières méthodes s'avèrent être très efficaces, leur utilisation est conditionnée à avoir accès aux gradients du modèle, ce qui n'est pas toujours le cas pour les codes de calcul utilisés. On envisage alors de développer des méthodes dites "gradient-free" qui approchent le gradient soit via des métamodèles, soit via un échantillonnage adapté du modèle comme dans [6]. Notre stratégie pourra également être étendue à la réduction de dimension pour des modèles à entrées mixtes : scalaires, fonctionnelles notamment en remplaçant dans la formulation ci-dessus le terme BX par un opérateur qui sera astucieusement paramétrisé.

  1. Fukumizu K, Bach FR, Jordan MI. Kernel dimension reduction in regression. The Annals of Statistics. 2009 Aug;37(4):1871-905.
  2. Fukumizu K, Leng C. Gradient-based kernel dimension reduction for regression. Journal of the American Statistical Association. 2014 Jan 2;109(505):359-70.
  3. Constantine PG, Dow E, Wang Q. Active subspace methods in theory and practice: applications to kriging surfaces. SIAM Journal on Scientific Computing. 2014;36(4):A1500-24.
  4. Zahm O, Constantine PG, Prieur C, Marzouk YM. Gradient-based dimension reduction of multivariate vector-valued functions. SIAM Journal on Scientific Computing. 2020;42(1):A534-58.
  5. Lam RR, Zahm O, Marzouk YM, Willcox KE. Multifidelity dimension reduction via active subspaces. SIAM Journal on Scientific Computing. 2020;42(2):A929-56.
  6. Constantine PG, Eftekhari A, Wakin MB. Computing active subspaces efficiently with gradient sketching. In2015 IEEE 6th International Workshop on Computational Advances in Multi-Sensor Adaptive Processing (CAMSAP) 2015 Dec 13 (pp. 353-356). IEEE.

Compétences

Compétences techniques et niveau requis :

Langues :

Compétences relationnelles :

Compétences additionnelles appréciées :

Avantages

  • Restauration subventionnée
  • Transports publics remboursés partiellement
  • Congés: 7 semaines de congés annuels + 10 jours de RTT (base temps plein) + possibilité d'autorisations d'absence exceptionnelle (ex : enfants malades, déménagement)
  • Possibilité de télétravail (après 6 mois d'ancienneté) et aménagement du temps de travail
  • Équipements professionnels à disposition (visioconférence, prêts de matériels informatiques, etc.)
  • Prestations sociales, culturelles et sportives (Association de gestion des œuvres sociales d'Inria)
  • Accès à la formation professionnelle
  • Sécurité sociale

Rémunération

Salaire : 2 653€ brut/mois (hors impôt sur le revenu).