Nouveau Edf

Stage - xIA : Explainable Artificial Intelligence, explicabilité en Machine Learning - H/F

  • Stage
  • Ballancourt-sur-Essonne (Essonne)
  • Master, Titre d'ingénieur, Bac +5
  • Études / Statistiques / Data

Description de l'offre

Informations pratiques

Lieu du stage : EDF Lab Paris-Saclay, 7 boulevard Gaspard Monge, 91120 Palaiseau.

Début du stage souhaité : début 2019 – 6 mois de stage.

Rémunération : prévue en fonction du profil + accès cantine tarif stagaire

Contact : (Département ICAME)        

L’entreprise

La R&D d’EDF (2000 chercheurs) a pour missions principales de contribuer à l'amélioration de la performance des unités opérationnelles du groupe EDF. Dans ce cadre, le département Innovation Commerciale Analyse des Marchés et de leur Environnement (ICAME) est un département qui fournit un appui à l’élaboration des offres, des services et des outils de relation client aux directions opérationnelles du groupe EDF. Au sein de ce département, le poste sera rattaché au groupe « Statistiques et Outils d'Aide à la Décision » (SOAD) spécialisé en data science, data engineering et text mining.

Contexte et enjeu

La R&D d’EDF développe des algorithmes de machine learning pour aider les métiers opérationnels à prendre de meilleures décisions. Les modèles développés sont de plus en plus sophistiqués et performants, et par conséquent de plus en plus complexes. Cela peut représenter un frein à l’utilisation de ces algorithmes : les métiers veulent avoir un regard critique sur la mécanique de décision afin de mieux interpréter et accepter les résultats de ces algorithmes.

 

Le sujet de l’explicabilité de ces algorithmes (Explainable Artificial Intelligence) est un champ de recherche grandissant dans le monde de la data science. Il s’agit de rendre les algorithmes compréhensibles et interprétables par l’homme.

 

L’enjeu de l’explicabilité est double :

Améliorer le modèle : mieux comprendre le modèle permet d’identifier causes d’une faible performance puis de corriger les biais.
Améliorer l’acceptabilité du modèle : pouvoir expliquer les prédictions d’un modèle est plus rassurant pour les équipes opérationnelles. Ces derniers peuvent alors procéder à un audit des algorithmes
Objectif

L’objet du stage est d’initier  la thématique de l’explicabilité en machine learning au sein de l’équipe SOAD sur la base de modèles de machine learning (modèles simples ou deep learning) existants ou en cours de développement.

En particulier, le stagiaire devra s’intéresser à l’explicabilité sur les niveaux suivants :

Global : l’objectif est de comprendre le modèle dans son ensemble, et d’identifier les paramètres qui influent sur la prédiction. Le stagiaire s’intéressera d’abord aux notions d’importance des variables, de visualisation (partial dependence plot, t-SNE, …). Il penchera ensuite sur la simplification des algorithmes de machine learning par un modèle approximatif (model surrogate), tel que régression, arbre, etc.
Local : l’objectif est d’expliquer une valeur spécifique sortie par le modèle

Le stagiaire pourra appliquer les méthodes LIME[1] et SHAP[2], le framework Skater[3].
Le stagiaire  pourra prendre l’initiative d’identifier d’autres méthodes, et de les appliquer.

Déroulé du stage

Le stage est découpé en deux parties qui pourront être menées en parallèle :

Approfondir les notions décrites précédemment sur les deux aspects de l’explicabilité
Appliquer ces méthodes sur au moins un cas pratique.

La R&D d’EDF a utilisé les réseaux de neurones pour classifier les comportements de consommations. L’objectif ici sera d’expliquer le rôle de chaque neurone de la couche latente.
Le stagiaire pourra être amené à travailler avec un autre stagiaire sur la question de l’explicabilité dans le cadre spécifique du renforcement learning par deep learning

 

[1] https://arxiv.org/pdf/1602.04938v1.pdf

[2] https://arxiv.org/pdf/1705.07874.pdf

[3] https://github.com/datascienceinc/Skater

 

 

Quelques références

https://www.kdnuggets.com/2018/12/explainable-ai-model-interpretation-strategies.html/2
https://www.oreilly.com/ideas/interpreting-predictive-models-with-skater-unboxing-model-opacity
https://christophm.github.io/interpretable-ml-book/
https://hci.iwr.uni-heidelberg.de/system/files/private/downloads/860270201/felix_feldmann_eml2018_report.pdf

Profil recherché

Profil recherché :

Etudiant(e) en mathématiques / informatique / statistiques ou data science, en 3e année d’école ingénieur ou équivalent
Bonne connaissance en programmation (Python et R)
Bonne connaissance en statistique, et en machine learning
Autonome, curieux, rigoureux