Séminaire
Webinaire ESPRI-IA Deep Learning : eXplainable AI (XAI)
Redouane Lguensat
Redouane Lguensat, IR Data Scientist IRD affecté à la plateforme de services ESPRI de l’IPSL, vous propose un tour d’horizon des méthodes eXplainable AI (XAI) avec quelques applications en geosciences. Redouane Lguensat, IR Data Scientist IRD assigned to the ESPRI service platform of the IPSL, proposes an overview of XAI methods with some applications in geosciences.
Description
[english translation below]
Le groupe ESPRI-IA qui a pour but de promouvoir l’entraide technique et méthodologique sur l’IA, a le plaisir de vous annoncer son deuxième séminaire : eXplainable AI (XAI) ou explicabilité en IA.
L’XAI se réfère à un ensemble de méthodes et d’algorithmes dont le but est d’expliquer les sorties des modèles Machine Learning (ML), notamment en quantifiant l’influence des caractéristiques des données en entrée des modèles.
En effet, les modèles ML, notamment ceux basés sur les réseaux de neurones, ont la réputation d’être des « boîtes noires » : ils ne sont pas ou peu interprétables.
Pourtant il est primordial de pouvoir expliquer le fonctionnement des modèles Machine/Deep Learning, notamment pour des raisons éthiques et juridiques (IA de confiance, directive européenne sept 2020). Selon Sonnewald et al, l’explicabilité en IA est aussi un formidable levier de recherche qui peut donner naissance à de nouvelles questions scientifiques à explorer.
Dans le cadre des webinaires du groupe ESPRI-IA, Redouane Lguensat, IR Data Scientist IRD affecté à la plateforme de services ESPRI de l’IPSL, vous propose un tour d’horizon des méthodes XAI avec quelques applications en geosciences.
Sébastien Gardoll pour le groupe ESPRI-IA
—-
The ESPRI-IA group, which aims to promote technical and methodological support on AI, is pleased to announce its second seminar: eXplainable AI (XAI).
XAI refers to a set of methods and algorithms whose goal is to explain the outputs of Machine Learning (ML) models, in particular by quantifying the influence of the input data features of the models.
Indeed, ML models, especially those based on neural networks, have the reputation of being « black boxes »: they are not or only slightly interpretable.
However, it is essential to be able to explain how Machine/Deep Learning models work, especially for ethical and legal reasons (trusted AI, European directive Sept 2020). According to Sonnewald et al, explainability in AI is also a formidable research lever that can give rise to new scientific questions to explore.
As part of the ESPRI-IA group webinars, Redouane Lguensat, IR Data Scientist IRD assigned to the ESPRI service platform of the IPSL, proposes an overview of XAI methods with some applications in geosciences.
Sébastien Gardoll for the ESPRI-IA group
Informations supplémentaires
Pour être tenu·e au courant des prochains webinaires du groupe ESPRI-IA, vous pouvez vous abonnez au workspace Slack ESM-ML Journal Club et/ou vous inscrire à la mailing list newsletter-espri-ia.
Lien de connexion au webinaire (BBB CNRS ; utilisez Chrome ou Firefox)
Adresse : https://orsay.bbb.cnrs.fr/b/gar-d0j-egh-sqt
Mot de passe : 246233
Le webinaire sera enregistré puis disponible sur la chaîne Youtube de l’IPSL.
—
To be kept informed of upcoming ESPRI-IA group webinars, you can subscribe to the Slack workspace ESM-ML Journal Club and/or subscribe to the newsletter-espri-ia mailing list.
Webinar date: Wednesday, February 22, 2023 from 3-4pm.
Webinar login (BBB CNRS; use Chrome or Firefox):
Address: https://orsay.bbb.cnrs.fr/b/gar-d0j-egh-sqt
Password: 246233
The webinar will be recorded and available on the IPSL Youtube channel.