event_img

Séminaire

Webinaire ESPRI-IA Deep Learning : introduction aux mécanismes d'attention en géosciences

Anastase Charantonis (ENSIIE/LOCEAN)

Webinaire sur les mécanismes d’attention en Deep Learning qui présentent des améliorations importantes pour le traitement de phénomènes spatio-temporels. Attention mechanisms in Deep Learning that present important improvements for the processing of spatio-temporal phenomena.

       

Date de début 09/01/2023 15:00
Date de fin 09/01/2023
Organisateur ESPRI-IA
Lieu plateforme BBB du CNRS

Description

[english translation below]

Le groupe ESPRI-IA qui a pour but de promouvoir l’entraide technique et méthodologique sur l’IA au sein de l’IPSL, va présenter une série de webinaires au cours de l’année sur l’ingénierie du Machine Learning et plus précisément le Deep Learning. Le premier séminaire a pour sujet les mécanismes d’attention en Deep Learning.

Les mécanismes d’attention en Deep Learning font partie des méthodes récentes qui présentent des améliorations importantes pour le traitement de phénomènes spatio-temporels. Dans ce webinaire, présenté en français par Anastase Charantonis (ENSIIE/LOCEAN), nous allons brièvement rappeler certains éléments de base (régression linéaire régularisée, couches de convolution, fonction sigmoïde, etc.) pour construire par la suite, à partir de ces éléments, les couches d’attention. Le webinaire contiendra une première partie théorique, puis un exemple sous forme de notebook Python.

[english version]

The ESPRI-IA group which aims to promote technical and methodological support on AI within the IPSL, will present a series of webinars during the year on Machine Learning engineering and more specifically on Deep Learning. The first seminar is about attention mechanisms in Deep Learning.

Attention mechanisms in Deep Learning are among the recent methods that present important improvements for the processing of spatio-temporal phenomena. In this webinar, presented in French by Anastase Charantonis (ENSIIE/LOCEAN), we will briefly recall some basic elements (regularized linear regression, convolution layers, sigmoid function, etc.) in order to build later, from these elements, the attention layers. The webinar will contain a first theoretical part and then an example in the form of a Python notebook.

Informations supplémentaires

Le webinaire est basée sur la plateforme BBB du CNRS qui ne nécessite qu’un navigateur Web à jour (Firefox ou Chrome).
Le lien de connexion : https://orsay.bbb.cnrs.fr/b/gar-l1w-hhp-817
Le mot de passe : 960212

The webinar is based on the CNRS BBB platform which only requires an up-to-date web browser (Firefox or Chrome).
The connection link: https://orsay.bbb.cnrs.fr/b/gar-l1w-hhp-817
The password : 960212