Le machine learning au service des modèles climatiques
Depuis des dizaines d’années, les modèles climatiques ont pris une place centrale dans le travail des climatologues. Aujourd’hui, alors que leur précision croissante demande une puissance de calcul toujours plus conséquente, l’intelligence artificielle offre une alternative encore à explorer.
Comment représenter un monde d’une complexité infinie avec des outils nécessairement limités ? Les climatologues travaillant avec les modèles sont sans cesse face à cette question, contraints de choisir quoi représenter et avec quelle précision. « Autrement, il n’y aurait aucune limite aux détails à ajouter au modèle, ça pourrait aller jusqu’au millimètre… Chaque échelle a une influence sur le climat », explique Venkatramani Balaji, chercheur à l’université de Princeton en visite longue durée à l’Institut Pierre-Simon Laplace. Il s’agit alors de trouver un équilibre entre simplification nécessaire et fidélité à la réalité. Pour savoir si la qualité du modèle n’est pas affectée par ces hypothèses simplificatrices, les chercheurs sont voués à les tester et à les modifier jusqu’à obtenir un modèle suffisamment fiable.
Pourtant, à mesure que la puissance des supercalculateurs augmente d’année en année, la finesse et la résolution des modèles s’accroissent considérablement, et avec elles, le coût en calcul. « Il y a de plus en plus de simulations de la planète à haute résolution, mais les coûts en calcul, en énergie, en carbone et en temps s’alourdissent », pointe Venkatramani Balaji. Dans ce contexte, les programmes de machine learning offrent une alternative pour optimiser ces processus différemment.
Une piste prometteuse
« Aujourd’hui, la question c’est de savoir si les programmes de machine learning pourraient trouver des hypothèses simplificatrices pour que le modèle puisse exprimer ce qu’il se passe à petite échelle sans avoir besoin de tout simuler très précisément », énonce le chercheur. Pour y parvenir, une des méthodes consiste à entraîner le programme en le confrontant à des données déjà connues. Par exemple, pour qu’il apprenne à différencier une photo de chat de d’une photo de chien, il est confronté à une très grande quantité de clichés déjà catégorisés comme « chat » ou « chien ». À mesure qu’il traite les données, il liste les caractéristiques spécifiques à chaque catégorie. Ainsi, lorsqu’il est mis face à une image inconnue, il tentera de repérer les caractéristiques présentes pour déterminer la catégorie à laquelle elle appartient. De la même manière, en entraînant un programme à reconnaître certains phénomènes climatiques sur des modèles à très haute résolution, il lui serait possible de donner les caractéristiques clés de ces phénomènes.
« Le programme informatique ayant appris grâce à des données très précises, il devient capable de détecter les caractéristiques à une plus grande échelle », précise Venkatramani Balaji. Ainsi, les chercheurs sauraient comment simplifier le modèle sans en affecter la fiabilité. Mais les possibilités qu’offre cette technologie peuvent aller encore plus loin : « Avec des méthodes dites de unsupervised learning, on dit au programme qu’il existe des catégories au sein des données, et c’est à lui de proposer celles qu’il distingue. » Si aujourd’hui, cet outil permet de conforter des théories déjà existantes et d’aider à la création de modèles, pour Venkatramani Balaji, les applications pourraient s’étendre dans le futur : « On pourrait imaginer que lorsqu’il manque une théorie dans un domaine de recherche, il serait possible que le programme en trouve par lui-même. On n’y est pas encore, peut-être que nous n’y serons jamais ou que le machine learning nous donnera juste des indices dans une future « collaboration » entre les apprentissages artificiel et humain », conclut-il.
Par Marion Barbé pour l’IPSL
Pour en savoir plus
Découvrir le projet HRMES: High-Resolution Modeling of the Earth System