Lionel Moret, MétéoSuisse: «Nous analysons les prévisions qui pourraient être améliorées avec l'IA»
Docteur en physique, Lionel Moret est à la tête d’une équipe utilisant le machine learning chez MétéoSuisse. En entretien avec ICTjournal, il explique le potentiel et les défis de cette technologie pour les prévisions météorologiques, à l’aune des projets et développements en cours.

Quel est votre rôle à MétéoSuisse?
Je travaille à Météo Suisse depuis plus de dix ans. J’ai d’abord été prévisionniste, puis j’ai rejoint la R&D, et je dirige aujourd’hui une équipe, qui rassemble des data scientists et des développeurs. Nous nous occupons principalement de la production de données et de prévisions automatiques, comme celles affichées dans l’app de MétéoSuisse. Ces données sont produites spécifiquement pour l’application, elles sont optimisées pour être locales, si l’on veut.
Quelle est l’importance de l’IA à MétéoSuisse? Qu’est-ce qui vous semble le plus intéressant dans ces technologies?
Le potentiel de l’IA et du machine learning est très important et nous mettons un effort particulier pour l’exploiter. Nous avons déjà quelques outils en production. Dans l’application mobile, les précisions locales de vent sont par exemple réalisées avec du machine learning et un réseau de neurones. Plus généralement, nous analysons de manière assez systématique les prévisions qui pourraient être améliorées avec l'IA. Nous avons également fondé une équipe au sein de MétéoSuisse, qui a pour but de promouvoir l'utilisation de l'IA, de coordonner les actifs de l'IA, et aussi d'essayer de mieux nous relier avec tout ce qui se passe dans le domaine au niveau européen et mondial.
En mai dernier, MétéoSuisse a mis en œuvre ICON, un nouveau modèle météorologique profitant du supercalculateur Alps. De quoi s’agit-il?
ICON est un modèle de prévision numérique du temps de nouvelle génération, qui remplace le modèle précédent COSMO. Ces modèles sont capables de prédire un état futur de l’atmosphère en Suisse à partir d’un état initial. Il se nourrissent de données d’observation – températures, pression, vent – et d’informations sur ce qui se passe dans les régions voisines, fournies par le modèle global européen (ECMWF).
Qu’est-ce qui change par rapport au modèle précédent?
Par rapport au modèle précédent, beaucoup de choses ont été améliorées, notamment pour une meilleure représentation de la physique permettant de délivrer des prévisions plus fiables et détaillées. Le modèle ICON utilise aussi un maillage du territoire différent - avec une grille de triangles au lieu de carrés - ce qui apporte un meilleur mapping, notamment pour les reliefs. Selon nos comparaisons, ICON est meilleur que COSMO sur quasiment tous les paramètres du temps.
Le modèle météorologique ICON utilise-t-il de l’intelligence artificielle?
Non, ICON n’utilise pas de machine learning. C’est un modèle qui peut être expliqué, Il est basé sur les lois de la physique et, marginalement, sur de la statistique. Nous voulons en revanche essayer de reproduire ce que fait ICON avec du machine learning. Un tel émulateur aurait besoin de beaucoup moins de ressources qu’ICON, ce qui représente un énorme gain de vitesse. Avec les mêmes capacités de calcul, nous pourrions faire tourner le modèle toutes les heures ou demi-heures. Ou le faire tourner plusieurs fois pour disposer de plusieurs prévisions à partir desquelles estimer plus précisément la réalité.
Avez-vous d’autres projets d’intelligence artificielle?
Oui, ils sont nombreux. L’un de nos projets consiste à développer des prévisions hyperlocalisées, alors qu’ICON se contente de prédire le temps à chaque point de son maillage, c’est-à-dire à chaque kilomètre. Pour entraîner le modèle de machine learning, nous lui fournissons les prévisions d’ICON et les données mesurées aux endroit précis. Il va donc apprendre à reproduire les observations par rapport aux prévisions du modèle dans le passé.
Nous utilisons aussi l’IA pour développer des produits spécifiques, par exemple pour l’hydrologie et les événements extrêmes. Avec mon équipe, on utilise les prévisions ICON, puis on les affine ou on les calibre - ce qu'on appelle du post-processing.
Dans la liste des projets recensés par le CNAI (CNAI Competence Network for Artificial Intelligence), j’ai vu que vous l’un de vos projets concerne l’impact des orages…
Oui, l’application Coalition 4, qui tourne actuellement, a pour objectif de prédire l’impact des orages - la foudre, la grêle, la pluie intense, le vent - dans les prochaines heures. L'idée est de pouvoir prévenir les gens pour qu’ils puissent s’en aller ou prendre les mesures adéquates à l’avance. Potentiellement, l’application pourrait remplacer le système de MétéoSuisse qui fournit déjà des avertissements d'orages à court terme automatisés.
Qu’est-ce qui vous décidera de mettre cette application en production?
Pendant une saison complète, nous allons comparer le système actuel avec ce nouveau système. Selon les résultats, nous déciderons de la suite, sachant que les alertes sont un domaine très sensible. Nous devons prendre beaucoup de précautions pour être certain de la qualité des prédictions, d'autant plus qu’avec le machine learning, il est plus compliqué de savoir comment le système se comporte…
Comment arbitrez-vous entre modèles de prévisions classiques et modèles de machine learning?
Les modèles statistiques sont moins complexes à opérer. Les modèles de machine learning dépendent des données et doivent donc être réentraînés fréquemment. Avec l’introduction de ICON, nous avons par exemple dû réentraîner tous les modèles de machine learning qui utilisaient COSMO. Les modèles physiques ne changent pas, et puis ils ont l’avantage de l’explicabilité. Si l’on est capable d’expliquer à des clients comment sont produites les prévisions qui les intéressent, cela contribue à leur confiance, et c’est important. Nous comparons donc toujours les nouveaux modèles de machine learning avec les modèles existants. Il y a une énorme mode pour l’IA et, comme avec toutes les modes, il y a un danger de l'utiliser partout, et donc à des endroits où ce n'est ni nécessaire, ni utile.
Quels défis pose la conception de modèles de machine learning?
On pourrait penser que, pour l’entraîner, il suffit de fournir toutes les données au modèle et de lui demander d’apprendre. Dans la réalité, c’est bien différent. Il y a notamment beaucoup de travail sur la préparation des données et le choix des paramètres d’entrée du modèle. Il faut aussi prendre garde à la complexité du modèle: un modèle complexe a besoin de beaucoup de données. Et, s’il n’y en a pas assez, on court le risque de l’overfitting: le modèle est très performant sur ses données d’entraînement, mais généralise mal sur celles qu’il n’a jamais vues. Et puis il y a l’analyse des paramètres utilisés par le modèle entraîné. Si l’on se rend compte, par exemple, que notre modèle de prédiction de l’impact des orages n’exploite pas les images radar pour ses prédictions, on se dit qu’il y a un souci.
Il arrive aussi que les paramètres utilisés par le modèle nous surprennent. Ainsi, pour notre algorithme de prédiction du vent, nous pensions que la topographie précise à 25 mètres lui suffirait. Or il s’est avéré que les topographies de moindre résolution, que nous lui avons également fournies, ont beaucoup de poids dans ses prédictions. Autre phénomène étonnant, nous avons vu que le fait de lui indiquer si on se trouve sur une crête ou dans une vallée, aide beaucoup le modèle, quand bien même cette information est déjà «présente» dans les données topographiques à sa disposition. Parfois, il faut en quelque sorte lui prémâcher le travail…
Toutes ce travail requiert des data scientists connaissant le domaine de la météorologie…
Effectivement, ce travail sur les données et le développement de bons modèles nécessite une bonne compréhension physique. Si vous ne comprenez pas que là vous avez affaire à du vent et là à des précipitations, ça ne marche pas.
La mise à disposition récente du supercalculateur Alps donne-t-elle une nouvelle dynamique à vos projets de machine learning?
Nous n’avons pas attendu Alps pour faire du machine learning, mais la puissance de cette plateforme permet d'avoir des projets beaucoup plus ambitieux. MétéoSuisse a d’ailleurs participé à la définition des exigences pour la conception de la machine. De plus, le fait d'avoir ce genre d'infrastructure en Suisse développe une communauté internationale et nous permet d’échanger davantage avec des chercheurs qui travaillent sur des choses similaires.
Qu’en est-il des outils utilisés par vos équipes de data science?
Le machine learning nécessite un écosystème d'outils bien plus étendu qu'avec des méthodes statistiques classiques. Nous sommes en train de mettre en place une plateforme de MLOps, avec une partie sur Alps pour l'entraînement et une partie sur AWS pour l'inférence. Nous consacrons actuellement beaucoup d’efforts à cette infrastructure. Finalement, quand on regarde tout ce qu'il faut au machine learning, l'algorithme en lui-même est relativement petit, par rapport à tout ce qui est autour. Et cela demande un haut degré d'automatisation si on ne veut pas passer que notre temps à gérer tout cet écosystème. Heureusement, il y a beaucoup de solutions qui existent déjà.