Retour aux actualités
Article suivant
Article précédent

Dossier : Á QUOI SERVENT

Revue des Ingénieurs

-

27/03/2023

Auteur : Sylvain Cros - S (P04 DOCT.), ingénieur de recherche au Laboratoire de Météorolo- gie Dynamique de l’École Polytechnique

Depuis plus de 150 ans, la météorologie produit des représentations de l’atmosphère à la surface de la Terre. Si les premiers réseaux de stations d’observation ont permis la conception de modèles de prévision, les satellites météorologiques, opérationnels depuis les années 1970, s’efforcent de reproduire un jumeau numérique de notre planète pour prévoir le temps et mieux connaître notre environnement.

 

 


AU COMMENCEMENT ÉTAIENT LES CONDITIONS INITIALES

Le télégraphe, inventé en 1837, transmet instantanément des informations à grande distance. Quelques savants travaillant pour les grandes puissances militaires de l’époque ont tiré avantage de cette invention en commandant à leurs chefs d’État respectifs la construction de réseaux de mesures météorologiques à échelle continentale. La transmission de ces données cartographiait la pression atmosphérique en temps réel, prévenant alors la formation de systèmes dépressionnaires à l’origine de tempêtes menaçant, par exemple, une flotte navale (figure 1). En France, c’est Urbain Le Verrier (1811-1877), directeur de l’Observatoire de Paris, qui convainc Napoléon III d’investir dans ce futur service public. En 1904 à Bergen, un groupe international de chercheurs nommé “l’école Norvégienne” a conceptualisé la prévision moderne. Vilhelm Bjerknes (1862-1951) a défini la 

prévision météorologique en tant que problème de physique posé en fonction de conditions initiales; ces conditions étant toute mesure météorologique disponible à l’instant d’initialisation d’une prévision. Mais les calculs de résolution des équations de la mécanique des fluides, estimant le futur état d’une atmosphère chaotique, s’avèrent fastidieux à cette époque prénumérique. Lewis Fry Richardson (1881-1953) s’est rendu célèbre avec ce sujet en imaginant une usine de calculateurs humains. En 1950, c’est l’ENIAC (Electronic Numerical Integrator And Computer), le premier ordinateur entièrement électronique, qui est sollicité pour automatiser ce concept en produisant la première prévision numérique du temps (PNT). Numérique, parce qu’elle conçoit l’atmosphère découpée en multiples cubes adjacents contenant chacun les valeurs locales de plusieurs variables météorologiques, dont la température, la pression, l’humidité et la vitesse du vent (figure 2). Ainsi, il devenait possible d’avoir ce type de données à une échelle mondiale et d’estimer leur devenir sur les prochains jours. Toutefois, hormis les réseaux météorologiques présents à la surface de quelques pays ayant les moyens de se les financer à cette époque, il n’y avait quasiment aucune mesure sur les océans, et la connaissance de l’état météorologique de la troposphère dans toute son épaisseur (entre le sol et 12 km d’altitude) restait très approximative. Si l’amélioration de la prévision passe par l’utilisation de modèles numériques plus raffinés, plus complexes et nécessitant plus de puissance de calculs, cette sophistication est inutile pour étudier un système chaotique : seul un apport massif de ces fameuses conditions initiales est déterminant La deuxième moitié du XXe siècle voit le développement de nombreuses stations météorologiques isolées, embarquées sur des bateaux, des avions ou encore des ballons-sondes, pour faire des radiosondages verticaux de l’atmosphère. Ces mesures très fiables améliorent la prévision mais restent ponctuelles. La télédétection initiée par le radar au sol donne des observations spatio-temporelles continues de la présence d’eau liquide sur un rayon de 300 km. Ce dispositif coûteux est toujours essentiel pour prévoir les précipitations dans les prochaines heures. Mais pour rendre la télédétection utilisable sur de plus grandes surfaces, quoi de mieux que de placer des capteurs en orbite autour de la Terre ?

POLAIRES OU GÉOSTATIONNAIRES: UNE HISTOIRE D’ESPACE ET DE TEMPS

Nous appelons“satellite météorologique” un satellite embarquant au moins un capteur observant la Terre pour obtenir des informations sur l’état de l’atmosphère. La plupart de ces satellites sont actuellement équipés de radiomètres mesurant l’intensité des rayonnements visibles et infrarouges émis depuis le sommet de l’atmosphère terrestre permettant d’extraire des variables météorologiques. Plus rarement, des satellites sont équipés de capteurs actifs tels que des radars pour quantifier la teneur en eau liquide de l’atmosphère voire estimer la hauteur de la houle ou des lidars pour obtenir des informations plus précises sur les propriétés microphysiques des nuages (épaisseur, altitudes, concentrations des gouttelettes ou cristaux de glaces qui les composent). Les premiers satellites météorologiques sont TIROS-1 lancé en 1960 (figure 3) et Meteor en 1961 respectivement par les États-Unis et l’Union soviétique. Ce sont des satellites à orbites polaires, donc défilantes. Chacun d’entre eux ne peut voir qu’une même partie limitée de la Terre deux fois par jour. Dès les années 1970, les services météorologiques états-uniens, européens, soviétiques et japonais utilisent des satellites géostationnaires. Placés en orbite à un peu moins de 36 000 km d’altitude, ils voient instantanément la même partie de la Terre (près d’un tiers de sa surface) toutes les 30 minutes. Les satellites météorologiques géostationnaires sont aujourd’hui les principaux fournisseurs d’observations pour la PNT opérationnelle. Avec leur haute fréquence de production d’image (jusque 10 minutes pour les satellites actuels), ils produisent de manière continue les conditions initiales des modèles avec une précision constante en tout point de la Terre. Ils complètent ainsi efficacement les observations dispersées au sol. 

Les satellites météorologiques polaires n’ont pas pour autant été abandonnés. Situés à des altitudes entre 700 et 800 km, ils “voient” une zone très limitée de la surface terrestre mais avec une plus grande précision, tant sur la résolution spatiale que grâce à la possibilité d’embarquer des capteurs plus sophistiqués que sur les géostationnaires. Malgré leur plus faible fréquence de revisite, les images de ces satellites servent aussi de conditions initiales aux modèles météorologiques, mais elles ont surtout vocation à mieux identifier et comprendre les interactions entre divers composants et phénomènes de l’atmosphère. Ces connaissances sont utilisées pour améliorer sur le long terme la représentativité de phénomènes météorologiques particuliers dans les modèles de météorologie et de climat.

LES IMAGES DES SATELLITES MÉTÉOROLOGIQUES GÉOSTATIONNAIRES

Afin de présenter les images de satellites météorologiques et leurs applications, nous nous limiterons aux géostationnaires, et en particulier à l’Européen Meteosat Second Generation dont les produits alimentent les modèles météorologiques depuis l’avènement de cette série de satellites en 2002. Son capteur observe toutes les 15 minutes une même zone couvrant l’Europe, l’Afrique et l’Atlantique au moyen de 12 différents canaux, allant du visible à l’infrarouge thermique (figure 4). La résolution spatiale de ces images est de 1 km au nadir pour un des canaux visibles, et 3 km pour les autres canaux. La résolution au nadir correspond à la taille du pixel situé sous le satellite qui se situe (pour Meteosat) dans le golfe de Guinée aux latitude et longitude strictement égales à 0 degré. Comme la Terre est ronde, la taille d’un pixel donné varie avec son éloignement du nadir. Un pixel situé en France est une sorte de rectangloïde d’1,2 km de largeur et 2 km de hauteur pour le visible et le triple de ces dimensions pour les canaux infrarouges. Il est à noter que les canaux visibles de Meteosat n’ont aucune utilité la nuit puisqu’ils ne perçoivent que la lumière du soleil reflétée par la Terre et son atmosphère. Ils permettent néanmoins d’observer très nettement la réflectance des nuages, la présence de brouillard ou les surfaces enneigées (si celles-ci sont dépourvues de nuages). Combinés au canal proche infrarouge d’1,6 µm, ils permettent de distinguer les cirrus, nuages les plus hauts et souvent les plus fins. Les canaux en infrarouge moyen (autour de 6 µm) cartographient la vapeur d’eau de haute altitude ; ils sont surtout utilisés pour suivre les vents à grande échelle et identifier notamment les dépressions et anticyclones. Enfin les canaux infrarouges thermiques (10 à 12 µm) donnent la température de brillance qui correspond à la température de l’objet observé en supposant que celui-ci se comporte comme un corps noir. Ils permettent ainsi d’estimer la température des sommets des nuages et d’en déduire leur altitude. En l’absence de nuages, ils estiment la température des surfaces continentales et océaniques.

Les techniques de traitement d’image pour convertir ces émissions et réflexions radiométriques reposent depuis plusieurs décennies sur le principe d’inversion des modèles de transfert radiatif. Ces derniers simulent ce que devrait voir le satellite en fonction de l’état de la colonne atmosphérique située sous un pixel donné. Cet état atmosphérique correspond à l’entrée du modèle et se caractérise notamment par les profils verticaux de température et de vapeur d’eau, la pression au niveau de la mer, les propriétés des nuages et des aérosols, ainsi que la composition de l’atmosphère. L’inversion du modèle de transfert radiatif consiste à déduire, depuis la valeur de la luminance spectrale d’un pixel observé par satellite, l’état atmosphérique le plus vraisemblable.

LES MODÈLES MÉTÉOROLOGIQUES “ASSIMILENT” LES OBSERVATIONS SATELLITAIRES

Une fois déduits de la luminance des pixels de ces images, ces états atmosphériques ne sont pas encore tout à fait prêts pour devenir ces conditions initiales dont la qualité est déterminante pour la fiabilité des prévisions météo rologiques. D’une part, les subdivisions spatio-temporelles en quatre dimensions d’un modèle météorologique ne correspondent jamais aux formats des images. D’autre part, les estimations issues d’images satellites, aussi jolies soient-elles, restent des estimations avec une plus grande incertitude que les mesures faites in situ depuis le sol ou en radiosondage. La recette idéale correspond à un savant mélange de toutes les sources disponibles. Les mesures in situ doivent ajuster les biais des estimations satellitaires, tandis que ces dernières doivent compléter les mesures in situ précises mais ponctuelles et trop disparates. La recette utilisée se nomme l’assimilation de données. Elle consiste à produire une matrice de conditions initiales spatialisées (nommée analyse) à l’instant d’initialisation de la prévision. L’amélioration perpétuelle de cette technique mobilise une très grande partie de la recherche mondiale en météorologie. La rendre opérationnelle est une affaire non moins conséquente1 . Pour décrire simplement l’assimilation de données (figure 5), il s’agit une d’une méthode mathématique d’optimisation qui créé ces analyses (analysis) en respectant simultanément deux contraintes: l’analyse doit être à la fois la plus proche possible de la vérité (truth), tout en restant cohérente avec la dernière prévision du modèle (ébauche ou background). Bien entendu, la vérité n’est jamais connue, mais elle est supposée se situer à l’intérieur des marges d’erreur des observations. Une analyse n’est pas toujours cohérente avec l’observation : si par exemple l’observation soutient qu’un nuage est présent alors que l’ébauche prétend le contraire, une bonne assimilation de données prend la décision qui réduira l’erreur de prévision. Il arrive parfois, de manière contre intuitive, qu’elle ignore l’observation en faveur de l’ébauche, car une cohérence globale du modèle aboutit à des prévisions plus précises que la prise en compte d’observations ponctuelles mais divergentes par rapport à l’ensemble du modèle.

 

LES IMAGES SATELLITES EN DONNÉES OUVERTES, UNE “MATIÈRE PREMIÈRE SPATIALE” POUR DE NOUVELLES OPPORTUNITÉS

Les informations dérivables des satellites Meteosat n’ont pas seulement servi à la prévision du temps. Dès les années 1980, les chercheurs du centre OIE de Mines Paris ont détourné l’usage météorologique de Meteosat pour cartographier le gisement solaire au sol, et ainsi quantifier la rentabilité d’un projet de parc photovoltaïque3 . Aujourd’hui, déterminer les mouvements nuageux depuis les images satellites apporte des solutions plus fiables que la météorologie classique pour la pénétration de l’énergie solaire dans le réseau électrique. La figure 6 montre un exemple d’analyse d’image par méthode de flot optique4 à partir de plusieurs images consécutives.

 

Les satellites météorologiques ont encore bien d’autres applications que la seule prévision du temps. Copernicus6 , le programme d’observation de la Terre de l’Union européenne, propose en données ouvertes des produits issus d’images de Meteosat servant notamment pour l’étude du climat à long terme (séries temporelles de nébulosité, vapeur d’eau, température du sol, flux radiatifs globaux), ainsi qu’un système de détection des feux de biomasse. Un dernier exemple spectaculaire de détournement d’usage est celui du satellite météorologique polaire Suomi NPP opéré par la NASA, conçu pour caractériser les nuages à fine échelle. Son capteur visible et proche infrarouge très sensible a permis de cartographier l’éclairage nocturne anthropique de la planète (figure 7)!

UNE NOUVELLE GÉNÉRATION SUR ORBITE

L’agence météorologique japonaise a été la première en 2015 à avoir son satellite géostationnaire de troisième génération Himawari-8. Meteosat Third Generation a été lancé depuis Kourou le 13 décembre dernier et devrait être opérationnel fin 2023 en produisant une image toutes les 10 minutes. Tandis que les algorithmes de deep learning bouleversent les modèles de prévision en redéfinissant le concept même d’assimilation de données7 , l’ouverture de la plupart des données météorologiques offre des applications économiques et sociétales non encore toutes connues à ce jour. Enfin, le programme Copernicus vient de lancer le projet Destination Earth qui développe le premier jumeau numérique environnemental de la planète. Une copie numérique de notre planète qui sert à nous rappeler que malgré ces fidèles reproductions, nous n’avons pas de planète de rechange. 

1- Un excellent article complet et accessible sur l’assimilation de données: Lenfle, Sylvain. De l’interpolation optimale au 4D-Var: l’émergence d’un nouveau dominant design en assimilation de données météorologiques. La Météorologie, 2018, 100, Numéro Spécial Anniversaire 25 ans, p. 37-46 https://bit.ly/Mines519-Meteo1

2- Frederik Kurzrock. Assimilation de données satellitaires géostationnaires dans des modèles atmosphériques à aire limitée pour la prévision du rayonnement solaire en région tropicale. Thèse de doctorat. Université de La Réunion, 2019.

3- Le centre OIE, Les Mines et la Recherche, Revue des Mines #513

4- Le flot (ou flux) optique (optical flow en anglais) est une méthode de détermination du mouvement sur une vidéo numérique. Elle consiste en une analogie avec la mécanique des fluides en assimilant l’intensité lumineuse des pixels à une masse. Son hypothèse fondamentale est de considérer que les pixels conservent leur intensité durant tout type de mouvement.

5. Cros, S., Badosa, J., Szantaï, A., & Haeffelin, M. (2022). On hand available predictors for operational satellite-based forecast (No. EMS2022-572). Copernicus Meetings.

6. www.copernicus.eu

7. Dewitte, S.; Cornelis, J.P. Müller, R. ; Munteanu, A. Artificial Intelligence Revolutionises Weather Forecast, Climate Monitoring and Decadal Prediction. Remote Sens. 2021, 13, 3209. https://bit.ly/Mines519-Meteo2

J'aime
64 vues Visites
Partager sur

Commentaires0

Vous n'avez pas les droits pour lire ou ajouter un commentaire.

Articles suggérés

Revue des Ingénieurs

AFRIQUE :

photo de profil d'un membre

Intermines

18 décembre

Revue des Ingénieurs

AFRIQUE :

photo de profil d'un membre

Intermines

18 décembre

Revue des Ingénieurs

L'urgence climatique

photo de profil d'un membre

Intermines

14 novembre