Overblog Suivre ce blog
Administration Créer mon blog
10 avril 2012 2 10 /04 /avril /2012 08:37

Vous voyez double ? C’est normal…. Cette image est un nouvel anaglyphe, une combinaison de deux images permettant de voir le relief, grâce à des lunettes avec deux filtres de couleurs différentes. Deux autres anaglyphes, créés à partir d’images prises par le satellite Pléiades, ont déjà été publiés sur ce blog : une vue spectaculaire des gratte-ciel de Manhattan et, très récemment, une étonnante image en relief de la Lune.

Si vous n’avez pas encore regardé ces images avec les lunettes spéciales, vos enfants en ont certainement une paire à vous prêter ou vous trouverez sur Internet des explications pour les fabriquer vous-mêmes.

Pour cette nouvelle image, c’est un paysage de campagne qui est mis en valeur, avec des collines, des vallées, la végétation, les zones d’habitations et le réseau routier.

 

Pleiades - Grenade - Andalousie - 3D - RR8La région de Grenade en Andalousie (Espagne) : anaglyphe produit à partir de deux images acquises
par le satellite Pléiades le 20 décembre 2011. L’image en pleine résolution (environ 11000 pixels
de largeur) est disponible dans la galerie flickr des images Pléiades. Crédit image : CNES.

 

Grenade : un ville plein d'éclat

Il s’agit des environs de Grenade, en Andalousie au sud de l’Espagne, à proximité des montagnes de la Sierra Nevada. L’image, qui couvre une zone de 9 km sur 5 km environ, est pivotée : le nord est à droite. La vision stéréo, avec un relief légèrement accentué, met en évidence les cultures en terrasse, les champs d’oliviers et les zones habitées. En haut à gauche, on voit une petite partie de la ville de Grenade. La zone sombre est une vallée où coule le Rio Darro. La route principale est l’autoroute A92. L’altitude varie entre 750 et 1200 mètres.

A gauche de l’image, le palais de l’Alhambra, un ensemble fortifié de bâtiments situés sur la colline de la Sabika, qui domine la plaine et la ville de Grenade, et qui fait face au quartier populaire de l’Albaicin. Dans cet ensemble, on trouve le palais mauresque, qui fait la réputation de l’Alhambra et le palais de Charles Quint.

A certains endroits, la perception du relief est spectaculaire, comme sur les deux extraits suivants, avec un pont autoroutier et des cultures en terrasse. Un conseil : lisez cette page avec les lunettes colorées, les images semblent vraiment sortir de l'écran. Et puis... Cela fera des photos amusantes à mettre sur votre page facebook !

 

Pleiades - Grenade - Andalousie - 3D - Extrait 1Pleiades - Grenade - Andalousie - 3D - Extrait 2 - RR2Deux extraits de l’image de Grenade en Andalousie (Espagne). Crédit image : CNES.

 

A 694 km d’altitude et à une vitesse de plus de 27000 km/h, le satellite Pléiades a acquis ces deux images le 20 décembre 2011, quelques jours seulement après son lancement. Entre les deux acquisitions d’images, alors que le satellite pivotait sur son axe pour viser la même zone, le capteur à haute résolution s’est déplacé d’environ 120 km, une distance suffisante pour avoir deux points de vue bien différents. La vision stéréo de Pléiades, la possibilité d’acquérir plusieurs images d’un même site, est très performante grâce à l’agilité du satellite.

Au-delà du relief impressionnant, cette image de Pléiades a surtout permis aux ingénieurs du CNES de vérifier que tous les possibilités de prise de vue sont parfaitement assurées. Mission accomplie !

 

Du relief sur un écran plat, comment ça marche ?

Depuis deux ans, c’est l’argument commercial des vendeurs d’écrans plats à haute définition : la possibilité de voir des films en 3D avec des lunettes spéciales.

J’ai déjà abordé dans deux articles précédents, un sur le tour de France au col du Tourmalet et celui sur la lune en 3D, la technique de capture d’images stéréo. Créée à la fin du XIXème siècle, longtemps réservée aux amateurs de jeu vidéo, la 3D a fait son entrée au cinéma depuis quelques années, notamment avec le film Avatar et cette semaine Titanic, et plus récemment, avec le développement des nouveaux téléviseurs HD et du format Blu-Ray.

Comment restituer ces images pour que la personne qui les regarde perçoive le relief de la scène d’origine ?


Jetons un œil sur la restitution stéréo…

En fait, il vaut mieux conserver ses deux yeux pour bien percevoir le relief !

Un verre, ça ne va pas...

Chacun des yeux du spectateur voit une des deux images d’origine fournies par le système de prise de vue (satellite, caméscope 3D, appareil photographique déplacé entre deux prises de vue, etc.)

En dehors de la technique d’holographie que je n’aborde pas ici, il y quatre solutions pour y parvenir :

  • Les lunettes bicolores sont les plus courantes : avec des filtres de couleurs complémentaires (vert et magenta, rouge et cyan, etc.), elles permettent de voir le relief des anaglyphes, comme celui de la région De Grenade. Elles donnent de bons résultats pour les images en noir et blanc. Par contre, elles ne permettent pas une bonne restitution des images avec des couleurs vives : les couleurs correspondant à celles des deux filtres apparaissent sombres.
  • Les lunettes à verres polarisants : ce sont celles qu’on trouve dans les salles Imax comme par exemple à la Cité de l’espace ou au Futuroscope. Les images destinées à l’œil gauche et à l’œil droit sont projetées sur un écran avec deux lumières polarisées différemment (verticalement et horizontalement). La seule condition : l’utilisation d’un écran métallique qui conserve la polarisation. La vision stéréo est de bonne qualité avec des couleurs fidèles.
  • Les lunettes à occultation alternée, avec des verres à cristaux liquides. Elles se généralisent avec les TV HD 3D : le téléviseur émet alternativement à une cadence rapide, l'image destinée à l'œil droit, puis celle destinée à l'œil gauche. Un système électronique synchronisé avec la source des images rend alternativement opaque les verres du côté droit et du côté gauche.
  • Les lunettes à écrans intégrés, comme ceux des viseurs de caméscopes : l’image est créée directement devant chaque œil. Leur qualité dépend de la résolution de ces écrans électroniques. Elles pèsent assez lourd et font ressembler le spectateur à une espèce de Robocop.

Journées Pléiades - Janvier 2012 - 3D - stéréoLes lunettes à verres colorés : un moyen simple de voir des images en relief (anaglyphes).
Démonstration avec l’image de Grenade pendant les journées Pléiades 2012 en janvier 2012 à
Toulouse. Crédit image : Gédéon.

 

Novela 2011 - Forum des métiers - IGN Vision stéréo avec des lunettes à cristaux liquides. Animation proposée par l’IGN (Institut
Géographique National) pendant le forum des métiers organisé à Toulouse pour la Novela 2011.
Crédit image : Gédéon.

 

Il existe également des écrans autostéréoscopiques, qui peuvent être regardés sans lunettes spéciales. Connue depuis le début du siècle et courant sur les gadgets publicitaires dans les boîtes de céréales ou sur certaines cartes postales, c’est la technologie des réseaux lenticulaires : une série de microlentilles est placé à la surface de l'image. Cette image est elle-même constituée d'images imbriquées représentant chacune un point de vue pris sous un angle différent. Le Chaque œil voit directement une image différente. Actuellement, la définition est réduite par rapport aux écrans classiques (impression de flou) et la qualité perçue dépend de la position du spectateur.

 

En savoir plus :

 

 

 
Repost 0
17 février 2012 5 17 /02 /février /2012 14:29

A New York, une pléiade de gratte-ciel en 3D vue par le satellite Pléiades

Après l’image de la région de Grenade en relief publiée par le CNES le 11 février, vous n’allez pas regretter d’avoir investi dans vos lunettes à verres colorés : voici une superbe représentation 3D de l’île de Manhattan à New York. Si vous aimez l’architecture du cœur des villes américaines, vous allez voir New York d’une manière assez inhabituelle.


New York - Manhattan - Sud - Pléiades - 3D - CNES

A New York, la partie sud de Manhattan, représentée sous forme d’anaglyphe. Couple d’images
acquises par le satellite Pléiades en janvier 2012. La résolution est réduite par rapport à celle
de l’image d’origine. Copyright CNES 2012

 

Comment obtient-on une telle image ? L’agilité du satellite Pléiades a permis de prendre une série d’images très obliques (angle de 45° environ). Représentées sous forme d’anaglyphe (avec les couleurs rouge et bleue), elles font ressortir le relief des gratte-ciel du cœur économique et culturel de Big Apple. Avec les lunettes, les gratte-ciel semblent véritablement transpercer l’écran.

 

La grosse pomme en 3D : des gratte-ciel qui grattent l’œil

La première image couvre le sud de Manhattan avec le pont de Brooklyn et le pont de Manhattan, Chinatown et, bien sûr, Ground Zero, l’emplacement des tours jumelles du World Trade Centre (voir un autre article sur les attentats du 11 septembre). J’en ai extrait une partie qui montre le port maritime « Pier 17 », le South Street Seaport, où on distingue très nettement les mâts de grands voiliers (dont le Flying P-Liner Peking) ainsi que d’autres bateaux-musées. Cette image est également publiée sur le blog « La tête en l’air » du CNES.

 

New York - Manhattan - Sud - Pléiades - 3D - Extrait - CNES New York - Manhattan - Nord - Pléiades - 3D - CNES

A gauche, un extrait de l’image du sud de Manhattan centrée sur les voiliers du South Street Seaport.
A droite, un anaglyphe du quartier nord de Manhattan. Images acquises par le satellite Pléiades en
janvier 2012. Cliquer sur les images pour les voir en grand format. Copyright CNES 2012

 

L’mage de la partie nord de Manhattan montre quelques gratte-ciel célèbres et l’extrémité de Central Park. Les amoureux de New York reconnaîtront au sud le Manhattan Municipal Building, la tour Gehry (une des constructions les plus récentes), le Woolworth Building (une des plus anciennes), le Flat Iron Building (à sa construction en 1902, c' était le plus grand immeuble de tous les temps).

Au nord, le plus haut est l’Empire State Building. Il y a aussi le Chrysler Building, le Rockefeller Center, la Bank of America tower et bien d’autres...

 

Un quiz pour identifier les gratte-ciel les plus célèbres…

Pour ceux qui ne sont pas encore familiers avec le quartier de Manhattan, voici quelques photographies que m’a passées Nicolas Ruelle, prises non pas à 700 kilomètres d’altitude, mais depuis les toits du Rockefeller Center et de l’Empire State Building. Elles donnent un autre point de vue du quartier. Un petit jeu avant de parler de la technique d’acquisition d’images en stéréovision : identifiez les gratte-ciel les plus connus (postez un petit message avec vos réponses).

 

New York - Manhattan - Sud - Empire State Building - Nicola New York - Manhattan - Empire State Building - Top rockefell
New York - Manhattan - Flat Iron Building - Nicolas Ruelle New York - Manhattan - Central Park - Nicolas Ruelle

Quelques photographies de Manhattan prises depuis une orbite très basse. En haut à gauche, le sud de Manhattan depuis l'Empire State Building. A droite, L'Empire State Building depuis le Rockefeller Center.
En bas à gauche, le Flat Iron Building. A droite, Central Park. Crédit images : Nicolas Ruelle

 

Avec les anaglyphes, les couleurs prennent du relief

En enlevant les lunettes et en observant attentivement l’anaglyphe, il est possible de comprendre comment fonctionne cette représentation tridimensionnelle : au premier plan, le motif bleu est décalé à gauche du motif rouge. A l’arrière plan, c’est l’inverse et au centre, le décalage est peu perceptible. C’est lié directement à la différence de parallaxe entre chaque pixel des deux images prises par Pléiades au moment où le satellite survolait New York.

Parallaxe mais presque, comme aurait dit Coluche !

 

Quand l’épipolaire devient populaire chez les people (merci de votre compréhension…)

En très résumé, en observant la lumière réfléchie par une scène, on ne peut pas percevoir le relief d’un objet sans avoir plusieurs points de vue.

C’est de cette manière que fonctionne la vision humaine, avec deux yeux et, entre les deux oreilles, un cerveau… Selon la distance à laquelle nous nous trouvons d’un objet, l’image qui se forme sur chacune de nos deux rétines est différente. Chaque point de la scène est décalé en fonction de sa distance. Plus un objet est éloigné, plus l’écart de parallaxe est faible : à l’horizon, ce ne sont pas nos yeux qui perçoivent le relief mais notre cerveau qui comprend que les arbres sont derrière le champ et la montagne derrière les arbres.

A plus courte distance, la parallaxe augmente : Si l’on regarde son pouce (sans le déplacer) successivement avec l’œil droit, puis avec l’œil gauche, on a l’impression qu’il se déplace devant le fond qui lui, reste immobile. L’illusion provient de ce que le pouce est observé sous deux angles différents par chacun des deux yeux, alors que le fond est trop lointain il semble donc immobile. Attention quand même à ne pas vous mettre le doigt dans l'oeil...

En stéréovision, un paramètre est très important : c’est le rapport B/H, le rapport entre la distance des deux points d’observation (B) et la distance de la scène observée (H).

Comment les satellites font-ils pour mesurer le relief ? Je m’intéresse ici exclusivement aux satellites optiques. Il faudra attendre un autre article pour traiter le cas des satellites Radar et des Lidar (laser).

C’est l’occasion d’un petit retour en arrière sur la famille des satellites Spot, qui ont précédé le satellite Pléiades et de comparer les techniques de vision 3D utilisées.

 

De Spot 1 à Pléiades, trois points de vue sur les différents points de vue.

J’avais d’abord pensé à « strabisme en famille » mais cela donnait l’impression d’un défaut de vision… En réalité, c'est une performance remarquable des satellites du CNES.

La stéréovision, une technique photographie pour déterminer forme et distance des objets, est une technique assez ancienne. A Toulouse, Eugène Trutat l’a abondamment utilisée (voir l’article De Spot 1 à Pléiades : 25 ans de développement de la ville de Toulouse à travers le regard des satellites).

Dans l'espace, il y a bien sûr les missions d'astronomie comme Hipparcos ou Gaïa qui utilisent la mesure de distance par parallaxe. Dans le domaine de l'observation de la Terre, la stéréovision fait partie des possibilités de prise de vue qui ont été mises en œuvre dès le premier satellite Spot 1 lancé en février 1986, pour construire des modèles numériques de terrain.

Pour commencer, il est important de dire qu’il n’existe aucun satellite optique capable de faire de la « stéréovision instantanée ». L’écartement minimal entre les deux yeux du satellite (le fameux rapport B/H) est trop grand. La seule méthode possible est d’attendre que le satellite se déplace pour acquérir les deux images.

Petit retour en arrière, avec par ordre d'apparition à l'écran : Spot 1 et ses petits frères, Spot 5 et enfin Pléiades. 3 angles d'approche...

 

La stéréovision sur les satellites Spot 1 à Spot 4 : attendre un tour pour se décaler latéralement...

La première génération de satellites Spot utilise des télescopes dotés de miroirs pivotant. Cela permet de viser à la verticale de l’orbite mais également de prendre de vue obliques (jusqu’à 27°) de part et d’autre de la trace du satellite. C’est intéressant pour améliorer la revisite, le délai entre deux prises de vue d’une même région. C’est également un moyen d’avoir deux points de vue sous des angles différents en attendant que le satellite fasse un tour sur son orbite.

 

Spot - Visée oblique et stéréo - images 3DLe principe de prise de vue oblique des satellites Spot 1 à Spot 4. Crédit image CNES.

 

Spot 5 : vite, un coup d’œil devant, un coup d’œil derrière…

Spot 5 inaugure une nouvelle technique avec l’instrument HRS (Haute résolution stéréo).

Cela paraît simple et c’est pour cela que idée est géniale : ne plus utiliser l’instrument principal du satellite pour la stéréo mais ajouter une charge utile spécialisée.

Il s’agit de deux caméras supplémentaires, une pointant vers l’avant, une autre vers l’arrière. Ils observent chaque zone survolée par Spot 5 sous deux angles différents à quelques dizaines de secondes d’intervalles.

C’est avec cette technique qu’Astrium GEO-Information Services a construit ses bases de données mondiales de modèles numériques de terrain.

 

Spot 5 - Instrument HRS - Stéréo avant arrièreL’instrument HRS et son fonctionnement sur Spot 5. Un strabisme divergent qui fait des miracles.
Crédit image : Gédéon

 

Pléiades : l’agilité et la tri-stéréo pour voir les faces cachées

L’allure de l’image de Manhattan, avec son angle de prise de vue très oblique, illustre bien la méthode la plus récente de prise de vue stéréo : celle des satellites Pléaides. On utilise l’agilité du satellite qui pivote entièrement avec son instrument. Plus de miroir pivotant, des angles beaucoup plus inclinés… Et surtout, la possibilité de faire de la « stéréo massive », c’est-à-dire ne pas se limiter à un couple d’images mais d’acquérir trois images voires plus d’une même scène. L’avantage est de limiter les zones masquées. En zone urbaine avec des hauts immeubles ou sur des terrains au relief accidenté, c’est une condition pour produite des modèles 3D très complets.

 

 

 

    Une vidéo illustrant les possibilités de prises de vue du satellite Pléiades

 

 

En savoir plus :


Suggestion d’utilisations pédagogiques en classe :

  • La stéréovision, des multiples pistes d’activités en classe : le fonctionnement de la vision humaine, la réalisation de maquettes de maison ou de bâtiments, les courbes de niveau, etc. Inépuisable ! Commencez par exemple par fabriquer des lunettes 3D avec vos élèves...

 

 

Repost 0
15 février 2012 3 15 /02 /février /2012 15:16

Toulouse : tout schuss avec Pléiades...

Après les quelques flocons du 14 février, la température remonte et la neige a commencé à fondre à Toulouse. Il était temps : avec les températures très basses, la neige tombée la semaine précédente n’avait pas encore fondu.

Le satellite Pléiades a pris cette image exceptionnelle de Toulouse sous la neige le 8 février. J’ai publié plusieurs images de régions enneigées vues par le satellite Envisat mais il est rare de voir une image à très haute résolution d’un paysage sous la neige.

 

Pleiades - Toulouse - Neige - 08-02-2012 - RR15Toulouse sous la neige. Image acquise par le satellite Pléiades le 8 février 2012.
Copyright CNES 2012

 

Un beau soleil de milieu de matinée éclairait la ville mais les températures restaient très basses : même si les records absolus n’ont pas été dépassés, une vague de froid d'une telle intensité sur une période aussi longue reste rare. Météo France doit remonter à février 1963 pour trouver des températures inférieures à celles atteintes le 8 et le 9 février (-10,3°C et -12,5°C au matin) à Toulouse.


Satellite en orbite, boules de neige et Grand-rond

Sur cette image de Pléiades, tous les espaces verts sont encore couverts de neige : le Grand-rond et le jardin des plantes, la prairie des filtres et le parc des Abattoirs au bord de la Garonne, etc. Exception : la pelouse du stadium recouverte d’une bâche pour la protéger des intempéries. Le canal du Midi, notamment au niveau des Pont-Jumeaux est également partiellement gelé en surface. Sur la Garonne, le courant est plus important mais le petit bras de la Garonne est également gelé près du pont Saint Michel.

 

Pleiades---Toulouse---08-02-2012---Ponts-Jumeaux.jpg Pleiades - Toulouse - 08-02-2012 - Grand rond

Toulouse sous la neige. Deux extraits de l'Image acquise par le satellite Pléiades le 8 février 2012.
Copyright CNES 2012

 

Une dynamique qui explose…

Après l’image de Pléiades montrant les couleurs caractéristiques de la ville rose, cette nouvelle image de Toulouse permet de se faire une bonne idée de la grande dynamique de son instrument, sa capacité à distinguer de faibles différences de luminosité. Ici, l’image au format jpeg a une résolution très réduite par rapport à celle d’origine. Sur les logiciels professionnels du CNES (comme la boîte à outils Orfeo Toolbox ou l’application Monteverdi) ou de l’IGN, les produits images à 50 cm de résolution sont encore plus spectaculaires.

Pas seulement à cause de la très haute résolution mais aussi la très grande dynamique.

Qu’est ce que la dynamique d’une image numérique ? C’est la capacité à restituer les variations réelles de l’intensité lumineuse des objets réels présents dans l’image.

Par exemple, les images jpeg des appareils photo numériques sont des fichiers où chaque couleur est codée sur 8 bits, soit 256 niveaux. Cela veut dire qu’il est possible de discerner dans l’image 256 nuances de bleu entre le noir absolu (codé avec la valeur 0) et le bleu le plus lumineux (codé avec la valeur 255).

Avec un codage sur 8 bits, le total des nuances de couleurs en combinant le rouge, le bleu et le vert est de :

28 x 28 x 28 = 224 = 16 millions de couleurs

 

Comme pour un écran d’ordinateur, c’est largement suffisant pour les usages courants.

Il y a pourtant deux situations où c’est une limite. Vous les avez peut-être déjà rencontrées si vous retouchez vos photos :

  • Lorsqu’on veut créer un beau tirage noir et blanc : dans ce cas, on ne s’intéresse qu’à la luminance. Avec des images codées sur 8 bits, on a donc seulement 256 niveaux de gris et ce peut être insuffisant.
  • Lorsqu’on s’intéresse à des scènes avec de grandes variations d’éclairage, par exemple, un paysage de montagne éclairé, avec au premier plan une belle grange dont la façade est dans l’ombre. Difficile d’avoir un bon rendu général…


Arrens - Barrage du Tech - Couleurs Arrens - Barrage du Tech - Gris 8 bits Arrens - Barrage du Tech - Gris 4 bits

Combien de bits ? Le lac du barrage du Tech près d'Arrens dans les Hautes-Pyrénées, un exemple de
scène avec des variations d'intensité importantes et des détails dans les faibles lumières. A gauche,
l'image en couleur sur 24 bits (en pratique,il y a environ 350000 couleurs dans cette image. Au centre,
l'image en niveaux de gris codés sur 8 bits. A droite, les niveaux de gris sont codés sur 4 bits. Cliquer
sur les images pour bien voir les différences. Crédit image : Gédéon.

 

Un cas particulier, celui des astronomes amateurs : ils prennent des photos dans le noir ! Ce sont les plus exigeants en matière de dynamique, par exemple pour photographie l’amas M45, plus connu sous le nom d’amas des Pléiades. Pas étonnant que vous soyez toujours jaloux de leur boîtier reflex.

Les amateurs éclairés, même dans l'obscurité, travaillent alors avec un format différent, le format RAW (données brutes) qui offre souvent une meilleure dynamique : par exemple 12 bits pour le format NEF du Nikon D90, 14 bits pour le D3.

 

Pareil qu’un appareil... Mais très haut de gamme et gros téléobjectif

C’est pareil avec le capteur image du satellite Pléiades : dans chacune des bandes spectrales (panchromatique, rouge, vert, bleu et proche infrarouge), l’information est codée sur 12 bits :

  • Pour le canal panchromatique, il y a donc 4096 niveaux radiométriques, 16 fois plus que pour un codage sur 8 bits. Cela change tout pour la photointerprétation.
  • Pour une image multispectrale en couleurs naturelles, le nombre total de couleurs possible est : 212 x 212 x 212 = 236 = près de 70 milliards de couleurs ! Plus qu'il n'en faut la plupart du temps mais parfois utile pour des analyse fines.

Pour prolonger l'analogie avec la photographie, sachez que l'instrument de Pléiades correspondrait à un téléobjectif de 1250 mm de focale avec une très grande ouverture sur un appareil reflex en plein format (24 x 36).

Evidemment, avec une résolution à 50 centimètres, cela fait des gros fichiers, jusqu'à 16 gigaoctets au format GeoTIFF selon le type de produits. Pour cette raison, Astrium Services distribuera également les images au format JPEG2000 : avec ce format, cela tient sur un DVD.

 

Journees-Pleiades---Demonstration-UGN---3D.jpg

Démonstration d'analyse d'image en 3D par l'IGN pendant les journées Pléiades. Ici, les lunettes 3D
sont à verres polarisants pour voir en couleurs. Celles posées sur la table sont équipés de verres
colorés. Crédit image : Gédéon

 

La dynamique du canal panchromatique est très importante pour les cartographes qui vont s’en servir pour la mise à jour des cartes urbaines : pendant les journées Pléiades en janvier 2012, j’ai pu assister à une démonstration faite par un ingénieur de l’IGN (Institut Géographique National). Il m’a montré comment la dynamique des images Pléiades facilitait l’interprétation des images urbaines. L’exemple qu’elle utilisait était celui d’une cour intérieure dans le centre de Toulouse : la qualité des images Pléiades permettait de voir les nuances de gris dans les zones sombres et de délimiter avec beaucoup de précision les limites du bâtiment.

A nouveau, comme pour l’achat d’un appareil photo, il est bon de se rappeler que la résolution ne fait pas tout. Sur le satellite Pléiades, la FTM, la fonction de transfert de modulation (la capacité d'un système d'observation à restituer fidèlement des variations rapides de luminance de la scène observée) et le rapport signal sur bruit (la différence entre ce qu’on veut mesurer et les perturbations dues à l’instrument de mesure imparfait) sont bien meilleurs que les spécifications initiales.

Explication théorique ? Si vous voulez "sentir" la notion de FTM, regardez dans les images les zones où il y a des changements rapide de teinte ou de luminosité : en ville, cherchez les bandes de peinture des passages pour piétons, les lignes matérialisant les parkings ou encore le dallage de l'esplanade de la grande mosquée de Casablanca, une des premières images acquises par le satellite Pléiades.

Pour le rapport signal sur bruit, ce sont les aplats qu'il faut chercher, les zones de couleur uniforme, en particulier les zones sombres.

Un seul bémol : le format jpeg ou la diminution de la taille des images publiées sur ce blog ou d'autres supports grand public (par exemple la galerie flickr du CNES) ne permettent pas d'apprécier complètement la qualité d'origine des images.

Cela commence à vous chauffer ? Revenons à la vague de froid et à la neige.


Des images de la neige pour ne pas avoir froid aux yeux

Voici quelques nouvelles images de la France et de l’Europe sous la neige acquises entre le 11 et le 13 février 2012. Je suis toujours émerveillé de voir les motifs que produit la neige sur les images satellites. Toutes les images qui suivent proviennent du capteur MERIS du satellite européen Envisat. La résolution moyenne (300 mètres environ) n’a rien à voir avec la très haute résolution de Pléiades mais le champ large de MERIS permet de voir des régions ou des pays en entier. C’est très complémentaire. Dans certains cas, j’ai procédé à une correction de dynamique pour améliorer le rendu des images. J’espère que les explications précédentes vous aident à comprendre ce qu’on entend par rehaussement de dynamique.


La neige, c’est exquis.

Commençons par une vue d’ensemble : le couvert neigeux en France dans la matinée du 11 février 2012.

 

Envisat - MERIS - 11-02-2012 - 11h49 - RR35Extrait d’une image acquise par Envisat le 11 février 2012 à 10h49 UTC. La résolution est réduite
par rapport à celle de l’image d’origine. La limite des zones couvertes de neige crée un motif étonnant.
Crédit image : Agence Spatiale Européenne (ESA)

 

Ensuite, la montagne : bonne nouvelle pour ceux ont la chance de pouvoir partir au ski : « De la neige, y en a ! » comme le montre une même image acquise par le satellite Envisat le 12 février.


Envisat - MERIS - Sud-ouest - Pyrénées - Toulouse - 12-02 Envisat - MERIS - Neige Alpes - Genève - 12-02-2012 - 10h1 

Deux extraits d’une image acquise par Envisat le 12 février 2012 à 10h11 UTC.
A gauche, les Pyrénées et le sud-ouest. A droite, les Alpes.
Crédit image : Agence Spatiale Européenne (ESA)

 

Blanche neige sur l'île de beauté

Plus au sud, en Corse et en Italie, il a aussi bien neigé. En Italie, les deux ronds sombres sont le lac de Bolsena, au nord, et le lac de Bracciano, à proximité de Rome. On voit également l’île de Giglio. L'épave du paquebot Costa Concordia est toujours là mais la résolution du capteur MERIS ne permet pas de la voir.

 

Envisat - MERIS - Corse - Italie - 13-02-2012 - 09h35 - RR2 Envisat - MERIS - Corse - 13-02-2012 - 09h35 - FR

Deux extraits d’une image acquise par Envisat le 13 février 2012 à 9h35 UTC. La Corse et une partie de l’Italie sous la neige. Crédit image : Agence Spatiale Européenne (ESA)

 

Enfin , toujours aussi étonnant, la neige en algérie :

 

Envisat - MERIS - Algérie - 12-02-2012 - 10h11La neige en Algérie. Extrait d’une image acquise par Envisat le 12 février 2012 à 10h11 UTC.
Crédit image : Agence Spatiale Européenne (ESA)

 

En savoir plus :

 

En savoir encore plus :

 

Repost 0
11 janvier 2012 3 11 /01 /janvier /2012 07:45

A défaut de températures polaires en décembre 2011, il y a quand même des orbites polaires… Alors que nous fêtions la nouvelle année 2012 et échangions 1,13 milliard de textos (SMS) selon les bilans communiqués par les trois grands opérateurs mobiles français, Orange, SFR et Bouygues Télécom (Free n'avait pas encore annoncé le tarif de ses nouveau fofaits), les satellites d’observation de la Terre continuaient à tourner sur leur orbite et à acquérir des images.

 

Des images juste avant minuit… Etonnant ?

Cela se comprend assez bien pour les satellites Radar dont le capteur actif n’a pas besoin de la lumière solaire : ils « illuminent » la région survolée avec le signal qu’ils émettent. Néanmoins, même si leurs capteurs n’ont pas besoin de lumière solaire, ils utilisent souvent une orbite dite « crépusculaire » (« dawn-dusk » en anglais) afin que leur panneaux solaires soient toujours éclairés par le soleil. Par exemple, les orbites de Radarsat, TerraSAR-X ou Cosmo-Skymed traversent la verticale de l’équateur du nord vers le sud (on appelle cette position le nœud descendant) à 6h00 heure solaire locale et du sud vers le nord (nœud ascendant) à 18h00 heure solaire locale.

 

A la même date, le choix dans l’heure pour le nœud descendant…

Acquérir des images à minuit, c’est vrai aussi pour les satellites optiques, mais en heure UTC : sur une orbite héliosynchrone, l'altitude et l'inclinaison sont choisie de manière à ce qu’une même zone soit observée avec le même éclairage du soleil (l'angle entre le plan d'orbite et la direction du soleil demeure presque constant).

Un satellite d’observation en orbite héliosynchrone repasse au-dessus d'un point donné à la même heure solaire locale. L’orbite de la grande majorité des satellites d’observation traversent l’équateur du nord au sud (nœud descendant) entre 10h00 et 10h30 du matin.

Pour Envisat, c’est 10h00 du matin comme pour Quickbird, Landsat 6 et 7 et les futurs satelites Spot 6 et Spot 7. Pour Spot 5, c’est 10h30, comme pour les satellites Ikonos, GeoEye-1 et WorldView-1 et 2. 10h30 pour Pléiades, le nouveau satellite à très haute résolution lancé en décembre 2011.

L’orientation de la ligne de visée (avec un miroir orientable comme sur Spot) ou l’agilité du satellite permettent d’acquérir des images un peu avant ou un peu après l’heure de passage à la verticale de lieux mais il s’agit alors de prises de vues plus ou moins obliques.

En général, sur le blog Un autre regard sur la Terre, toutes les heures sont exprimées ien temps UTC (Temps Universel Coordonné). Parfois, j’utilise l’heure locale légale : en fin d’année (lorsque l’heure d’hiver s’applique), quand il est par exemple minuit en temps UTC, il est une heure du matin à Paris en heure légale. Les heures de passage au nœud descendant citées ici sont exprimées en heure solaire locale.

Pourquoi privilégier ce choix de 10h00 à 10h30 : pour les satellites optiques, c’est surtout pour optimiser les conditions d’éclairement (éviter les réflexions spéculaire, choisir un angle maximum entre le zénith et le soleil) et pour tenir compte des conditions météorologiques, par exemple la couverture nuageuse en fin de matinée sur les régions où on souhaite acquérir des images en priorité.

Pour les satellites multi-missions, embarquant à la fois des charges utiles d’observation optique et radar, c’est bien entendu les contraintes du capteur optique qui déterminent l’heure du nœud descendant : 10h00 pour le satellite Envisat, 10h30 pour le satellite japonais ALOS (en panne depuis avril 2011). Pour la famille des satellites météorologiques MetOp, c’est 9h30.

Les images suivantes, notre quatre « bons plans » pour le réveillon ou le nouvel an, sont quatre extraits d’images, optiques ou radar, trois acquises par le satellite européen Envisat et une par le satellite Terra entre les dernières heures ou dernières minutes de l’année 2011 et les premières minutes de l’année 2012, pour une personne qui passait le nouvel an à Londres ou Greenwich (sur le célèbre méridien de Gavarnie dans les Hautes-Pyrénées).

Une fin de l’année et une dernière orbite avec le satellite européen Envisat qui fêtera ses dix ans de service en orbite en mars 2012…


Premier bon plan : le mont Cleveland dans les îles Aléoutiennes

La première image Envisat est une image du Radar ASAR acquise le 31 décembre à 21h33 UTC. Il s’agit d’une image en mode IMM (Medium Resolution Image Mode) des îles des Quatre Montagnes dans les îles Aléoutiennes (sud-ouest de l’Alaska). L’image montre en particulier le mont Cleveland, un volcan de l’île Chuginadak, qui culmine à 1730 mètres d’altitude.

 

Envisat - ASAR - IMM 31-12-2011 - 21h33Extrait d’une Image acquise par le radar ASAR du satellite ENVISAT le 31 décembre 2011 UTC :
le mont Cleveland dans les îles Aléoutiennes. Données images acquises entre 21h32m51s et
21h33m26s. Crédit image : Agence Spatiale Européenne (ESA)


Deuxième bon plan : faire la Java à l’est de Java et prendre l’apéro avec La Pérouse

En fait, la deuxième image publiée ici est acquise à l’est de la Nouvelle-Guinée. Java est plus à l’ouest.

Il s’agit d’un extrait d’une image acquise par le capteur MERIS satellite Envisat le 31 décembre 2011 entre 23h29 UTC et 23h31 UTC. Elle montre l’archipel des Louisiades, entre la mer des Salomon au nord et la mer de Corail au sud, en Papouasie Nouvelle Guinée. Ici, à 23h29 UTC, c’est la fin de la matinée : le capteur MERIS peut voir les splendides couleurs des barrières de corail, grâce à un trou dans la couverture nuageuse.

D’est en ouest, on « peut » reconnaître, avec l’aide d’un atlas ou de Google Earth, l’île de Rossel et l’île Vanatinai (Sudest Island).

 

Envisat---Meris---31-12-2011---23h29.jpgExtrait d’une Image acquise par le capteur MERIS du satellite ENVISAT le 31 décembre 2011 :
l’archipel des Louisiades et l’île de Rossel. Données images acquises entre 23h28m39s et 23h31m52s.
Crédit image : Agence Spatiale Européenne (ESA)

 

A la recherche de La Pérouse : même pas peur de la fin du monde

Pour la petite histoire, l’île de Rossel a hérité du nom du français Élisabeth-Paul-Édouard de Rossel (1725-1829), plus connu sous le nom de chevalier de Rossel. Marin à 15 ans, astronome, il participe aux campagnes navales dans les Antilles en 1781 et 1782 puis à deux expéditions d'exploration aux Indes Orientales, dont une, sur les frégates La Recherche et L'Espérance, commanditée pour retrouver l’expédition de La Pérouse. Ayant pratiquement fait le tour de la Terre, il n’était pourtant pas favorable à la Révolution et rentre en… Angleterre. De retour en France, en 1811, il est nommé membre du Bureau des longitudes et de l'Académie des Sciences.

 

 Troisième bon plan : en antarctique, sur la terre de la Reine Maud, la côte de la princesse Astrid, la station de recherche russe Novolazarevskaya et la barrière de glace de Lazarev

La troisième image est également une image radar fournie par ASAR, le radar d’Envisat. L’extrait publié ici montre une fraction de la côte antarctique et sert à cartographier l’étendue de la glace de mer en ce début d’été (dans l’hémisphère sud).

 

Envisat - ASAR - WSM - 31-12-2011 - 23h55 - Extrait 2 Envisat - ASAR - WSM - 31-12-2011 - 23h55 - Extrait 1

Envisat - ASAR - WSM - SS - Antarctique - 31-12-2011 - 23h5En haut, deux extraits d’une Image de la côte antarctique acquise par le radar ASAR du satellite
ENVISAT le 31 décembre 2011. Données images acquises entre 23h54m52s UTC et 23h59m45s UTC.
Presque minuit ! En bas, le type de carte produite par le service Polar View.
Crédit image : Agence Spatiale Européenne (ESA)

 

A partir de différents types de données satellite, le service Polar View produit des informations sur la glace de mer et les icebergs en support à la navigation dans les mers du sud. Pour l’Antarctique, le service est géré par le British Antarctic Survey. Polar View fonctionne aussi pour l’hémisphère nord.

L’illustration suivante, extraite du site Polar montre l’intérêt des satellites à orbite polaire pour effectuer une cartographie systématique et répétitive des zones polaires.

 

Polarview - Dernières images Envisat - 31-12-2011 - 23h59mCarte montrant l’emprise des images Envisat acquises pour les besoins du service Polar View
pendant la dernière semaine de décembre 2011. Crédit image : Polar View

 

Pour ceux qui préfèrent les images optiques, voici une image MERIS acquise le 31 décembre à partir de 23h59 UTC. Nous sommes cette-fois-ci largement au sud de l’Australie, toujours sur la côte de l’Antarctique, à l’est de la Terre Adélie.

 

Envisat - MERIS - Antarctique - 31-12-2011 - 23h12Extrait d’une Image acquise par le capteur MERIS du satellite ENVISAT le 31 décembre 2011 : la côte antarctique au sud de l’Australie à proximité de la Terre Adélie. Données images acquises entre
23h12m11s UTC et 23h55m46s UTC. Crédit image : Agence Spatiale Européenne (ESA)

 

Quatrième bon plan : le sud de la Péninsule du Kamtchatka et le nord des îles Kouriles, première image de l'année 2012...

Notre dernière image, provenant cette fois du capteur optique MODIS du satellite Terra, a été prise pendant le passage au nouvel an à Greenwich : à l’extrême est de la Russie, elle montre la péninsule du Kamtchatka, à mi-journée, sous la neige marquant la silhouette des cratères de volcans. Le lac sud est le lac Kourile, lac de cratère et réserve naturelle sur la liste des volcans du Kamtchatka inscrits au patrimoine de l'humanité par l'UNESCO.

L’île au sud est Shumushu ou Choumchou, au nord des îles Kouriles, entre la mer d'Okhotsk et l’océan Pacifique.

 

Terra - MODIS - Kamtchatka - 31-12-2011 - 00h00 - RR2
Extrait d’une Image acquise par le capteur MODIS du satellite américain Terra le 31 décembre 2011:
le sud de la péninsule du Kamtchatka. Données images acquises entre 23h55m00s UTC
et 00h00m00s UTC. Crédit image :
NASA/GSFC, Rapid Response

 

En savoir plus :

 

 

Repost 0
6 janvier 2012 5 06 /01 /janvier /2012 16:12

Fin décembre, quelques jours après le lancement du satellite Pléiades, les premières images étaient acquises et publiées. Les images de San Francisco, Casablanca et Madrid mettaient l'eau à la bouche et montraient le niveau de résolution que permettait Pléiades. Je restais un peu sur ma faim car la météo de fin décembre ne permettait pas de bien valoriser la capacité d'acquisition en couleurs du satellite Pléiades avec l'image de Paris et du Louvre.

C'est désormais chose faite et de très belle manière !

 

Un cadeau de noël qui emballe...

Vous trouverez ci-dessous quelques images très belles que le CNES vient de publier sur son site Internet. Beau cadeau de noël car toutes ces images ont été acquises juste avant noël ou le nouvel an.

Même s'il est toujours en phase de recette en vol, il a l'air de très bien fonctionner ce satellite ! Vivement les opérations et bravo à toutes les équipes qui ont travaillé pendant les fêtes de fin d'année pour obtenir ces superbes résultats...


Pleiades - Bora-Bora - 02-01-2012L'île de Bora-Bora en Polynésie vue le 2 janvier 2012 par le satellite Pléiades.
Copyright : CNES 2011

 

Pour fixer les idées, l'image de l'île de Bora-Bora couvre une distance d'environ 14 kilomètres du nord au sud et 12 kilomètres d'ouest à l'est. Cela représente un petit tiers d'une image Pléiades complète.

Ci-dessous, pour l'impressionnant cimetière d'avions de Tucson en Arizona, nommé officiellement AMARC (Aerospace Maintenance And Regeneration Center) et joliment surnommé "Boneyard", l'image en champ large (celle du bas) couvre ici un carré de 2600 mètres de côté environ. C'est l'équivalent d'environ un soixantième d'une image complète du satellite Pléiades (chaque image couvre 20 kilomètres sur 20 kilomètres en visée verticale). En cliquant sur l'image du haut (1150 pixels de côté pour environ 880 mètres du nord au sud), vous aurez une bonne idée de la pleine résolution (70 centimètres) des images Pléiades (les images publiées ici sont légèrement dégradées par le codage au format JPEG).

 

Pleiades---Tucson---Arizona---Cimetiere-avions---23-12-201.jpg

Pleiades---Tucson---Arizona---Cimetiere-avions----copie-1.jpgLe cimétière d'avions de Tucson, en Arizona (USA), à proximité de la base aérienne de l'US Air
Force Davis Monthan. Image prise par Pléiades le 23 décembre 2011. Vue de détail et vue d'ensemble.
Un bon choix d'image de démonstration pour un satellite d'observation à vocation duale, c'est-à-dire
pour des utilisations civiles et militaires. Saurez-vous trouver l'avion qui se cache sur cette image ?
Copyright : CNES 2011.

 

En hiver, une révolution en orbite au-dessus de l'Egypte : "Astrix1 mission Cléopâtre"

Le dernier exemple publié ici correspond aux pyramides de Gizeh et à la pyramide de Kheops, au sud du Caire en Egypte. La base de la grande pyramide mesure 230 mètres. On peut le vérifier sur l'image ci-dessous en pleine résolution en comptant le nombre de pixels. La hauteur actuelle de la pyramide est de 137 mètres (à l'origine, elle mesurait 146 mètres avec le parement en calcaire) : est-ce que l'ombre portée de la pyramide permet d'estimer correctement cette hauteur ? A vous de jouer... Le sphinx est visible sur l'image en champ large.

 

Pleiades---Egypte---Pyramides-Gizeh---24-12-2012---Extrait.jpgPleiades---Egypte---Pyramides-Gizeh---24-12-2012.jpgLes pyramides de Gizeh en Egype vues par le satellite Pléiades le 24 décembre 2011.
Vue détaillée et vue d'ensemble. Un cadran solaire du XXIème sicèle. Saurez-vous déterminer l'heure solaire
locale à partir des ombres portées des pyramides et de l'orientation de l'image. Petit exercice pédagogique
à faire en classe avec vos élèves. Copyright : CNES 2011.

Le site du CNES propose quelques autres images : la côte et le palmier de Dubaï (attention, pour Dubaï, les fichiers sont en pleine résolution et ont donc une taille énome : 56 MO pour la côte et 155 MO pour le palmier) et le grand Canyon, une image du 29 décembre 2011, ainsi que les toutes premières images publiées avant noël : San Francisco, Casablanca (grande mosquée Hassan II et port de Casablanca). J'en ai fait un album avec celles qui me paraissent les plus intéressantes. 

 

(1) : Astrix est le nom de la centrale gyroscopique à fibre optique embarquée sur Pléiades.

 

En savoir plus :

 

Suggestions d'utilisations pédagogiques en classe :

  • Dans la peau d'un photo-interprète : en utilisant l'image du cimetière d'avions de Tucson, demandez à vos élèves d'identifier et de comptabiliser les différents types d'avions visibles sur l'image du satellite Pléiades. Vous pouvez utiliser des photographies servant de modèles pour chaque type d'avion (c'est souvent comme cela que procèdent les photo-interprètes professionnels même s'il privilègient le niveau de détail des images panchromatiques) mais ne trichez pas en cherchant sur le web les articles qui décrivent ce cimetière à ciel ouvert très particulier. Malgré tout, au cas où, quelques photos sont publiées ici, un diaporama commenté ici. Bombardiers B1 et B52, chasseurs (par exemple F14 Tomcat), avions de reconnaissance (E-2 Hawkeye), ravitailleurs KC-135, ... : il y a toute la panoplie, complète ou en pièces détachées dans ce "Boneyard", dont le nom officiel est le "309th Aerospace Maintenance and Regeneration Group" (AMARG). Bon, je comprendrai facilement que les images de Bora-Bora ou du Grand Canyon vous inspirent davantage mais cet endroit fait quand même réfléchir...
  • Fabriquer un cadran solaire avec un satellite d'observation de la Terre. Saurez-vous déterminer l'heure solaire locale à partir des ombres portées des pyramides et de l'orientation de l'image ? Un petit exercice pédagogique à faire en classe avec vos élèves. Est-il possible de confirmer l'heure de passage au noeud descendant du satellite Pléiades ? Qu'est-ce qui peut compliquer ce travail ? Plus d'informations dans un article à venir...

 

 

Repost 0
22 décembre 2011 4 22 /12 /décembre /2011 17:30

Quelques jours après sa mise en orbite par une fusée soyouz, le satellite Pléiades a acquis ses premières images le 20 décembre 2011. Le CNES vient d’en publier quelques extraits sur son site Internet. Elles sont également disponibles sur le site de Spot Image qui assure la distribution exclusive pour les utilisateurs civiles.

Les premières images de Pléiades mettent l’accent sur la résolution de 70 cm du capteur de ce satellite à très haute résolution. Ré-échantillonnées à 50 cm afin de faciliter les traitements ultérieurs, les images couvrent en particulier les villes de Paris (musée du Louvre), de Madrid en Espagne, de San Franscisco (Bay Bridge) en Californie et Casablanca au Maroc (la grande mosquée).

Personnellement, je trouve que l'image de San Francisco, le Bay bridge et une partie du financial district est la plus intéressante. En noir et blanc, elle met bien en évidence la résolution des images Pléiades.

 

Satellite-Pleiades---San-Francisco.jpgUne des premières images acquises par le satellite Pléiades : à San Francisco, le Bay Bridget et le
quartier des affaires. Crédits photos : © CNES.

 

L'image de Paris en couleurs a été retenu comme "première image officielle": elle a un côté symbolique important pour le CNES qui fête ses cinquante ans avec le lancement très réussi d'un satellite très attendu. Par contre, fin décembre, les conditions d'ensoleillement sont plus favorables dans l'hémisphère sud et j'attends avec impatience une très belle image en couleurs d'un lieu située de l'autre côté de l'équateur...

 

Satellites-Pleiades---Paris---Le-Louvre.jpgSatellite-Pleiades---Casablanca.jpg

Deux autres images acquises par le satellite Pléiades quelques jours après sa mise en orbite.
En haut, à Paris, le musée du Louvre, le musée d'Orsay et le jardin des Tuileries.
En bas, la grande mosquée de Casablanca au Maroc.
Crédits photos : © CNES.

 

Les bonnes résolutions pour la nouvelle année...

On aura l'occasion de reparler de ces questions de résolution : capteur à 70 cm de résolution et produits images échantillonnés à 50 cm. Le communiqué de presse du CNES mentionne : "Pléiades 1A permettra de fournir des images d’une résolution de 70 cm, rééchantillonnées au sol à 50 cm pour les rendre robustes aux traitements". Cela mérite quelques explications pédagogiques plus détaillées et le blog Un autre regard sur la Terre y consacrera un article. Ce sera l'occasion de parler de transformation de Fourier, de théorème de Shannon et de repliement de spectre. On va d'abord laisser les fêtes de noël.

 

En savoir plus :

 

Repost 0
14 juin 2011 2 14 /06 /juin /2011 15:42

Le centre des Etats-Unis balayé du nord au sud par le radar ASAR du satellite européen ENVISAT

ASAR - USA - 06-05-2011
























ASAR - USA - 06-05-2011 - 1

ASAR - USA - 06-05-2011 - 2b

ASAR - USA - 06-05-2011 - 3

Trois extraits d’une scène complète prise le 6 mai 2011 par le radar ASAR du satellite
européen Envisat. Petit jeu pour se repérer au radar : où est Chicago ? Trouvez les champs de
maïs et le fleuve Ohio. Crédit image : Agence Spatiale Européenne (ESA).

 

Les illustrations ci-dessus sont toutes extraites de la même scène acquise par le radar ASAR du satellite européen Envisat le 6 mai 2011 à 15h56 UTC. La longue bande à gauche est une version très réduite de la scène complète : en pleine résolution, celle-ci compte 18480 lignes de 1037 pixels. A droite, les trois images extraites de cette scène. En haut, la ville de Chicago et la rive du lac Michigan. Au centre et en bas, deux images montrant le fleuve Ohio et les inondations. Ces images illustrent les inondations du Mississipi et de son affluent l'Ohio. Sur un même scène, on a surtout trois exemples typiques de signature radar : une zone urbaine (Chicago au nord, le gros point très blanc en haut à gauche de la première image), une zone de grandes cultures (maïs et soja au niveau de la ville de Robinson dans l'Illinois), une zone inondée au sud (à la jonction entre les fleuves Ohio et Wabash).

 

Noir, blanc ou gris : quelques réflexions sur le fonctionnement du radar…

Les cours d’eau et les zones inondées apparaissent en noir dans l’image : la surface de l’eau, lorsqu’elle est calme, crée une réflexion spéculaire (du latin speculum qui veut dire miroir) du signal radar : Les surfaces horizontales lisses réfléchissent la presque totalité des ondes incidentes dans une direction opposée au radar et se présentent sous forme de zones foncées dans les images radar. Au contraire, quand le faisceau micro-ondes rencontre une surface rugueuse, il est diffusé dans plusieurs directions. On appelle cela une réflexion diffuse. Les surfaces couvertes de végétation produisent une réflexion diffuse et apparaissent en teintes claires dans les images radar. Les cours d’eau contrastent ainsi avec les zones agricoles plus claires et plus texturées.

Attention, tout ce qui est foncé n’est pas de l’eau : on trouve aussi des autoroutes par exemple… C’est également cette propriété de réflexion spéculaire qui est utilisée par la détection des nappes d’hydrocarbures, rejets accidentels ou volontaires des pétroliers : l’eau, couverte d’une fine nappe d’huile, est plus « lisse » : la nappe de pétrole apparaît sombre et contraste avec l’eau libre plus agitée. Evidemment, cela dépend aussi du vent et de la hauteur des vagues et cette propriété n’est plus valable si la mer est trop calme ou trop agitée.


Rugosite et reflexion radar Envisat

Les principaux types de réflexion du signal radar selon la nature de la zone observée.
Crédit image : Gédéon (Planète Sciences Midi-Pyrénées).

 

Dans les zones urbaines, vous voyez au contraire des zones blanches ou des amas de points blancs (comme à Chicago au bord du lac Michigan) : de petits objets peuvent apparaître sous forme de points très clairs dans les images radar. Cet effet dépend de la géométrie de l’objet : la façade d’un édifice ou les éléments d’un pont combinés à la réflexion du sol créent des réflecteurs qui ressemblent à un « coin de cube ».

 

Des pièces de bicyclette sur la Lune...

Cette forme, constituée de trois plans perpendiculaires dont l’angle rentrant est orientée vers le radar, renvoie le signal qui l’éclaire (optique ou radar) dans la direction d’où il a été émis. C’est ce principe qui est utilisé sur le catadioptre de votre bicyclette (en tout cas sur les modèles qui ne sont pas équipés d’éclairage à LED). En télédétection, on équipe parfois certains sites de réflecteurs en coin pour créer des repères sur les images radar, par exemple lorsqu’il n’y a pas de réflecteurs naturels (zones désertiques, sol nul, etc.). Les astronautes des missions Apollo et les sondes soviétiques Lunokhod ont installé sur la Lune cinq réflecteurs en coins de cube. Ils servent toujours à mesurer précisément la distance Terre-Lune par laser.

 

catadioptreDessin illustrant le fonctionnement d’un coin de cube ou d’un catadioptre de bicyclette.
Faire attention à son image pour être bien vu de partout…

 

La rugosité d’une surface dépend de la longueur d’onde et de l’angle d’incidence du signal radar utilisé. On considère qu’une surface est lisse si ses différences de hauteur sont beaucoup plus petites que la longueur d’onde du radar. La rugosité augmente aussi avec l’angle d’incidence. Les fréquences radar, dans la bande de 0,3 GHz à 300 GHz environ, correspondent respectivement à des longueurs d’onde de 1 mètre à 1 millimètre. En pratique, on utilise des bandes de fréquences désignées, par convention, par des lettres.

Bande
Longueur d'onde Fréquence Exemples
Bande X de 2,4 à 3,75 cm de 8 à 12,5 GHz TerraSAR-X, TanDEM-X
Cosmo Skymed
Bande C
de 3,75 à 7,5 cm de 4 à 8 GHz ERS-1, Envisat,
Radarsat, Sentinel-1
Bande S
de 7,5 à 15 cm de 2 à 4 GHz ALMAZ
Bande L de 15 à 30 cm de 1 à 2 GHz SEASAT, JERS-1,
PALSAR sur ALOS,
Shuttle SIR
Bande P
de 30 cm à 100 cm de 300 MHz à 1 GHz SETHI, BIOMASS
JPL AIRSAR 

Deux autres paramètres sont à prendre en compte :

  • Le degré d’humidité intervient aussi : en augmentant la constante diélectrique, l’humidité modifie la capacité d’absorber, de réfléchir ou de transmettre des micro-ondes. L’humidité présente dans la matière en modifie les propriétés électriques. En général, la réflectivité (et donc l’intensité de l’image radar) de la végétation augmente avec le taux d’humidité.
  • Les caractéristiques du matériau en volume sont également importantes, avec une diffusion qui modifie la rétrodiffusion mesurée par le capteur radar.

Les micro-ondes peuvent pénétrer la matière sèche, comme le sable dans les déserts. En général, plus la longueur d’onde du radar est grande, plus le signal pénètre profondément dans la matière.

 

 Un peu de pédagogie sur le radar, ça change des radars pédagogiques ...

Connus surtout pour sa capacité à voir à travers les nuages et la nuit, les satellites radar ont donc également l’avantage de pouvoir percevoir des caractéristiques qui ne peuvent être discernées par les capteurs visibles et qui ressortent mieux sur des images radar. C’est le cas des glaces et des vagues, de l’humidité des sols et la biomasse végétale, des structures fabriquées par l’homme ou les structures géologiques.

 

Chicago---08-05-2011.jpgChicago, 3ème ville des Etats-Unis, dans l'état de l'Illinois. Connue pour son architecture de
gratte-ciel (dont la Sears Tower), la bourse des matières premières agricoles (blé et soja), la
prohibition, les gangs et Al Capone et la fameuse "Chicago flood" de 1992, c'est aussi un
catadioptre géant pour être sûr que la ville soit bien visible sur les images des satellites radar.
Le paradis des coins de cube et des réflecteurs trièdres. Photographie prise le 8 mai 2011.
Crédit image : Gédéon.

Une dernière caractéristique des satellites radar est la possibilité de maîtriser la polarisation (l’orientation de la composante électrique d’une onde électromagnétique), verticale ou horizontale. Quand les ondes émises et captées ont la même direction de polarisation, on parle de polarisation parallèle (HH pour des ondes émises et captées horizontalement et VV pour des ondes émises et captées verticalement).

Lorsque les ondes émises et captées sont polarisées perpendiculairement l’une par rapport à l’autre, elles sont en polarisations croisées : HV désigne une émission horizontale et une réception verticale et VH désigne une émission verticale et une réception horizontale.

Lorsque l’onde radar atteint une surface et en est diffusée, la polarisation peut être modifiée en fonction des propriétés de la surface. Cette mesure de polarisation permet de déterminer le type de surface à partir de l’image.

Je n’aborde pas ici les effets liés au relief : déplacement vers le capteur des objets les plus hauts, ombre radar, effet de rapprochement, déversement, etc. Ce sujet mérite un article à part entière. Revenons à nos inondations...

 

4 i, 4 s, 2 p et beaucoup d’eau : les inondations du Mississippi.

Depuis quelques mois, les Etats-Unis ont été touchés par une série d’évènements climatiques extrêmes : inondations, sécheresses et tornades. Les états concernés sont tous ceux situés au sud des États-Unis, comme le Tennessee, l'Arkansas, le Mississippi, l'Illinois, le Missouri, ou encore le Kentucky et la Louisiane.

En avril et mai 2011, Le Mississippi, qui traverse une dizaine d'états des États-Unis, a connu des crues importantes, causées par des pluies torrentielles et le dégel suivant les fortes chutes de neige de l’hiver. Des villes situées le long des rives du fleuve et ses affluents ont été inondées.

Mississippi - Terra - 721 - 30-01-2011-1 Mississippi - Aqua - 721 - 08-05-2011-1 Mississippi - Terra - 721 - 07-06-2011-1

Trois images acquises par le capteur optique MODIS des satellites Aqua et Terra : à gauche, une image
du 30 janvier 2011 qui montre la couverture de neige. Au centre, le 8 mai, au plus fort des inondations.
A droite, un mois plus tard, le 7 juin 2011, après le retour à une situation plus normale. Cliquer
sur les images pour les voir en pleine résolution (500 mètres).
Crédit image : NASA/GSFC, MODIS Rapid Response.

 

La représentation en couleurs des images MODIS, selon la combinaison « 721 » utilise les bandes spectrales 7 (infrarouge thermique, centrée sur la longueur d’onde 2,155 µm), 2 (proche infrarouge à 0,876 µm), et 1 (rouge, centrée sur la longueur d’onde 0,670 µm). Ces trois bandes sont respectivement associées aux canaux rouge, vert et bleu de l’écran de visualisation. Dans cette représentation La végétation active, en raison de la synthèse chlorophyllienne, apparaît en vert intense. Les sols nus sont bruns. L’eau apparaît en noir et en bleu foncé s’il y a des sédiments en suspension (voyez en particulier l'image du milieu). Les nuages de glace en altitude, plus froids et rayonnant moins dans l’infrarouge thermique, absorbent également le proche infrarouge, comme la neige au sol sur l'image de gauche : ils apparaissent bleutés. Les autres nuages sont blancs, les petites gouttes d’eau diffusant de manière équivalente les bandes visibles et proche infrarouge.

 

Une série d’images radar du fleuve Ohio au niveau d’Uniontown

La situation a été critique à Cairo dans l’Illinois, à proximité de la confluence entre les fleuves Ohio et Mississippi. Au début du mois de mai, le fleuve a atteint un niveau de 20 mètres, débordant les digues de protection et obligeant les habitants à évacuer la ville.

L’armée a volontairement fait sauter une digue de protection pour faciliter la baisse du niveau d’eau, au prix de l’inondation de près de 130 000 hectares de terres agricoles. Cette tactique a déclenché la colère des habitants des zones concernées : ils ne comprenaient pas pourquoi leurs terres et leurs maisons étaient sacrifiées. Il s’agissait de protéger la ville de la Nouvelle-Orléans, menacée par de nouvelles inondations, six ans après le passage de l’ouragan Katrina.

Les images radar ci-dessous, toutes prises par le capteur ASAR du satellite Envisat, sont centrées sur les villes d’Uniontown (Kentucky) et Mount Vernon (Indiana), le long du fleuve Ohio, à la confluence avec le fleuve Wabash qui vient du nord. A cet endroit, c’est la frontière entre trois états, l’Illinois (à l’ouest), le Kentucky (au sud-est) et l’Indiana (au nord-est). Cairo est à environ 120 kilomètres au sud-ouest. Ces images permettent de se rendre compte de la différence entre la situation normale et celle de mai 2011.

Envisat - ASAR - Uniontown - 26-11-2010 - 15h56 Envisat - ASAR - Uniontown - 07-03-2011 - 15h56 Envisat - ASAR - Uniontown - 06-05-2011 - 15h56

Trois extraits d’images acquises par le radar ASAR du satellite européen Envisat. De gauche à droite, image du 26 novembre 2010 à 15h56 UTC, du 7 mars 2011 à 15h56 UTC et du 6 mai 2011 à 15h56 UTC.
Crédit image : Agence Spatiale Européenne (ESA).

 

L'image de gauche a été prise en mode APM (Alternate Polarization Medium resolution), un des modes du capteur ASAR qui reçoit deux signaux de polarisations différentes en même temps. La fauchée est de 100 kilomètres et la résolution spatiale d'environ 150 mètres.

 

Des photographies prises par l’équipage de la station spatiale internationale (ISS)

Les membres de l’équipage de l’ISS ont également été témoins de ces inondations depuis leur orbite à 300 kilomètres d’altitude.

 

ISS - 027 - e027026 - 12-05-2011 - RR3l ISS - 027 - e027023 - 12-05-2011 - RR3l ISS - 027 - e027019 - 12-05-2011 - RR3l

Trois photographies des inondations du Mississippi prises par le 12 mai 2011 par un membre de
l’expédition 27 de la station spatiale internationale. Téléobjectif de 400 mm de focale. A gauche et à
droite, le nord est vers la partie inférieure de la photo (23). Au centre, le nord est vers le coin
inférieur droit. Crédit image : NASA.

 

La première image couvre les environs de la ville de New Madrid (Missouri), visible en haut à droite. Les parcelles agricoles sont inondées mais la route surélevée semble intacte.

Sur l’image du milieu, partiellement couverte par des nuages blancs, on voit également les terres agricoles sous l’eau. Il s’agit d’une région à cheval entre le Missouri et le Tennessee, entre les villes de Caruthersville et Ridgely.

La troisième image montre une zone à l’est de Blytheville, entre l’Arkansas et le Tennessee. Sur la droite de l’image, les terres agricoles de l’Arkansas sont protégées de l’inondation par une digue alors que Ruckers Place et Tomato sont entourés d’eau.

Pour finir, voici deux images à haute résolution de l’aéroport DeWitt Spain au nord-ouest de Memphis dans la Tennessee, acquises par le satellite Ikonos de la société GeoEye. L’aéroport est toujours fermé à cause des inondations. Sans commentaires ou presque : la résolution ne fait pas tout. L’image ici est extrêmement détaillée. Par contre, pour analyser un évènement de grande ampleur dans sa globalité, c’est la capacité à couvrir toute une zone qui est importante. En pratique, dans le cas d’une catastrophe naturelle, on privilégiera tel ou tel satellite : la très haute résolution pour une cartographie détaillée d’une zone bien déterminée ou au contraire un champ large pour établir une vue d’ensemble de la situation. En Europe, en cas d’activation du service GMES de réponse aux situations d’urgence (SAFER), les équipes responsables des opérations (Astrium Services) conseillent les protections civiles pour utiliser les moyens spatiaux les mieux adaptés à chaque situation.

Ikonos - Memphis - 18-04-2006 - RR25 Ikonos - Memphis - 10-05-2011 - RR25

Deux images du satellite américain Ikonos de l’aéroport DeWitt Spain de Memphis (Tennessee).
A gauche, une image d’archive datant du 18 avril 2006. A droite, une image acquise le 10 mai 2011.
La résolution est réduite d'un rapport 2,5 par rapport à l'image d'origine. Crédit image : GeoEye.

 

En savoir plus : 

 

Suggestions d’utilisations pédagogiques en classe :

 

Votre avis sur cet article ?

Vous trouvez cet article intéressant ? Vous avez un commentaire à formuler ou une question à poser ? Une suggestion d'article complémentaire... Ou encore un retour d'expérience d'exploitation en classe ou dans un autre cadre (cela m'intéresse beaucoup pour l'évaluation du blog Un autre regard sur la Terre). Merci d'utiliser le lien ci-dessous "écrire un commentaire". Si vous aimez, utilisez les différents boutons proposés pour le faire connaître à vos amis. Avec votre smartphone, vous pouvez également utiliser le QR code à droite (cliquer sur le code pour l'afficher en plus grande taille). qr code - inondations Mississipi - juin 2011


 


Repost 0
23 mai 2011 1 23 /05 /mai /2011 08:14

Le volcan Grimsvötn, à proximité du glacier Vatnajökull dans le sud-est de l'Islande, est entré en éruption samedi 21 mai. Culminant à 1725 mètres d'altitude, c'est le volcan islandais le plus actif, avec neuf éruptions entre 1922 et 2004, dont quatre depuis 1996. Cette éruption a entraîné dimanche 22 la fermeture de tout l’espace aérien en Islande. L’aéroport de Reykjavik devrait rester fermé lundi 23.


Le Grimsvötn, un volcan qui fait monter des cendres...

Un peu plus d’un an après la paralysie complète du ciel européen pendant les vacances de Pâques 2010, les premiers panaches de fumée ont fait craindre une nouvelle perturbation de la circulation aérienne et un blocage des aéroports.

L’organisation européenne Eurocontrol et les spécialistes de la navigation aérienne sont optimistes : l’éruption a baissé en intensité. Les éruptions du Grimsvötn sont généralement courtes, quatre jours pour la précédente et dix jours pour celle d'avant. L’éruption de l'Eyjafjöll avait duré plusieurs semaines en 2010.

L’évolution de la situation va également beaucoup dépendre du régime des vents. La fumée serait également plus dense, avec une retombée plus rapide des cendres et une dilution plus faible du nuage. A suivre…

 

Les premières images satellite du nuage de cendres du Grimsvötn

L’image suivante a été acquise le dimanche 22 mai par le capteur MODIS satellite américain Aqua. C’est l’occasion d’aborder à nouveau les corrections de contraste et les représentations en fausses couleurs.

 

Islande - MODIS - Aqua - 22-05-2011Image acquise par le capteur MODIS du satellite Aqua le 22/05/2011. Représentation en couleurs
naturelles. Crédit image : NASA/GSFC, MODIS Rapid Response.

 

Sur la première image, en couleurs naturelles, similaires à ce que verrait un observateur humain s’il survolait le volcan à haute altitude, il n’est pas évident avec la couverture nuageuse assez dense de dire s’il y a ou non un nuage de fumée et de cendre.

L’image suivante est la même image d’origine (même jour, même heure, même fichier image) mais un traitement de modification de dynamique a été appliqué par Planète Sciences Midi-Pyrénées pour améliorer le contraste uniquement dans les « hautes lumières », c’est-dire les blancs ou les gris clairs. L’image est esthétiquement moins agréable mais on discerne beaucoup plus nettement ce qu’il y a dans la masse nuageuse.

 

Islande - MODIS - Aqua - 22-05-2011 - TraitementPSMPImage acquise par le capteur MODIS du satellite Aqua le 22/05/2011. Représentation en couleurs
naturelles. Traitement d’amélioration du contraste par Planète Sciences Midi-Pyrénées.
Crédit image : NASA/GSFC, MODIS Rapid Response.

 

Enfin la troisième image est une représentation en « fausses couleurs » : on n’utilise plus ici les bandes spectrales correspondant aux couleurs naturelles mais d’autres bandes, que le capteur MODIS fournit systématiquement. Il s’agit ici de la représentation dite « 721 ». Convaincant ?

 

Islande - MODIS - Aqua - 22-05-2011 - 721Image acquise par le capteur MODIS du satellite Aqua le 22/05/2011. Représentation en fausses
couleurs 721. Crédit image : NASA/GSFC, MODIS Rapid Response.

 

Des fausses couleurs pour mieux voir la réalité...

Les bandes 7, 2, et 1 (ce sont les numéros de bandes spectrales) correspondent respectivement à des longueurs d’ondes centrées sur 2,155 µm (infrarouge moyen), 0,876 µm (proche infra-rouge) et 0,670 µm (rouge). Pour la représentation des images, ces bandes sont affectées aux couleurs rouge, vert et bleue de l’écran d’affichage ou de l’imprimante.

Cette combinaison est très adaptée à l’identification des zones brûlées et des cendres.

En effet, la végétation est très réflective dans le proche infrarouge (bande 2 de MODIS, représentée en vert sur les images « 721 ») et absorbante dans le rouge (bande 1 de MODIS) et le moyen infra-rouge (bande 7 de MODIS). La végétation apparaît ainsi en vert lumineux. Les sols nus naturels, comme les déserts, réfléchissent les trois bandes mais la réflexion est plus élevée dans la bande 7. Les sols nus prennent donc un teinte rose dans la représentation « 721 ». Quand la végétation brûle ou en présence de cendres, la bande 7 devient encore plus réflective, la bande 2 s’assombrit ainsi que la bande 1 en présence de cendres ou de matière carbonisée. Les zones brûlées ou couvertes de cendres prennent alors une teinte rouge ou rouge profond selon le type de végétation brûlée, la quantité de cendres et l’intensité du feu.

 

L'éruption vue par le satellite météorologique Météosat

Eumetsat, l'organisme européen qui exploite les satellites météorologiques européens, a également publié sur son site une image et une animation montrant l'évolution du nuages de cendres vu par le satellite géostationnaire Meteosat 9.


img_grimsvotn_dust_lrg.pngCompotion colorée dite "DUST" (poussière) d'une image du satellite géostationnaire Meteosat 9
acquise le 23 mai 2011 à 8h45 UTC. Elle montre la répartition approximative des cendres et
du nuage de dioxyde de soufre rejetés par le volcan islandais Grimsvötn. Crédit image : Eumetsat

 

Séquence d'images provenant du satellite Meteosat 9 montrant l'évolution du nuage
de cendres au cours des 24 premières heures. L'éruption a démarré le samedi 21 mai
vers 19h30 UTC. Cette séquence témoigne de vents faibles et de changements de
direction répétés. Les cendres apparaissent ici en brun-rouge, le nuage de dioxyde
de soufre en couleur verdâtre. Crédit image : Eumetsat.

 

D'autres séquences créées à partir d'images (canal visible) de Meteosat et de GOES-12 sont publiées sur le blog satellite CIMSS (Cooperative Institute for Meteorological Satellite Studies, University of Wisconsin-Madison, Space Science and Engineering Center).

Pour terminer, une autre image, acquise par Envisat il y a un peu plus de deux mois. Le volcan est sous la neige...

 

Envisat---Meris---Islande---12-03-2011---12h42.jpgImage de l'Islande acquise le 12 mars 2011 à 12h42 UTC par le capteur MERIS du satellite européen
Envisat. Peu ou pas de nuages et pas d'éruption. Essayez de trouver le volcan. La résolution est
réduite d'un rapport 2 par rapport à celle d'origine. Crédit image : Agence Spatiale Européenne (ESA).

 

En savoir plus :

 

Suggestions d'utilisations pédagogiques en classes :

 

 

 

Repost 0
15 mai 2011 7 15 /05 /mai /2011 13:34

Jeudi 12 mai : premier comité sécheresse au ministère de l’agriculture avec plusieurs mesures annoncées par Bruno Lemaire : utilisation des jachères, y compris celles réservées à la biodiversité, comme fourrage pour les animaux, mesures agro-environnementales assouplies, « contrats fourrages paille », etc.

Lundi 16 mai : Nathalie Kosciusko-Morizet réunit, avec un mois d'avance, le "comité sécheresse" du ministère de l’écologie (MEEDTL).

La sécheresse en France devient inquiétante… Vendredi 13, 26 départements français faisaient l’objet d’un arrêté préfectoral de restriction d’eau.

En agriculture, ce sont les éleveurs qui sont les plus touchés avec l'augmentation du prix de l'alimentation animale, à la suite de l'envolée des cours mondiaux des céréales, et la sécheresse qui a impact sur le fourrage. La situation est difficile pour les céréaliers. EDF a également besoin d'eau pour produire de l'électricité avec ses barrages et refroidir ses centrales nucléaires.

 

SM moyAperçu de quatre cartes publiées par le CESBIO illustrant l'évolution de l'humidité des sols entre
mars et avril 2010 et la même période en 2011. Crédit image : CESBIO

 

Un mois d’avril 2011 exceptionnel : sec, ensoleillé et chaud

Les conditions anticycloniques ont fait du mois d’avril 2011 un des plus secs depuis 1959. Les cumuls de précipitations dépassent rarement 30 mm sont rares et correspondent à des épisodes orageux localisés.

Météo France précise qu’avec une température moyenne supérieure de 4,0°C à la moyenne de référence (calculée sur la période 1971-2000), le mois d’avril 2011 se positionne au deuxième rang des mois d’avril les plus chauds depuis 1900, derrière avril 2007 (+4,3°C) et loin devant avril 1945 (+2.8°C), 1961 et 1949 (+2,6°C). A l’exception de quelques jours plus proches de la normale autour du 15 avril, les températures quotidiennes se sont maintenues autour de valeurs bien supérieures tout au long du mois, favorisant l’évaporation de l’eau. Entre le 6 et le 11, les températures ont atteint des valeurs record depuis 1947 pour une première quinzaine d’avril. Plusieurs records mensuels de température maximale quotidienne ont été battus dans la moitié sud de la France ainsi que dans les Alpes et en Bretagne.

La pluviométrie a également été exceptionnellement faible : avril 2011 est un des mois les plus secs depuis 1959, à l’image des mois d’avril 1984 et 1982 (les précipitations sur la France n’avaient représenté que 29 % de la moyenne de référence établie sur la période 1971-2000), 1960 (36 %) et 1997 (37 %). Le début d’année avait déjà été nettement déficitaire sauf sur les régions méditerranéennes.

Ce déficit qui se prolonge, avec les fortes chaleurs, entraîne une sécheresse importante des sols. La moitié nord de la France connaît ainsi des niveaux de sécheresse des sols superficiels jamais atteints fin avril au cours des cinquante dernières années. On espère que la fin de semaine apportera pendant plusieurs jours des précipitations salutaires : les couches supérieures des sols réagissent vite aux précipitations.

Meteo France - Ecart pluviometrie - Avril 2011.gofHumidité des sols au 31 avril 2011. Carte montrant les écarts par rapport à la moyenne
sur la période 1971-2000. Crédit image : Météo France.

 

En avril 2011, des sols plus secs qu’en 2010 : une confirmation avec les mesures du satellite SMOS.

Le CESBIO (Centre d’étude spatiale de la biosphère), un laboratoire de recherche (Université Paul Sabatier, CNRS, CNES, IRD) installé à Toulouse, a publié depuis la fin du mois d’avril plusieurs cartes élaborées à partir de mesures du satellite SMOS. Ces cartes illustrent la différence d’humidité des sols entre 2010 et 2011, pour les mois de mars et d’avril. L’unité de mesure est le m3/m3 (écrit « m3m-3 » sur les cartes), c’est-à-dire le nombre de mètres cube d’eau par mètre cube de sol. Les couleurs, comme le montre l’échelle à gauche de chaque carte, ont la signification suivante : plus c’est bleu, plus le sol superficiel est humide, plus c’est jaune-orangé, plus le sol est sec. Le cyan et le vert correspondent à des niveaux intermédiaires.

Entre 2010 et 2011, il est très clair que le bleu disparaît et que les cartes verdissent et jaunissent… Dans certaines régions du nord, du nord-ouest ou du sud-ouest, le déficit en humidité atteint parfois 0,1 m3/m3.

 

SM moy mars 2010 xl SM moy mars 2011 xl
SM moy avril 2010 xl SM moy avril 2011 xl

Quatre cartes publiées par le CESBIO. En haut à gauche, la moyenne d’humidité des sols en mars 2010.
A droite, la même période en 2011. En bas à gauche, la moyenne d’humidité des sols en avril 2010.
A droite, avril 2011. Crédit image : CESBIO

 

D’autres cartes, visibles sur le blog SMOS sur le site Internet du CESBIO, montrent que le sud de la Grande-Bretagne partage les mêmes soucis de déficit de précipitation et de sécheresse. Les équipes du CESBIO, dans le cadre des travaux de validation et de l'Observatoire Spatial Régional, effectuent également des mesures terrain qui permettent de qualifier ces résultats.

 

courbe humidite sol - 2005-2011 - LamasquereRelevés d'humidité des sols à 30 cm de profondeur sur les 4 premiers mois de l'année entre
2005
et 2011. Mesures effectuées à Lamasquère (Haute-Garonne). Crédit image : CESBIO

 

SMOS, un satellite pour mieux comprendre le cycle de l’eau : un seul instrument pour mesurer la salinité des océans et d’humidité des sols

L’acronyme SMOS signifie « Soil Moisture and Ocean Salinity ». A partir d’une idée proposée pendant le Séminaire de prospective scientifique d’Arcachon (1998), SMOS est un programme de l’ESA en collaboration avec la France (CNES) et l’Espagne (CDTI).

L’objectif de SMOS est d’observer à l’échelle globale de l’humidité superficielle des terres émergées et de la salinité de la surface des océans.

Les objectifs scientifiques visent à établir de meilleurs bilans du cycle de l'eau à l'échelle du globe et des interactions entre océan et atmosphère. Sur les terres émergées, il s'agit d'améliorer la connaissance de l'humidité de surface pour les modèles de circulation générale, les modèles d'hydrologie et les prévisions météorologiques (précipitations). SMOS mesure également le contenu en eau de la végétation.

A la surface des océans, SMOS mesure la salinité de l'eau, un des paramètres importants de la circulation océanique, agissant sur le couplage océan / atmosphère. Avant SMOS, il n’existait aucune mesure de cette nature à l'échelle globale.

La NASA a dans ses cartons le satellite SMAP qui prendra la relève de SMOS en 2015.

SMOS - ESA

Vue d’artiste du satellite SMOS en orbite avec les trois bras de son capteur MIRAS déployés.
Crédit image : Agence Spatiale Européenne (ESA)

 

Du sel sur l’aqueux : un capteur unique pour mesurer deux paramètres différents

Il est assez inhabituel qu’un capteur unique mesure des paramètres apparemment aussi différents que la salinité et l’humidité. C’est parce qu’il y a un phénomène physique commun : l’humidité et la salinité ont une forte influence sur les propriétés électriques de la matière. Celle-ci émet de l’énergie sous forme de rayonnement électromagnétique qui dépend des propriétés électriques. SMOS exploite la fait que l’humidité et la salinité réduisent l’émissivité du sol et de l’eau de mer.

MIRAS, le capteur de SMOS, fonctionne entre 1,400 et 1,427 GHz, dans la bande L. C’est une bande utilisée sur certains capteurs radar de satellites, comme le capteur PALSAR sur ALOS (qui vient de terminer sa carrière). Dans le cas de SMOS, l’instrument est passif : il n’émet pas d’ondes et mesure uniquement des sources de rayonnements. Comme en radioastronomie, le signal reçu est très faible, « noyé dans le bruit » et la capteur doit avoir un grande sensibilité.

Le rayonnement émis par la Terre est proportionnel à un paramètre appelé la « température de brillance » de la surface observée (surface du sol ou surface de l’océan), qui dépend de la température, de l’humidité et de la salinité. Plus le sol est humide ou plus l’eau est salée, plus la température de brillance est faible. 

relation brillance salinité humiditéRelation entre la température de brillance et la salinité (à gauche) ou l’humidité (à droite).
Crédit image : CESBIO.

 

En fait, d’autres éléments interviennent : sur un sol qui s’humidifie, la signature angulaire, c’est à dire la manière dont le rayonnement est émis dans les différentes directions, varie beaucoup et cette variation est plus importante sur un sol lisse que lorsque la végétation est dense.

Le choix de la bande 1400-1427 MHz est un compromis retenu pour les raisons suivantes :

  • C'est une bande réservée à l’observation passive pour les services de radioastronomie et de recherche scientifique (voir plus loin les difficultés rencontrées).
  • Très bonne sensibilité à l’humidité.
  • Bonne sensibilité à la salinité.
  • Faible sensibilité à la couverture végétale, ce qui permet de mesurer l’humidité d’un sol couvert de végétation.
  • Très grande transparence de l’atmosphère dans cette bande : l’atténuation du signal est faible même lorsqu’il pleut.

En observation passive en bande L, la mesure peut être effectuée de jour comme de nuit, quelle que soit la couverture nuageuse. Il y a enfin ce qu’on appelle la « rotation Faraday », une modification de la polarisation de l’onde qui se propage, créée par le champ magnétique terrestre. Elle diminue avec le carré de la fréquence. La bande L est moins perturbée qu’une fréquence plus basse.

 

L’interférométrie : un principe de mesure également utilisé en astronomie

 

VLAWye1 medLe radiotélescope VLA (Very Large Array), dans l’état du nouveau Mexique aux Etats-Unis, à 80
kilomètres à l’ouest de Sorocco, avec ses 27 antennes de 25 mètres de diamètre implantées selon
un motif en forme de Y. Les antennes sont installées sur des rails et peuvent selon les configurations correspondre à une antenne de 1 kilomètre à 36 kilomètres de diamètre. La résolution angulaire
maximale est d'environ 0,05 seconde d'arc. Crédit image : National Radio Astronomy Observatory
(NRAO) / Associated Universities, Inc. / National Science Foundation

Vous voyez un petit air de ressemblance avec SMOS ? Vous avez raison !

Pour obtenir une résolution de l’ordre de 50 kilomètres, adaptée aux besoins des modèles météorologiques, il fallait pour le satellite SMOS une antenne d’un diamètre de l’ordre de 8 mètres (la résolution spatiale est fonction de la longueur d’onde et de la taille de l’antenne), impossible à embarquer sous la coiffe des lanceurs existants.

Plutôt qu’une antenne déployable complexe et coûteuse, il a été décidé d'appliquer à SMOS le principe interférométrique utilisé en radioastronomie : on utilise plusieurs capteurs élémentaires et on mesure la différence de phase du signal arrivant sur chaque antenne. Pour SMOS comme pour les radiotélescopes, c’est un dispositif bidimensionnel trois bras qui a été retenu. Par rapport à une antenne classique « réelle », le défaut principal est la sensibilité réduite qui limite la finesse d’analyse de la salinité.

Une tentative d'explication :

  1. Un réseau d'antennes élémentaires correctement disposées, sans occuper toute la surface d'une grande antenne, "voit" le signal comme une antenne unique, à condition de mesurer l'information de phase, c'est-à-dire la différence de temps de parcours du signal entre chaque antenne élémentaire.
  2. La sensibilité est néanmoins réduite car le réseau d'antenne ne capte pas autant d'énergie qu'une grande antenne unique.

 

Cela se complique avec… des émissions électromagnétiques parasites

La bande de fréquence utilisée pour SMOS est en théorie réservée à l’observation scientifique. Pourtant, au cours de leurs travaux de calibration et de validation après le lancement, les équipes de recherche ont eu la désagréable surprise de constater qu’elle était « parasitée » par de puissants radio-émetteurs, dont un grand nombre de radars militaires. « On pouvait voir tout l’arc d’antennes aux Etats-Unis et au Canada, qui a servi pendant la guerre froide à détecter les lancements de missile et qui est encore en activité, disait alors Yann Kerr, et même les radars engagés aujourd’hui dans les conflits du Moyen-Orient ! ».

Sous les yeux de MIRAS apparaissaient une multitude de points rouges, jusqu’à rendre certains pays quasiment opaques aux capteurs du satellite. L’exemple suivant montre une perturbation qui couvrait entièrement l’Espagne et une partie de l’Afrique du Nord. En France, seule la zone du site militaire de Cazaux (près de Bordeaux) posait problème.

Une réclamation officielle a été déposée auprès de l’Union Internationale des Télécommunications, pour demander aux militaires de changer de fréquence ou de cesser d’émettre aux heures de passage du satellite au-dessus de leur territoire.

 

SMOS---Perturbation-RFI.jpg

Carte globale des interférences radio pertubant les mesures de SMOS entre le 15/12/2009
et le 14/01/2010
. Crédit image : Agence Spatiale Européenne (ESA)

 

Ce problème d'interférences radio touche aussi les radioastronomes mais leur antennes étant tournées vers le ciel, ces perturbations sont moins critiques, étant reçus par ce qu'on appelle les "lobes secondaires" . Pour SMOS, dont la mission est d'observer la terre, l'antenne est tournée directement vers les sources parasites.

Un long travail a donc été entrepris par l'ESA auprès de l'Europe et des pays européens, afin que les émetteurs soient mieux réglés, lorsque les émissions autorisés "bavent" dans la bande de travail de SMOS ou que les émetteurs illégaux soient coupés. Cet effort a porté ses fruits comme le montre les deux cartes ci-dessous, illustrant la situation en Espagne respectivement en mars 2010 (à gauche) et en juillet 2010 (à droite).

 

Spain before PR Spain Jul PR

Exemples de résultats obtenus en Espagne, après les actions menées pour réduire les émissions
parasites.
Crédit image : Agence Spatiale Européenne (ESA)

 

Une première carte globale d'humidité des sols et de salinité des océans publiée en août 2010

 

SM_SSS_ijet2.pngPremière carte globale d'humidité des sols et de salinité des océans établie en août 2010 à partir des
mesures du satelite SMOT
. Crédit image : Ifremer - CATDS - CESBIO

 

SMOS, quelques repères…

  • Lancement : 2 novembre 2009 par une fusée Rockot depuis le cosmodrome de Plesetsk.
  • Instrument : MIRAS (Microwave Imaging Radiometer using Aperture Synthesis). Interféromètre 2D passif à microondes.
  • Durée de vie : 3 ans minimum.
  • Antenne : 3 bras, 8 mètres d’envergure, 69 capteurs.
  • Bande de fréquence : 1400-1427 MHz (longueur d’onde de 21 cm)
  • Résolution radiométrique (sur la température de brillance) : 0,8 à 2,2 K.
  • Masse totale au lancement : 658 kg (355 kg pour la charge utile, 275 kg pour la plateforme et 28 kg de carburant).
  • Puissance électrique : 1075 W dont 511 W pour la charge utile. Batterie Li-on de 78 AH.
  • Revisite : 3 jours à l’équateur.
  • Altitude : 758 km.
  • Orbite : héliosynchrone quasi-circulaire. Passage au nœud ascendant à 6h00 (heure locale).
  • Centre de contrôle : CNES Toulouse.
  • Responsabilités industrielles : Thales Alenia Space (responsable de la plateforme, de l’intégration d’ensemble et de la qualification), Astrium (responsable de la charge utile et de l’instrument MIRAS).
  • Principal investigateur (PI) : Yann Kerr, directeur du CESBIO.

 

 

Sources utilisées :

  • Le site du CESBIO et le blog SMOS (voir les liens ci-dessous).
  • Un exposé de Yann Kerr, présenté pendant les journées R&T du CNES en janvier 2011.
  • Les informations communiquées par du CESBIO. Je remercie Yann Kerr et Catherine Leprieur pour les informations et illustrations et le temps qu’ils m’ont accordé.
  • Le bulletin de suivi hydrologique publié par Météo France le1er mai 2011.


En savoir plus :

 

Suggestions d’utilisations pédagogiques en classe :

  • Travail sur le cycle de l’eau.
  • Travail sur la circulation océanique (voir en particulier les ateliers proposés par Planète Sciences Midi-Pyrénées).
  • Des expériences d'interférométrie en émission et en réception avec la lumière et les sons. Par exemple, en acoustique, assembler un réseau linéaire de haut-parleurs ou de microphones et comparer la directivité avec un haut-parleur ou un microphone unique. Représenter le diagramme de rayonnement. Aller plus loin : notions de gain et de directivité d'une antenne.
  • Voir également les pistes proposées dans les articles suivants :  Salinité des océans et humidité des sols : les premières mesures du satellite européen SMOS analysées par les chercheurs.

 

 

Repost 0
29 avril 2011 5 29 /04 /avril /2011 09:41

Deux témoins inattendus : les satellites d'observation et la synthèse d'image

Pour participer aux buzz concernant cet évènement très médiatisé, Astrium propose sur son site Internet un survol en 3D du parcours qu’emprunteront le Prince William et Catherine Middleton à l’occasion de leur mariage le 29 avril prochain à Londres.

La reconstitution permet aux amateurs de noces royales de découvrir le trajet du cortège, du Palais Saint James à l’Abbaye de Westminster, ainsi que le retour au Palais de Buckingham à l’issue de la cérémonie. Cette modélisation 3D est réalisé par Skape, un service de cartographie tridimensionnelle d’Astrium GEO-Information Services, qui combine des modèles urbains texturés haute résolution en 3D à des données en 2D de cartographie et de terrain. Cette modélisation a déjà été reprise dans de nombreux médias.

 

buckingham-palace3res.jpg

buckingham-palace1res

Extrait de la modélisation 3D proposée par Astrium. Crédit image : Astrium

 

Voici également un extrait d’une image à haute résolution publiée par la société Geoeye et qui couvre le quartier de Londres où se déroule la cérémonie et qui permet, pour ceux qui ne connaissent pas le centre de Londres, de se faire une idée des lieux.

 

Geoeye---London.jpgUne image de Londres acquise par le satellite GeoEye-1. Crédit image : GeoEye

 

Pour les passionnés, j'ai repéré l'itinéraire emprunté par le carrosse du Prince William et Kate Middleton, avec quelques zooms sur les points principaux :

 

Londres - parcours mariage illustreL'itinéraire du cortège entre Westminster Abbey et Buckingham palace. Il emprunte Whitehall
et The Mall en contournant Saint-James Park, passe à proximité du 10 Downing Street, puis
traverse le Horse Guard Parade. Sur cette carte, on voit également Trafalgar Square et, de l'autre
côté de la Tamise, la grande roue London Eye sur le quai du Millenium et le Jubille Garden.
Crédit image : GeoEye. Infographie : Gédéon.

 

La modélisation 3D réaliste : une combinaison d'informations fournie par les satellites, la photographie aérienne numérique et les relevés sur le terrain

Je reviendrai dans un prochain article sur les méthodes utilisées pour produire ce type de modélisation tridimensionnelle. Il s'agit bien de produire un "modèle du monde" et non une image. Dans une image simple, comme celle prise avec votre appareil photo numérique, la scène est observée depuis un point de vue unique. Zoomer ou recadrer ne change rien au point de vue.

Un modèle 3D comme ceux présentés ici est construit à partir de plusieurs points de vue (leur nombre doit être suffisant pour que tous les points de la scène soient inclus dans le modèle). On obtient alors une représentation plus complète, indépendante du point de vue, un base de donnée dans laquelle il est possible de se "promener" avec une caméra virtuelle, en simulant un mouvement au sol ou depuis le ciel. Cette méthode, utilisé dans le cinéma d'animation ou les jeux vidéo par des sociétés comme Pixar, Dreamworks, Ubisoft, Infogrames, avec les progrès des ordinateurs et des cartes graphiques, a révolutionné ces activités.

Au niveau professionnel, les architectes, les urbanistes voient également le potentiel de tels outils quand ils sont appliqués à l'échelle d'une quartier ou d'une ville entières. Les illustrations suivantes montrent quelques aspects du processus de production...

 

Skape - Airborne elevation dataUne des premières étapes : la collecte des mesures d'élévation à partir de données extraites d'images aériennes ou d'images acquises par les satellites d'observation. Crédit image : Infoterra Ltd.

 

Skape---rapid-surveyor.jpg

Un autre point de vue avec le rapid Surveyor d'Infoterra, un véhicule pour la collecte d'informations
sur les façades des bâtiments. Caméra numérique, LIDAR, GPS et enregistrement de toutes les
mesures à bord. Crédit image : Infoterra Ltd.


Skape---House-of-Parliament.jpg

Une des dernières étapes : les bâtiments modélisés en 3D sont "habillés" (on dit "texturés" dans le jargon de la synthèse d'images) avec les images acquises au sol. Crédit image : Infoterra Ltd.


 

En savoir plus :

Repost 0

Présentation

  • : Un autre regard sur la Terre
  • Un autre regard sur la Terre
  • : Les satellites d'observation de la Terre au service de l'environnement : images et exemples dans les domaines de l'environnement, la gestion des risques, l'agriculture et la changement climatique. Et aussi, un peu d'espace et d'astronomie, chaque fois que cela suscite questions et curiosité...
  • Contact

A Propos De L'auteur

  • Gédéon
  • Ingénieur dans le domaine de l'observation de la Terre.
Bénévole de l'association Planète Sciences Midi-Pyrénées
  • Ingénieur dans le domaine de l'observation de la Terre. Bénévole de l'association Planète Sciences Midi-Pyrénées

Rechercher

En Savoir Plus Sur Ce Blog...