Page précédente Table des matières Page suivante


CHAPITRE 6

6.   TRAITEMENT D'IMAGES NUMERIQUES

6.1   Images numériques

Comme expliqué dans les chapitres précédents, les systèmes d'acquisition séquentielles les informations pixel par pixel, le pixel étant la plus petite surface distinguée par le capteur. Par exemple, LANDSAT TM distingue des surfaces d'à peine 30m × 30m. La scène enregistrée est restituée sous forme de grille de pixels. La radiance de chacun des pixels est enregistrée par le (ou les) capteur (s), puis numérisée pour permettre la manipulation par ordinateur. Les radiances mesurées en télédétection peuvent prendre n'importe quelle valeur entre 0 et un maximum Rmax. La valeur dépend des longueurs d'onde à enregistrer et des caractéristiques du capteur.

Le processus numérique transforme des données analogiques continues en données numériques discrètes, en d'autres termes, un nombre fini de valeurs entières sert à représenter toutes les valeurs des données continues à l'origine. Plus le nombre de valeurs (N) utilisées pour la numérisation est grand, plus les données numériques sont conformes aux données analogiques d'origine. A cause de la configuration des ordinateurs, le nombre N est toujours une puissance de 2: (N=2n). La valeur de n varie de 6 à 32 (suivant le capteur) et s'appelle le “bit”. Par exemple, si le processus numérique s'effectue avec 256 valeurs (ou niveaux), les données sont codées en 8 bits (256=28).

Avant de poursuivre le processus numérique, l'opérateur doit décider, en fonction du type du capteur et du logiciel dont il dispose, comment attribuer le nombre infini de radiance au nombre fini de niveaux numériques disponibles. Par exemple, on peut attribuer la valeur numérique 0 à la radiance zéro R0, et la valeur numérique 2n=N à la radiance maximum Rmax. De la sorte toute valeur x de radiance correspondra à la valeur numérique y:

Exemple: n = 8 bits, donc 2n = 256

Rmax = 20mw.cm-2.sr-1.m-1, R0=0

mw = milliwatts

Sr = stéradian: unité de mesure pour les angles solides

Plus la différence Rmax-R0 est grande, plus l'est aussi la gamme de valeurs x correspondant aux valeurs y de la scène d'où une numérisation moins détaillée. On peut ramener cette gamme Rmax-R0 à une gamme Rsup-Rinf de valeurs “intéressantes” en utilisant un capteur affecté a une mission ou à une cible particulière. Dans la partie visible du spectre, la radiance de l'eau est très basse par rapport à la radiance du sol. Un capteur concu pour les études hydrologiques réduit normalement la gamme numérique entre 0 et Rsup, ce qui est moins que Rmax. Toute valeur supérieure à Rsup se voyant affecter la valeur 2, Rsup représente “la valeur de saturation” du capteur. De cette facon, les radiances d'intérêt réel sont enregistrées avec plus de précision, c'est-à-dire qu'il y a un plus grand nombre de valeurs numériques disponibles pour les représenter. Par exemple, les valeurs de Rsup pour LANDSAT-MSS et le CZCS de NIMBUS-7 sont données ci-dessous:

(i) Radiance maximum à la saturation du MSS (amplification=1)
  BAND-4: Rsup = 24,8 mW.cm-2.sr-1.μm-1; (λ) = 550 nm
  BAND-5: Rsup = 20,0 mW.cm-2.sr-1.μm-1; (λ) = 650 nm
  BAND-6: Rsup = 17,6 mW.cm-2.sr-1.μm-1; (λ) = 750 nm
  BAND-7: Rsup = 46,0 mW.cm-2.sr-1.μm-1; (λ) = 950 nm
(ii) Radiance maximum à la saturation du CZCS (amplification=1)
  BAND-1: Rsup = 11,46 mW.cm-2.sr-1.μm-1; (λ) = 443 nm
  BAND-2: Rsup = 7,64 mW.cm-2.sr-1.μm-1; (λ) = 520 nm
  BAND-3: Rsup = 6,21 mW.cm-2.sr-1.μm-1; (λ) = 550 nm
  BAND-4: Rsup = 2,88 mW.cm-2.sr-1.μm-1; (λ) = 670 nm
  BAND-5: Rsup = 23,90 mW.cm-2.sr-1.μm-1; (λ) = 750 nm
(iii) Radiance maximum à la saturation du CZCS (amplification=4)
  BAND-1: Rsup = 5,41 mW.cm-2.sr-1.μm-1; (λ) = 443 nm
  BAND-2: Rsup = 3,50 mW.cm-2.sr-1.μm-1; (λ) = 520 nm
  BAND-3: Rsup = 2,86 mW.cm-2.sr-1.μm-1; (λ) = 550 nm
  BAND-4: Rsup = 1,34 mW.cm-2.sr-1.μm-1; (λ) = 670 nm
  BAND-5: Rsup = 23,90 mW.cm-2.sr-1.μm-1; (λ) = 750 nm

Dés l'instant où l'on sait que le CZCS est numérisé à 8 bits (à bord) et les MSS à 6 bits pour le MSS, on peut comparer la numérisation de la bande verte de chaque capteur pour les radiances basses de l'eau, comme suit:

MSS (amplification=1) CZCS (amplification=4)
x=0,01y=0 x=0,01y=0
x=0,05y=0 x=0,05y=3
x=0,1y=0 x=0,1y=7
x=0,2y=0 x=0,2y=14
x=0,3y=0 x=0,3y=21
x=0,4y=0 x=0,4y=23

Il est donc évident que le CZCS permet une plus grande différentiation de luminosité (24 niveaux numériques pour une gamme de radiance de 0,4) que le MSS (2 niveaux numériques pour la même gamme de radiance). En revanche, le CZCS (bande 2, amplification 4) ne distingue pas les pixels ayant une radiance supérieure à 3,50 tandis que le MSS (bande 4, amplification 1) permet de distinguer les radiances jusqu'à 24,8.

6.1.1   Affichage des images

A ce stade les données sont enregistrées, numérisées et stockées sur bandes magnétiques sous forme d'un quadrillage de pixels, une valeur de 0 à 2n étant attribuée à chacun de ces derniers. Si les données ont été saisies avec un système imageur, on peut les restituer sous forme d'images sur un moniteur.

La bande magnétique est lue par un ordinateur capable, aux fins d'affichage, d'attribuer à chaque valeur entière (ou gamme de valeurs - comme expliqué à la section 6.2.3.5.: Isodensitométrie -) un caractère particulier ou une couleur particulière, de maniëre que puisse être distinguée visuellement chaque valeur. Autrefois, le chiffrage par caractère était souvent pratiqué mais aujourd'hui ce système est démodé. On peut utiliser plusieurs méthodes différentes pour chiffrer les données:

(i)  Chiffrage arc-en-ciel :
A chaque valeur numérique est attribuée une couleur différente choisie arbitrairement.

example: 0 = rouge, 1 = bleu, 255 = jaune;

(ii)  Chiffrage en gamme de gris:
A chaque valeur est attribuée une gamme de gris, généralement dans un ordre ascendant.

exemple : 0 = noir, 1 = gris foncé, 254 = gris clair, 255 = blanc;

(iii)  Chiffrage en gamme de couleurs (chromatique):
A chaque valeur est attribué un niveau d'une seule couleur généralement dans un ordre ascendant.

exemple: 0 = rouge foncé, … 255 : rouge clair.

On utilise le chiffrage en gamme de couleurs quand il faut afficher plus d'une image à la fois. Dans ce cas là, chaque image est chiffrée dans une couleur différente (exemple: rouge, vert, bleu), l'image finale étant une composition colorée des images d'origine. Celles-ci peuvent être une même scène saisie à des longueurs d'ondes différentes (analyse multibande) ou à des périodes différentes (analyse multidate).

6.2   Traitement d'images

Après la numérisation, les données sont mises dans le format voulu pour la manipulation et l'analyse par ordinateur, et peuvent alors être transformées par n'importe quelle fonction mathématique choisie. Chaque système de traitement d'images a son logiciel particulier, c'est-à-dire son propre progiciel de programmes, dont chacun accompli une tâche différente. La séquence de tâches appliquée à une image s'appelle “traitement d'image”, celui-ci variant selon les buts recherchés. La séquence suivante donne un exemple pas-à-pas des techniques de traitement d'images utilisées actuellement.

6.2.1   Les corrections radiométriques

La radiance de la cible est modifiée (atténuée) par l'atmosphère à travers laquelle elle passe pour accéder au capteur. Le capteur lui-même déforme encore plus cette radiance qui est parvenue jusqu'à lui.

La correction pour l'atténuation atmosphérique est particulièrement importante avec les cibles sombres comme les plans d'eau. Si, à de telles cibles, aquatiques relativement dégagées, profondes et donc sombres, des conditions atmosphériques plutôt brumeuses, il se peut que la radiance totale qui parvient au capteur 20 % de radiance provenant de l'eau et à 80 % de radiance provenant de la trajectoire atmosphérique. Bien qu'il s'agisse d'un cas extrême ici, les signaux utiles au-dessus des planes d'eau ont tendance à être submergés par les bruits produits par l'atmosphère.

L'évaluation subjective d'une seule image ne nécessite pas de correction atmosphérique. Cependant, quand le but est d'extraire des informations quantitatives concentration en chlorophylle, profondeur bathymétrique, etc…) ou de comparer deux images en valeurs tonals, les effets atmosphériques doivent être éliminés.

Diverses techniques sont utilisées pour la correction atmosphérique. parmi les plus simples on trouve la “dark pixel subtraction”, (soustraction de pixel foncé), et l'“histogramme matching” (assortiment d'histogramme), mais elles sont sujettes à erreurs. Les complexes font appel à la modélisation mathématique des conditions atmosphériques à l'heure et à l'endroit de la prise d'image, ce qui nécessite souvent le relevé de renseignements à l'emplacement de l'image et au moment de la prise de vue.

Il existe deux types de correction du bruit du capteur: relative et absolue. Là encore, un calibrage absolu n'est nécessaire que si une analyse quantitative ou multi-image doit être effectuée. On se sert des renseignements auxiliaires renvoyés par les satellites pour procéder à un calibrage absolu. Cette opération a souvent lieu au stade du traitement, au moment où est établie la bande magnétique compatible avec l'ordinateur (CCT).

On procède généralement à la correction relative pour l'effet “banding” des capteurs au moment où on prépare, à l'intention de l'usager la bande magnétique compatible avec l'ordinateur (CCT). Le phénomène de “banding” est du à ce chaque canal spectral, contient plusieurs détecteurs. Dans un système de miroir à balayage comme le MSS de LANDSAT, il y a 6 détecteurs par canal spectral tandis que dans un système à barrettes tel que le HRV de SPOT, il y en a des milliers. Pendant la construction des capteurs, on assortit autant que possible les détecteurs de la sensibilité. Comme celle-ci se modifie peu à peu avec le temps, il arrive qu'un détecteur devienne plus (ou moins) sensible à la radiance qu'un autre. En conséquence, la même cible sera représentée avec luminosités différentes par des détecteurs à sensibilités différentes. Là encore, les données auxiliaires du capteur sont utilisées au stade du pré-traitement (au sol) pour corriger ce défaut d'image.

6.2.2   Corrections géométriques

La distorsion géométrique est produite par la sphéricité de la terre, la non-linéarité du miroir du scanner et le mouvement de rotation du satellite.

La correction de ces déformations géométriques peut s'effectuer de deux façons:

(i)  les positions réelles des pixels sont changées mais ces derniers conservent leurs valeurs d'intensité. Cette méthode manquant de précision, on ne l'utilise que pour des corrections géométriques simples comme l'asymétrie;

(ii)  l'image est réechantillonnée; autrement dit, on transforme une image numérique déformée géométriquement, en une autre image sur un quadrillage non-déformé et espacé de façon égale. Les valeurs d'intensité des pixels sur ce quadrillage dérivé doivent être déterminées par interpolation à l'aide des pixels avoisinants de l'image déformée;

6.2.3   Accentuation d'images

Les méthodes d'accentuation sont généralement appliquées à une image dont la dégradation (radiométrique et géométrique) a été corrigée. Les accentuations sont destinées à aider l'analyste à extraire et interpréter l'information picturale. A cette fin, on accentue les caractéristiques et les structures intéressantes; c'est ainsi que l'oeil humain pouvant distinguer beaucoup plus de couleurs que de tons de gris, une présentation en couleur donne une information plus détaillée. Un codage en arc-en ciel est donc préférable à un codage en tons de gris.

6.2.3.1 Accentuation des contrastes: c'est l'opération qui permet d'accentuer l'intensité relative des éléments d'images. Elle peut être accomplie de diverses facons, suivant les besoins de la tâche spécifique, par exemple:

(i)Modification linéairey = a.x + b
(ii)Modification logarithmiquey = b.log (ax) + c
(iii)Modification exponentielley = b.exp (ax) + c
(iv) Modification non-linéaireexterne y = f(x)

Où x représente la valeur d'un élément dans l'image brute, y est la valeur modifiée et a,b et c sont des constantes. L'accentuation des contrastes donne une image où les distinctions subtiles entre les tons de gris sont plus marquées et donc plus faciles à distinguer par l'oeil.

6.2.3.2 Accentuation de contours: c'est là un autre moyen de changer les valeurs d'intensité sur une image numérique pour améliorer la perception des caractéristiques de contours dans la scène. Cette méthode est particulièrement utile pour la détection d'éléments linéaires, soit océanographiques (fronts d'eau chaudes ou froides), soit artificiels (canaux, voies navigables). On se sert à cet effet de filtres mathématiques (filtres passe-haut) qui accentuent les détails d'une image.

6.2.3.3 Accentuation des couleurs: l'oeil humain ne peut distinguer que de 20 à 30 nuances de gris à un niveau d'adaptation donné. A ce même niveau, il distingue un nombre de couleurs beaucoup plus grand. Le recours au couleurs augmente donc considérablement la quantité d'information qui peut être perçue.

6.2.3.4 Accentuation de multi-images: les multi-images (multispectrales, multidates) apportent plus d'information que les images simples. Les techniques d'accentuation de multi-images impliquent une accentuation individuelle des contrastes des images composantes. Les composants accentués sont ensuite affichés en tant que composition fausse couleur. On peut ainsi se servir de la couleur pour détecter les différences entre les bandes ou les dates d'images (c'est-à-dire les images de la même cible enregistrée à des périodes différentes).

6.2.3.5 Isodensitométrie: on peut simplifier le contenu des informations d'une image présentée sous forme numérique en diminuant le nombre de niveaux numériques disponibles. Il est possible de produire des images à haut contraste avec seulement deux niveaux en attribuant une couleur foncée à un niveau de la gamme de gris et pas de couleur du tout à l'autre. La division des niveaux de gris en catégories différentes peut s'effectuer arbitrairement ou suivant une spécification de l'usager.

Cette méthode est souvent utilisée pour la séparation de la terre et de l'eau. Dans ce cas, on choisit une bande de longueur d'onde spécifique (généralement proche infra-rouge) pour laquelle les radiances de la terre et de l'eau sont différentes. Ainsi, un histogramme de données ferait apparaître deux formes bien distinctes, ce qui permettrait à l'usager de définir un seuil pour les séparer. On attribue une couleur particulière aux pixels ayant un niveau de radiance au-dessous de cette limite, et une autre couleur aux pixels ayant un niveau de radiance au-dessus de cette limite.

6.2.4   Interprétation de l'image

Une fois accentuée l'image, il faut l'interpréter pour saisir la signification réelle des données numériques, c'est-à-dire la signification, du point de vue de l'environnement, des radiances enregistrées par le capteur.

6.2.4.1 Classification d'images: on peut diviser une image en différentes classes pour grouper dans une seule d'elles les pixels ayant des propriétés spectrales semblables. La séparation de ces classes ou “clarification” se fait habituellement à l'aide de méthodes statistiques ou géométriques; les cibles sont très différentes spectralement, mais pas très précise quand les cibles ont des caractéristiques spectrales presque semblables. Pour bien appliquer ces méthodes de classification des images, il est indispensable de connaître parfaitement les conditions de surface des sites représentatifs de la zone à cartographier.

6.2.4.2 Reconnaissance des formes: la forme peut être définie comme une image ayant un caractère spatial ou géométrique à deux ou trois dimensions. Par exemple, le sillage d'un bateau à la surface de la mer produit une forme qui permet d'identifier sur une photographie aérienne. De la même facon, des structures artificielles ou caractéristiques naturelles peuvent être identifiées d'après leurs formes géométriques. Quand l'identification des formes ou des structures se fait par ordinateur, on parle de “reconnaissance de formes”.


Page précédente Début de page Page suivante