Página precedente Indice Página siguiente


SECTION 6

6.  PROCESAMIENTO DIGITAL DE IMAGENES

6.1  Imágenes Digitales

En los capítulos previos se demostró que los sistemas de adquisión secuencial obtienen información pixel por pixel, esto es, del área más pequeña discriminada por el sensor. Por ejemplo, el Mapeador Temático del LANDSAT discrimina áreas tan pequeñas como 30 m × 30 m. La escena grabada, es realmacenada en forma de una cuadrícula de pixels. La radiancia de cada uno de los pixels es grabada por el (los) detector (es) y posteriormente digitizadas para permitir la manipulación por computadora. Las radiancias que son medidas en percepción remota pueden tomar cualquier valor entre 0 y un máximo de Rmax. El valor es dependiente de las longitudes de ondas siendo percibidas y de las características del sensor.

El proceso de digitización transforma datos analógicos contínuos en datos digitales discretos, esto es, un número finito de valores enteros es utilizado para representar todos los valores de los datos originales contínuos. Mientras más grande el número de valores enteros (N) utilizados para la digitización, mejor se conforman los datos digitales a los datos analógicos originales. Debido a la configuración de las computadoras, el número N es siempre una potencia de 2: (N= 2n). El valor de n fluctúa desde 6 hasta 32 (dependiendo del sensor) y está definido como el “bit”. Por ejemplo, si el proceso de digitización es llevado a cabo con 256 valores (o niveles), los datos están codificados en 8 bits (256 = 28

Antes de que pueda proceder el proceso de digitización, el operador debe decidir, sobre la base del equipo del sensor y de los programas de computadora disponibles, como asignar el número infinito de radiancias al nú mero finito de niveles digitales disponible. Por ejemplo, la radiancia Ro, dársele el valor digital de 0, y la maxima radiancia, Rmax, el valor digital 2n = N. Cualquier valor de radiancia X corresponderá por lo tanto a un valor digital Y:

Ejemplo : n = 8 bits, por lo tanto 2n = 256

Rmax = 20 mW · cm-2 · sr-1 Ro = O

mW = miliwats

sr = steradian, la unidad de medida para ángulos sólidos

Mientras más largo el valor de Rmax -Ro, mayor rango de valores de x correspondiente a los valores y a la escena, resultando en una digitización menos detallada. El rango Rmax - Ro puede ser reducido a un rango Rsup - Rinf o a valores “interesantes” a través del uso de un sensor dedicado a una misión u objetivo particular. En la parte visible del espectro la radiancia procendente del agua es muy baja comparada con la radiancia procedente de la tierra. Un sensor dedicado a estudios de aguas, típicamente reduce el rango de digitización entre O y Rsup, el cual es menos que Rmax. Cualquier valor mayor que Rsup es asignado al valor de 2n, por lo tanto Rsup es el “valor de saturación” del sensor. Por este método, las radiancias de interés real son captadas en imágenes con mayor detalle, esto es, existen más valores digitales disponibles para representarlas. Por ejemplo, los valores de Rsup para el LANDSAT MSS y el NIMBUS-7 CZCS son proporcionados como sigue:

i)  Máxima radiancia en la saturación del MSS (aumento =1):

BANDA 4: Rsup = 24 .8 mW · cm-2 · sr-1 · μ m-1;μ=550 nm

BANDA 5: Rsup = 20 .0 mW · cm-2 · sr-1 · μ m-1; μ=650 nm

BANDA 6: Rsup = 17.6 mW · cm-2 · sr-1 · μ m-1; μ=750 nm

BANDA 7: Rsup = 46.0 mW · cm-2 · sr-1 · μ m-1;μ=950 nm

ii)  Máxima radiancia en la saturación del CZCS (aumento=1):

BANDA 1: Rsup = 11.46 mW · cm-2· sr-1 · μ m-1 ; μ=443 nm

BANDA 2: Rsup = 7.64 mW · cm-2 · sr-1 · μ m-1 ; μ=520 nm

BANDA 3: Rsup = 6.21 mW · cm-2 · sr-1 · μ m-1 ; μ=550 nm

BANDA 4: Rsup = 2.88 mW · cm-2 · sr-1 · μ m-1 ; μ=670 nm

BANDA 5: Rsup = 23.90 mW · cm-2 · sr-1 · μ m-1 ; μ=750 nm

iii)  Máxima radiancia en la saturación saturación del CZCS (aumento=4):

1: Rsup = 5.41 mW · cm-2 · sr-1 · μ m-1 ; μ=443 nm

2: Rsup = 3.50 mW · cm-2 · sr-1· μ m-1 ; μ=520 nm

3: Rsup = 2.86 mW · cm-2 · sr-1 · μ m-1 ; μ=550 nm

4: Rsup = 1.34 mW · cm-2 · sr-1 · μ m-1 ; μ=670 nm

5: Rsup = 23.90 mW · cm-2 · sr-1 · μ m-1 ; μ=750 nm

Dado que es sabido que el CZCS está digitizado a 8 bits (sobre el tablero), comparado con los 6 bits del MSS, la digitización de la banda verde de cada sensor para radiancias bajas (procedentes del agua) pueden ser comparados como sigue:

MSS (aumento= 1)CZCS (aumento= 4)
x=0.01y=0x=0.01y=0
x=0.05y=0x=0.05y=3
x=0.1y=0x=0.1y=7
x=0.2y=0x=0.2y=14
x=0.3y=0x=0.3y=21
x=0.4y=1x=0.4y=23

Es aparente por lo tanto, que se permite mayor diferenciación de brillantez con el CZCS (24 niveles digitales para un rango de radiancia de 0.4) que por el MSS (2 niveles digitales para el mismo rango de radiancia). Por otra parte, el CZCS (banda 2, aumento 4) no discriminará pixels con radiancia mayor de 3.50 mientras que el MSS (banda 4, aumento 1) permite la discriminación de radiancias hasta 24.8.

6.1.1  Despliegue de la Imagen

En esta etapa, los datos han sido grabados, digitizados y almacenados en cintas magnéticas en forma de una cuadrícula de pixels, asignándole a cada pixel un valor entero entre O y 2n. Si los datos han sido adquiridos con un sistema de imágenes, deben ser representados como una imagen en un monitor.

La cinta magnética es leída por una computadora la cual puede, para propósitos de despliegue, asignar a cada valor entero (o rango de valores como se discute en la Sección 6.2.3.5 - División de Densidades) un caracter particular o un color particular, de tal forma que cada valor pueda ser distinguido visualmente. Codificar por caracteres fué común en el pasado pero ahora es obsoleto. Diferentes métodos pueden ser utilizados para codificar los datos:

i) codificación del arco iris: cada valor digital es asignado a un color diferente arbitrariamente seleccionado,

por ejemplo, O=rojo, l=azul … 255=amarillo;

ii) codificación de la escala gris: cada valor es asignado a un nivel de gris, generalmente en un orden ascendente,

por ejemplo, O=negro, l=gris obscuro … 254=gris claro

255=blanco;

iii) codificación de la escala del color: cada valor es asignado a un sólo nivel de color, generalmente en un orden ascendente:

por ejemplo, O=rojo obscuro … 255=rojo claro

La codificación de la escala del color es utilizada cuando es necesario desplegar más de una imagen al mismo tiempo. En este caso, cada imagen es codificada en un color particular (por ejemplo, rojo, verde, azul) y la imagen final es un compuesto de color de las imágenes originales. Las imágenes originales pueden ser la misma escena adquirida a diferentes longitudes de onda (análisis multiespectral) o a diferentes períodos de tiempo (análisis multitemporal).

6.2  Procesamiento de la imagen

Después de la digitización, los datos son formateados de manera apropiada para la manipulación por computadora y el análisis. Los datos pueden ser ahora transformados por cualquier función matemática seleccionada. Cada sistema de procesamiento de imágenes, tiene su propio paquete de programas de computadora, cada uno realizando diferentes tareas. La secuencia de tareas aplicadas a una imagen es referida como “procesamiento de la imagen”, la cual puede ser variada dependiendo de los objetivos buscados. La secuencia siguiente, proporciona un ejemplo paso a paso de técnicas de procesamiento de imágenes actualmente utilizadas.

6.2.1 Correcciones radiométricas

La radiancia del objetivo es alterada (atenuada) por la atmósfera a través de la cual pasa la radiancia en su ruta hacia el sensor. El sensor en sí mismo, distorsiona también esta radiancia que ha llegado a él.

Las correcciones por la atenuación atmosférica, son especialmente importante para objectivos obscuros tales como cuerpos de agua. Para objetivos relativamente claros, hondos y por lo tanto de agua obscura, con condiciones atmosféricas brumosas, la radiancia total que llega al sensor puede estar compuesta de únicamente 20% de radiancia procedente del agua y de 80% de radiancia de la ruta atmosférica. A pesar de que éste es un caso extremo, las señales útiles sobre objetivos de agua, tienden a ser abrumadas por ruido generado por la atmósfera.

Una evaluación subjetiva de una sóla imagen no requiere corrección atmosférica. Cuando, sin embargo, el objetivo es extraer información cuantitativa (por ejemplo, concentración de clorofila, profundidad batimétrica, etc.) o para comparar dos imágenes en valores tonales, deben de ser removidos los efectos atmosféricos.

Existe una variedad de técnicas utilizadas para la corrección atmosférica: la técnica más simple incluye “la sustracción de pixels obscuros” y el “apareamiento de histogramas” los cuales son más propensos al error. La técnicas más complejas involucran la modelación matemática de las condiciones atmosféricas en el tiempo y el lugar de la imagen, las cuales frecuentemente requieren información tomada en el sitio de la imagen y en el momento en que esta imagen fué tomada.

La corrección del ruido del sensor es de dos tipos, relativa y absoluta. Una vez más, la calibración absoluta es únicamente necesitada si se va a realizar análisis cuantitativo o análisis de imágenes múltiples. Información auxiliar enviada desde el satélite es utilizada para realizar la calibración absoluta. Esto es comúnmente llevado a cabo en la etapa de procesamiento cuando es creada la cinta compatible con la computadora (CCT).

La corrección relativa para el “bandeo” del sensor es generalmente realizada cuando el CCT es producido por el usuario. El fenómeno de “bandeo” ocurre cuando un sólo canal en un sensor realmente contiene varios detectores. En un sistema de barrido por espejo, como el LANDSAT MSS, hay seis detectores por canal mientras que en un sistema de opresión de barrido como el SPOT HRV, hay miles. Durante la construcción del sensor, los detectores son apareados en términos de sensibilidad tanto como sea posible. La sensibilidad del detector va a cambiar lentamente con el tiempo, haciendo un detector más (o menos) sensible a la radiancia, que su vecino. El resultado aparente es que el mismo objetivo será captado con diferente brillantez por detectores con diferente sensibilidad. De nuevo, los datos auxiliares del sensor son utilizados en la etapa de pre- procesamiento (en tierra) para corregir este defecto de la imagen.

6.2.2  Correcciones geométricas

La distorsión geométrica es producida por la curvatura de la tierra, el movimiento no uniforme del barredor, la no linearidad de despejo del barredor y el movimiento rotacional de satélite.

La corrección de estas distorsiones geométicas pueden ser logradas en dos formas:

i)   las posiciones reales de los elementos de la fotografía son cambiados pero los elementos mantienen sus valores de intensidad. Dada su limitada precisión, este método es utilizado únicamente para correcciones geométricas simples tales como distorsiones;

ii)   la imagen es remuestreada, esto es, una imagen digital, geométricamente distorsionada, es transformada a una fotografía sobre una cuadrícula no distorsionada igualmente espaciada. Los valores de intensidad de los pixels de la cuadrícula derivada, deben de ser determinados por interpolación utilizando pixels vecinos de la imagen distorsionada.

6.2.3  Realce de imagen

Los métodos de realce son usualmente aplicados a una imagen en la cual la degradación de la imagen (radiométrica y geométrica) ha sido corregida. Los realces son diseñados para ayudar al analista humano en la extracción e interpretación de información pictórica. Esto es logrado al enfatizar las características o patrones de interés, por ejemplo, el sistema visual humano puede discriminar muchos más colores que sombras de gris, por lo tanto un despliegue de color puede representar información más detallada, esto es, codificación de arco iris en lugar de codificación de escala de gris.

6.2.3.1  Realce de contraste

El realce de contraste es un proceso de acentuación de la intensidad relativa de los elementos de una imagen. Esto es logrado en una variedad de formas dependiendo de las necesidades de la tarea específica, por ejemplo:

i) modificación lineal y=ax+b

ii) modificación de logarítmica y=b X log(ax)+c

iii) modificación exponencial y=b X exp(ax)+c

iv) modificación externa no-lineal y=f(x)

Donde x representa el valor de un elemento en la imagen cruda, y es el valor modificado y a, b y c son constantes. El resultado del realce del contraste es una imagen donde distinciones sutiles entre sombras de gris han sido enfatizadas y por lo tanto más fáciles de ser distinguidas por el ojo.

6.2.3.2  Realce del filo:

Este es otro método de cambiar los valores de instensidad de una imagen digital para mejorar la detectabilidad de las características de tipo de filo en la escena. Es particularmente útil para la detección de elementos lineales ya sea oceanográficos (frentes de agua calientes o fríos) o elaborados por el hombre (canales, vías acuáticas). Es llevado a cabo con filtros matemáticos los cuales enfatizan los detalles de una imagen.

6.2.3.3  Realce de colores:

El sistema visual humano puede discriminar únicamente de 20 a 30 tonos de gris bajo un nivel de adaptación dado. Bajo las mismas condiciones, discrimina un número más largo de colores; por lo tanto el uso del color proporciona un incremento dramático en el monto de información que puede ser percibida.

6.2.3.4  Realce de imágenes múltiples:

Imágenes múltiples (multiespectrales, multitemporales) conllevan más información que imágenes solas. Las técnicas de realce de imágenes múltiples, involucran un realce independiente del contraste de las imágenes que las componen. Los componentes realzados son entonces desplegados en un compuesto de colores falsos. Esto permite el uso del color como una herramienta para detectar diferencias entre bandas o fechas de imágenes (esto es, imágenes del mismo objetivo grabadas a diferentes tiempos).

6.2.3.5  División de la densidad:

Es posible simplificar el contenido de información de una imagen representada en forma digital, a través de la reducción del número de niveles digitales disponibles. Las imágenes de alto contraste con únicamente dos niveles, pueden ser producidas a través de la asignación de un color obscuro a un nivel y de ningún color al otro. La división de los niveles de la escala de gris en diferentes clases, puede hacerse arbitratiamente o de acuerdo a alguna especificación del usuario.

Este método es utilizado frecuentemente para la separación de la tierra y el agua. En este caso, una banda de longitud de onda específica (generalmente infrarroja cercana) para la cual las radiancias de la tierra y el agua son diferentes, es seleccionada. Por lo tanto, un histograma de datos puede mostrar dos formas muy distintas que permiten al usuario definir un umbral para separlas. Los pixels que tienen niveles de radiancia menores a este límite, le son asignados un color particular mientras que aquellos que tienen un nivel de radiancia superior al límite, le son asignados otro color.

6.2.4  Interpretación de la imagen

Después del realce, la imagen tiene que ser interpretada, para poder extraer el significado real de los datos digitales, esto es, la significancia ambiental de las radiancias grabadas por el sensor.

6.2.4.1  Clasificación de imagenes:

Una imagen puede ser dividida en clases distintas, de tal forma que los pixels que tienen propiedades espectrales similares son agrupados en la misma clase. La separación de estas clases, es realizada con métodos estadísticos o geométricos. La separación de clases o “clasificación” es más exitosa si los objetivos son muy diferentes espectralmente. La precisión de la clasificación es afectada cuando los objetivos a ser separados tienen características espectrales muy similares. Un conocimiento representativos en el área a ser mapeada, es un prerequisito para una aplicación exitosa de las técnicas de clasificación de imágenes.

6.2.4.2  Reconocimiento de patrones:

Un patrón puede ser definido como una imagen que tiene un carácter espacial o geométrico en dos o tres dimensiones. Por ejemplo, la estela de un barco moviéndose en la superficie del mar, hace un patrón por el cual puede ser identificado en una fotografía aérea. Similarmente, estructuras hechas por el hombre, o características naturales, pueden ser identificadas por sus formas geométricas. Cuando la identificación de un patrón o estructura es llevado a cabo por la computadora, éste es referido como reconocimiento del patrón.


Página precedente Inicío de página Página siguiente