Grandes inventos: Teledetección
Teledetección
Los satélites estadounidenses Landsat
giran en órbitas situadas a 900 km de la Tierra, y llevan detectores
multiespectrales que registran la radiación electromagnética emitida desde el
suelo. Esto permite observar características geológicas y naturales como roca
desnuda, tierra o fango (gris), masas de agua (azul oscuro), bosques (caoba) y
tierras de cultivo o praderas (rojo claro). Estas tres imágenes de los
alrededores del volcán Saint Helens, en Estados Unidos, que entró en erupción
en 1980, fueron tomadas el 15 de septiembre de 1973 (izquierda), el 22 de mayo
de 1983 (centro) y el 31 de agosto de 1988 (derecha) . El volcán está en el
centro de las imágenes.
Teledetección, técnica de adquisición
de datos de la superficie terrestre mediante observación remota (remote
sensing), es decir, a distancia, sin un contacto material entre el objeto
observado (superficie terrestre o marina y atmósfera) y el observador (sensor),
basada fundamentalmente en el análisis y tratamiento de las imágenes obtenidas
desde aviones y satélites artificiales, preparados para ello con diversos
sensores en función del objetivo (cámaras fotográficas, radares y otros
instrumentos especiales que registran esta información).
Vista aérea de Bayona, Francia
La ciudad suroccidental francesa de
Bayona forma parte del País Vasco francés, así como de la región de Aquitania.
Su vinculación con la historia del vecino territorio español fue especialmente
evidente en 1808, cuando tuvieron lugar las sucesivas abdicaciones de los
monarcas españoles Fernando VII y Carlos IV en la persona del emperador
Napoleón I Bonaparte. En su casco antiguo permanecen los vestigios de las
fortificaciones romanas y medievales, además de las que erigió, a finales del
siglo XVII, el militar francés Sébastien Le Prestre de Vauban. En el interior
de las murallas de Bayona se encuentra la catedral gótica de Santa María, con
dos destacadas torres (centro de la imagen).
Las cámaras fotográficas
instaladas en aviones se empezaron a utilizar a finales de la década de 1930
con el fin de fotografiar regularmente la superficie terrestre para, por ejemplo,
levantar mapas, registrar los cambios en los usos del suelo, planificar
ciudades u observar operaciones militares (véase Reconocimiento aéreo;
Fotogrametría; Fotografía). La teledetección entonces se basaba en la
fotografía aérea tomada desde un avión, técnica conocida como
fotointerpretación.
Imagen satélite
El satélite meteorológico estadounidense
NOAA-11 transporta un instrumento llamado Radiómetro Avanzado de Muy Alta
Resolución (AVHRR, siglas en inglés), que detecta la distribución
medioambiental de la Tierra. Las imágenes obtenidas a lo largo de los años
permiten estudiar los cambios del clima planetario. Este mapa del AVHRR integra
imágenes tomadas a lo largo de junio de 1992, y transforma los datos en un
‘índice de vegetación’. Los colores del mapa corresponden a diferentes niveles
de actividad fotosintética: vegetación densa (verde oscuro), vegetación
dispersa (verde claro y amarillo), nieve, hielo o nubes (blanco), agua (azul) y
terreno yermo (castaño oscuro).
Actualmente, gracias a las
nuevas tecnologías y la informática, es de vital importancia el desarrollo de
la teledetección espacial, denominada así porque los sensores se instalan en
plataformas espaciales, lo que comúnmente denominamos satélites artificiales.
La diferencia fundamental entre teledetección espacial y fotointerpretación es
que la primera se basa en observaciones cuantitativas y permite estimar
variables tanto cualitativas como cuantitativas; la fotointerpretación es, sin
embargo, una técnica cualitativa, aunque si se escanea una fotografía aérea
vertical, se obtiene una imagen que puede tratarse con las mismas técnicas
digitales que se utilizan en teledetección espacial, siendo el proceso más
lento y en ocasiones menos preciso.
Otras técnicas de teledetección
son la videografía o el radar aerotransportado (aviones).
2
|
COMPONENTES DE LA TELEDETECCIÓN ESPACIAL
|
Estereoscopio de finales del siglo XIX
Este instrumento óptico binocular nos
permite observar dos imágenes planas de un mismo objeto que han sido tomadas
desde puntos de vista diferentes como si fueran una imagen única en relieve.
Los estereoscopios crean una ilusión de profundidad en fotografías
bidimensionales llamadas estereogramas. Un estereograma consta de dos fotografías
de una misma escena, tomadas desde ángulos ligeramente distintos. Al ser vistas
a través de un estereoscopio, ambas imágenes se funden en una única imagen
tridimensional. El estereoscopio que se muestra en la fotografía es de finales
del siglo XIX, una época en la que los estereoscopios constituían un
entretenimiento muy popular en Europa y América del Norte.
Un sistema de teledetección
espacial incluye los elementos siguientes:
• Fuente de energía. En un proceso de teledetección tiene lugar una interacción energética entre la Tierra y el sensor. La fuente de energía es el origen de la radiación electromagnética que detecta el sensor, bien la radiada por los objetos, bien la reflejada por la superficie terrestre. En este último caso, la fuente de radiación puede ser tanto el Sol (da lugar a la teledetección pasiva) como el propio sensor (teledetección activa).
• Cubierta terrestre. Recibe la radiación y la refleja o la emite, de acuerdo a sus características.
• Sistema sensor. Está constituido por el sensor propiamente dicho y la plataforma en la que se instala. Capta la energía procedente de la cubierta terrestre, la codifica y permite su llegada al sistema receptor.
• Sistema receptor. Recibe la información, la graba en formato adecuado y la distribuye a los interesados.
• Intérprete. Transforma los datos en información temática orientada a la finalidad del estudio, ya sea de forma visual o de forma digital, pues existen diversos programas de tratamiento de imágenes.
• Usuario final. Analiza la imagen que se deriva del proceso descrito y obtiene conclusiones sobre lo que en ella aparece. Los científicos que trabajan en teledetección utilizan frecuentemente ordenadores o computadoras para mejorar la calidad de las imágenes y contribuir a la automatización de la recogida de información, tratamiento de datos y confección de mapas.
• Fuente de energía. En un proceso de teledetección tiene lugar una interacción energética entre la Tierra y el sensor. La fuente de energía es el origen de la radiación electromagnética que detecta el sensor, bien la radiada por los objetos, bien la reflejada por la superficie terrestre. En este último caso, la fuente de radiación puede ser tanto el Sol (da lugar a la teledetección pasiva) como el propio sensor (teledetección activa).
• Cubierta terrestre. Recibe la radiación y la refleja o la emite, de acuerdo a sus características.
• Sistema sensor. Está constituido por el sensor propiamente dicho y la plataforma en la que se instala. Capta la energía procedente de la cubierta terrestre, la codifica y permite su llegada al sistema receptor.
• Sistema receptor. Recibe la información, la graba en formato adecuado y la distribuye a los interesados.
• Intérprete. Transforma los datos en información temática orientada a la finalidad del estudio, ya sea de forma visual o de forma digital, pues existen diversos programas de tratamiento de imágenes.
• Usuario final. Analiza la imagen que se deriva del proceso descrito y obtiene conclusiones sobre lo que en ella aparece. Los científicos que trabajan en teledetección utilizan frecuentemente ordenadores o computadoras para mejorar la calidad de las imágenes y contribuir a la automatización de la recogida de información, tratamiento de datos y confección de mapas.
Como ejemplo de un sistema
de teledetección resulta muy práctico el símil con la visión humana. La luz
solar (fuente de energía) emite su radiación, que se refleja en la superficie
de los objetos (cubierta terrestre). El ojo humano recibe la energía reflejada
(sistema sensor) y transmite la señal al cerebro (sistema receptor), que es
capaz de formar imágenes. El individuo que observa es intérprete y usuario
final.
Sin embargo, el ejemplo
anterior se limita a la radiación que denominamos visible, por ser la única
perceptible por el ojo humano, la cual permite que los objetos se vean de los
colores que identificamos, como ocurre con la fotografía aérea a color. La
mayoría de los sensores remotos registran la energía electromagnética radiada o
reflejada por los objetos. La forma más familiar de energía electromagnética es
la luz: cuando la película de una cámara se expone a la luz, está registrando
la energía electromagnética visible.
Pero existen sistemas de
teledetección que se basan en el registro de energía electromagnética
invisible, como rayos infrarrojos o microondas.
3
|
FORMAS DE ENERGÍA EMPLEADAS
|
La adquisición de información
a distancia implica la existencia de un flujo de información entre el objeto
observado y el sensor. El portador de esta información es la radiación
electromagnética, que puede ser emitida por el objeto o proceder de otro cuerpo
y haber sido reflejada por este. Todos los cuerpos (planetas, seres vivos,
objetos) emiten radiación electromagnética, aunque su cantidad y tipo depende
fundamentalmente de su temperatura.
El principal emisor de
energía en el sistema solar es el Sol cuya radiación, reflejada por la Tierra y
los objetos situados en ella, es la más común en teledetección y la que nos
permite ver los objetos que nos rodean. También el propio sensor puede
incorporar un emisor de radiación cuyo reflejo en la superficie terrestre es
captado por él posteriormente.
La teledetección espacial
permite percibir otras formas de energía en un espectro mucho más amplio de
energía no visible (rayos ultravioleta, rayos infrarrojos o microondas), desde
una perspectiva vertical y panorámica.
4
|
ESPECTRO ELECTROMAGNÉTICO
|
El espectro electromagnético es
una escala en la que puede situarse cualquier onda de energía. En dicha escala
se representa la frecuencia, así como la longitud de onda de la radiación
electromagnética, siendo ambas inversamente proporcionales, es decir, a mayor
frecuencia menor longitud de onda. En esta escala pueden definirse intervalos
dentro de los cuales las ondas electromagnéticas se comportan de forma similar.
Dichos intervalos se denominan bandas o canales espectrales.
Las bandas más empleadas en
teledetección son:
• Espectro visible (0,4 a 0,7 µm). Coincide con las longitudes de onda donde es máxima la radiación solar. Suelen distinguirse tres bandas fundamentales: azul (0,4 a 0,5 µm), verde (0,5 a 0,6 µm) y rojo (0,6 a 0,7 µm), según los colores que nuestros ojos perciben al recibir una radiación electromagnética de cada una de esas longitudes de onda.
• Infrarrojo próximo (0,7 a 1,3 µm). También llamado infrarrojo reflejado o fotográfico, porque parte de él puede detectarse mediante películas dotadas de emulsiones especiales. Es de gran utilidad para discriminar masas vegetales y concentraciones de humedad.
• Infrarrojo medio (1,3 a 8 µm). En esta banda se entremezclan los procesos de reflexión de luz solar y los de emisión propia de la superficie terrestre. Es útil para la estimación de humedad en la vegetación y detección de focos de alta temperatura.
• Infrarrojo lejano o térmico (8 a 14 µm). Incluye la emisión propia de la superficie terrestre, por lo que es útil para detectar el calor que emiten las cubiertas terrestres, o sus cambios de temperatura.
• Microondas (a partir de 1mm). Un radar es un sensor activo de microondas. Esta banda de energía es bastante transparente a la cubierta nubosa. Se ha utilizado para confeccionar mapas de la superficie de Venus, que está totalmente oculta por nubes muy densas, para navegación oceánica, para detectar características geológicas e, incluso, para calcular el contenido de humedad del suelo.
• Espectro visible (0,4 a 0,7 µm). Coincide con las longitudes de onda donde es máxima la radiación solar. Suelen distinguirse tres bandas fundamentales: azul (0,4 a 0,5 µm), verde (0,5 a 0,6 µm) y rojo (0,6 a 0,7 µm), según los colores que nuestros ojos perciben al recibir una radiación electromagnética de cada una de esas longitudes de onda.
• Infrarrojo próximo (0,7 a 1,3 µm). También llamado infrarrojo reflejado o fotográfico, porque parte de él puede detectarse mediante películas dotadas de emulsiones especiales. Es de gran utilidad para discriminar masas vegetales y concentraciones de humedad.
• Infrarrojo medio (1,3 a 8 µm). En esta banda se entremezclan los procesos de reflexión de luz solar y los de emisión propia de la superficie terrestre. Es útil para la estimación de humedad en la vegetación y detección de focos de alta temperatura.
• Infrarrojo lejano o térmico (8 a 14 µm). Incluye la emisión propia de la superficie terrestre, por lo que es útil para detectar el calor que emiten las cubiertas terrestres, o sus cambios de temperatura.
• Microondas (a partir de 1mm). Un radar es un sensor activo de microondas. Esta banda de energía es bastante transparente a la cubierta nubosa. Se ha utilizado para confeccionar mapas de la superficie de Venus, que está totalmente oculta por nubes muy densas, para navegación oceánica, para detectar características geológicas e, incluso, para calcular el contenido de humedad del suelo.
La teledetección espacial
utiliza sensores multiespectrales, que permiten representar la Tierra desde
diferentes longitudes de onda. Son cámaras de barrido que no utilizan
películas, sino detectores electrónicos que registran radiaciones electromagnéticas.
Los sensores infrarrojos y de
microondas registran energía electromagnética invisible. El calor de los
objetos puede medirse por la energía infrarroja que irradian. Los sensores
infrarrojos crean imágenes que muestran las variaciones de temperatura en una
zona. Los científicos emplean imágenes infrarrojas para determinar las
condiciones de vegetación, estudiar los cambios de temperatura en la superficie
del agua, localizar daños en canalizaciones subterráneas y registrar
determinados accidentes geográficos superficiales y subterráneos.
Los sensores de microondas,
como el radar, transmiten ondas electromagnéticas hacia un objeto y registran
las ondas que este refleja. A diferencia de otros sensores, los de microondas
pueden recoger información sobre una zona a través de las nubes. Explorando una
zona con radar y procesando los datos con una computadora, los científicos
pueden crear mapas de radar.
5
|
TIPOS DE RESOLUCIONES DE IMÁGENES DE
SATÉLITE
|
La salida de radiación
(emitida o reflejada) de la superficie terrestre es un fenómeno continuo en
cuatro dimensiones: espacio, tiempo, longitud de onda y radiancia (total de
energía radiada por unidad de área y por ángulo sólido de medida).
La habilidad para discriminar
información de detalle que tiene un sensor se recoge en función de esas cuatro
propiedades:
• Resolución espacial. Es el tamaño del píxel o unidad de longitud más pequeña que identifica el sensor, es decir, la dimensión del objeto independiente más pequeño que podrá aparecer en la imagen. En algunos casos se emplea un concepto relacionado con el píxel, sin ser lo mismo: IFOV (campo instantáneo de visión), que es la sección angular, dada en radianes, observada en un momento determinado. Una alta resolución espacial es de gran utilidad cuando el detalle espacial es crucial en el estudio al que se destina, como es el caso de las explotaciones mineras.
• Resolución espectral. Indica el número y anchura de las bandas espectrales en las que el sensor puede captar radiación electromagnética. Es importante en el caso de la estimación de cosechas, pues permite discriminar diferentes cultivos o rendimientos de los mismos. En principio cuanta más bandas incluya un sensor, mejor, ya que cada banda constituye una variable para caracterizar la superficie captada; también es favorable que estas bandas sean estrechas para que aumente su poder discriminante, pues si las bandas son muy anchas, van a recoger valores promediados que ocultarán elementos de diferenciación. Resulta mucho más informativo contar con 3 bandas (rojo, verde y azul) en el visible que con una sola banda (fotografía en blanco y negro). El número de bandas y su localización en el espectro va a depender de los objetivos que se pretendan cubrir con la puesta en funcionamiento del sensor.
• Resolución radiométrica. Hace referencia a la sensibilidad del sensor, a su capacidad para detectar variaciones en la magnitud de medida de energía con la que trabaja, es decir, al número de intervalos de intensidad que pueden captarse. Suele expresarse mediante el número de bits necesarios que se precisan para almacenar cada píxel. Por ejemplo, Landsat-TM utiliza 8 bits, lo que da 256 niveles de energía (ND, Niveles Digitales) que pueden ser captados. Cuanto mayor sea la precisión radiométrica mayor número de detalles podrán captarse en la imagen.
• Resolución temporal. Indica el intervalo de tiempo entre cada imagen obtenida por la plataforma, es decir, la periodicidad con la que el sensor adquiere imágenes de la misma porción de la superficie terrestre. Adquiere vital importancia en los satélites meteorológicos. Es de media hora como máximo en el caso de los satélites geosíncronos y variable en el caso de los satélites heliosíncronos. Como recientemente se han desarrollado satélites de muy alta resolución espacial con sensores orientables (la zona de la que captan imágenes es relativamente independiente de la posición que ocupe el satélite), la resolución temporal pasa a ser algo más flexible.
• Resolución espacial. Es el tamaño del píxel o unidad de longitud más pequeña que identifica el sensor, es decir, la dimensión del objeto independiente más pequeño que podrá aparecer en la imagen. En algunos casos se emplea un concepto relacionado con el píxel, sin ser lo mismo: IFOV (campo instantáneo de visión), que es la sección angular, dada en radianes, observada en un momento determinado. Una alta resolución espacial es de gran utilidad cuando el detalle espacial es crucial en el estudio al que se destina, como es el caso de las explotaciones mineras.
• Resolución espectral. Indica el número y anchura de las bandas espectrales en las que el sensor puede captar radiación electromagnética. Es importante en el caso de la estimación de cosechas, pues permite discriminar diferentes cultivos o rendimientos de los mismos. En principio cuanta más bandas incluya un sensor, mejor, ya que cada banda constituye una variable para caracterizar la superficie captada; también es favorable que estas bandas sean estrechas para que aumente su poder discriminante, pues si las bandas son muy anchas, van a recoger valores promediados que ocultarán elementos de diferenciación. Resulta mucho más informativo contar con 3 bandas (rojo, verde y azul) en el visible que con una sola banda (fotografía en blanco y negro). El número de bandas y su localización en el espectro va a depender de los objetivos que se pretendan cubrir con la puesta en funcionamiento del sensor.
• Resolución radiométrica. Hace referencia a la sensibilidad del sensor, a su capacidad para detectar variaciones en la magnitud de medida de energía con la que trabaja, es decir, al número de intervalos de intensidad que pueden captarse. Suele expresarse mediante el número de bits necesarios que se precisan para almacenar cada píxel. Por ejemplo, Landsat-TM utiliza 8 bits, lo que da 256 niveles de energía (ND, Niveles Digitales) que pueden ser captados. Cuanto mayor sea la precisión radiométrica mayor número de detalles podrán captarse en la imagen.
• Resolución temporal. Indica el intervalo de tiempo entre cada imagen obtenida por la plataforma, es decir, la periodicidad con la que el sensor adquiere imágenes de la misma porción de la superficie terrestre. Adquiere vital importancia en los satélites meteorológicos. Es de media hora como máximo en el caso de los satélites geosíncronos y variable en el caso de los satélites heliosíncronos. Como recientemente se han desarrollado satélites de muy alta resolución espacial con sensores orientables (la zona de la que captan imágenes es relativamente independiente de la posición que ocupe el satélite), la resolución temporal pasa a ser algo más flexible.
A mayor resolución espacial,
disminuye habitualmente la resolución temporal y es previsible que se reduzca
también la espectral. El aumento en cualquiera de las cuatro resoluciones
supone un incremento importantísimo en el volumen de datos que el sensor debe
preprocesar y enviar a las estaciones terrestres.
La aparición de sensores de
orientación modificable ha permitido compatibilizar las altas resoluciones
espacial y temporal a costa de una toma de imágenes no sistemática.
Debe evitarse relacionar resolución
espacial con calidad de las imágenes, pues cada sensor tiene la
resolución óptima para los objetivos que se pretenden cubrir; así, los
satélites meteorológicos se utilizan para analizar fenómenos muy dinámicos y
por ello necesitan una gran resolución temporal (30 minutos) y una imagen de
gran tamaño (todo el planeta), con píxeles grandes (resolución espacial baja).
6
|
TIPOS DE SENSORES
|
Una clasificación básica de los
sensores diferencia entre sensores activos (generan su propia radiación y la
reciben rebotada) y sensores pasivos (reciben radiación emitida o reflejada por
la Tierra).
Entre los sensores pasivos
destacan: los fotográficos (cámaras fotográficas instaladas en plataformas
aéreas), los exploradores o radiómetros de barrido (sensores
óptico-electrónicos que ‘barren’ u oscilan en dirección perpendicular a la
trayectoria del satélite; son los más habituales en teledetección), los
exploradores de empuje (sensores óptico-electrónicos que, a diferencia de los
exploradores de barrido, no oscilan en dirección perpendicular a la trayectoria
sino que siguen la trayectoria del satélite), las cámaras de vídeo (mejoran la
resolución de los anteriormente mencionados ya que amplían la señal recibida) y
los radiómetros de microondas (sensor óptico-electrónico que opera en rangos
del espectro visible de longitudes de onda largas, evitando así los problemas
derivados de las condiciones atmosféricas y de iluminación). Los espectrómetros
de imagen constituyen una nueva generación de instrumentos cuya misión
es obtener imágenes en un gran número de bandas espectrales (entre 64 y 210
bandas a intervalos de 10-20 m) obteniendo un espectro casi continuo de
radiación.
Por lo que se refiere
a los sensores activos, actualmente se dispone del radar y el lídar (basado en
tecnología láser). El radar es un radiómetro de microondas de naturaleza
activa, es decir, que a diferencia del descrito en el punto anterior, se
encarga de emitir la señal para luego interpretar la respuesta; trabaja en una
banda comprendida entre 1 mm y 1 m; debido a su capacidad para trabajar ante
cualquier condición atmosférica, su uso se ha extendido mucho, especialmente en
zonas con cobertura nubosa persistente. El lídar es un sensor similar al
anterior, pero que emite pulsos de luz polarizada de longitudes de onda mucho
más pequeñas, en la franja del espectro correspondiente al ultravioleta y al
infrarrojo cercano.
En función de la orientación
con la que el sensor capta las imágenes se distingue entre: sensores de
orientación vertical, habitual en satélites de resolución espacial baja
(METEOSAT) o media (LANDSAT); de orientación oblicua, típica del radar; y de
orientación modificable, que aparece en los sensores de alta resolución (a
partir del SPOT-IHV) y en los que se dispone por encargo la orientación, lo que
permite mantener unas elevadas resoluciones espacial y temporal (tiempo de
revisita); no obstante, su inconveniente es que es difícil encontrar imágenes a
posteriori, ya que solo se toman aquellas imágenes que se han encargado
previamente.
7
|
TIPOS DE PLATAFORMAS DE TELEDETECCIÓN
ESPACIAL
|
Imagen de satélite del desierto Líbico
Dos picos volcánicos, el Arkenu y el
Uweinat, son claramente visibles en esta imagen de satélite tomada del desierto
Líbico.
Los satélites han resultado
ser muy útiles para el desarrollo de sistemas de teledetección. La Agencia
Espacial Europea (ESA), la NASA de Estados Unidos y las organizaciones
espaciales de otros países, como India (ISRO), Japón (JAXA, antigua NASDA),
China (CASC) y Rusia (IKI) han lanzado satélites de observación terrestre, tanto
geosíncronos o geoestacionarios como heliosíncronos. Estos sistemas de
teledetección se emplean de forma habitual para el reconocimiento, la
confección de mapas y la observación de los recursos y el medio ambiente de la
Tierra. También se han empleado para explorar otros planetas (véase Astronáutica).
Los satélites estadounidenses
LANDSAT han proporcionado una enorme cantidad de información sobre la Tierra y
se han convertido en el proyecto más fructífero de teledetección, alcanzando,
solo hasta 1980, una cobertura de 32 millones de km2 y un total de
965.000 imágenes adquiridas, con un tamaño de píxel de 0,62 hectáreas. El
primero, el Landsat-1, se lanzó en 1972; el Landsat-7, en 1999.
El Landsat-5 produce imágenes de casi toda la superficie terrestre una
vez cada 16 días.
Los satélites franceses SPOT (Système
Probatoire d’Observation de la Terre) han sido desarrollados por el Centro
Nacional de Estudios Espaciales (CNES) francés, en colaboración con Bélgica y
Suecia. Son ya cinco los lanzados y tres están en la actualidad en órbita.
Algunos facilitan imágenes que muestran objetos de tan solo 100 m2
de superficie.
Existen numerosos satélites
meteorológicos, como la serie europea Meteosat, que emplean sistemas de
teledetección para producir imágenes que se utilizan en la predicción
meteorológica (véase Meteorología). Los sensores remotos de estos
satélites pueden seguir el movimiento de los diferentes tipos de nubes y
registrar los cambios de temperatura en la atmósfera, el contenido de vapor de
agua en el aire, la precipitación acumulada, la velocidad de los vientos o la
temperatura del mar. Otros satélites de observación meteorológica son GOES
(EEUU), GMS (Japón), INSAT (India), METEOR (Rusia), NOAA (EEUU) o FENGYUN
(China).
También se llevan a cabo
programas de observación con equipos radar: SEASAT, SIR, ERS, JERS-1, RADARSAT
o la misión SRTM de la NASA, que está cartografiando la superficie terrestre en
su totalidad. Otros satélites son: ENVISAT, MOS, AMAZONAS, IRS y DMSP.
8
|
TRATAMIENTO DE IMÁGENES DE SATÉLITE
|
Una vez los sensores espaciales
han completado el proceso de recogida de información, y esta ha sido enviada al
sistema receptor, debe ser procesada y dispuesta en formatos legibles para los
usuarios finales. El tratamiento de la información puede abordarse desde dos
enfoques: visual y digital.
1. Tratamiento visual. Los valores que nos devuelven los sensores digitales son transformados a
intensidades de luz, generándose así productos casi fotográficos, susceptibles
de interpretación visual. Es comúnmente utilizado en la elaboración de
cartografía geológica, mapas de vegetación y morfología urbana (planos).
2. Tratamiento digital. Gracias al enorme desarrollo de disciplinas como la ingeniería informática
y las telecomunicaciones, han sido posibles mejoras muy importantes, tanto
desde el punto de vista cuantitativo como cualitativo, a la hora de procesar la
información satelital. Este tipo de tratamiento aprovecha la conversión
analógica-digital realizada en el satélite para, mediante el uso de
herramientas de software y hardware, automatizar y agilizar las
tareas de interpretación de las imágenes. Mediante estas técnicas, cada uno de
los píxeles que componen las imágenes son tratados de forma independiente, de
modo que, a cada uno y en función de la variable que se esté utilizando, el software
empleado le asigna un valor de Nivel Digital concreto. El Nivel Digital (ND) es
el valor numérico que refleja el valor radiado por el objeto en el momento de
ser tomada la imagen. Dicho valor numérico queda almacenado en cada píxel.
El método de tratamiento
digital resulta más fiable y aporta más posibilidades de explotación de la
información; sin embargo, requiere una mayor inversión económica que el
analógico.
Hay dos clases de imágenes:
las VIS y las IR.
• Una imagen visible (VIS) es aquella que toma un satélite en el llamado canal o banda visible. En este canal, el satélite ‘ve’ la Tierra como una persona la vería si estuviera dentro del satélite mirando por la ventanilla: se captan los objetos dependiendo de cómo reflejan la luz solar, es decir, de su capacidad para reflejar los rayos solares. Este es un inconveniente, pues es imposible tener imágenes del periodo nocturno; los canales de televisión en sus informativos meteorológicos no suelen usar estas imágenes.
• Una imagen infrarroja (IR) es la que un satélite toma en el llamado canal o banda infrarroja. Como todos los cuerpos están a una determinada temperatura, emiten radiación térmica, aunque el ojo humano, sensible a la luz visible o ‘blanca’, no pueda verla. En este canal, el satélite detecta esos focos térmicos y es capaz de generar mapas térmicos de las superficies emisoras terrestres que esté explorando y posean una temperatura de brillo. Al ser independiente que los objetos y estructuras estén iluminadas por el Sol, hay información en el canal IR durante las 24 horas del día y por ello los canales de televisión suelen usar estas imágenes en sus informativos. Aunque las imágenes IR se suelen representar en una escala de grises, se han tomado estos convenios: a mayor temperatura de emisión, tonalidad más oscura. Es conveniente hacer el análisis de la imagen IR observando su homóloga VIS durante el día.
• Una imagen visible (VIS) es aquella que toma un satélite en el llamado canal o banda visible. En este canal, el satélite ‘ve’ la Tierra como una persona la vería si estuviera dentro del satélite mirando por la ventanilla: se captan los objetos dependiendo de cómo reflejan la luz solar, es decir, de su capacidad para reflejar los rayos solares. Este es un inconveniente, pues es imposible tener imágenes del periodo nocturno; los canales de televisión en sus informativos meteorológicos no suelen usar estas imágenes.
• Una imagen infrarroja (IR) es la que un satélite toma en el llamado canal o banda infrarroja. Como todos los cuerpos están a una determinada temperatura, emiten radiación térmica, aunque el ojo humano, sensible a la luz visible o ‘blanca’, no pueda verla. En este canal, el satélite detecta esos focos térmicos y es capaz de generar mapas térmicos de las superficies emisoras terrestres que esté explorando y posean una temperatura de brillo. Al ser independiente que los objetos y estructuras estén iluminadas por el Sol, hay información en el canal IR durante las 24 horas del día y por ello los canales de televisión suelen usar estas imágenes en sus informativos. Aunque las imágenes IR se suelen representar en una escala de grises, se han tomado estos convenios: a mayor temperatura de emisión, tonalidad más oscura. Es conveniente hacer el análisis de la imagen IR observando su homóloga VIS durante el día.
Las herramientas informáticas
con las que actualmente se cuenta para el tratamiento de imágenes satelitales
abarcan multitud de productos de muy diversa naturaleza. Entre las herramientas
hardware (componentes físicos de los equipos informáticos) se considera
a las unidades de distribución; como ya se ha indicado, los sensores instalados
en los satélites hacen una primera transformación de las imágenes y los
formatos de lectura pasan de datos analógicos a digitales. Estos datos, para
poder pasar por todo el proceso de interpretación, han de distribuirse en
formatos legibles a la mayoría de los usuarios. Los formatos de distribución
más comúnmente utilizados son: para el tratamiento visual, las películas en
negativo, las películas en positivo y el formato papel; para el tratamiento
digital destacan las cintas magnéticas, las cintas de cartucho, los CD-ROM y
los DVD.
También entre las herramientas
hardware deben tenerse en cuenta, por un lado, las unidades de
almacenamiento y tratamiento de imágenes, que son las CPU de los ordenadores,
cuyas dimensiones pueden variar en gran medida en función de las dimensiones de
los proyectos; y, por otro lado, las unidades de salida de imágenes, que hacen
referencia a dos tipos: los que presentan las imágenes en pantallas, ya sean
las pantallas LCD de los móviles de última generación o los monitores de un
ordenador personal, y los que ofrecen salidas en papel, como una impresora o un
plotter.
Tan importantes como las
anteriores son las herramientas software (unidades lógicas de los
equipos informáticos). Actualmente hay una gran variedad de programas
informáticos que sirven para el tratamiento de las imágenes digitales. Son de
naturaleza muy variada en función de los fines que se persigan, aunque de forma
esquemática se pueden definir tres tipos: los que tienen como única finalidad
el dotar a las imágenes de la suficiente calidad visual para que el intérprete,
experto o principiante, sea capaz de interpretar lo que en ella se muestra
(programas como Adobe Photoshop, QuarkExpress, PaintshoPro); los que no
persiguen la calidad visual de las imágenes, sino el contenido de la
información digital que cada uno de los píxeles contiene (Erdas Imagine, ENVI,
ILLWIS); y los Sistemas de Información Geográfica, importantes en la
explotación y corrección de los resultados obtenidos en un proyecto de
teledetección.
9
|
SIG Y TELEDETECCIÓN
|
Los Sistemas de Información
Geográfica (SIG), intervienen en las últimas fases de las que componen un
proceso de teledetección, más concretamente en lo que anteriormente se definía
como los elementos intérprete y usuario final.
Dotarán al intérprete de una
herramienta que le permitirá corregir, basándose en datos geográficos
existentes, las imágenes satelitales, garantizando unos mínimos de calidad
suficientes para ser interpretadas. Pero es el usuario final el que más y mejor
partido va a sacar de los SIG, pues le ofrecen capacidad de almacenamiento y
procesado de la información, así como multitud de herramientas de análisis e
integración de diversas variables obtenidas a partir de esos mismos datos,
cerrando así un proceso que se iniciaba con la toma de las imágenes, y que va a
permitir a científicos y técnicos de diversas disciplinas profesionales y de
investigación aprovechar estas técnicas para ponerlas al servicio de la
sociedad y de la ciencia.
Como ejemplo sencillo y
esquemático es muy explicativo el caso de la explotación de datos procedentes
de un proceso de teledetección, y su aplicación para la evaluación y prevención
de catástrofes naturales, por ejemplo, las inundaciones provocadas por lluvias
torrenciales. El técnico, gracias a la teledetección, recopila una serie de
imágenes que, una vez corregidas y almacenadas mediante herramientas SIG, puede
explotar obteniendo así variables de vital importancia para la evaluación y
prevención de avenidas. Son multitud las variables que el técnico puede extraer
y analizar mediante un SIG; unas de forma directa, como son los caudales de
avenida, las velocidades del agua en distintos puntos, las dimensiones de la
mancha de inundación y las afecciones producidas; y otras de forma indirecta,
como la evaluación de los impactos económicos que estas producen o los riesgos
que determinadas actividades humanas tienen para el medio ambiente y el ser
humano.
Pero el usuario final no
tiene que ser siempre un técnico especialista; un estudiante de bachillerato o
una persona cualquiera desde casa se puede convertir en usuario de
teledetección a través de herramientas SIG que están en Internet. Hay páginas
web que constituyen un SIG en sí mismas, lo que en terminología de Internet se
llaman servidores de mapas. Dichos servidores tienen como fuente de datos
diversos satélites, que gracias a los SIG ponen a disposición del usuario de
Internet información cartográfica valiosa e interesante. Los SIG son, por tanto,
los sistemas que, por su naturaleza, mejor permiten explotar los datos que la
teledetección aporta.
10
|
APLICACIONES DE LA TELEDETECCIÓN
|
Imágenes de satélite del mar de Aral
La extensión cada vez más reducida del
mar de Aral es preocupante, como se puede ver en estas imágenes tomadas en 1973
y 1987 por el satélite Landsat. Durante esos años, pasó de ser el cuarto lago
más grande del mundo a convertirse en el sexto, ya que sus aguas se desviaron
para regadío. De seguir así, podría desaparecer.
Las aplicaciones de la
teledetección son múltiples y de muy diversa índole, y están en constante
evolución conforme a los adelantos técnicos en una amplia gama de disciplinas
por medio de los cuales se desarrollan, se diversifican y se amplían, como la
informática, la aeronáutica, la física o los campos de la ingeniería civil y
ambiental.
Imágenes de satélite del lago Turkana
Las imágenes del 1 de febrero de 1973
(izquierda) y del 12 de enero de 1989 (derecha) muestran los cambios en el
delta del río Omo, en la ribera norte del lago Turkana, en África oriental. El
delta del río ha pasado de 772 km² en 1965 a unos 1.800 km² en 1990. El
incremento del 133% de la erosión del suelo a gran escala en la cuenca del río,
ha hecho que también haya aumentado la turbidez dentro del lago. La erosión
está directamente relacionada con las prácticas de pastoreo en la cuenca de
drenaje del Omo y con la significativa disminución de las precipitaciones
durante los últimos años. La menor cantidad de lluvias también ha provocado la
bajada del nivel del lago, lo que ha expuesto más suelo en la zona del delta.
La teledetección con fines
militares ha sido, aparte de una de las propulsoras del desarrollo de esta
técnica, una de las ramas que mayor provecho ha obtenido, sobre todo, porque
tuvo sus orígenes durante la I Guerra Mundial (1914-1918) como herramienta
insustituible para el espionaje y la planificación de campañas bélicas.
Actualmente son muchas las
ciencias que se benefician de forma directa de esta tecnología, como, por
ejemplo: la meteorología (ofrece perfiles de temperatura atmosférica, mapas de
presiones o isobáricos, contenidos de vapor de agua, velocidad de los vientos,
predicción de huracanes…), la oceanografía (temperatura superficial del mar,
corrientes oceánicas, velocidad y altura del oleaje, estado de las mareas,
detección de tsunamis…), la geología y la geomorfología (identificación de
perfiles geotécnicos, localización de fallas y desplazamientos tectónicos,
determinación de surgencias y masas de agua subterráneas, grado de actividad de
volcanes…), la topografía y la cartografía (obtención de mapas de detalle de la
superficie terrestre…), la zoología (inventarios de fauna, movimientos
migratorios...), la ingeniería forestal y la agricultura (tipos de cobertura
vegetal y estado sanitario de la misma, identificación de plagas, mapas de usos
del suelo, vulnerabilidad a los incendios, predicción de cosechas…), la
hidrología (estimación de recursos hídricos, prevención de avenidas…), el medio
ambiente y el control de fenómenos naturales catastróficos (muy ligado a
algunas de las disciplinas anteriormente descritas, como los avisos de
tormenta, movimientos sísmicos, avalanchas, inundaciones, control de la
polución…) y el urbanismo (planificación urbanística, vigilancia del tráfico…).