Patrocinador1

Teledetección





Grandes inventos: Teledetección

Teledetección
Teledetección
Los satélites estadounidenses Landsat giran en órbitas situadas a 900 km de la Tierra, y llevan detectores multiespectrales que registran la radiación electromagnética emitida desde el suelo. Esto permite observar características geológicas y naturales como roca desnuda, tierra o fango (gris), masas de agua (azul oscuro), bosques (caoba) y tierras de cultivo o praderas (rojo claro). Estas tres imágenes de los alrededores del volcán Saint Helens, en Estados Unidos, que entró en erupción en 1980, fueron tomadas el 15 de septiembre de 1973 (izquierda), el 22 de mayo de 1983 (centro) y el 31 de agosto de 1988 (derecha) . El volcán está en el centro de las imágenes.

Teledetección, técnica de adquisición de datos de la superficie terrestre mediante observación remota (remote sensing), es decir, a distancia, sin un contacto material entre el objeto observado (superficie terrestre o marina y atmósfera) y el observador (sensor), basada fundamentalmente en el análisis y tratamiento de las imágenes obtenidas desde aviones y satélites artificiales, preparados para ello con diversos sensores en función del objetivo (cámaras fotográficas, radares y otros instrumentos especiales que registran esta información).

Vista aérea de Bayona, Francia
Vista aérea de Bayona, Francia
La ciudad suroccidental francesa de Bayona forma parte del País Vasco francés, así como de la región de Aquitania. Su vinculación con la historia del vecino territorio español fue especialmente evidente en 1808, cuando tuvieron lugar las sucesivas abdicaciones de los monarcas españoles Fernando VII y Carlos IV en la persona del emperador Napoleón I Bonaparte. En su casco antiguo permanecen los vestigios de las fortificaciones romanas y medievales, además de las que erigió, a finales del siglo XVII, el militar francés Sébastien Le Prestre de Vauban. En el interior de las murallas de Bayona se encuentra la catedral gótica de Santa María, con dos destacadas torres (centro de la imagen).

Las cámaras fotográficas instaladas en aviones se empezaron a utilizar a finales de la década de 1930 con el fin de fotografiar regularmente la superficie terrestre para, por ejemplo, levantar mapas, registrar los cambios en los usos del suelo, planificar ciudades u observar operaciones militares (véase Reconocimiento aéreo; Fotogrametría; Fotografía). La teledetección entonces se basaba en la fotografía aérea tomada desde un avión, técnica conocida como fotointerpretación.

Imagen satélite
El satélite meteorológico estadounidense NOAA-11 transporta un instrumento llamado Radiómetro Avanzado de Muy Alta Resolución (AVHRR, siglas en inglés), que detecta la distribución medioambiental de la Tierra. Las imágenes obtenidas a lo largo de los años permiten estudiar los cambios del clima planetario. Este mapa del AVHRR integra imágenes tomadas a lo largo de junio de 1992, y transforma los datos en un ‘índice de vegetación’. Los colores del mapa corresponden a diferentes niveles de actividad fotosintética: vegetación densa (verde oscuro), vegetación dispersa (verde claro y amarillo), nieve, hielo o nubes (blanco), agua (azul) y terreno yermo (castaño oscuro).

Actualmente, gracias a las nuevas tecnologías y la informática, es de vital importancia el desarrollo de la teledetección espacial, denominada así porque los sensores se instalan en plataformas espaciales, lo que comúnmente denominamos satélites artificiales. La diferencia fundamental entre teledetección espacial y fotointerpretación es que la primera se basa en observaciones cuantitativas y permite estimar variables tanto cualitativas como cuantitativas; la fotointerpretación es, sin embargo, una técnica cualitativa, aunque si se escanea una fotografía aérea vertical, se obtiene una imagen que puede tratarse con las mismas técnicas digitales que se utilizan en teledetección espacial, siendo el proceso más lento y en ocasiones menos preciso.
Otras técnicas de teledetección son la videografía o el radar aerotransportado (aviones).

2
COMPONENTES DE LA TELEDETECCIÓN ESPACIAL
Estereoscopio de finales del siglo XIX
Estereoscopio de finales del siglo XIX
Este instrumento óptico binocular nos permite observar dos imágenes planas de un mismo objeto que han sido tomadas desde puntos de vista diferentes como si fueran una imagen única en relieve. Los estereoscopios crean una ilusión de profundidad en fotografías bidimensionales llamadas estereogramas. Un estereograma consta de dos fotografías de una misma escena, tomadas desde ángulos ligeramente distintos. Al ser vistas a través de un estereoscopio, ambas imágenes se funden en una única imagen tridimensional. El estereoscopio que se muestra en la fotografía es de finales del siglo XIX, una época en la que los estereoscopios constituían un entretenimiento muy popular en Europa y América del Norte.

Un sistema de teledetección espacial incluye los elementos siguientes:

• Fuente de energía. En un proceso de teledetección tiene lugar una interacción energética entre la Tierra y el sensor. La fuente de energía es el origen de la radiación electromagnética que detecta el sensor, bien la radiada por los objetos, bien la reflejada por la superficie terrestre. En este último caso, la fuente de radiación puede ser tanto el Sol (da lugar a la teledetección pasiva) como el propio sensor (teledetección activa).
• Cubierta terrestre. Recibe la radiación y la refleja o la emite, de acuerdo a sus características.
• Sistema sensor. Está constituido por el sensor propiamente dicho y la plataforma en la que se instala. Capta la energía procedente de la cubierta terrestre, la codifica y permite su llegada al sistema receptor.
• Sistema receptor. Recibe la información, la graba en formato adecuado y la distribuye a los interesados.
• Intérprete. Transforma los datos en información temática orientada a la finalidad del estudio, ya sea de forma visual o de forma digital, pues existen diversos programas de tratamiento de imágenes.
• Usuario final. Analiza la imagen que se deriva del proceso descrito y obtiene conclusiones sobre lo que en ella aparece. Los científicos que trabajan en teledetección utilizan frecuentemente ordenadores o computadoras para mejorar la calidad de las imágenes y contribuir a la automatización de la recogida de información, tratamiento de datos y confección de mapas.
Como ejemplo de un sistema de teledetección resulta muy práctico el símil con la visión humana. La luz solar (fuente de energía) emite su radiación, que se refleja en la superficie de los objetos (cubierta terrestre). El ojo humano recibe la energía reflejada (sistema sensor) y transmite la señal al cerebro (sistema receptor), que es capaz de formar imágenes. El individuo que observa es intérprete y usuario final.
Sin embargo, el ejemplo anterior se limita a la radiación que denominamos visible, por ser la única perceptible por el ojo humano, la cual permite que los objetos se vean de los colores que identificamos, como ocurre con la fotografía aérea a color. La mayoría de los sensores remotos registran la energía electromagnética radiada o reflejada por los objetos. La forma más familiar de energía electromagnética es la luz: cuando la película de una cámara se expone a la luz, está registrando la energía electromagnética visible.
Pero existen sistemas de teledetección que se basan en el registro de energía electromagnética invisible, como rayos infrarrojos o microondas.
3
FORMAS DE ENERGÍA EMPLEADAS
La adquisición de información a distancia implica la existencia de un flujo de información entre el objeto observado y el sensor. El portador de esta información es la radiación electromagnética, que puede ser emitida por el objeto o proceder de otro cuerpo y haber sido reflejada por este. Todos los cuerpos (planetas, seres vivos, objetos) emiten radiación electromagnética, aunque su cantidad y tipo depende fundamentalmente de su temperatura.
El principal emisor de energía en el sistema solar es el Sol cuya radiación, reflejada por la Tierra y los objetos situados en ella, es la más común en teledetección y la que nos permite ver los objetos que nos rodean. También el propio sensor puede incorporar un emisor de radiación cuyo reflejo en la superficie terrestre es captado por él posteriormente.
La teledetección espacial permite percibir otras formas de energía en un espectro mucho más amplio de energía no visible (rayos ultravioleta, rayos infrarrojos o microondas), desde una perspectiva vertical y panorámica.
4
ESPECTRO ELECTROMAGNÉTICO
El espectro electromagnético es una escala en la que puede situarse cualquier onda de energía. En dicha escala se representa la frecuencia, así como la longitud de onda de la radiación electromagnética, siendo ambas inversamente proporcionales, es decir, a mayor frecuencia menor longitud de onda. En esta escala pueden definirse intervalos dentro de los cuales las ondas electromagnéticas se comportan de forma similar. Dichos intervalos se denominan bandas o canales espectrales.
Las bandas más empleadas en teledetección son:

• Espectro visible (0,4 a 0,7 µm). Coincide con las longitudes de onda donde es máxima la radiación solar. Suelen distinguirse tres bandas fundamentales: azul (0,4 a 0,5 µm), verde (0,5 a 0,6 µm) y rojo (0,6 a 0,7 µm), según los colores que nuestros ojos perciben al recibir una radiación electromagnética de cada una de esas longitudes de onda.
• Infrarrojo próximo (0,7 a 1,3 µm). También llamado infrarrojo reflejado o fotográfico, porque parte de él puede detectarse mediante películas dotadas de emulsiones especiales. Es de gran utilidad para discriminar masas vegetales y concentraciones de humedad.
• Infrarrojo medio (1,3 a 8 µm). En esta banda se entremezclan los procesos de reflexión de luz solar y los de emisión propia de la superficie terrestre. Es útil para la estimación de humedad en la vegetación y detección de focos de alta temperatura.
• Infrarrojo lejano o térmico (8 a 14 µm). Incluye la emisión propia de la superficie terrestre, por lo que es útil para detectar el calor que emiten las cubiertas terrestres, o sus cambios de temperatura.
• Microondas (a partir de 1mm). Un radar es un sensor activo de microondas. Esta banda de energía es bastante transparente a la cubierta nubosa. Se ha utilizado para confeccionar mapas de la superficie de Venus, que está totalmente oculta por nubes muy densas, para navegación oceánica, para detectar características geológicas e, incluso, para calcular el contenido de humedad del suelo.
La teledetección espacial utiliza sensores multiespectrales, que permiten representar la Tierra desde diferentes longitudes de onda. Son cámaras de barrido que no utilizan películas, sino detectores electrónicos que registran radiaciones electromagnéticas.
Los sensores infrarrojos y de microondas registran energía electromagnética invisible. El calor de los objetos puede medirse por la energía infrarroja que irradian. Los sensores infrarrojos crean imágenes que muestran las variaciones de temperatura en una zona. Los científicos emplean imágenes infrarrojas para determinar las condiciones de vegetación, estudiar los cambios de temperatura en la superficie del agua, localizar daños en canalizaciones subterráneas y registrar determinados accidentes geográficos superficiales y subterráneos.
Los sensores de microondas, como el radar, transmiten ondas electromagnéticas hacia un objeto y registran las ondas que este refleja. A diferencia de otros sensores, los de microondas pueden recoger información sobre una zona a través de las nubes. Explorando una zona con radar y procesando los datos con una computadora, los científicos pueden crear mapas de radar.
5
TIPOS DE RESOLUCIONES DE IMÁGENES DE SATÉLITE
La salida de radiación (emitida o reflejada) de la superficie terrestre es un fenómeno continuo en cuatro dimensiones: espacio, tiempo, longitud de onda y radiancia (total de energía radiada por unidad de área y por ángulo sólido de medida).
La habilidad para discriminar información de detalle que tiene un sensor se recoge en función de esas cuatro propiedades:

• Resolución espacial. Es el tamaño del píxel o unidad de longitud más pequeña que identifica el sensor, es decir, la dimensión del objeto independiente más pequeño que podrá aparecer en la imagen. En algunos casos se emplea un concepto relacionado con el píxel, sin ser lo mismo: IFOV (campo instantáneo de visión), que es la sección angular, dada en radianes, observada en un momento determinado. Una alta resolución espacial es de gran utilidad cuando el detalle espacial es crucial en el estudio al que se destina, como es el caso de las explotaciones mineras.
• Resolución espectral. Indica el número y anchura de las bandas espectrales en las que el sensor puede captar radiación electromagnética. Es importante en el caso de la estimación de cosechas, pues permite discriminar diferentes cultivos o rendimientos de los mismos. En principio cuanta más bandas incluya un sensor, mejor, ya que cada banda constituye una variable para caracterizar la superficie captada; también es favorable que estas bandas sean estrechas para que aumente su poder discriminante, pues si las bandas son muy anchas, van a recoger valores promediados que ocultarán elementos de diferenciación. Resulta mucho más informativo contar con 3 bandas (rojo, verde y azul) en el visible que con una sola banda (fotografía en blanco y negro). El número de bandas y su localización en el espectro va a depender de los objetivos que se pretendan cubrir con la puesta en funcionamiento del sensor.
• Resolución radiométrica. Hace referencia a la sensibilidad del sensor, a su capacidad para detectar variaciones en la magnitud de medida de energía con la que trabaja, es decir, al número de intervalos de intensidad que pueden captarse. Suele expresarse mediante el número de bits necesarios que se precisan para almacenar cada píxel. Por ejemplo, Landsat-TM utiliza 8 bits, lo que da 256 niveles de energía (ND, Niveles Digitales) que pueden ser captados. Cuanto mayor sea la precisión radiométrica mayor número de detalles podrán captarse en la imagen.
• Resolución temporal. Indica el intervalo de tiempo entre cada imagen obtenida por la plataforma, es decir, la periodicidad con la que el sensor adquiere imágenes de la misma porción de la superficie terrestre. Adquiere vital importancia en los satélites meteorológicos. Es de media hora como máximo en el caso de los satélites geosíncronos y variable en el caso de los satélites heliosíncronos. Como recientemente se han desarrollado satélites de muy alta resolución espacial con sensores orientables (la zona de la que captan imágenes es relativamente independiente de la posición que ocupe el satélite), la resolución temporal pasa a ser algo más flexible.
A mayor resolución espacial, disminuye habitualmente la resolución temporal y es previsible que se reduzca también la espectral. El aumento en cualquiera de las cuatro resoluciones supone un incremento importantísimo en el volumen de datos que el sensor debe preprocesar y enviar a las estaciones terrestres.
La aparición de sensores de orientación modificable ha permitido compatibilizar las altas resoluciones espacial y temporal a costa de una toma de imágenes no sistemática.
Debe evitarse relacionar resolución espacial con calidad de las imágenes, pues cada sensor tiene la resolución óptima para los objetivos que se pretenden cubrir; así, los satélites meteorológicos se utilizan para analizar fenómenos muy dinámicos y por ello necesitan una gran resolución temporal (30 minutos) y una imagen de gran tamaño (todo el planeta), con píxeles grandes (resolución espacial baja).
6
TIPOS DE SENSORES
Una clasificación básica de los sensores diferencia entre sensores activos (generan su propia radiación y la reciben rebotada) y sensores pasivos (reciben radiación emitida o reflejada por la Tierra).
Entre los sensores pasivos destacan: los fotográficos (cámaras fotográficas instaladas en plataformas aéreas), los exploradores o radiómetros de barrido (sensores óptico-electrónicos que ‘barren’ u oscilan en dirección perpendicular a la trayectoria del satélite; son los más habituales en teledetección), los exploradores de empuje (sensores óptico-electrónicos que, a diferencia de los exploradores de barrido, no oscilan en dirección perpendicular a la trayectoria sino que siguen la trayectoria del satélite), las cámaras de vídeo (mejoran la resolución de los anteriormente mencionados ya que amplían la señal recibida) y los radiómetros de microondas (sensor óptico-electrónico que opera en rangos del espectro visible de longitudes de onda largas, evitando así los problemas derivados de las condiciones atmosféricas y de iluminación). Los espectrómetros de imagen constituyen una nueva generación de instrumentos cuya misión es obtener imágenes en un gran número de bandas espectrales (entre 64 y 210 bandas a intervalos de 10-20 m) obteniendo un espectro casi continuo de radiación.
Por lo que se refiere a los sensores activos, actualmente se dispone del radar y el lídar (basado en tecnología láser). El radar es un radiómetro de microondas de naturaleza activa, es decir, que a diferencia del descrito en el punto anterior, se encarga de emitir la señal para luego interpretar la respuesta; trabaja en una banda comprendida entre 1 mm y 1 m; debido a su capacidad para trabajar ante cualquier condición atmosférica, su uso se ha extendido mucho, especialmente en zonas con cobertura nubosa persistente. El lídar es un sensor similar al anterior, pero que emite pulsos de luz polarizada de longitudes de onda mucho más pequeñas, en la franja del espectro correspondiente al ultravioleta y al infrarrojo cercano.
En función de la orientación con la que el sensor capta las imágenes se distingue entre: sensores de orientación vertical, habitual en satélites de resolución espacial baja (METEOSAT) o media (LANDSAT); de orientación oblicua, típica del radar; y de orientación modificable, que aparece en los sensores de alta resolución (a partir del SPOT-IHV) y en los que se dispone por encargo la orientación, lo que permite mantener unas elevadas resoluciones espacial y temporal (tiempo de revisita); no obstante, su inconveniente es que es difícil encontrar imágenes a posteriori, ya que solo se toman aquellas imágenes que se han encargado previamente.

7
TIPOS DE PLATAFORMAS DE TELEDETECCIÓN ESPACIAL

Imagen de satélite del desierto Líbico
Imagen de satélite del desierto Líbico
Dos picos volcánicos, el Arkenu y el Uweinat, son claramente visibles en esta imagen de satélite tomada del desierto Líbico.

Los satélites han resultado ser muy útiles para el desarrollo de sistemas de teledetección. La Agencia Espacial Europea (ESA), la NASA de Estados Unidos y las organizaciones espaciales de otros países, como India (ISRO), Japón (JAXA, antigua NASDA), China (CASC) y Rusia (IKI) han lanzado satélites de observación terrestre, tanto geosíncronos o geoestacionarios como heliosíncronos. Estos sistemas de teledetección se emplean de forma habitual para el reconocimiento, la confección de mapas y la observación de los recursos y el medio ambiente de la Tierra. También se han empleado para explorar otros planetas (véase Astronáutica).
Los satélites estadounidenses LANDSAT han proporcionado una enorme cantidad de información sobre la Tierra y se han convertido en el proyecto más fructífero de teledetección, alcanzando, solo hasta 1980, una cobertura de 32 millones de km2 y un total de 965.000 imágenes adquiridas, con un tamaño de píxel de 0,62 hectáreas. El primero, el Landsat-1, se lanzó en 1972; el Landsat-7, en 1999. El Landsat-5 produce imágenes de casi toda la superficie terrestre una vez cada 16 días.
Los satélites franceses SPOT (Système Probatoire d’Observation de la Terre) han sido desarrollados por el Centro Nacional de Estudios Espaciales (CNES) francés, en colaboración con Bélgica y Suecia. Son ya cinco los lanzados y tres están en la actualidad en órbita. Algunos facilitan imágenes que muestran objetos de tan solo 100 m2 de superficie.
Existen numerosos satélites meteorológicos, como la serie europea Meteosat, que emplean sistemas de teledetección para producir imágenes que se utilizan en la predicción meteorológica (véase Meteorología). Los sensores remotos de estos satélites pueden seguir el movimiento de los diferentes tipos de nubes y registrar los cambios de temperatura en la atmósfera, el contenido de vapor de agua en el aire, la precipitación acumulada, la velocidad de los vientos o la temperatura del mar. Otros satélites de observación meteorológica son GOES (EEUU), GMS (Japón), INSAT (India), METEOR (Rusia), NOAA (EEUU) o FENGYUN (China).
También se llevan a cabo programas de observación con equipos radar: SEASAT, SIR, ERS, JERS-1, RADARSAT o la misión SRTM de la NASA, que está cartografiando la superficie terrestre en su totalidad. Otros satélites son: ENVISAT, MOS, AMAZONAS, IRS y DMSP.

8
TRATAMIENTO DE IMÁGENES DE SATÉLITE
Una vez los sensores espaciales han completado el proceso de recogida de información, y esta ha sido enviada al sistema receptor, debe ser procesada y dispuesta en formatos legibles para los usuarios finales. El tratamiento de la información puede abordarse desde dos enfoques: visual y digital.
1. Tratamiento visual. Los valores que nos devuelven los sensores digitales son transformados a intensidades de luz, generándose así productos casi fotográficos, susceptibles de interpretación visual. Es comúnmente utilizado en la elaboración de cartografía geológica, mapas de vegetación y morfología urbana (planos).
2. Tratamiento digital. Gracias al enorme desarrollo de disciplinas como la ingeniería informática y las telecomunicaciones, han sido posibles mejoras muy importantes, tanto desde el punto de vista cuantitativo como cualitativo, a la hora de procesar la información satelital. Este tipo de tratamiento aprovecha la conversión analógica-digital realizada en el satélite para, mediante el uso de herramientas de software y hardware, automatizar y agilizar las tareas de interpretación de las imágenes. Mediante estas técnicas, cada uno de los píxeles que componen las imágenes son tratados de forma independiente, de modo que, a cada uno y en función de la variable que se esté utilizando, el software empleado le asigna un valor de Nivel Digital concreto. El Nivel Digital (ND) es el valor numérico que refleja el valor radiado por el objeto en el momento de ser tomada la imagen. Dicho valor numérico queda almacenado en cada píxel.
El método de tratamiento digital resulta más fiable y aporta más posibilidades de explotación de la información; sin embargo, requiere una mayor inversión económica que el analógico.
Hay dos clases de imágenes: las VIS y las IR.

• Una imagen visible (VIS) es aquella que toma un satélite en el llamado canal o banda visible. En este canal, el satélite ‘ve’ la Tierra como una persona la vería si estuviera dentro del satélite mirando por la ventanilla: se captan los objetos dependiendo de cómo reflejan la luz solar, es decir, de su capacidad para reflejar los rayos solares. Este es un inconveniente, pues es imposible tener imágenes del periodo nocturno; los canales de televisión en sus informativos meteorológicos no suelen usar estas imágenes.
• Una imagen infrarroja (IR) es la que un satélite toma en el llamado canal o banda infrarroja. Como todos los cuerpos están a una determinada temperatura, emiten radiación térmica, aunque el ojo humano, sensible a la luz visible o ‘blanca’, no pueda verla. En este canal, el satélite detecta esos focos térmicos y es capaz de generar mapas térmicos de las superficies emisoras terrestres que esté explorando y posean una temperatura de brillo. Al ser independiente que los objetos y estructuras estén iluminadas por el Sol, hay información en el canal IR durante las 24 horas del día y por ello los canales de televisión suelen usar estas imágenes en sus informativos. Aunque las imágenes IR se suelen representar en una escala de grises, se han tomado estos convenios: a mayor temperatura de emisión, tonalidad más oscura. Es conveniente hacer el análisis de la imagen IR observando su homóloga VIS durante el día.
Las herramientas informáticas con las que actualmente se cuenta para el tratamiento de imágenes satelitales abarcan multitud de productos de muy diversa naturaleza. Entre las herramientas hardware (componentes físicos de los equipos informáticos) se considera a las unidades de distribución; como ya se ha indicado, los sensores instalados en los satélites hacen una primera transformación de las imágenes y los formatos de lectura pasan de datos analógicos a digitales. Estos datos, para poder pasar por todo el proceso de interpretación, han de distribuirse en formatos legibles a la mayoría de los usuarios. Los formatos de distribución más comúnmente utilizados son: para el tratamiento visual, las películas en negativo, las películas en positivo y el formato papel; para el tratamiento digital destacan las cintas magnéticas, las cintas de cartucho, los CD-ROM y los DVD.
También entre las herramientas hardware deben tenerse en cuenta, por un lado, las unidades de almacenamiento y tratamiento de imágenes, que son las CPU de los ordenadores, cuyas dimensiones pueden variar en gran medida en función de las dimensiones de los proyectos; y, por otro lado, las unidades de salida de imágenes, que hacen referencia a dos tipos: los que presentan las imágenes en pantallas, ya sean las pantallas LCD de los móviles de última generación o los monitores de un ordenador personal, y los que ofrecen salidas en papel, como una impresora o un plotter.
Tan importantes como las anteriores son las herramientas software (unidades lógicas de los equipos informáticos). Actualmente hay una gran variedad de programas informáticos que sirven para el tratamiento de las imágenes digitales. Son de naturaleza muy variada en función de los fines que se persigan, aunque de forma esquemática se pueden definir tres tipos: los que tienen como única finalidad el dotar a las imágenes de la suficiente calidad visual para que el intérprete, experto o principiante, sea capaz de interpretar lo que en ella se muestra (programas como Adobe Photoshop, QuarkExpress, PaintshoPro); los que no persiguen la calidad visual de las imágenes, sino el contenido de la información digital que cada uno de los píxeles contiene (Erdas Imagine, ENVI, ILLWIS); y los Sistemas de Información Geográfica, importantes en la explotación y corrección de los resultados obtenidos en un proyecto de teledetección.
9
SIG Y TELEDETECCIÓN
Los Sistemas de Información Geográfica (SIG), intervienen en las últimas fases de las que componen un proceso de teledetección, más concretamente en lo que anteriormente se definía como los elementos intérprete y usuario final.
Dotarán al intérprete de una herramienta que le permitirá corregir, basándose en datos geográficos existentes, las imágenes satelitales, garantizando unos mínimos de calidad suficientes para ser interpretadas. Pero es el usuario final el que más y mejor partido va a sacar de los SIG, pues le ofrecen capacidad de almacenamiento y procesado de la información, así como multitud de herramientas de análisis e integración de diversas variables obtenidas a partir de esos mismos datos, cerrando así un proceso que se iniciaba con la toma de las imágenes, y que va a permitir a científicos y técnicos de diversas disciplinas profesionales y de investigación aprovechar estas técnicas para ponerlas al servicio de la sociedad y de la ciencia.
Como ejemplo sencillo y esquemático es muy explicativo el caso de la explotación de datos procedentes de un proceso de teledetección, y su aplicación para la evaluación y prevención de catástrofes naturales, por ejemplo, las inundaciones provocadas por lluvias torrenciales. El técnico, gracias a la teledetección, recopila una serie de imágenes que, una vez corregidas y almacenadas mediante herramientas SIG, puede explotar obteniendo así variables de vital importancia para la evaluación y prevención de avenidas. Son multitud las variables que el técnico puede extraer y analizar mediante un SIG; unas de forma directa, como son los caudales de avenida, las velocidades del agua en distintos puntos, las dimensiones de la mancha de inundación y las afecciones producidas; y otras de forma indirecta, como la evaluación de los impactos económicos que estas producen o los riesgos que determinadas actividades humanas tienen para el medio ambiente y el ser humano.
Pero el usuario final no tiene que ser siempre un técnico especialista; un estudiante de bachillerato o una persona cualquiera desde casa se puede convertir en usuario de teledetección a través de herramientas SIG que están en Internet. Hay páginas web que constituyen un SIG en sí mismas, lo que en terminología de Internet se llaman servidores de mapas. Dichos servidores tienen como fuente de datos diversos satélites, que gracias a los SIG ponen a disposición del usuario de Internet información cartográfica valiosa e interesante. Los SIG son, por tanto, los sistemas que, por su naturaleza, mejor permiten explotar los datos que la teledetección aporta.

10
APLICACIONES DE LA TELEDETECCIÓN
Imágenes de satélite del mar de Aral
Imágenes de satélite del mar de Aral
La extensión cada vez más reducida del mar de Aral es preocupante, como se puede ver en estas imágenes tomadas en 1973 y 1987 por el satélite Landsat. Durante esos años, pasó de ser el cuarto lago más grande del mundo a convertirse en el sexto, ya que sus aguas se desviaron para regadío. De seguir así, podría desaparecer.

Las aplicaciones de la teledetección son múltiples y de muy diversa índole, y están en constante evolución conforme a los adelantos técnicos en una amplia gama de disciplinas por medio de los cuales se desarrollan, se diversifican y se amplían, como la informática, la aeronáutica, la física o los campos de la ingeniería civil y ambiental.

Imágenes de satélite del lago Turkana
Imágenes de satélite del lago Turkana
Las imágenes del 1 de febrero de 1973 (izquierda) y del 12 de enero de 1989 (derecha) muestran los cambios en el delta del río Omo, en la ribera norte del lago Turkana, en África oriental. El delta del río ha pasado de 772 km² en 1965 a unos 1.800 km² en 1990. El incremento del 133% de la erosión del suelo a gran escala en la cuenca del río, ha hecho que también haya aumentado la turbidez dentro del lago. La erosión está directamente relacionada con las prácticas de pastoreo en la cuenca de drenaje del Omo y con la significativa disminución de las precipitaciones durante los últimos años. La menor cantidad de lluvias también ha provocado la bajada del nivel del lago, lo que ha expuesto más suelo en la zona del delta.

La teledetección con fines militares ha sido, aparte de una de las propulsoras del desarrollo de esta técnica, una de las ramas que mayor provecho ha obtenido, sobre todo, porque tuvo sus orígenes durante la I Guerra Mundial (1914-1918) como herramienta insustituible para el espionaje y la planificación de campañas bélicas.
Actualmente son muchas las ciencias que se benefician de forma directa de esta tecnología, como, por ejemplo: la meteorología (ofrece perfiles de temperatura atmosférica, mapas de presiones o isobáricos, contenidos de vapor de agua, velocidad de los vientos, predicción de huracanes…), la oceanografía (temperatura superficial del mar, corrientes oceánicas, velocidad y altura del oleaje, estado de las mareas, detección de tsunamis…), la geología y la geomorfología (identificación de perfiles geotécnicos, localización de fallas y desplazamientos tectónicos, determinación de surgencias y masas de agua subterráneas, grado de actividad de volcanes…), la topografía y la cartografía (obtención de mapas de detalle de la superficie terrestre…), la zoología (inventarios de fauna, movimientos migratorios...), la ingeniería forestal y la agricultura (tipos de cobertura vegetal y estado sanitario de la misma, identificación de plagas, mapas de usos del suelo, vulnerabilidad a los incendios, predicción de cosechas…), la hidrología (estimación de recursos hídricos, prevención de avenidas…), el medio ambiente y el control de fenómenos naturales catastróficos (muy ligado a algunas de las disciplinas anteriormente descritas, como los avisos de tormenta, movimientos sísmicos, avalanchas, inundaciones, control de la polución…) y el urbanismo (planificación urbanística, vigilancia del tráfico…).


No hay comentarios:

Publicar un comentario

Entradas populares

Me gusta

Seguidores