Aceleradores de partículas





El círculo grande marca la situación del túnel del LEP, el gran colisionador de electrones-positrones del CERN (Organización Europea para la Investigación Nuclear), que estuvo en funcionamiento hasta finales de 2000. El túnel, que se encuentra a 100 m de profundidad y tiene una circunferencia de 27 km, albergará el gran colisionador de hadrones LHC.

Aceleradores de partículas, dispositivos empleados para acelerar partículas elementales e iones hasta altas energías. Son los instrumentos de mayor tamaño y más costosos utilizados en física. Todos tienen los mismos componentes básicos: una fuente de partículas elementales o iones, un tubo donde existe un vacío parcial en el que las partículas pueden desplazarse libremente y un sistema para aumentar la velocidad de las partículas.
Las partículas cargadas se aceleran mediante un campo electrostático. Por ejemplo, situando electrodos con una gran diferencia de potencial en los extremos de un tubo en el que se había hecho el vacío, los científicos británicos John D. Cockcroft y Ernest Walton consiguieron acelerar protones hasta 250.000 electronvoltios (eV). Otro acelerador electrostático es el acelerador Van de Graaff, desarrollado a principios de la década de 1930 por el físico estadounidense Robert Jemison van de Graaff. Este acelerador emplea el mismo principio que el generador de Van de Graaff, y establece un potencial entre dos electrodos transportando cargas mediante una cinta móvil. Los aceleradores Van de Graaff modernos aceleran partículas hasta energías de 15 MeV (un megaelectronvoltio, o MeV, equivale a un millón de eV).
2
ACELERADOR LINEAL
El acelerador lineal, también llamado “linac”, fue concebido a finales de la década de 1920. Utiliza tensiones alternas elevadas para impulsar partículas a lo largo de una línea recta. Las partículas atraviesan una serie de tubos metálicos huecos situados dentro de un cilindro en el que se ha hecho el vacío. La tensión alterna se sincroniza de forma que la partícula sea impulsada hacia delante cada vez que pasa por un hueco entre dos tubos metálicos. En teoría, pueden construirse aceleradores lineales de cualquier energía. El más grande del mundo, situado en la Universidad de Stanford (Estados Unidos), tiene una longitud de 3,2 km. Puede acelerar electrones hasta una energía de 50 GeV (un gigaelectronvoltio, o GeV, corresponde a mil millones de eV). El acelerador lineal de Stanford está diseñado para hacer colisionar dos haces de partículas acelerados de forma consecutiva por el linac y mantenidos temporalmente en anillos de almacenamiento (véase el apartado de este artículo “Colisionadores con anillo de almacenamiento”).
3
CICLOTRÓN
Ernest O. Lawrence
El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas.

El físico estadounidense Ernest O. Lawrence obtuvo el Premio Nobel de Física en 1939 por un avance en el diseño de aceleradores llevado a cabo a principios de la década de 1930. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadas des, cuya forma es la de dos D mayúsculas opuestas entre sí (así: D). Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.
Ciclotrón y sincrotrón
En física se emplean aceleradores de partículas para estudiar la naturaleza de la materia. Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.) Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

Cuando las partículas aceleradas en el ciclotrón alcanzan una velocidad próxima a la de la luz, su masa aumenta de modo apreciable, tal como predice la teoría de la relatividad. Esto hace que sea más difícil acelerarlas, y lleva a que los pulsos de aceleración en los huecos entre las des queden desfasados. En 1945, el físico soviético Vladímir Y. Veksler y el físico estadounidense Edwin M. McMillan sugirieron una solución a este problema. El aparato propuesto, el sincrociclotrón, se denomina a veces ciclotrón de frecuencia modulada. En este instrumento, el oscilador (generador de radiofrecuencias) que acelera las partículas alrededor de las des se ajusta automáticamente para mantenerse en fase con las partículas aceleradas; a medida que la masa de las partículas aumenta, la frecuencia de aceleración disminuye un poco para seguir su ritmo. Según aumenta la energía máxima de un sincrociclotrón, se incrementa su tamaño, porque las partículas tienen que tener más espacio donde moverse en espiral. El mayor sincrocinclotrón es el fasotrón de 6 metros del Instituto Conjunto de Investigación Nuclear de Dubna, en Rusia; acelera los protones hasta más de 700 MeV y tiene unos imanes que pesan unas 7.000 toneladas.
El ciclotrón más potente del mundo, el K1200, empezó a funcionar en 1988 en el National Superconducting Cyclotron Laboratory, de la Universidad Estatal de Michigan (Estados Unidos). Este aparato es capaz de acelerar núcleos hasta una energía cercana a los 8 gigaelectronvoltios.
4
BETATRÓN
Cuando se aceleran electrones, éstos experimentan un gran aumento de masa a energías relativamente bajas. Un electrón con una energía de 1 MeV tiene una masa tres veces mayor que un electrón en reposo. No es posible adaptar los sincrociclotrones a un aumento de masa tan grande. Por eso se utiliza otro tipo de acelerador cíclico, el betatrón, para acelerar electrones. El betatrón está formado por una cámara toroidal en la que se ha hecho el vacío. La cámara está situada entre los polos de un electroimán. Los electrones se mantienen en una trayectoria circular mediante un campo magnético denominado “campo de guía”. El electroimán es alimentado por una corriente alterna, y la fuerza electromotriz inducida por la variación del flujo magnético a lo largo de la órbita circular acelera los electrones. Durante el funcionamiento se modifican tanto el campo de guía como el flujo magnético para mantener constante el radio de la órbita de los electrones.
5
SINCROTRÓN
Acelerador LEP
El acelerador LEP del CERN estaba instalado en un túnel situado a varias decenas de metros bajo tierra, atravesando la frontera entre Suiza y Francia, en las proximidades de Ginebra. El esquema muestra el acelerador y las instalaciones de los experimentos DELPHI, L3, ALEPH y OPAL, unidas por grandes ascensores a las respectivas áreas experimentales de la superficie, donde están ubicados los instrumentos de recogida de datos. El LEP se cerró a finales de 2000, y su túnel de 27 km será ocupado por el gran colisionador de hadrones LHC (Large Hadron Collider).

El sincrotrón es el miembro más reciente y con mayor potencia de la familia de aceleradores. Está formado por un tubo en forma de un gran anillo, por el que se desplazan las partículas; el tubo está rodeado de imanes que hacen que éstas se muevan por el centro del tubo. Las partículas entran en el tubo después de haber sido aceleradas a varios millones de electronvoltios. En el anillo son aceleradas en uno o más puntos cada vez que describen un círculo completo alrededor del acelerador. Para mantener las partículas en una órbita constante, las intensidades de los imanes del anillo se aumentan a medida que las partículas ganan energía. En un par de segundos, las partículas alcanzan energías superiores a 1 GeV y son expulsadas, bien para su análisis experimental directo o para lanzarlas contra blancos que producen diversas partículas elementales al ser golpeados por las partículas aceleradas. El principio del sincrotrón puede aplicarse a protones o electrones, aunque la mayoría de los grandes aparatos son sincrotrones de protones.
Cosmotrón
Esta fotografía fue tomada durante la construcción del cosmotrón del Brookhaven National Laboratory (Estados Unidos). El imán en forma de anillo, utilizado para acelerar protones, tiene un diámetro interior de unos 18 m y pesa 2.000 t, aproximadamente.

El primer acelerador que superó la barrera de 1 GeV fue el cosmotrón, un sincrotrón de protones del Brookhaven National Laboratory (Estados Unidos). El cosmotrón alcanzó energías de 2,3 GeV en 1952 y posteriormente llegó a 3 gigaelectronvoltios. A mediados de la década de 1960 había dos sincrotrones en funcionamiento que aceleraban protones regularmente hasta energías de unos 40 GeV: el sincrotrón de gradiente alterno del Brookhaven National Laboratory y un aparato similar situado cerca de Ginebra (Suiza), controlado por el CERN, la Organización Europea para la Investigación Nuclear. A principios de la década de 1980, los dos mayores sincrotrones de protones eran un aparato de 500 GeV del CERN y otro similar del Fermi National Accelerator Laboratory (Fermilab), situado cerca de Batavia, en Estados Unidos. La capacidad de este último, denominado tevatrón, aumentó hasta un límite potencial de 1 TeV (un teraelectronvoltio, o TeV, equivale a un billón de voltios) en 1983 al instalar imanes superconductores, lo que lo convirtió en el acelerador más potente del mundo. Desde 1989 hasta finales de 2000 estuvo funcionando en el CERN el gran colisionador de electrones-positrones (LEP, siglas en inglés), un anillo de 27 km que consiguió acelerar electrones y positrones hasta una energía de unos 200 gigaelectronvoltios.
6
COLISIONADORES CON ANILLO DE ALMACENAMIENTO
LHC en el túnel del LEP
Así será el acelerador de partículas LHC (Large Hadron Collider) cuando finalice su construcción en el interior del túnel del LEP. En la imagen se muestran el tubo de aceleración propiamente dicho y, junto a él, los cables para la alimentación y los canales del sistema de enfriamiento criogénico. Los haces discurrirán en sentidos opuestos en dos tubos distintos (visibles en rojo en el interior del acelerador), para entrecruzarse en las zonas donde se colocarán los aparatos de detección.

Un colisionador es una combinación de un acelerador y uno o más anillos de almacenamiento, que produce colisiones más energéticas entre partículas que un acelerador convencional. Este último lanza partículas aceleradas contra un blanco estacionario, mientras que un colisionador acelera dos conjuntos de partículas que se inyectan en el anillo o anillos de almacenamiento y después se hacen chocar de frente. El colisionador LEP del CERN era un colisionador con anillo de almacenamiento. Como los electrones y los positrones tienen cargas eléctricas opuestas, se almacenaban en el mismo anillo circulando en sentidos contrarios. Cuando hay que hacer colisionar partículas con la misma carga, deben ser almacenadas en anillos separados. En 1987, el Fermilab convirtió el tevatrón en un colisionador con anillo de almacenamiento e instaló un detector de tres pisos de altura para observar y medir los productos de los choques frontales entre partículas.
Imán para el LHC
En la imagen se muestra un prototipo de un modelo de imán para el acelerador de partículas LHC. Se ven los dos canales magnéticos de aceleración, dentro de los cuales discurren, en sentidos opuestos, los dos haces de protones: las partículas serán aceleradas hasta energías de 7 TeV y chocarán finalmente en los puntos donde estarán situados los detectores. Para conseguir energías tan elevadas, los imanes tendrán que proporcionar un campo muy intenso, lo que será posible gracias a la utilización de material superconductor (visible alrededor del canal de aceleración).

Aunque los colisionadores que se utilizan en la actualidad son extremadamente potentes, los físicos necesitan aparatos aún más potentes para comprobar las teorías actuales. Por desgracia, la construcción de anillos mayores es muy cara. El túnel de 27 km del LEP albergará el gran colisionador de hadrones (LHC, siglas en inglés) del CERN, que está previsto que entre en funcionamiento en 2007. En 1988, Estados Unidos empezó a planificar la construcción del supercolisionador superconductor (SSC, siglas en inglés), cerca de Waxahatchie, en el estado de Texas. El SSC iba a ser un enorme colisionador con anillo de almacenamiento, de 87 km de longitud. Sin embargo, cuando se había completado una quinta parte del túnel, el Congreso de Estados Unidos decidió cancelar el proyecto del acelerador en octubre de 1993, debido a que los costes previstos superaban los 10.000 millones de dólares.
7
APLICACIONES
Trazas de partículas elementales
Estas trazas fueron producidas por partículas elementales en una cámara de burbujas del CERN, cerca de Ginebra. Examinando dichas trazas, se pueden determinar ciertas propiedades de las partículas que atravesaron la cámara. Por ejemplo, la carga de una partícula puede determinarse a partir del tipo de trayectoria seguida. La cámara de burbujas se coloca en un campo magnético, con lo que la trayectoria de las partículas positivas se curva en un sentido, la de las negativas en sentido opuesto y la de las neutras no se curva.

Los aceleradores se utilizan para explorar los núcleos atómicos, lo que permite a los científicos investigar sobre la estructura y el comportamiento de los átomos. Para estudiar las partículas fundamentales que componen el núcleo se emplean aparatos con energías superiores a 1 GeV. Se han identificado varios cientos de estas partículas. Los físicos de altas energías confían en descubrir reglas o principios que permitan una clasificación ordenada de las partículas subnucleares. Una clasificación así sería tan útil para la ciencia nuclear como lo es la tabla periódica de los elementos para la química. Los colisionadores permiten a los científicos generar violentas colisiones entre partículas que reproducen la situación del Universo en sus primeros microsegundos de existencia. Un estudio continuado de sus hallazgos debería aumentar el conocimiento científico de la estructura del Universo.


Ahorro de energía




Casa solar
En esta casa solar en Corrales (Nuevo México, Estados Unidos) un colector solar de placa plana (inferior derecha) proporciona energía para calentar agua bombeada por el molino. El agua se almacena en grandes bidones.

Ahorro de energía, esfuerzo por reducir la cantidad de energía para usos industriales y domésticos, en especial en el mundo desarrollado.
En otros tiempos, la energía disponible en relación a la demanda de consumo humano era abundante. La madera y el carbón vegetal eran el principal combustible hasta la aparición, en el siglo XVIII, del combustible de carbón mineral con la Revolución Industrial. Todavía hoy la madera constituye el 13% de la energía mundial, y la mayor parte se quema de modo poco eficaz para cocinar y calentar los hogares en los países menos desarrollados. Un típico aldeano de la India gasta cinco veces más energía que un europeo para preparar la cena sobre el fuego o utilizando la madera para quemar. La consecuencia de ello es que la madera como combustible está empezando a escasear en África y el Sureste asiático.
En Europa, y en particular en Gran Bretaña, los suministros de madera empezaron a disminuir en la mitad del siglo XVIII, pero el carbón disponible iba aumentando. El carbón se utilizaba para usos domésticos y para las máquinas de vapor necesarias para bombear el agua de las minas de carbón y, de este modo, aumentar la producción de este valioso combustible. La máquina de vapor de caldera de carbón también hizo posible el transporte por ferrocarril, con el invento de la locomotora, que resultó una forma de propulsión más segura y eficaz que muchas otras. No es necesario recalcar la gran eficacia de este invento; la conversión de la energía química del carbón en energía mecánica de la máquina alcanzaba un rendimiento inferior al 1%.
2
RENDIMIENTO DE LA ENERGÍA
Los esfuerzos de los ingenieros para mejorar el rendimiento de las máquinas llevaron al físico e ingeniero militar francés Nicolas L. S. Carnot a la formulación de las leyes de la termodinámica en 1824. Éstas son leyes basadas en la experiencia pero con una importante base teórica, y son fundamentales para incrementar el rendimiento del uso que hacemos de las cada día más escasas reservas de energía de combustibles fósiles. El descubrimiento de que la energía no se crea ni se destruye debería disuadir a los inventores de máquinas de movimiento perpetuo, pero la segunda ley de la termodinámica supone un límite más complejo al rendimiento de cualquier motor de calor, ya sea una turbina o el motor de un automóvil. Por ejemplo, si en una turbina de vapor la temperatura del vapor de admisión tiene un valor Tcaliente, y la temperatura de salida de la turbina a la que ha hecho girar tiene un valor Tfrío, el rendimiento de la conversión teóricamente posible de la máquina sería muy simple:

donde T se mide en kelvins (K).
Por esta razón, en la práctica, el rendimiento de la conversión de las grandes centrales eléctricas de vapor que funcionan con carbón o petróleo es de menos del 40%, y el de los motores de gasolina de automóviles es de menos del 20%. El resto de la energía se disipa en forma de calor, aunque en el caso de los motores de automóviles dicho calor se puede emplear para la calefacción de la cabina.
El bajo rendimiento con el que generamos nuestra energía o propulsamos nuestros automóviles, una consecuencia de las leyes físicas más que de la negligencia, hace pensar que los futuros adelantos en el rendimiento de la energía serán el resultado tanto de nuevos avances tecnológicos como de la reducción consciente del consumo de energía.
3
FACTORES QUE MEJORAN EL RENDIMIENTO
Todo el sistema energético del mundo desarrollado se vio seriamente afectado en 1973, cuando los productores de petróleo árabes, en respuesta a las presiones de la guerra del Yom Kippur, cuadriplicaron el precio del petróleo hasta alcanzar los 12 dólares por barril, y redujeron en un 5% el suministro a los grandes importadores de petróleo como la Comunidad Europea y Estados Unidos (como medida de presión para que retiraran su apoyo a Israel). Más tarde, en 1979, los precios subieron aún más, y en 1980 se pagaban 40 dólares por barril.
La Comunidad Europea reaccionó poniendo en práctica una política conocida en inglés como CoCoNuke, iniciales de carbón, conservación y nuclear. Se dio prioridad a la reducción del consumo de combustibles, en especial del petróleo. Estimulada por el aumento de los precios, la gente comenzó a ahorrar energía y utilizarla de un modo más económico, consiguiéndose a lo largo de la década de 1980 un espectacular avance en el rendimiento de la energía. Al deshacerse el cártel árabe y bajar los precios del petróleo, llegando en algunos casos a menos de diez dólares por barril, han aparecido nuevas razones para el rendimiento de la energía: motivos medioambientales, de contaminación y en especial de calentamiento global.
4
CONTAMINACIÓN MEDIOAMBIENTAL
Efecto invernadero

El químico sueco Svante A. Arrhenius ya descubrió en 1896 que el equilibrio radiactivo de la Tierra dependía en gran medida de la capa protectora de dióxido de carbono. Durante 150.000 años el contenido de dióxido de carbono (CO2) en la atmósfera se ha mantenido en un valor constante de unas 270 partes por millón (ppm). El dióxido de carbono atrapa los rayos infrarrojos que salen de la Tierra y es el responsable de que la temperatura de la superficie terrestre sea unos 31 grados más cálida que si no existiera. Esto ha tenido un efecto crucial en el desarrollo de la vida misma, ya que sin este efecto invernadero natural, la mayoría del agua terrestre sería hielo. Sin embargo, el contenido de dióxido de carbono en la atmósfera se ha incrementado desde 1850 hasta alcanzar 360 ppm. El mayor motivo de este aumento es el incremento progresivo de la combustión de carbón, petróleo y gas para obtener la energía necesaria a fin de mantener nuestro estilo de vida. Los habitantes del oeste de Europa gastan tres toneladas de petróleo, o su equivalente en gas o carbón, por persona y año, mientras que en Estados Unidos el gasto es de ocho toneladas por persona y año. En el mundo se consumen 8.000 millones de toneladas de petróleo u otros combustibles fósiles al año, y se espera que en el año 2020 el consumo alcance los 14.000 millones de toneladas anuales. Gran parte de este aumento de la demanda proviene del mundo en vías de desarrollo. En China se queman 1.000 millones de toneladas de carbón y se calcula que en cinco años esta cifra se incrementará a 1.500 millones de toneladas, ya que su economía está creciendo a un ritmo del 10% anual. (Como media, en un país en vías de desarrollo un crecimiento anual del 1% viene a suponer un incremento en el consumo de energía del 1,5%.) El rápido aumento de la población de los países en vías de desarrollo acentúa el problema. Las Naciones Unidas estiman que en el año 2040 el crecimiento será de 10.000 millones de personas de las que 8.000 millones pertenecerán a países en vías de desarrollo, muchos de ellos con economías en fuerte expansión, con lo que su demanda de energía aumentará de forma considerable.
El efecto de la quema masiva de combustibles fósiles es el aumento de la cantidad de dióxido de carbono. Su concentración en el aire habrá duplicado en el año 2030 los valores medios del siglo XIX, que se situaban en 270 ppm, lo que provocará el aumento en 2 ºC de la temperatura de la superficie terrestre así como una subida de unos 4 cm del nivel del mar, según las estimaciones de la Conferencia Intergubernamental sobre el Cambio Climático de las Naciones Unidas.
Las posibles consecuencias del calentamiento global son impredecibles a largo plazo y han provocado la alarma en todo el mundo. La posibilidad de ver masas de agua inundando los países ribereños y cambios en el clima provocando el aumento de las lluvias en partes del hemisferio norte, así como la extensión de la desertización en algunas regiones ecuatoriales en las próximas décadas resulta inquietante. En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990.
Los científicos participantes de la Conferencia Intergubernamental sobre el Cambio Climático, encargados de vigilar e investigar el fenómeno del calentamiento, advirtieron que con las propuestas de reducción aprobadas difícilmente se logrará evitar los posibles daños futuros que puede causar el cambio en el clima. La estabilización del nivel de las emisiones de dióxido de carbono va a requerir una considerable voluntad política. El Consejo Mundial de la Energía afirma que para alcanzar la pretendida estabilización sería necesaria una reducción de al menos un 60% de las emisiones anuales de dióxido de carbono a partir de ahora.
¿Cómo lograr esta reducción?
5
AHORRO DE ENERGÍA Y EFECTO INVERNADERO
Hay diversos métodos pero el más efectivo es quemar menos combustibles fósiles y en especial, combustibles ricos en carbono como el carbón y el petróleo. Estos combustibles también tienen un alto contenido de azufre, que junto con nitrógeno dan lugar a emisiones de carácter ácido y causan la lluvia ácida. De ello se desprende que la protección del medio ambiente es hoy el mayor incentivo para el ahorro de energía. A largo plazo, también es importante el agotamiento de los recursos de combustibles fósiles, no renovables. Al ritmo de consumo actual se calcula que las reservas de petróleo y gas natural durarán unos cincuenta años y las de carbón unos doscientos años.
La demanda creciente de combustibles fósiles y los daños por la contaminación derivados de su utilización han motivado llamadas de atención para ir avanzando hacia un desarrollo sostenible, un concepto que apoyan políticos de muchos países. La enorme dificultad para conseguir esta meta ha sido menospreciada a menudo. El Consejo Mundial de la Energía estima que las fuentes de energías renovables sólo podrán aportar un 30% de la demanda mundial en el año 2020 (aunque la cifra podría llegar a un 60% para el año 2100).
Por esta razón, la Unión Europea ha llevado a cabo numerosas iniciativas para estimular el ahorro de energía, estimando posible lograr un ahorro del 20%. El Consejo Mundial de la Energía ha aconsejado una reducción de la intensidad de la energía para el futuro en distintas zonas, teniendo en cuenta la cantidad de energía necesaria para producir una unidad del producto interior bruto (PIB). En un informe de 1993, el Consejo Mundial de la Energía publicó sus estimaciones para un uso eficaz de la energía, situándolo en un 3 o 3,5% para los países medios, un 4-5% para Europa occidental y Japón, y sólo un 2% para Estados Unidos.
6
MÉTODOS PARA UN AHORRO DE ENERGÍA EFICAZ
El ahorro de energía mediante el aumento de la eficacia en su manipulado se puede lograr, por lo que respecta a la parte del suministro, a través de avances tecnológicos en la producción de electricidad, mejora de los procesos en la refinerías y otros. En cambio, por lo que respecta a la parte de la demanda (la energía empleada para calefacción de edificios, aparatos eléctricos, iluminación...), se ha descuidado en relación con la parte del suministro, existiendo un margen amplio para su mejora. En Europa occidental el 40% del consumo final de energía se destina al sector doméstico, un 25% a la industria y un 30% al transporte.
6.1
Sector de edificios domésticos y comerciales
Más o menos la mitad de la energía consumida en Europa occidental se destina a edificios. Con la tecnología moderna para ahorro de energía, el consumo se puede llegar a reducir un 20% en un periodo de cinco años. Se debe estimular la construcción de diseños con buen aislamiento, el uso eficaz de la energía en la iluminación, la instalación de sistemas de control de energía y la de aparatos modernos y eficaces para calefacción, aire acondicionado, cocinas y refrigeración. Las etiquetas en los aparatos con información sobre la eficacia de su funcionamiento ayudan a elegir el sistema más adecuado.
Los progresos en el sector doméstico son lentos al mejorar las técnicas de ahorro de energía en el periodo de construcción. Se debe alentar la instalación de sistemas eficaces de iluminación y aislamiento. Cada vez tienen lugar más renovaciones de edificios comerciales e industriales que deberían incluir medidas de ahorro de energía.
6.2
Sector industrial
El ahorro de electricidad se puede conseguir mediante sistemas avanzados de control de potencia, la instalación de motores eléctricos modernos para ventiladores, bombas, mecanismos de transmisión..., y la instalación de equipos de iluminación de alta eficacia; se debe evitar la penalización que supone el uso de energía en momentos de máximo coste, utilizando las tarifas reducidas para ahorrar dinero (aunque no necesariamente energía).
El rendimiento de las calderas y hornos se puede mejorar en gran medida mediante un ajuste y control cuidadosos de los niveles de combustión de aire en exceso. La recuperación del calor desechado a través de intercambiadores, bombas de calor y ruedas térmicas es un buen método para mejorar el ahorro energético. Las innovaciones en los sistemas de vapor y condensación pueden aportar también un ahorro sustancial.
La conservación de la energía sólo se puede conseguir si se introduce un plan de gestión de la energía con un seguimiento riguroso y metas de progreso. La motivación de la mano de obra es esencial y sólo es posible si existe un compromiso abierto al más alto nivel. La mejora en la conservación de la energía es un problema tanto psicológico como técnico y financiero.
6.3
Generación de electricidad
Cogeneración de energía
Los sistemas de cogeneración reciclan la energía perdida en el proceso primario de generación (en este caso, una turbina de gas) en un proceso secundario. La energía restante se emplea —en este caso en forma de vapor— directamente en las cercanías de la central (por ejemplo, para calentar edificios), lo que aumenta aún más la eficiencia global del sistema.

El rendimiento en la generación de electricidad depende en última instancia de las leyes de la termodinámica. Al incrementar la temperatura de entrada en las turbinas de gas mediante la introducción de nuevos materiales y técnicas de diseño, el rendimiento de las últimas turbinas se ha incrementado en un 42%. Si el gas caliente de salida se usa para aumentar el vapor a fin de alimentar una turbina de vapor, se forma un llamado ciclo combinado, con un rendimiento generalizado de la conversión del calor en electricidad de cerca del 60%. Las plantas de ciclo combinado que funcionan con gas están sustituyendo con rapidez a las de carbón y petróleo en todo el mundo. Un incentivo para su construcción es el menor impacto medioambiental y la reducción de la emisión de dióxido de carbono que suponen.
Un modo aún más eficaz de utilizar la energía de combustibles fósiles primarios es la construcción de sistemas de Cogeneración o de Energía y Calor Combinados (ECC). En este caso, el calor de salida de la turbina de gas o vapor e incluso de los motores diesel se emplea para alimentar los generadores de electricidad y suministrar vapor y calor a los distintos elementos de la fábrica. Estos sistemas tienen un rendimiento global en el uso de la energía de más del 80% (este sistema se ilustra en el diagrama). Son muchas circunstancias comerciales en las que los sistemas ECC son ideales para el equilibrio electricidad/calor necesario, y su instalación supone un adelanto en costes y ahorro de energía.
6.4
Transporte
El transporte es el sector más contaminante de todos, ocasionando más dióxido de carbono que la generación de electricidad o la destrucción de los bosques. En la actualidad hay en el mundo 500 millones de vehículos y en Europa occidental se calcula que su número se duplicará en el año 2020. En los países en desarrollo el crecimiento será incluso más rápido. A pesar de que el rendimiento de los motores de los vehículos se ha mejorado mucho mediante sistemas de control de la ignición y el uso de motores diesel, la tendencia sigue siendo la fabricación de vehículos con prestaciones muy superiores a las que permiten las carreteras. La congestión y la contaminación están estimulando la aparición de movimientos en favor de la tracción eléctrica y de la extensión del transporte público.
7
POLÍTICAS ENERGÉTICAS
La desregularización y privatización de los sistemas de suministro de energía, junto con la introducción de políticas energéticas en manos de las leyes del mercado, alientan a los productores a aumentar sus beneficios, vendiendo más y más cantidad de energía y disminuyendo su disposición a la conservación de la misma. El único límite son las leyes sobre contaminación. Por lo que respecta a la demanda, los usuarios parecen reacios a instalar sistemas de ahorro de energía, a pesar del ahorro que les supondría durante tres o cuatro años. Un ejemplo son la lámparas de alto rendimiento energético.
No hay duda de que se debe hacer un uso más eficaz de los recursos energéticos del mundo en el futuro, si se quiere satisfacer la demanda creciente de energía de una población en rápido aumento e industrialización. La presión sobre los recursos limitados de combustible y los niveles crecientes de la población requieren una respuesta urgente.


Usos del suelo




Paisaje agrario de campos cerrados (bocage)

Usos del suelo, este epígrafe engloba los diferentes usos que el hombre puede hacer de la tierra, su estudio y los procesos que llevan a determinar el más conveniente en un espacio concreto. Menos del 30% de la superficie de nuestro planeta es tierra. No toda ella puede ser utilizada por los humanos, motivo por el cual constituye un recurso natural valioso y sometido, en muchas partes del mundo, a una notable presión. En consecuencia, es importante tener una visión correcta del uso que se le está dando a un espacio concreto y de si éste es el más apropiado. En los últimos años, se han producido grandes avances en las técnicas de análisis y representación cartográfica que se utilizan en el estudio de los usos del suelo, mientras que el tamaño de las áreas objeto del mismo ha sido incrementado.
2
CLASIFICACIÓN DE LOS USOS DEL SUELO
Existen numerosos sistemas de clasificación de usos del suelo, comprendidos en una de estas tres categorías: urbano, urbanizable (apto para ser urbanizado) y no urbanizable (espacios protegidos por su valor agrícola, forestal o ganadero, por sus recursos naturales, valor paisajístico, histórico, cultural o para preservar su flora, fauna o el equilibrio ecológico). Cada uno de estos grandes grupos comprende otras subdivisiones. Así, por ejemplo, la categoría urbana puede incluir un uso residencial o industrial del suelo, entre otros, y la no urbanizable puede englobar tanto un espacio rústico de aprovechamiento agropecuario como un parque nacional. La mayoría de los países y organizaciones estudiosas del tema emplean mapas de usos del suelo, que siguen los sistemas de clasificación que mejor reflejan sus circunstancias y permiten ser cartografiados con una relativa facilidad.
3
MAPAS DE USOS DEL SUELO
La observación directa en el campo a partir de mapas base de reconocimiento y apoyada en el análisis de fotografías aéreas (véase Reconocimiento aéreo; Fotogrametría), tradicionalmente ha supuesto la principal fuente de información sobre los usos del suelo. Sin embargo, la introducción de técnicas de sensores remotos colocados en satélites artificiales, como la serie americana Landsat o la francesa SPOT, así como los Sistemas de Información Geográfica (SIG), capaces de procesar y comparar una gran cantidad de datos, han logrado proporcionar una información más detallada y precisa de los usos del suelo. Éstos pueden ser representados, a modo de mosaico, en mapas de gran precisión, los cambios pueden ser monitorizados a una buena escala y permiten enjuiciar mejor la capacidad de la tierra, que viene definida por factores como el tipo de suelo, el microclima del área considerada, la inclinación o la estabilidad del suelo, que ayudarán a decidir su uso más apropiado.
4
MODELOS DE USOS DEL SUELO
Los modelos de usos del suelo han sido concebidos para demostrar la influencia tanto de rasgos naturales como de factores socioeconómicos.
4.1
Uso de suelo agrícola
Cambios en los usos agrícolas del suelo
Vista aérea de las tierras de cultivo en los alrededores de Maxey, condado de Cambridge. En ella se aprecia, en la parte superior, el uso actual de los suelos y, en la inferior, los restos de las señales de cosechas de época prehistórica y medieval en los campos que circundan el cementerio.

Uno de los modelos de uso de suelo agrícola mejor conocido fue desarrollado en 1820 por el ingeniero agrónomo alemán Johann Heinrich von Thünen, y publicado en 1826 bajo el título Der Isolierte Staat (El estado aislado). Este estudio trataba de explicar la variación del uso del suelo agrícola con la distancia a los mercados centrales. Von Thünen asumía en principio la existencia de áreas naturales en torno a una llanura agrícola, que presentaba unas condiciones uniformes de clima, fertilidad y acceso a un único mercado, situado en el centro de la planicie, el ‘estado aislado’. También partía de la premisa de que el coste del transporte se incrementaba en proporción directa con la distancia desde el centro de mercado. Basándose en estas afirmaciones, propuso dos modelos: el primero para justificar las diferencias en la intensidad de producción de una cosecha determinada, y el segundo para explicar la distribución de las diferentes cosechas en relación con el centro de mercado.
4.1.1
Intensidad de la producción
De acuerdo con el primer modelo, la intensidad de la producción de una cosecha disminuye con la distancia al centro de mercado. Esto se debe a que todos los agricultores en el estado aislado se enfrentan a los mismos costes de producción por unidad de tierra, rinden la misma cosecha y reciben el mismo precio por unidad de peso para esa cosecha. De este modo, el coste del transporte es el único factor variable y, por tanto, el determinante de la renta local que el agricultor recibe por su producción, que equivaldría al total de los ingresos percibidos por la cosecha obtenida en una unidad de tierra, menos el total de los costes de producción y de transporte al mercado central, aunque tiene en cuenta que el rendimiento normalmente no aumenta en proporción directa al incremento en los costes de producción.
4.1.2
Localización de la cosecha
El segundo modelo, el cual se deriva del primero, afirma que la localización de las diferentes actividades agrícolas está determinada por los costes de producción y el rendimiento por unidad de tierra, así como por los costes de transporte y los precios de mercado por unidad de peso. A una distancia dada del centro de mercado, la cosecha con el más elevado arrendamiento (renta) local aumentará. Los productos que soportan los mayores costes de transporte (también normalmente de producción), y, por lo tanto, aquellos donde el arrendamiento o renta local disminuye más bruscamente con la distancia, aumentarán si están más cerca del centro de mercado. Esto conduce a un modelo de zonas concéntricas de producción en torno al mercado central, donde actividades como la horticultura se desarrollarían más cerca del centro de mercado, mientras que las zonas más alejadas se destinarían a otras extensivas, como el pastoreo.
Posteriormente, Von Thünen intentó acercar estos modelos a la realidad introduciendo otros factores, como una carretera principal o río, que hacen posible un transporte más rápido y barato, o la existencia de otro centro de mercado. Esto dio lugar a unos patrones más complejos de usos del suelo, cuya constatación, en países como Uruguay, Australia o Etiopía, llevó a verificar la validez de algunos conceptos derivados de estos modelos o subyacentes a ellos. Hoy, sin embargo, los factores económicos son más fuertes y complejos que aquellos considerados por Von Thünen. Además, ciertas actividades agrícolas contempladas en su modelo, como la explotación forestal para su utilización como combustible, actualmente tienen poca importancia en los países desarrollados.
4.1.3
Influencias modernas en el uso de suelo agrícola
Los factores económicos ejercen una gran influencia sobre el uso del suelo agrícola, especialmente los costes derivados de los créditos o préstamos y la política gubernamental en esta materia; así, los controles en la producción de un determinado cultivo, la disponibilidad de subsidios, las cuotas fijadas, el marco establecido al margen de la tierra a cambio de una compensación económica y los planes para hacer las granjas menos dependientes de una sola actividad se combinan para crear un complejo modelo en constante cambio sobre el uso del suelo agrícola. El impacto de estos factores es mucho mayor de lo que imaginaba Von Thünen. En Europa, por ejemplo, las decisiones de los agricultores sobre sus tierras están cada vez más determinadas por la política agraria común de la Unión Europea. Además, en la actualidad los transportes permiten acercar rápidamente los productos agrícolas a los mercados mundiales, por lo que, de este modo, el uso que se está dando a un determinado espacio puede responder a las demandas de otros lugares del globo.
4.2
Modelos de uso de suelo urbano
En los pueblos y ciudades, los patrones de uso del suelo responden a varios procesos, tanto de desarrollo urbano como de retroceso. La competencia por el uso de la tierra es fuerte entre y dentro de las diferentes funciones. Por ejemplo, el espacio que se extiende en el límite de una población puede ser requerido para fines residenciales, industriales o comerciales, mientras que los negocios pueden buscar la mejor localización dentro del llamado distrito central de negocios (CBD) de la ciudad, en general situado en el centro de la misma, donde las rentas son más elevadas; este distrito ha estado tradicionalmente asociado a los servicios financieros, como Wall Street en Nueva York y la City de Londres. Los modelos clásicos de estructura urbana se centran en su morfología y enfatizan las relaciones de las diferentes áreas urbanas con el centro y de unas con otras.
4.2.1
Los modelos tradicionales de uso de suelo urbano
Uno de los primeros modelos fue el de anillos concéntricos ideado por el geógrafo estadounidense E. W. Burgess en 1927, el cual se basó en sus estudios sobre el desarrollo de la ciudad de Chicago, que relacionaban el uso de la tierra directamente con su coste. Así, las funciones que podían pagar el precio más elevado del suelo se establecían en el centro, mientras que en las afueras de la ciudad se localizaban las industrias ligeras y las áreas residenciales. Este modelo ha sido muy criticado por ajustarse demasiado a las estructuras de desarrollo urbano de las poblaciones norteamericanas y por sugerir límites muy marcados entre las diferentes zonas funcionales. El patrón propuesto en 1939 por otro americano, H. Hoyt, el llamado modelo sector, reconocía la influencia de las líneas de comunicación en el uso del suelo. El modelo de centro múltiple, desarrollado en 1945, se mostraba más realista, al reconocer que las zonas funcionales se desarrollan alrededor de varios núcleos, uno de los cuales, aunque el más importante, es el CBD, y otros podrían ser un centro comercial o un pueblo anterior absorbido por la expansión de la ciudad.
Todos estos modelos reflejan el valor del suelo y sitúan el CBD en el centro, donde la competencia por el espacio es más fuerte y los precios del suelo más altos. También reconocen que las áreas inmediatas al CBD, las llamadas zonas de transición o, más coloquialmente, ‘ciudad interior’, pueden estar en declive, caracterizadas por una alta densidad de viviendas de clase social baja y por presentar problemas sociales. Desde que estos modelos fueron desarrollados, el proceso de suburbanización, debido a una cada vez mayor disponibilidad de coche particular, ha dado como resultado que los límites de las ciudades, las afueras, empiecen a ser más buscadas como áreas comerciales, parques empresariales y barrios residenciales. Esta tendencia ha debilitado el dominio del CBD.
4.2.2
Otros aprovechamientos
Los modelos tradicionales no pueden ser aplicados a todos los centros urbanos. La planificación zonal de las nuevas ciudades frecuentemente obedece a decisiones formales que gobiernan el conjunto de la estructura urbana, con pocas posibilidades para que los distritos cambien su función y carácter. Por otro lado, el crecimiento de las ciudades en regiones desarrolladas del mundo puede estar sujeto a presiones, sobre todo en los procesos de rápida expansión, como la evolución rural-urbano, que conduce a diferentes estructuras urbanas y, a menudo, a la aparición de asentamientos no oficiales alrededor de los límites de la ciudad, constituyendo barriadas de infraviviendas.
5
CONFLICTOS EN EL USO DEL SUELO
Los conflictos en el uso del suelo surgen entre las áreas urbanas y rurales y dentro de cada una de ellas. Ejemplos de estos conflictos se encuentran en las áreas urbanas en relación con los denominados cinturones verdes, y en los cambios en el paisaje rural que trae consigo la creación de embalses y la construcción de carreteras nuevas. Propuestas para modificar los usos del suelo son objeto de estudio en muchos países, para controlar el planeamiento y asegurar que las decisiones no sean tomadas ligeramente tras un análisis superficial. En algunas naciones, la controversia entre diferentes propuestas de planeamiento urbano puede convertirse en una cuestión pública, como ha ocurrido en el Reino Unido o Suiza.


Entradas populares

Me gusta

Seguidores