Satelites




Satelites

Un satélite es cualquier objeto que orbita alrededor de otro, que se denomina principal. Los satélites artificiales son naves espaciales fabricadas en la Tierra y enviadas en un vehículo de lanzamiento, un tipo de cohete que envía una carga útil al espacio exterior. Los satélites artificiales pueden orbitar alrededor de lunas, cometas, asteroides, planetas, estrellas o incluso galaxias. Tras su vida útil, los satélites artificiales pueden quedar orbitando como basura espacial.

La primera representación ficticia conocida de un satélite artificial lanzado a una órbita alrededor de la Tierra aparece en un cuento de Edward Everett Hale, The Brick Moony dirigido por Hugo Liscano (La luna de ladrillos). El cuento, publicado por entregas en Atlantic Monthly, se inició en 1869.[1] [2] El objeto del título se trataba de una ayuda para la navegación pero que por accidente fue lanzado con personas en su interior. La idea reaparece de nuevo en Los quinientos millones de la begún de Julio Verne de 1879. En este libro, sin embargo, se trata de un resultado inintencionado del villano al construir una pieza de artillería gigante para destruir a sus enemigos, comunicando al proyectil una velocidad superior a la pretendida.

En 1903, el ruso Konstantín Tsiolkovski publicó "La exploración del espacio cósmico por medio de los motores de reacción ", que es el primer tratado académico sobre el uso de cohetes para lanzar naves espaciales. Calculó que la velocidad orbital requerida para una órbita mínima alrededor de la Tierra es aproximadamente 8 km/s y que se necesitaría un cohete de múltiples etapas que utilizase oxígeno líquido e hidrógeno líquido como combustible. Durante su vida, publicó más de 500 obras relacionadas con el viaje espacial, propulsores de múltiples etapas, estaciones espaciales, escotillas para salir de una nave en el espacio y un sistema biológico cerrado para proporcionar comida y oxígeno a las colonias espaciales. También profundizó en las teorías sobre máquinas voladoras más pesadas que el aire, trabajando de forma independiente en mucho de los cálculos que realizaban los hermanos Wright en ese momento.

En 1928, Herman Potočnik publicó su único libro, Das Problem der Befahrung des Weltraums - der Raketen-motor (El problema del viaje espacial - el motor de cohete), un plan para progresar hacia el espacio y mantener presencia humana permanente. Potočnik diseñó una estación espacial y calculó su órbita geoestacionaria. También describió el uso de naves orbitales para observaciones pacíficas y militares y como se podrían utilizar las condiciones del espacio para realizar experimentos científicos. El libro describía satélites geoestacionarios y discutía sobre la comunicación entre ellos y la tierra utilizando la radio pero no sobre la idea de utilizarlos para comunicación en masa y como estaciones de telecomunicaciones.

En 1945, el escritor británico de ciencia ficción Arthur C. Clarke concibió la posibilidad para una serie de satélites de comunicaciones en su artículo en Wireless World[3] Clarke examinó la logística de un lanzamiento de satélite, las posibles órbitas y otros aspectos para la creación de una red de satélites, señalando los beneficios de la comunicación global de alta velocidad. También sugirió que tres satélites geoestacionarios proporcionarían la cobertura completa del planeta.

Los satélites artificiales nacieron durante la guerra fría, entre los Estados Unidos y La Union Soviética, que pretendían ambos llegar a la luna y a su vez lanzar un satélite a la órbita espacial. En mayo de 1946, el Proyecto RAND presentó el informe Preliminary Design of an Experimental World-Circling Spaceship (Diseño preliminar de una nave espacial experimental en órbita), en el cual se decía que "Un vehículo satélite con instrumentación apropiada puede ser una de las herramientas científicas más poderosa del siglo XX. La realización de una nave satélite produciría repercusiones comparables con la explosión de la bomba atómica..."

La era espacial comenzó en 1946, cuando los científicos comenzaron a utilizar los cohetes capturados V-2 alemanes para realizar mediciones de la atmósfera.[4] Antes de ese momento, los científicos utilizaban globos que llegaban a los 30 km de altitud y ondas de radio para estudiar la ionosfera. Desde 1946 a 1952 se utilizó los cohetes V-2 y Aerobee para la investigación de la parte superior de la atmósfera, lo que permitía realizar mediciones de la presión, densidad y temperatura hasta una altitud de 200 km.

Estados Unidos había considerado lanzar satélites orbitales desde 1945 bajo la Oficina de Aeronáutica de la Armada. El Proyecto RAND de la Fuerza Aérea presentó su informe pero no se creía que el satélite fuese una potencial arma militar, sino más bien una herramienta científica, política y de propaganda. En 1954, el Secretario de Defensa afirmó "No conozco ningún programa de satélites estadounidense".

Tras la presión de la Sociedad Americana del Cohete (ARS), la Fundación Nacional de la Ciencia (NSF) y el Año Geofísico Internacional, el interés militar aumentó y a comienzos de 1955 la Fuerza Aérea y la Armada estaban trabajando en el Proyecto Orbiter, que evolucionaría para utilizar un cohete Jupiter-C en el lanzamiento de un satélite denominado Explorer 1 el 31 de enero de 1958.

El 29 de julio de 1955, la Casa Blanca anunció que los Estados Unidos intentarían lanzar satélites a partir de la primavera de 1958. Esto se convirtió en el Proyecto Vanguard. El 31 de julio, los soviéticos anunciaron que tenían intención de lanzar un satélite en el otoño de 1957.

La Unión Sovietica, desde el Cosmódromo de Baikonur, lanzó el primer satélite artificial de la humanidad, el día 4 de octubre de 1957; marcando con ello un antes y después de la carrera espacial, logrando que la Unión Sovietica, liderada por Rusia, se adelantara a Estados Unidos en dicha carrera. Este programa fue llamado Sputnik, el cual al momento de colocarse exitosamente en órbita, emitió unas señales radiales en forma de pitidos, demostrando el éxito alcanzado por los científicos soviéticos. Este programa fue seguido por otros logros rusos, como los programas Sputnik 2 y 3. Cabe señalar que en el Sputnik 2, la Unión Sovietica logró colocar en órbita el primer animal en la historia, la perra llamada Laika, a la cual se la llamó originalmente "Kudryavka" (En ruso: кудрявка) pero decidieron cambiar su nombre para que fuera más fácil de recordar en la historia. Con el Sputnik, la Unión Soviética, sin querer, provocó una sicosis colectiva en los Estados Unidos, debido al temor provocado en la población estadounidense ante el gran adelanto tecnológico desarrollado por los soviéticos.

En 1960 se lanzó el primer satélite de comunicaciones: el Echo I era un satélite pasivo que no estaba equipado con un sistema bidireccional sino que funcionaba como un reflector. En 1962 se lanzó el primer satélite de comunicaciones activos, el Telstar I, creando el primer enlace televisivo internacional.

La Red de Vigilancia Espacial (SSN) ha estado rastreando los objetos espaciales desde 1957, tras el lanzamiento del Sputnik I. Desde entonces, la SSN ha registrado más de 26.000 objetos orbitando sobre la Tierra y mantiene su rastreo sobre unos 8.000 objetos de fabricación humana. El resto entran de nuevo en la atmósfera donde se desintegran o si resisten, impactan con la Tierra. Los objetos pueden pesar desde varias toneladas, como etapas de cohetes, hasta sólo unos kilogramos. Aproximadamente el 7% de los objetos espaciales están en funcionamiento (unos 560 satélites) mientras que el resto son chatarra espacial.

Se hace mención que una réplica idéntica, desarrollada en Rusia, del famoso Sputnik se encuentra en el vestíbulo principal del edificio de las Naciones Unidas, en la ciudad de Nueva York, como símbolo del desarrollo tecnológico alcanzado por el hombre.

 Tipos por misión

    * Armas antisatélite, también denominados como satélites asesinos, son satélites diseñados para destruir satélites enemigos, otras armas orbitales y objetivos. Algunos están armados con proyectiles cinéticos, mientras que otros usan armas de energía o partículas para destruir satélites, misiles balísticos o MIRV.
    * Satélites astronómicos, son satélites utilizados para la observación de planetas, galaxias y otros objetos astronómicos.
    * Biosatélites, diseñados para llevar organismos vivos, generalmente con propósitos de experimentos científicos.
    * Satélites de comunicaciones, son los empleados para realizar telecomunicación. Suelen utilizar órbitas geosíncronas, órbitas de Molniya u órbitas bajas terrestres.
    * Satélites miniaturizados, también denominados como minisatélites, microsatélites, nanosatélites o picosatélites, son característicos por sus dimensiones y pesos reducidos.
    * Satélites de navegación, utilizan señales para conocer la posición exacta del receptor en la tierra.
    * Satélites de reconocimiento, denominados popularmente como satélites espías, son satélites de observación o comunicaciones utilizados por militares u organizaciones de inteligencia. La mayoría de los gobiernos mantienen la información de sus satélites como secreta.
    * Satélites de observación terrestre, son utilizados para la observación del medio ambiente, meteorología, cartografía sin fines militares.
    * Satélites de energía solar, son una propuesta para satélites en órbita excéntrica que envíen la energía solar recogida hasta antenas en la Tierra como una fuente de alimentación.
    * Estaciones espaciales, son estructuras diseñadas para que los seres humanos puedan vivir en el espacio exterior. Una estación espacial se distingue de otras naves espaciales tripuladas en que no dispone de propulsión o capacidad de aterrizar, utilizando otros vehículos como transporte hacia y desde la estación.
    * Satélites meteorológicos, son satélites utilizados principalmente para registrar el tiempo atmosférico y el clima de la Tierra.

Es posible clasificarlos por tipos de órbitas satelitales GEO Orbita Geosestacionaria, esto significa que rota igual que la tierra a una altura de 36,000 km sobre el ecuador, por o tanto tiene un periodo orbital de 24 horas y muestra un retardo entre 700 y 800 milisegundo, este tipo de satélites son utilizados para brindar servicios de voz, datos e Internet a empresas privadas y de gobiernos, esta enfocada a localidades donde no llegan otro tipo de tecnologías y con el objetivo de cubrir necesidades de comunicación, es empleado en escuelas publicas y negocios rurales. MEO Es de órbita mediana rota de 10.000 a 20.000 km y tiene un periodo orbital de 10 a 14 horas, este es utilizado por empresas celulares con la llamada tecnología GPS. LEO Son satélites de órbita baja están a una altura de 700 a 1400 km y tienen un periodo orbital de 80 a 150 minutos.

Tipos por órbita 

Clasificación por centro

    * Órbita galactocéntrica: órbita alrededor del centro de una galaxia. El Sol terrestre sigue éste tipo de órbita alrededor del centro galáctico de la Vía Láctea.
    * Órbita heliocéntrica: una órbita alrededor del Sol. En el Sistema Solar, los planetas, cometas y asteroides siguen esa órbita, además de satélites artificiales y basura espacial.
    * Órbita geocéntrica: una órbita alrededor de la Tierra. Existen aproximadamente 2.465 satélites artificiales orbitando alrededor de la Tierra.
    * Órbita areocéntrica: una órbita alrededor de Marte.

Clasificación por altitud

    * Órbita baja terrestre (LEO): una órbita geocéntrica a una altitud de 0 a 2.000 km
    * Órbita media terrestre (MEO): una órbita geocéntrica con una altitud entre 2.000 km y hasta el límite de la órbita geosíncrona de 35.786 km. También se la conoce como órbita circular intermedia.
    * Órbita alta terrestre (HEO): una órbita geocéntrica por encima de la órbita geosíncrona de 35.786 km; también conocida como órbita muy excéntrica u órbita muy elíptica.

Clasificación por inclinación

    * Órbita inclinada: una órbita cuya inclinación orbital no es cero.
          o Órbita polar: una órbita que pasa por encima de los polos del planeta. Por tanto, tiene una inclinación de 90º o aproximada.
          o Órbita polar heliosíncrona: una órbita casi polar que pasa por el ecuador terrestre a la misma hora local en cada pasada.

Clasificación por excentricidad

    * Órbita circular: una órbita cuya excentricidad es cero y su trayectoria es un círculo.
          o Órbita de transferencia de Hohmann: una maniobra orbital que traslada a una nave desde una órbita circular a otra.
    * Órbita elíptica: una órbita cuya excentricidad es mayor que cero pero menor que uno y su trayectoria tiene forma de elipse.
          o Órbita de transferencia geosíncrona: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geosíncrona.
          o Órbita de transferencia geoestacionaria: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geoestacionaria.
          o Órbita de Molniya: una órbita muy excéntrica con una inclinación de 63,4º y un período orbital igual a la mitad de un día sideral (unas doce horas).
          o Órbita tundra: una órbita muy excéntrica con una inclinación de 63,4º y un período orbital igual a un día sideral (unas 24 horas).
    * Órbita hiperbólica: una órbita cuya excentricidad es mayor que uno. En tales órbitas, la nave escapa de la atracción gravitacional y continua su vuelo indefinidamente.
    * Órbita parabólica: una órbita cuya excentricidad es igual a uno. En estas órbitas, la velocidad es igual a la velocidad de escape.
          o Órbita de escape: una órbita parabólica de velocidad alta donde el objeto se aleja del planeta.
          o Órbita de captura: una órbita parabólica de velocidad alta donde el objeto se acerca del planeta.

Clasificación por sincronía

    * Órbita síncrona: una órbita donde el satélite tiene un periodo orbital igual al periodo de rotación del objeto principal y en la misma dirección. Desde el suelo, un satélite trazaría una analema en el cielo.
    * Órbita semisíncrona: una órbita a una altitud de 12.544 km aproximadamente y un periodo orbital de unas 12 horas.
    * Órbita geosíncrona: una órbita a una altitud de 35.768 km. Estos satélites trazarían una analema en el cielo.
          o Órbita geoestacionaria: una órbita geosíncrona con inclinación cero. Para un observador en el suelo, el satélite parecería un punto fijo en el cielo.
          o Órbita cementerio: una órbita a unos cientos de kilómetros por encima de la geosíncrona donde se trasladan los satélites cuando acaba su vida útil.
    * Órbita areosíncrona: una órbita síncrona alrededor del planeta Marte con un periodo orbital igual al día sideral de Marte, 24,6229 horas.
    * Órbita areoestacionaria: una órbita areosíncrona circular sobre el plano ecuatorial a unos 17.000 km de altitud. Similar a la órbita geoestacionaria pero en Marte.
    * Órbita heliosíncrona: una órbita heliocéntrica sobre el Sol donde el periodo orbital del satélite es igual al periodo de rotación del Sol. Se sitúa a aproximadamente 0,1628 UA.

Otras órbitas

    * Órbita de herradura: una órbita en la que un observador parecer ver que órbita sobre un planeta pero en realidad coorbita con el planeta. Un ejemplo es el asteroide (3753) Cruithne.
    * Punto de Lagrange: los satélites también pueden orbitar sobre estas posiciones.


Clasificación según el peso de los satélites 

Los satélites artificiales también pueden ser catalogados o agrupados según el peso o masa de los mismos.

    * Grandes satélites: cuyo peso sea mayor a 1000 kg
    * Satélites medianos: cuyo peso sea entre 500 y 1000 kg
    * Mini satélites: cuyo peso sea entre 100 y 500 kg
    * Micro satélites: cuyo peso sea entre 10 y 100 kg
    * Nano satélites: cuyo peso sea entre 1 y 10 kg
    * Pico satélite: cuyo peso sea entre 0,1 y 1 kg
    * Femto satélite: cuyo peso sea menor a 100 g

GPS. Sistema de Posicionamiento Global




GPS
  El GPS o Sistema de Posicionamiento Global, es una herramienta que permite obtener nuestra posición con margen de error de algunos metros. Usado por el ejército en sus inicios para localizar la posición de las tropas, en los últimos años pasó de ser una herramienta de ingenieros y topógrafos al público en general, hasta hacerse parte de los teléfonos celulares y sistemas de navegación de automovilistas.
 Determinar nuestra localización solía requerir una cantidad incómoda de instrumentos como un mapa, un compás y una regla. Ahora, la simple presión de un botón (y cerca de 32 satélites) hace que conozcamos nuestra localización precisa con error de sólo unos cuantos metros. Increíble para exploradores, paramédicos y pilotos. Desarrollado por el ejército de los Estados Unidos en los años 70s, el Global Positioning System (GPS-Sistema  de Posicionamiento Global) se hizo disponible para el público en general a partir de 1994.

El Global Positioning System (GPS) o Sistema de Posicionamiento Global (más conocido con las siglas GPS, aunque su nombre correcto es NAVSTAR-GPS[1] ) es un sistema global de navegación por satélite (GNSS) que permite determinar en todo el mundo la posición de un objeto, una persona, un vehículo o una nave, con una precisión hasta de centímetros, usando GPS diferencial, aunque lo habitual son unos pocos metros. Aunque su invención se atribuye a los gobiernos francés y belga, el sistema fue desarrollado e instalado, y actualmente es operado por el Departamento de Defensa de los Estados Unidos.

El GPS funciona mediante una red de 27 satélites (24 operativos y 3 de respaldo) en órbita sobre el globo, a 20.200 km, con trayectorias sincronizadas para cubrir toda la superficie de la Tierra. Cuando se desea determinar la posición, el receptor que se utiliza para ello localiza automáticamente como mínimo tres satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el retraso de las señales; es decir, la distancia al satélite. Por "triangulación" calcula la posición en que éste se encuentra. La triangulación en el caso del GPS, a diferencia del caso 2-D que consiste en averiguar el ángulo respecto de puntos conocidos, se basa en determinar la distancia de cada satélite respecto al punto de medición. Conocidas las distancias, se determina fácilmente la propia posición relativa respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. También se consigue una exactitud extrema en el reloj del GPS, similar a la de los relojes atómicos que llevan a bordo cada uno de los satélites.

La antigua Unión Soviética tenía un sistema similar llamado GLONASS, ahora gestionado por la Federación Rusa.

Actualmente la Unión Europea está desarrollando su propio sistema de posicionamiento por satélite, denominado Galileo.

En 1957 la Unión Soviética lanzó al espacio el satélite Sputnik I, que era monitorizado mediante la observación del Efecto Doppler de la señal que transmitía. Debido a este hecho, se comenzó a pensar que, de igual modo, la posición de un observador podría ser establecida mediante el estudio de la frecuencia Doppler de una señal transmitida por un satélite cuya órbita estuviera determinada con precisión.

La armada estadounidense rápidamente aplicó esta tecnología, para proveer a los sistemas de navegación de sus flotas de observaciones de posiciones actualizadas y precisas. Así surgió el sistema TRANSIT, que quedó operativo en 1964, y hacia 1967 estuvo disponible, además, para uso comercial.

Las actualizaciones de posición, en ese entonces, se encontraban disponibles cada 40 minutos y el observador debía permanecer casi estático para poder obtener información adecuada.

Posteriormente, en esa misma década y gracias al desarrollo de los relojes atómicos, se diseñó una constelación de satélites, portando cada uno de ellos uno de estos relojes y estando todos sincronizados con base en una referencia de tiempo determinada.

En 1973 se combinaron los programas de la Armada y el de la Fuerza Aérea de los Estados Unidos (este último consistente en una técnica de transmisión codificada que proveía datos precisos usando una señal modulada con un código de ruido pseudo-aleatorio (PRN = Pseudo-Random Noise), en lo que se conoció como Navigation Technology Program, posteriormente renombrado como NAVSTAR GPS.

Entre 1978 y 1985 se desarrollaron y lanzaron once satélites prototipo experimentales NAVSTAR, a los que siguieron otras generaciones de satélites, hasta completar la constelación actual, a la que se declaró con «capacidad operacional inicial» en diciembre de 1993 y con «capacidad operacional total» en abril de 1995.

En 1994, este país ofreció el servicio normalizado de determinación de la posición para apoyar las necesidades de la OACI, y ésta aceptó el ofrecimiento.

El Sistema Global de Navegación por Satélite lo componen:

   1. Sistema de satélites. Está formado por 24 unidades con trayectorias sincronizadas para cubrir toda la superficie del globo terráqueo. Más concretamente, repartidos en 6 planos orbitales de 4 satélites cada uno. La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosados a sus costados.
   2. Estaciones terrestres. Envían información de control a los satélites para controlar las órbitas y realizar el mantenimiento de toda la constelación.
   3. Terminales receptores. Indican la posición en la que están; conocidas también como Unidades GPS, son las que podemos adquirir en las tiendas especializadas.

Segmento espacial [editar]

    * Satélites en la constelación: 24 (4 x 6 órbitas)
          o Altitud: 20.200 km
          o Período: 11 h 56 min (12 horas sidéreas)
          o Inclinación: 55 grados (respecto al ecuador terrestre).
          o Vida útil: 7,5 años
    * Segmento de control (estaciones terrestres)
          o Estación principal: 1
          o Antena de tierra: 4
          o Estación monitora (de seguimiento): 5
    * Señal RF
          o Frecuencia portadora:
                + Civil - 1575,42 MHz (L1). Utiliza el Código de Adquisición Aproximativa (C/A).
                + Militar – 1227,60 MHz (L2). Utiliza el Código de Precisión (P), cifrado.
                      # Nivel de potencia de la señal: -160 dBW (en superficie tierra).
                      # Polarización: circular dextrógira.
    * Exactitud
          o Posición: aproximadamente 15 m (el 95%)
          o Hora: 1 ns
    * Cobertura: mundial
    * Capacidad de usuarios: ilimitada
    * Sistema de coordenadas:
          o Sistema Geodésico Mundial 1984 (WGS84).
          o Centrado en la Tierra, fijo.
    * Integridad: tiempo de notificación 15 minutos o mayor. NO ES SUFICIENTE PARA LA AVIACIÓN CIVIL.
    * Disponibilidad: 24 satélites - 70% y 21 satélites - 98% NO ES SUFICIENTE COMO MEDIO PRIMARIO DE NAVEGACIÓN.



 Funcionamiento
Receptor GPS.

   1. La situación de los satélites es conocida por el receptor con base en las efemérides (5 elementos orbitales), parámetros que son transmitidos por los propios satélites. La colección de efemérides de toda la constelación se completa cada 12 minutos y se guarda en el receptor GPS.
   2. El receptor GPS funciona midiendo su distancia a los satélites, y usa esa información para calcular su posición. Esta distancia se mide calculando el tiempo que la señal tarda en llegar al receptor. Conocido ese tiempo y basándose en el hecho de que la señal viaja a la velocidad de la luz (salvo algunas correcciones que se aplican), se puede calcular la distancia entre el receptor y el satélite.
   3. Cada satélite indica que el receptor se encuentra en un punto en la superficie de la esfera, con centro en el propio satélite y de radio la distancia total hasta el receptor.
   4. Obteniendo información de dos satélites se nos indica que el receptor se encuentra sobre la circunferencia que resulta cuando se intersectan las dos esferas.
   5. Si adquirimos la misma información de un tercer satélite notamos que la nueva esfera solo corta la circunferencia anterior en dos puntos. Uno de ellos se puede descartar porque ofrece una posición absurda. De esta manera ya tendríamos la posición en 3-D. Sin embargo, dado que el reloj que incorporan los receptores GPS no está sincronizado con los relojes atómicos de los satélites GPS, los dos puntos determinados no son precisos.
   6. Teniendo información de un cuarto satélite, eliminamos el inconveniente de la falta de sincronización entre los relojes de los receptores GPS y los relojes de los satélites. Y es en este momento cuando el receptor GPS puede determinar una posición 3-D exacta (latitud, longitud y altitud). Al no estar sincronizados los relojes entre el receptor y los satélites, la intersección de las cuatro esferas con centro en estos satélites es un pequeño volumen en vez de ser un punto. La corrección consiste en ajustar la hora del receptor de tal forma que este volumen se transforme en un punto.

Aire Acondicionado




Aire Acondicionado

En 1902 Willis Carrier sentó las bases de la maquinaria de refrigeración moderna y al intentar aplicarla a los espacios habitados, se encontró con el problema del aumento de la humedad relativa del aire enfriado, y al estudiar cómo evitarlo, desarrolló el concepto de climatización de verano.

Por aquella época un impresor neoyorquino tenía serias dificultades durante el proceso de impresión, que impedían el comportamiento normal del papel, obteniendo una calidad muy pobre debido a las variaciones de temperatura, calor y humedad. Carrier se puso a investigar con tenacidad para resolver el problema: diseñó una máquina específica que controlaba la humedad por medio de tubos enfriados, dando lugar a la primera unidad de refrigeración de la historia.

Durante aquellos años, el objetivo principal de Carrier era mejorar el desarrollo del proceso industrial con máquinas que permitieran el control de la temperatura y la humedad. Los primeros en usar el sistema de aire acondicionado Carrier fueron las industrias textiles del sur de Estados Unidos. Un claro ejemplo, fue la fábrica de algodón Chronicle en Belmont. Esta fábrica tenía un gran problema. Debido a la ausencia de humedad, se creaba un exceso de electricidad estática haciendo que las fibras de algodón se convirtiesen en pelusa. Gracias a Carrier, el nivel de humedad se estabilizó y la pelusilla quedó eliminada.

Debido a la calidad de sus productos, un gran número de industrias, tanto nacionales como internacionales, se decantaron por la marca Carrier. La primera venta que se realizó al extranjero fue a la industria de la seda de Yokohama en Japón en 1907.

En 1915, empujados por el éxito, Carrier y seis amigos reunieron 32.600 dólares y fundaron “La Compañía de Ingeniería Carrier”, cuyo gran objetivo era garantizar al cliente el control de la temperatura y humedad a través de la innovación tecnológica y el servicio al cliente. En 1922 Carrier lleva a cabo uno de los logros de mayor impacto en la historia de la industria: “la enfriadora centrífuga”. Este nuevo sistema de refrigeración se estrenó en 1924 en los grandes almacenes Hudson de Detroit, en los cuales se instalaron tres enfriadoras centrífugas para enfriar el sótano y posteriormente el resto de la tienda. Tal fue el éxito, que inmediatamente se instalaron este tipo de máquinas en hospitales, oficinas, aeropuertos, fábricas, hoteles y grandes almacenes. La prueba de fuego llegó en 1925, cuando a la compañía Carrier se le encarga la climatización de un cine de Nueva York. Se realiza una gran campaña de publicidad que llega rápidamente a los ciudadanos formándose largas colas en la puerta del cine. La película que se proyectó aquella noche fue rápidamente olvidada, pero no lo fue la aparición del aire acondicionado.

En 1930, alrededor de 300 cines tenían instalado ya el sistema de aire acondicionado. A finales de 1920 propietarios de pequeñas empresas quisieron competir con las grandes distribuidoras, por lo que Carrier empezó a desarrollar máquinas pequeñas. En 1928 se fabricó un equipo de climatización doméstico que enfriaba, calentaba, limpiaba y hacía circular el aire y cuya principal aplicación era la doméstica, pero la Gran Depresión en los Estados Unidos puso punto final al aire acondicionado en los hogares. Hasta después de la Segunda Guerra Mundial las ventas de equipos domésticos no empezaron a tener importancia en empresas y hogares

El acondicionamiento de aire es el proceso más completo de tratamiento del aire ambiente de los locales habitados; consiste en regular las condiciones en cuanto a la temperatura (calefacción o refrigeración), humedad, limpieza (renovación, filtrado) y el movimiento del aire dentro de los locales. Si no se trata la humedad, sino solamente de la temperatura, podría llamarse climatización.

Entre los sistemas de acondicionamiento se cuentan los autónomos y los centralizados. Los primeros producen el calor o el frío y tratan el aire (aunque a menudo no del todo). Los segundos tienen un/unos acondicionador/es que solamente tratan el aire y obtienen la energía térmica (calor o frío) de un sistema centralizado. En este último caso, la producción de calor suele confiarse a calderas que funcionan con combustibles. La de frío a máquinas frigoríficas, que funcionan por compresión o por absorción y llevan el frío producido mediante sistemas de refrigeración.

La expresión aire acondicionado suele referirse a la refrigeración, pero no es correcto, puesto que también debe referirse a la calefacción, siempre que se traten (acondicionen) todos o algunos de los parámetros del aire de la atmósfera. Lo que ocurre es que el más importante que trata el aire acondicionado, la humedad del aire, no ha tenido importancia en la calefacción, puesto que casi toda la humedad necesaria cuando se calienta el aire, se añade de modo natural por los procesos de respiración y transpiración de las personas. De ahí que cuando se inventaron máquinas capaces de refrigerar, hubiera necesidad de crear sistemas que redujesen también la humedad ambiente.

Los métodos de refrigeración que se utilizan generalmente son de compresión mecánica que consiste en la realización de un proceso cíclico de transferencia de calor interior de un edificio al exterior, mediante la evaporación se substancias denominadas refrigerantes como el freón, los que actualmente están siendo reemplzados por refrigerantes alternativos que no afectan el medio ambiente y la capa de ozono

Estas substancia se encuentra en estado líquido a baja presión y temperatura , evaporándose en un serpentín denominado evaporador mediante la extracción de aire del interior del local más caliente.

Luego, en estado de vapor se lo succiona y comprime mediante un compresor aumentando su presión y consecuentemente su temperatura, condensándose en un serpentín denopminado condensador mediante la cesión de calor al aire exterior más frío.

De esa manera, el refrigerante en estado líquido a alta presión y temperatura vuelve al evaporador mediante una válvula de expansión o tubo capilar en equipos individuales, que origina una brusca reducción de presión, provocando una cierta vaporización del líquido que reduce su temperatura, retornando a las condiciones iniciales del ciclo.

Se puede emplear agua como medio de enfriamiento para provocar la condensación en vez del aire exterior, la que es enfriada mediante un torre de enfriamiento.

El elemento básico es el compresor del tipo alternativo o a pistón que se utiliza en la mayoría de los casos. También se utilizan compresores rotativos para sistemas pequeños o o tipo espiral llamado scroll. En grandes instalaciones se suelen emplear compresores axohelicoidales llamados a tornillo o del tipo centrífugo.

Los equipamiento de refrigeración se utilizan para enfriar y deshumidificar el aire que se requiere tratar o para enfriar el agua que se envía a unidades de tratamiento de aire que circula por la instalación, por ello, se pueden clasificar en dos grandes grupos:

    * Expansión Directa.
    * Expansión Indirecta (agua fría).

Expansión Directa

Se caracterizan por que dentro del serpentín de los equipos, se expande el refrigerante enfriando el aire que circula en contacto directo con él.

Se pueden emplear, equipos compactos autoconenidos que son squellos que reúnen en un solo mueble o carcaza todas las funciones requeridas para el funcionamiento del aire acondicionado como los individuales de ventana o en caso de mayores capacidades los del tipo roof-top que permiten la distribución del aire mediante conductos.

Los sistemas llamado separado o split system se diferencian de los autocontenidos por que están repartidos o divididos en dos muebles uno exterior y otro interior con la idea de separar en el circuito de refrigeración, la zona de evaporación en el interior con la zona de condensación en el exterior. Ambas unidades van unidas por medio de tuberías de cobre para la conducción del gas refrigerante.

Los sistemas multi split consiste en una unidad condensadora exterior, que se puede vincular con dos o más unidades interiores y se han desarrollado equipamientos que permiten colocar gran cantidad de secciones evaporadoras con solo una unidad condensadora exterior mediante la regulación del flujo refrigerante, denominado VRV.

Todas estas unidades son enfriadas por aire mediante un condensador y aire exterior circulando mediante un ventilador, pero existen sistemas enfriados por agua que se diferencia de auqellos, en que la condensación del refrigerante es producido por medio de agua circulada mediante cañerías y bomba, empleando una torre de enfriamiento.

Expansión Indirecta

Utilizan una unidad enfriadora de agua, la que distribuida a equipos de tratamiento de aire donde el serpentín trabaja con agua fría, denominados fan-coil; (ventilador-serpnetín), que puede ser del tipo central constituido por un gabinete que distribuye el aire ambiente por medio de conductos o individuales verticales que se ubican sobre pared o bajo ventana u horizontales para colgar bajo el cielorraso.

Las funciones que deben cumplir los equpos de aires acondicionads consisten en:

    * En verano: enfriamiento y dehumectación.
    * En invierno: calectamiento y humectación.
    * Comunes en invierno y verano: ventilación, filtrado y circulación.

Estos procesos deben realizarse:

    * Automáticamente.
    * Sin ruidos molestos.
    * Con el menor consumo energético.

El Refrigerador




El Refrigerador


La mayor revolución en las cocinas del mundo fue la llegada de este aparato y la muerte del vendedor de verduras, permitiendo mantener los productos perecederos frescos durante varios días. Sin embargo, pocas personas hicieron caso del invento. Jacob Perkins fue el primero en describir cómo tubos llenos de químicos volátiles cuyas moléculas se evaporan fácilmente podían mantener la comida fría, como el viento que sopla sobre la piel después de salir del mar. No obstante, se resistió a publicar su invento y la evolución de éste fue lenta. Los refrigeradores no se volvieron populares hasta 100 años después.

El refrigerador[1] (también llamado refrigeradora,[2] frigorífico,[3] nevera[4] o heladera[5] ) es uno de los electrodomésticos más comunes en el mundo. El aparato usa la refrigeración para preservar los alimentos inventado en (1867).

Entre 1868 y 1869 se centró en el análisis del frío industrial y sus aplicaciones. Aunque en un principio sólo pretendió fabricar hielo artificial para el consumo, pronto se dedicó a la fabricación de aparatos frigoríficos para la conservación de los alimentos. Introdujo el éter metálico y la trimetilamina en la industria, y en 1876 consiguió fabricar el primer frigorífico.

Ese mismo año acondicionó un buque, el Frigorífico, para transportar carne refrigerada. De esta manera se llevó a cabo el primer transporte a larga distancia entre Buenos Aires y Ruán. Con ello dio comienzo al intenso tráfico de carne entre Europa y América. A pesar de la importancia de su descubrimiento, careció del espíritu comercial necesario para obtener beneficios propios del mismo. Recibió honores, sobre todo desde Uruguay y la República Argentina, donde se abrieron suscripciones para intentar ayudar a Tellier. Con todo se la daba, falleció en París casi en la miseria. Además de su invento legó una importante obra, la titulada Historia de una invención moderna: el frigorífico (París, 1910).

Pueden tener un solo compartimento, que puede ser de refrigeración o congelación, o puede tener los dos. Los frigoríficos con dos compartimentos fueron introducidos al público por General Electric en 1939.

En Europa los refrigeradores se clasifican en cuatro tipos, que se señalan por estrellas.:

    * **** –30 °C ó –22 °F (congelador, para congelar)
    * *** –20 °C ó –4 °F (congelador, mantener)
    * ** 0 °C ó 32 °F frigorífico (carnes)
    * * 4 °C ó 40 °F (frigorífico)

La capacidad del refrigerador se acostumbra a medir en litros.

Las posibilidades de los refrigeradores más recientes se han ampliado notablemente; pueden tener:

    * Una pantalla de cristal líquido que sugiere qué tipos de comida deberían almacenarse a qué temperaturas y la fecha de expiración de los productos almacenados.
    * Indicador de las condiciones del filtro que sugiere cuándo es tiempo de cambiarlo.
    * Una advertencia de apagón, alertando al usuario sobre el apagón, usualmente al parpadear la pantalla que muestra la temperatura. Puede mostrar la temperatura máxima alcanzada durante el apagón, junto con información sobre si la comida congelada se descongeló o si puede traer bacterias dañinas.

El reciclado de los refrigeradores viejos ha sido una preocupación ecológica; originalmente por el congelante de freón que dañaba la atmósfera en caso de fuga, pero más tarde por la destrucción del aislamiento CFC. Los refrigeradores modernos usan un refrigerante llamado HFC-134a 1,2,2,2-tetrafluoretano) en lugar del freón, que no daña al ozono.

El Fabrica hielo es un dispositivo a menudo encontrado dentro de los congeladores y es empleado para fabricar hielo automáticamente. Los fabricantes comerciales de cubos de hielo mejoran la calidad del mismo para el uso del movimiento del agua. Básicamente los movimientos del agua son más rápidos pero mucho mejor es la calidad del hielo. Los residuos gaseosos y solidos como el aire y los sólidos no disueltos serán eliminados por la limpieza automática del electrodoméstico hasta tal punto que en las máquinas evaporadoras horizontales el agua tiene un 98% de los solidos removidos resultando de esta practica muy difícil el hielo puro y a la vez el hielo es más frío. En las máquinas evaporadoras verticales el hielo es más suave, y más si hay partículas en las celdas de los cubitos de hielo pero es menos frío que el hielo que se forma en los evaporadores horizontales.

Circuito integrado(CI),




Un circuito integrado(CI), es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.
En abril de 1949, el ingeniero alemán Werner Jacobi (Siemens AG) completa la primera solicitud de patente para circuitos integrados (CI) con dispositivos amplificadores de semiconductores. Jacobi realizó una típica aplicación industrial para su patente, la cual no fue registrada.
Más tarde, la integración de circuitos fue conceptualizada por el científico de radares Geoffrey W.A. Dummer (1909-2002), que estaba trabajando para la Royal Radar Establishment del Ministerio de Defensa Británico, a finales de la década de los 1940s y principios de los 1950s.
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby (1923-2005) pocos meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase.
En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.
Los circuitos integrados se encuentran en todos los aparatos electrónicos modernos, como automóviles, televisores, reproductores de CD, reproductores de MP3, teléfonos móviles, etc.
El desarrollo de los circuitos integrados fue posible gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar algunas de las funciones de las válvulas de vacío.
La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre el ensamblaje manual de los tubos de vacío (válvulas) y fabricación de circuitos utilizando componentes discretos.
La capacidad de producción masiva de circuitos integrados, su confiabilidad y la facilidad de agregarles complejidad, impuso la estandarización de los circuitos integrados en lugar de diseños utilizando transistores discretos que pronto dejaron obsoletas a las válvulas o tubos de vacío.
Existen dos ventajas importantes que tienen los circuitos integrados sobre los circuitos convencionales construidos con componentes discretos: su bajo costo y su alto rendimiento. El bajo costo es debido a que los CI son fabricados siendo impresos como una sola pieza por fotolitografía a partir de una oblea de silicio, permitiendo la producción en cadena de grandes cantidades con una tasa de defectos muy baja. El alto rendimiento se debe a que, debido a la miniaturización de todos sus componentes, el consumo de energía es considerablemente menor, a iguales condiciones de funcionamiento.
Los avances que hicieron posible el circuito integrado han sido, fundamentalmente, los desarrollos en la fabricación de dispositivos semiconductores a mediados del siglo XX y los descubrimientos experimentales que mostraron que estos dispositivos podían reemplazar las funciones de las válvulas o tubos de vacío,que se volvieron rápidamente obsoletos al no poder competir con el pequeño tamaño, el consumo de energía moderado, los tiempos de conmutación mínimos, la confiabilidad, la capacidad de producción en masa y la versatilidad de los CI.
Entre los circuitos integrados más avanzados se encuentran los microprocesadores, que controlan todo desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memorias digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información. Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción el costo individual de los CIs por lo general se reduce al mínimo. La eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo (como es el caso de CMOS) en altas velocidades de conmutación.
Con el transcurso de los años, los CI están constantemente migrando a tamaños más pequeños con mejores características, permitiendo que mayor cantidad de circuitos sean empaquetados en cada chip (véase la ley de Moore). Al mismo tiempo que el tamaño se comprime, prácticamente todo se mejora (el costo y el consumo de energía disminuyen a la vez que aumenta la velocidad). Aunque estas ganancias son aparentemente para el usuario final, existe una feroz competencia entre los fabricantes para utilizar geometrías cada vez más delgadas. Este proceso, y el esperado proceso en los próximos años, está muy bien descrito por la International Technology Roadmap for Semiconductors, o ITRS.
Solo ha trascurrido medio siglo desde que se inició su desarrollo y los circuitos integrados se han vuelto casi omnipresentes. Computadoras, teléfonos móviles y otras aplicaciones digitales son ahora partes inextricables de las sociedades modernas. La informática, las comunicaciones, la manufactura y los sistemas de transporte, incluyendo Internet, todos dependen de la existencia de los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución digital causada por los circuitos integrados es uno de los sucesos más significativos de la historia de la humanidad.
Existen tres tipos de circuitos integrados:
• Circuitos monolíticos: Están fabricados en un solo monocristal, habitualmente de silicio, pero también existen en germanio, arseniuro de galio, silicio-germanio, etc.
• Circuitos híbridos de capa fina: Son muy similares a los circuitos monolíticos, pero, además, contienen componentes difíciles de fabricar con tecnología monolítica. Muchos conversores A/D y conversores D/A se fabricaron en tecnología híbrida hasta que los progresos en la tecnología permitieron fabricar resistencias precisas.
• Circuitos híbridos de capa gruesa: Se apartan bastante de los circuitos monolíticos. De hecho suelen contener circuitos monolíticos sin cápsula (dices), transistores, diodos, etc, sobre un sustrato dieléctrico, interconectados con pistas conductoras. Las resistencias se depositan por serigrafía y se ajustan haciéndoles cortes con láser. Todo ello se encapsula, tanto en cápsulas plásticas como metálicas, dependiendo de la disipación de potencia que necesiten. En muchos casos, la cápsula no está "moldeada", sino que simplemente consiste en una resina epoxi que protege el circuito. En el mercado se encuentran circuitos híbridos para módulos de RF, fuentes de alimentación, circuitos de encendido para automóvil, etc.
Clasificación
Atendiendo al nivel de integración - número de componentes - los circuitos integrados se clasifican en:
• SSI (Small Scale Integration) pequeño nivel: de 10 a 100 transistores
• MSI (Medium Scale Integration) medio: 101 a 1.000 transistores
• LSI (Large Scale Integration) grande: 1.001 a 10.000 transistores
• VLSI (Very Large Scale Integration) muy grande: 10.001 a 100.000 transistores
• ULSI (Ultra Large Scale Integration) ultra grande: 100.001 a 1.000.000 transistores
• GLSI (Giga Large Scale Integration) giga grande: mas de un millón de transistores
En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:
• Circuitos integrados analógicos.
Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos.
• Circuitos integrados digitales.
Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados microprocesadores o microcontroladores.
Éstos son diseñados y fabricados para cumplir una función específica dentro de un sistema. En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido de forma que llegan a ser microscópicos. Sin embargo, permiten grandes simplificaciones con respecto los antiguos circuitos, además de un montaje más rápido.


El microprocesador





El microprocesador es un circuito integrado que contiene algunos o todos los elementos hardware, y el de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU. Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.
La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales.
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético-lógica, y dependiendo del procesador, puede contener una unidad en coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:
• PreFetch, pre lectura de la instrucción desde la memoria principal.
• Fetch, envío de la instrucción al decodificador
• Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
• Lectura de operandos (si los hay).
• Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento.
• Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz.
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito ("mito de los megahertz") se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su poder de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún.
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de punto flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.
El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 Mm por hora) se va formando el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de menos de un milímetro de espesor (una capa de unas 10 micras de espesor, la décima parte del espesor de un cabello humano), utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Luego de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micrón, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del “dibujado” de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028 metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.
En procesadores como los Intel y AMD de las series Pentium I (mediados de los 90) y compatibles aún se usaba el empaque cerámico que tenia un arreglo de pines PGA y una cavidad en el espacio de ese arreglo, donde se introducía el chip del procesador y se soldaba con pequeños alambres a los pines. La cavidad se sellaba con una lamina de cobre.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el substrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El substrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un socket de CPU o una placa base.[2]
Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el substrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 Ghz.
Con el aumento en el número de transistores incluidos en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación natural del procesador no es suficiente para mantener temperaturas aceptables en el material semiconductor, de manera que se hace necesario el uso de mecanismos de enfriamiento forzado, como son los disipadores de calor.
Entre ellos se encuentran los sistemas sencillos como disipadores metálicos que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.
El microprocesador posee un arreglo de elementos metálicos (pines, esferas, contactos) que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 1000 elementos metálicos en la superficie de su empaque. El montaje del procesador puede ser con la ayuda de un Socket de CPU o soldado sobre la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al Socket, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.
odos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bytes por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama el Front Side Bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 tranferencias por ciclo.[3]
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas.
Los microprocesadores de última generación de Intel y muchos de AMD poseen además un controlador de memoria DDR en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 3 buses de memoria.
Arquitecturas
• 65xx
o MOS Technology 6502
o Western Design Center 65xx
• ARM
• Altera Nios, Nios II
• AVR (puramente microcontroladores)
• EISC
• RCA 1802 (aka RCA COSMAC, CDP1802)
• DEC Alpha
• Intel
o Intel 4556, 4040
o Intel 8970, 8085, Zilog Z80
o Intel Itanium
o Intel i860
o Intel i515
• LatticeMico32
• M32R
• MIPS
• Motorola
o Motorola 6800
o Motorola 6809
o Motorola c115, ColdFire
o corelduo 15485
o sewcret ranses 0.2457
o Motorola 88000 (antecesor de la familia PowerPC con el IBM POWER)
• IBM POWER (antecesor de la familia PowerPC con el Motorola 88000)
o Familia PowerPC, G3, G4, G5
• NSC 320xx
• OpenRISC
• PA-RISC
• National Semiconductor SC/MP ("scamp")
• Signetics 2650
• SPARC
• SuperH family
• Transmeta Crusoe, Transmeta Efficeon (arquitectura VLIW, con emulador de la IA32 de 32-bit Intel x86)
• INMOS Transputer
• x86
o Intel 8086, 8088, 80186, 80188 (arquitectura x86 de 16-bit con sólo modo real)
o Intel 80286 (arquitectura x86 de 16-bit con modo real y modo protegido)
o IA-32 arquitectura x86 de 32-bits
o x86-64 arquitectura x86 de 64-bits
• Cambridge Consultants XAP


El transistor





El transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, teléfonos móviles, etc.

Fue el sustituto de la válvula termoiónica de tres electrodos o triodo, el transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956.

Al principio se usaron transistores bipolares y luego se inventaron los denominados transistores de efecto de campo (FET). En los últimos, la corriente entre la fuente y la pérdida (colector) se controla usando un campo eléctrico (salida y pérdida (colector) menores). Por último, apareció el semiconductor metal-óxido FET (MOSFET). Los MOSFET permitieron un diseño extremadamente compacto, necesario para los circuitos altamente integrados (IC). Hoy la mayoría de los circuitos se construyen con la denominada tecnología CMOS (semiconductor metal-óxido complementario). La tecnología CMOS es un diseño con dos diferentes MOSFET (MOSFET de canal n y p), que se complementan mutuamente y consumen muy poca corriente en un funcionamiento sin carga.

El transistor consta de un sustrato (usualmente silicio) y tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicas) que forman dos uniones bipolares, el emisor que emite portadores, el colector que los recibe o recolecta y la tercera, que está intercalada entre las dos primeras, modula el paso de dichos portadores (base). A diferencia de las válvulas, el transistor es un dispositivo controlado por corriente y del que se obtiene corriente amplificada. En el diseño de circuitos a los transistores se les considera un elemento activo, a diferencia de los resistores, capacitores e inductores que son elementos pasivos. Su funcionamiento sólo puede explicarse mediante mecánica cuántica.

De manera simplificada, la corriente que circula por el "colector" es función amplificada de la que se inyecta en el "emisor", pero el transistor sólo gradúa la corriente que circula a través de sí mismo, si desde una fuente de corriente continua se alimenta la "base" para que circule la carga por el "colector", según el tipo de circuito que se utilice. El factor de amplificación o ganancia logrado entre corriente de base y corriente de colector, se denomina Beta del transistor. Otros parámetros a tener en cuenta y que son particulares de cada tipo de transistor son: Tensiones de ruptura de Colector Emisor, de Base Emisor, de Colector Base, Potencia Máxima, disipación de calor, frecuencia de trabajo, y varias tablas donde se grafican los distintos parámetros tales como corriente de base, tensión Colector Emisor, tensión Base Emisor, corriente de Emisor, etc. Los tres tipos de esquemas básicos para utilización analógica de los transistores son emisor común, colector común y base común.

Modelos posteriores al transistor descrito, el transistor bipolar (transistores FET, MOSFET, JFET, CMOS, VMOS, etc.) no utilizan la corriente que se inyecta en el terminal de "base" para modular la corriente de emisor o colector, sino la tensión presente en el terminal de puerta o reja de control y gradúa la conductancia del canal entre los terminales de Fuente y Drenador. De este modo, la corriente de salida en la carga conectada al Drenador (D) será función amplificada de la Tensión presente entre la Puerta (Gate) y Fuente (Source). Su funcionamiento es análogo al del triodo, con la salvedad que en el triodo los equivalentes a Puerta, Drenador y Fuente son Reja, Placa y Cátodo.

Los transistores de efecto de campo, son los que han permitido la integración a gran escala que disfrutamos hoy en día, para tener una idea aproximada pueden fabricarse varios miles de transistores interconectados por centímetro cuadrado y en varias capas superpuestas.

Fue el primer transistor que obtuvo ganancia, inventado en 1947 por J. Bardeen y W. Brattain. Consta de una base de germanio sobre la que se apoyan, muy juntas, dos puntas metálicas que constituyen el emisor y el colector. La corriente de base es capaz de modular la resistencia que se "ve" en el colector, de ahí el nombre de "transfer resistor". Se basa en efectos de superficie, poco conocidos en su día. Es difícil de fabricar (las puntas se ajustaban a mano), frágil (un golpe podía desplazar las puntas) y ruidoso. Sin embargo convivió con el transistor de unión (W. Shockley, 1948) debido a su mayor ancho de banda. En la actualidad ha desaparecido.

El transistor de unión bipolar, o BJT por sus siglas en inglés, se fabrica básicamente sobre un monocristal de Germanio, Silicio o Arseniuro de Galio, que tienen cualidades de semiconductores, estado intermedio entre conductores como los metales y los aislantes como el diamante. Sobre el sustrato de cristal, se contaminan en forma muy controlada tres zonas, dos de las cuales son del mismo tipo, NPN o PNP, quedando formadas dos uniones NP.

La zona N con elementos donantes de electrones (cargas negativas) y la zona P de aceptadores o "huecos" (cargas positivas). Normalmente se utilizan como elementos aceptadores P al Indio (In), Aluminio (Al) o Galio (Ga) y donantes N al Arsénico (As) o Fósforo (P).

La configuración de uniones PN, dan como resultado transistores PNP o NPN, donde la letra intermedia siempre corresponde a la característica de la base, y las otras dos al emisor y al colector que, si bien son del mismo tipo y de signo contrario a la base, tienen diferente contaminación entre ellas (por lo general, el emisor esta mucho más contaminado que el colector).

El mecanismo que representa el comportamiento semiconductor dependerá de dichas contaminaciones, de la geometría asociada y del tipo de tecnología de contaminación (difusión gaseosa, epitaxial, etc.) y del comportamiento cuántico de la unión.

También llamado de efecto de campo de unión (JFET), fue el primer transistor de efecto de campo en la práctica. Lo forma una barra de material semiconductor de silicio de tipo N o P. En los terminales de la barra se establece un contacto óhmico, tenemos así un transistor de efecto de campo tipo N de la forma más básica. Si se difunden dos regiones P en una barra de material N y se conectan externamente entre sí, se producirá una puerta. A uno de estos contactos le llamaremos surtidor y al otro drenador. Aplicando tensión positiva entre el drenador y el surtidor y conectando a puerta al surtidor, estableceremos una corriente, a la que llamaremos corriente de drenador con polarización cero. Con un potencial negativo de puerta al que llamamos tensión de estrangulamiento, cesa la conducción en el canal.

El transistor de efecto de campo, o FET por sus siglas en inglés, que controla la corriente en función de una tensión; tienen alta impedancia de entrada.

* Transistor de efecto de campo de unión, JFET, construido mediante una unión PN.
* Transistor de efecto de campo de compuerta aislada, IGFET, en el que la compuerta se aísla del canal mediante un dieléctrico.
* Transistor de efecto de campo MOS, MOSFET, donde MOS significa Metal-Óxido-Semiconductor, en este caso la compuerta es metálica y está separada del canal semiconductor por una capa de óxido.

Válvula electrónica,




La válvula electrónica, también llamada válvula termoiónica, válvula de vacío, tubo de vacío o bulbo, es un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La válvula originaria fue el componente crítico que posibilitó el desarrollo de la electrónica durante la primera mitad del siglo XX, incluyendo la expansión y comercialización de la radiodifusión, televisión, radar, audio, redes telefónicas, computadoras analógicas y digitales, control industrial, etc. Algunas de estas aplicaciones son anteriores a la válvula, pero vivieron un crecimiento explosivo gracias a ella.
A lo largo de su historia, fueron introducidos muchísimos tipos de válvulas, pero los principios de funcionamiento básicos son:
• Efecto Edison. La gran mayoría de las válvulas electrónicas están basadas en la propiedad que tienen los metales en caliente de liberar electrones desde su superficie.
• Gases ionizados. En otros casos, se utilizan las características de la conducción electrónica en gases ionizados, esto resulta principalmente importante en los reguladores de tensión, rectificadores de vapor de mercurio, válvula de conmutación T/R, etc.
• Efecto fotoeléctrico En otros casos, el principio de funcionamiento se basa en la emisión de electrones por el efecto fotoeléctrico
El ocaso de esta tecnología comenzó con la invención del transistor y el posterior desarrollo de componentes de estado sólido que eran mucho más pequeños, baratos y confiables que la válvula. Sin embargo hoy en día aún sobrevive en ciertas aplicaciones específicas, donde por razones técnicas resultan más conveniente. Por ejemplo en transmisores de radiofrecuencia de alta potencia y sistemas de radar se utilizan magnetrones, válvulas de onda progresiva TWT, thyratrones, etc. En televisión y sistemas de imagen medicinal aún se utilizan tubos de rayos catódicos o tubos de captura de imagen, y en el hogar es la base de funcionamiento del horno microondas. También siguen siendo ampliamente utilizadas en amplificadores de guitarras y bajos, así como en equipos de sonido de alta fidelidad.
Aunque el efecto de emisión termoiónica fue originalmente reportado por Frederick Guthrie en 1873, es la investigación de Thomas Alva Edison el trabajo más a menudo mencionado. Edison, al ver que con el uso el cristal de las lámparas incandescentes se iba oscureciendo, buscó la forma de aminorar dicho efecto, realizando para ello diversos experimentos. Uno de ellos fue la introducción en la ampolla de la lámpara de un electrodo en forma de placa, que se polarizaba eléctricamente con el fin de atraer las partículas que, al parecer, se desprendían del filamento. A pesar de que Edison no comprendía a nivel físico el funcionamiento, y desconocía el potencial de su "descubrimiento", en 1884 Edison lo patentó bajo el nombre de "Efecto Edison".[1]
Al agregar un electrodo plano (placa), cuando el filamento se calienta se produce una agitación de los átomos del material que lo recubre, y los electrones de las órbitas de valencia son acelerados, alcanzando velocidades de escape, con lo que se forma una nube de electrones por encima del mismo. La nube termoiónica, fuertemente atraída por la placa, debido al potencial positivo aplicado en la misma, da lugar a la circulación de una corriente electrónica a través de la válvula entre el filamento y el ánodo. A este fenómeno se le denomina Efecto Edison-Richardson o termoiónico.
Llegados a este punto, tenemos que la válvula termoiónica más simple está constituida por una ampolla de vidrio, similar a la de las lámparas de incandescencia, a la que se le ha practicado el vacío y en la que se hallan encerrados dos electrodos, denominados cátodo y ánodo.
Físicamente, el cátodo, consiste en un filamento de wolframio, recubierto por una sustancia rica en electrones libres, que se calienta mediante el paso de una corriente. El ánodo está formado por una placa metálica que rodea al filamento a una cierta distancia y a la que se aplica un potencial positivo. Por constar de dos electrodos a la válvula antes descrita se le denomina diodo.
En tanto en cuanto que la función de cátodo es realizada directamente por el filamento, se trata de una válvula de caldeo directo.
Cuando se quieren obtener mayores corrientes a través de la válvula y un aislamiento eléctrico entre la fuente de corriente de caldeo del filamento y la de ánodo-cátodo, se utiliza un cátodo independiente constituido por un tubito metálico revestido o "pintado" con algún material rico en electrones libres, como el óxido de torio, que rodea el filamento, aislado eléctricamente, pero muy próximo a él para poder calentarlo adecuadamente. En este caso la válvula se denomina de caldeo indirecto, pudiendo entonces la corriente del caldeo ser incluso alterna. En este tipo de válvulas el filamento solo es el elemento calefactor y no se considera un electrodo activo. Al estar los filamentos aislados se pueden conectar juntos (en serie o paralelo) los filamentos de todas las válvulas del equipo, lo que no es posible con cátodos de caldeo directo.
Si se agregan otros electrodos entre ánodo y cátodo - llamados rejillas - se puede controlar o modular el flujo de electrones que llegan al ánodo, de ahí la denominación de válvula.
Debido al hecho de que la corriente por el interior de la válvula solo puede circular en un sentido, una de las aplicaciones de las válvulas termoiónicas es su utilización como rectificador. Asimismo, y dado que con pequeñas diferencias de potencial aplicadas entre rejilla y cátodo se pueden producir variaciones considerables de la corriente circulante entre cátodo y ánodo, otra aplicación, posiblemente la más importante, es como amplificador.
Aunque existe una gran diversidad de tipos de válvulas termoiónicas, tanto en su aplicación como en sus principios de funcionamiento (control de la cantidad de electrones, en triodos, tetrodos, pentodos...; modulación de su velocidad en klistrones; acoplo entre el flujo de electrones y una onda electromagnética en tubos de onda progresiva; etc), la mayoría comparten una serie de características comunes que se han ido potenciando al ir avanzando su desarrollo tecnológico.

El filamento es el órgano calefactor que proporciona la energía suficiente para que el cátodo emita una cantidad de electrones adecuada.
En las primeras válvulas, el filamento también actuaba como cátodo (cátodo de caldeo directo). Posteriormente se separaron las funciones, quedando el filamento sólo como calefactor y el cátodo como electrodo separado (cátodo de caldeo indirecto). Ambas formas convivieron ya que el caldeo directo mejora la transferencia térmica entre el cátodo y el filamento, mientras que el caldeo indirecto simplifica grandemente el diseño de los circuitos y permite optimizar cada uno de los electrodos.
El filamento, al estar caliente, se ve sometido al efecto de sublimación del material de su superficie, es decir, su paso al estado gaseoso, lo que va reduciendo su sección en ciertos puntos que ahora se calientan más que el resto, aumentando la sublimación en ellos hasta que el filamento se rompe. Este efecto disminuye enormemente si se trabaja a temperaturas bajas con materiales de alto punto de fusión (Wolframio...). Por ello la temperatura de los filamentos ha ido descendiendo.
Efecto microfónico: este efecto consiste en la transmisión al filamento de vibraciones mecánicas. Cuando el filamento vibra, transmite estas oscilaciones al cátodo, variando su distancia con la rejilla, lo que produce una modulación en la corriente de electrones. En el ánodo, la señal útil aparece modulada por las vibraciones mecánicas, lo que es especialmente desagradable en el caso de amplificadores de audio, ya que las vibraciones que se acoplan provienen del propio altavoz.
Los campos magnéticos también pueden crear oscilaciones del filamento, por ello algunas válvulas se encerraban en tubos de gran permeabilidad magnética (mu-metal).

El cátodo es el responsable de la emisión de electrones, que debe ser constante a lo largo de la vida de la válvula. Desgraciadamente, esto no es así, y los cátodos se van agotando según envejecen.
Para prolongar la vida de los filamentos, la temperatura de funcionamiento de los cátodos ha ido haciéndose cada vez menor, gracias al empleo de materiales con un potencial de extracción de electrones más bajo (aleaciones de torio, óxidos de lantánidos... )
Los cátodos también deben ser buenos conductores, lo que limita la aplicación de algunos recubrimientos a aplicaciones muy particulares. Por ejemplo, el óxido de calcio suele recubrir los filamentos de los anuncios fluorescentes (VFD).
Ánodos
El ánodo recibe el flujo de electrones que, en la mayoría de las válvulas, han sido acelerados hasta adquirir gran energía que transfieren al ánodo cuando chocan contra él. Por ello, los ánodos de las válvulas de potencia son grandes, muchas veces masivos y forman parte del propio cuerpo de la válvula, pudiendo refrigerarse directamente desde el exterior, por contacto con una superficie fría, aire a presión, vapor de agua, etc. Anteriormente, la refrigeración de ánodo se realizaba fundamentalmente por radiación, por lo que las ampollas de vidrio eran grandes y separadas del ánodo, para que éste pudiese adquirir gran temperatura.
La emisión secundaria es un efecto, normalmente indeseable, que se produce en el ánodo, cuando los electrones incidentes, de gran energía, arrancan electrones del metal. Aunque en algunas válvulas este efecto se aprovecha para obtener ganancia, en la mayoría de ellas degrada la señal y debe evitarse.
Vacío
Un menor grado de vacío implica la presencia de un mayor número de moléculas de gas en la válvula, aumentando el número de colisiones con los electrones y disminuyendo el rendimiento del tubo. Pero un mayor vacío implica un mayor desgaste de los filamentos, por lo que históricamente se ha ido avanzando hacia las válvulas de alto vacío mediante un avance conjunto en todos los demás componentes. Sin embargo, algunas válvulas como los tiratrones basan su funcionamiento en la presencia de ciertos gases llenando el tubo.
Los metales y otros materiales tienen propiedades de adsorción y absorción de gases de la atmósfera, y cuando se calientan a baja presión los van liberando lentamente. Por ello, aunque se extraiga todo el aire de una válvula, con el uso, el vacío interior se reduce. Para evitarlo se utiliza el getter, que es un material (por ejemplo, magnesio) que se evapora una vez sellado el tubo. El magnesio evaporado se deposita en la superficie del vídrio formando un recubrimiento brillante. El getter adsorbe las moléculas de gas que puedan liberarse en el tubo, manteniendo la integridad del vacío. Cuando entra aire en el tubo, el getter se vuelve blanquecino.

El Floppy Disk (disquete)




El Floppy Disk (disquete)


Pueden parecer terriblemente anticuados hoy en día (la mayor parte de la computadoras modernas no incluyen una unidad para floppys), pero por más de 20 años (eones en la era digital) fueron la única manera efectiva de transferir datos entre las computadoras. Los primeros floppys, inventados en 1971 por el empleado de IBM Alan Shugart, podían contener solamente 100 kilobytes, mientras que los más modernos contienen hasta 1.44 megabytes. Ahora, el reproductor portátil de música más grande puede almacenar el equivalente a 113,788 floppys. Si los apiláramos, alcanzarían la altura de un rascacielos.

Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico cuadrada o rectangular.
Lector de discos 3 1/2.

Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). En algunos casos es un disco menor que el CD. La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.

Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo que, en muchos casos, deja de funcionar.

En 1967, IBM encomendó a su centro de desarrollo de almacenamiento de San José (California) una nueva tarea: desarrollar un sistema sencillo y barato para cargar microcódigo en los System/370 de sus ordenadores centrales.

Refiriéndonos exclusivamente al ámbito del PC, las unidades de disquete sólo han existido en dos formatos físicos considerados estándar, el de 5¼" y el de 3½". En formato de 5¼", el IBM PC original sólo contaba con unidades de 160 KB, esto era debido a que dichas unidades sólo aprovechaban una cara de los disquetes.

Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 KB (DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 MB. El formato de 3½" IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 KB (DD o doble densidad) y en las posteriores las de 1,44 MB. (HD o alta densidad) que son las que perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 MB. (EHD o extra alta densidad), pero no consiguió popularizarse.

Esta unidad está quedando obsoleta y son muchos los computadores que no la incorporan, por la aparición de nuevos dispositivos de almacenamiento más manejables, que además disponen de mucha más memoria física, como por ejemplo las memorias USB. Una memoria USB de 1 GB (Gigabyte) de memoria equivale a 900 disquetes aproximadamente. De hecho, ya en algunos países este tipo de unidad no se utiliza debido a su obsolescencia.

Los disquetes (cuyo nombre fue escogido para ser similar a la palabra "casete"), gozaron de una gran popularidad en las décadas de los ochenta y los noventa, usándose en ordenadores domésticos y personales tales como Apple II, Macintosh, MSX 2/2+/Turbo R, Amstrad PCW, Amstrad CPC 664 y Amstrad CPC 6128 (y opcionalmente Amstrad CPC 464), ZX Spectrum +3, Commodore 64, Amiga e IBM PC para distribuir software, almacenar información de forma rápida y eficaz, transferir datos entre ordenadores y crear pequeñas copias de seguridad, entre otros usos. Muchos almacenaban de forma permanente el núcleo de sus sistemas operativos en memorias ROM, pero guardaban sus sistemas operativos en un disquete, como ocurría con CP/M o, posteriormente, con DOS.

También fue usado en la industria de los videojuegos, cuando Nintendo hizo un formato propio de disquete, parecido al actual de 3 1/2, para usar con un periférico diseñado para la consola Famicom llamado Famicom Disk Drive. No obstante, sólo se lanzo en Japón. También se vendían disquetes en blanco, para grabar juegos en la calle, mediante máquinas automáticas instaladas en algunos lugares de Japón.

Con la llegada de la década de los noventa, el aumento del tamaño del software hizo que muchos programas se distribuyeran en conjuntos de disquetes. Hacia mediados de los noventa, la distribución del software fue migrando gradualmente hacia el CD-ROM, y se introdujeron formatos de copias de seguridad de mayor densidad, como los discos Zip de Iomega. Asimismo, en grandes, medianas e incluso pequeñas empresas, las copias de seguridad empezaron a efectuarse de manera sistemática en cintas magnéticas de alta capacidad y muy bajo coste, como cintas de audio digitales (DAT) o streamers. Con la llegada del acceso total a la Internet, de las redes Ethernet baratas y de las memorias flash ó USB de bajo coste, los disquetes han dejado ser necesarios para la transferencia rápida de datos.

La aparición y comercialización en gran escala de unidades grabadoras de discos ópticos y compactos, y de unidades de CD grabable y regrabable (CD-R/CD-RW), el abaratamiento exponencial y progresivo de sus costes de producción y precios de venta al consumidor, y su introducción paulatina y posterior generalización en la mayoría de ordenadores personales y de hogares, así como la innovación de nuevos formatos y estándares (CD de 80 minutos, de alta densidad, DVD, DVD de doble cara o doble capa, HD DVD, Blu-Ray, etc.) que poco a poco van multiplicando la capacidad y velocidad de almacenamiento, han permitido la sustitución paulatina de los engorrosos sistemas de cinta magnética por accesibles y rápidos sistemas de disco óptico como soporte principal y generalizado de copias de seguridad. Un intento a finales de los noventa (sin éxito en el mercado), de continuar con los disquetes fue el SuperDisk (LS-120), con una capacidad de 120 MB (en realidad 120.375 MiB[1] ), siendo el lector compatible con los disquetes estándar de 3½ pulgadas.

La clave de este desplazamiento progresivo está en el mayor coste por bit de la superficie magnética frente a la superficie de un medio óptico, su mayor fragilidad (necesitan ser protegidos del contacto con el exterior, del polvo, la luz, cambios de humedad y temperatura, electricidad estática, mediante sobres protectores o cierres herméticos al vacío), así como a la mayor complejidad y coste de producción del mecanismo lector/grabador de una unidad de disco magnético, tanto si es fijo como flexible, frente a la simplicidad y rudimentariedad del sistema lineal y de una sola cabeza, por láser y revolución constante, de la unidad lectora y grabadora de un medio óptico.

Sin embargo, muchos fabricantes se niegan a suprimir la disquetera de sus equipos personales por razones de compatibilidad y porque los departamentos de la tecnología de la información de muchas empresas aprecian un mecanismo de transferencia de archivos integrado que siempre funcionará correctamente sin requerir de ningún tipo de controlador ó driver (más allá del de la propia BIOS). Apple Computer fue el primer fabricante que eliminó la disquetera en uno de sus ordenadores con el modelo iMac en 1998, y Dell hizo que la disquetera fuera opcional en algunos de sus modelos en 2003. Asimismo, muchos equipos, en la actualidad, tienden a proveerse, por omisión, sin una unidad de disco flexible instalada, aunque esta puede incluirse como opcional en todo momento, al seguir habiendo soporte en las actuales placas base ATX y en su correspondiente BIOS. Sin embargo, hasta la fecha, estos movimientos todavía no han marcado el fin de los disquetes como medio popular de almacenamiento e intercambio de datos

Los tamaños de los disquetes suelen denominarse empleando el Sistema Anglosajón de Unidades, incluso en los países en los que el Sistema Internacional de Unidades es el estándar, sin tener en cuenta que, en algunos casos, éstos están definidos en el sistema métrico (por ejemplo, el disquete de 3½ pulgadas mide en realidad 9 cm). De forma general, las capacidades de los discos formateados se establecen en términos de kilobytes binarios (1 sector suele tener 512 bytes). Sin embargo, los tamaños recientes de los discos se suelen denominar en extrañas unidades híbridas; es decir, un disco de "1,44 megabytes" tiene en realidad 1.44×1000×1024 bytes, y no 1.44×1024×1024 bytes, ni 1.44×1000×1000.




Formato del disquete
Año de introducción
Capacidad de almacenamiento
(en
kilobytes si no está indicado)
Capacidad
comercializada¹
8-pulgadas IBM 23FD (solo lectura)
1971
79,7
?
8-pulgadas Memorex 650
1972
183,1
150 kB
8-pulgadas IBM 33FD / Shugart 901
1973
256
256 kB
8-pulgadas IBM 43FD / Shugart 850 DD
1976
500
0,5 MB
5¼-pulgadas (35 pistas)
1976
89,6
110 kB
8-pulgadas de dos caras
1977
1200
1,2 MB
5¼-pulgadas DD
1978
360
360 kB
3½-pulgadas
HP de una cara
1982
280
264 kB
3-pulgadas
1982
360
3½-pulgadas (puesta a la venta DD)
1984
720
720 kB
5¼-pulgadas QD
1984
1200
1,2 MB
3-pulgadas DD
1984
720
3-pulgadas
Mitsumi Quick Disk
1985
128 a 256
2-pulgadas
1985
720
5¼-pulgadas Perpendicular
1986
100 MiB
3½-pulgadas HD
1987
1440
1,44 MB
3½-pulgadas ED
1990
2880
2,88 MB
3½-pulgadas LS-120
1996
120,375 MiB
120 MB
3½-pulgadas LS-240
1997
240,75 MiB
240 MB
3½-pulgadas HiFD
1998/99
150/200 MiB
150/200 MB
Acrónimos:  DD = Doble Densidad; QD = Cuadruple Densidad; HD = Alta densidad ED = Densidad Extendida; LS = Servo Laser; HiFD = Disquete de alta capacidad
¹Las capacidades comercializadas de los disquetes correspondían frecuentemente solo vagamente a su verdadera capacidad de almacenamiento; el valor 1.44 MB de los disquetes de 3½-pulgadas HD es muy conocido.
Fechas y capacidades marcadas con ? son de origen desconocido y necesitan fuentes; otras capacidades listadas referidas a:
  • Para 8-pulgadas: Formato estandard de IBM usado en el ordenador central System/370 y sistemas más nuevos
  • Para 5¼- y 3½-pulgadas: Formato estandard de PC, capacidades cuadriplicadas, son el tamaño total de todos los sectores del disquete e incluyen espacio para el sector boot del sistema de archivos
Otros formatos podrían conseguir más o menos capacidad de los mismos lectores y discos.

Entradas populares

Me gusta

Seguidores