Monitor digital




Monitor digital, en informática, monitor de vídeo capaz de presentar sólo un número fijo de colores o tonalidades de gris. Algunos ejemplos de monitores digitales son el monocromo, el monitor para gráficos en color y el monitor para colores mejorados de IBM. En el caso de un monitor monocromo, la tarjeta gráfica envía dos informaciones por cada punto; la primera dice si el punto está iluminado o no y la segunda si la señal es intensa o no. Los monitores color digitales reciben de la tarjeta gráfica cuatro informaciones por cada punto; la primera indica si el punto es rojo o no rojo, la segunda, si es verde o no verde, la tercera si es azul o no azul y la cuarta, si es intenso o no intenso. Las tarjetas gráficas compatibles con estos monitores son las MDA, CGA y EGA.
También representa a los monitores que no requieren de convertidores digitales analógicos para representar en pantalla la información de la imagen recibida desde el controlador gráfico. Véase también Monitor analógico; Tubo de rayos catódicos; Digital.

Internet




Internet, interconexión de redes informáticas que permite a los ordenadores o computadoras conectadas comunicarse directamente, es decir, cada ordenador de la red puede conectarse a cualquier otro ordenador de la red. El término suele referirse a una interconexión en particular, de carácter planetario y abierto al público, que conecta redes informáticas de organismos oficiales, educativos y empresariales. También existen sistemas de redes más pequeños llamados intranets, generalmente para el uso de una única organización, que obedecen a la misma filosofía de interconexión.
La tecnología de Internet es una precursora de la llamada “superautopista de la información”, un objetivo teórico de las comunicaciones informáticas que permitiría proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una información de calidad que eduque, informe y entretenga. A finales de 1998 estaban conectados a Internet unos 148 millones de ordenadores, y la cifra sigue en aumento.
2 CÓMO FUNCIONA INTERNET
Internet es un conjunto de redes locales conectadas entre sí a través de una computadora especial por cada red, conocida como gateway o puerta. Las interconexiones entre gateways se efectúan a través de diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse redes adicionales conectando nuevas puertas. La información que se debe enviar a una máquina remota se etiqueta con la dirección computerizada de dicha máquina.
Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección (véase Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras informaciones para el enrutamiento, por ejemplo “mayor.dia.fi.upm.es”. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión, que por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de lucro (.org).
Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada de puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene un control central, es decir, no existe ningún ordenador individual que dirija el flujo de información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America Online o Microsoft Network.
3 EL PROTOCOLO DE INTERNET
El Protocolo de Internet (IP) es el soporte lógico básico empleado para controlar este sistema de redes. Este protocolo especifica cómo las computadoras de puerta encaminan la información desde el ordenador emisor hasta el ordenador receptor. Otro protocolo denominado Protocolo de Control de Transmisión (TCP) comprueba si la información ha llegado al ordenador de destino y, en caso contrario, hace que se vuelva a enviar. La utilización de protocolos TCP/IP es un elemento común en las redes Internet e intranet.
4 SERVICIOS DE INTERNET
Los sistemas de redes como Internet permiten intercambiar información entre computadoras, y ya se han creado numerosos servicios que aprovechan esta función. Entre ellos figuran los siguientes: conectarse a un ordenador desde otro lugar (telnet); transferir ficheros entre una computadora local y una computadora remota (protocolo de transferencia de ficheros, o FTP) y leer e interpretar ficheros de ordenadores remotos (gopher). El servicio de Internet más reciente e importante es el protocolo de transferencia de hipertexto (http), un descendiente del servicio de gopher. El http puede leer e interpretar ficheros de una máquina remota: no sólo texto sino imágenes, sonidos o secuencias de vídeo. El http es el protocolo de transferencia de información que forma la base de la colección de información distribuida denominada World Wide Web. Internet permite también intercambiar mensajes de correo electrónico (e-mail); acceso a grupos de noticias y foros de debate (news), y conversaciones en tiempo real (chat, IRC), entre otros servicios.
5 LA WORLD WIDE WEB
World Wide Web (también conocida como Web o WWW) es una colección de ficheros, que incluyen información en forma de textos, gráficos, sonidos y vídeos, además de vínculos con otros ficheros. Los ficheros son identificados por un localizador universal de recursos (URL, siglas en inglés) que especifica el protocolo de transferencia, la dirección de Internet de la máquina y el nombre del fichero. Por ejemplo, un URL podría ser http://www.encarta.es/msn.com. Los programas informáticos denominados exploradores —como Navigator, de Netscape, o Internet Explorer, de Microsoft— utilizan el protocolo http para recuperar esos ficheros. Continuamente se desarrollan nuevos tipos de ficheros para la WWW, que contienen por ejemplo animación o realidad virtual (VRML). Hasta hace poco había que programar especialmente los lectores para manejar cada nuevo tipo de archivo. Los nuevos lenguajes de programación (como JAVA, de Sun Microsystems) permiten que los exploradores puedan cargar programas de ayuda capaces de manipular esos nuevos tipos de información.
La gran cantidad de información vertida a la red ha dado lugar a la aparición de buscadores, páginas especializadas en hacer índices de los contenidos que facilitan localizaciones específicas. Algunos de los más populares son Yahoo, Google, Altavista o Lycos. También los hay específicos para páginas en español como Ozú u Olé.
6 HISTORIA
Los orígenes de Internet hay que buscarlos en un proyecto del Departamento de Defensa estadounidense que pretendía obtener una red de comunicaciones segura que se pudiese mantener aunque fallase alguno de sus nodos. Así nació ARPA, una red informática que conectaba ordenadores localizados en sitios dispersos y que operaban sobre distintos sistemas operativos, de tal manera que cada ordenador se podía conectar a todos los demás. Los protocolos que permitían tal interconexión fueron desarrollados en 1973 por el informático estadounidense Vinton Cerf y el ingeniero estadounidense Robert Kahn, y son los conocidos Protocolo de Internet (IP) y Protocolo de Control de Transmisión (TCP). Fuera ya del ámbito estrictamente militar, esta Internet incipiente (llamada Arpanet) tuvo un gran desarrollo en Estados Unidos, conectando gran cantidad de universidades y centros de investigación. A la red se unieron nodos de Europa y del resto del mundo, formando lo que se conoce como la gran telaraña mundial (World Wide Web). En 1990 Arpanet dejó de existir.
A finales de 1989, el informático británico Timothy Berners-Lee desarrolla la World Wide Web para la Organización Europea para la Investigación Nuclear, más conocida como CERN. Su objetivo era crear una red que permitiese el intercambio de información entre los investigadores que participaban en proyectos vinculados a esta organización. El objetivo se logró utilizando archivos que contenían la información en forma de textos, gráficos, sonido y vídeos, además de vínculos con otros archivos. Este sistema de hipertexto fue el que propició el extraordinario desarrollo de Internet como medio a través del cual circula gran cantidad de información por la que se puede navegar utilizando los hipervínculos.
Además de la utilización académica e institucional que tuvo en sus orígenes, hoy se emplea Internet con fines comerciales. Las distintas empresas no sólo la utilizan como escaparate en el que se dan a conocer ellas mismas y sus productos, sino que, a través de Internet, se realizan ya múltiples operaciones comerciales. Especialmente la banca tiene en la red uno de sus puntos estratégicos de actuación para el futuro próximo.
En estos momentos se está desarrollando lo que se conoce como Internet2, una redefinición de Internet que tiene como objetivo principal lograr el intercambio de datos multimedia en tiempo real. El avance ha de venir de la mano de la mejora en las líneas de comunicación, con el ancho de banda como principal aliado.
7 IMPACTO SOCIAL
Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la “superautopista de la información” continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil que se pueda encontrar cualquier información en Internet. Las nuevas aplicaciones permiten realizar transacciones económicas de forma segura y proporcionan nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de “ocio a la carta”. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que deseen.
El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El aumento de las páginas Web que contenían textos y gráficos en los que se denigraba a una minoría, se fomentaba el racismo o se exponía material pornográfico llevó a pedir que los suministradores de Internet cumplieran voluntariamente unos determinados criterios.
La censura en Internet plantea muchas cuestiones. La mayoría de los servicios de la red no pueden vigilar y controlar constantemente lo que los usuarios exponen en Internet a través de sus servidores. A la hora de tratar con información procedente de otros países surgen problemas legales; incluso aunque fuera posible un control supranacional, habría que determinar unos criterios mundiales de comportamiento y ética.

Monitor analógico




Monitor analógico, en informática, un monitor visual capaz de presentar una gama continua (un número infinito) de colores o tonalidades de gris, a diferencia de un monitor digital, que sólo es capaz de presentar un número finito de colores. El número de colores que puede representar viene limitado sólo por la tarjeta gráfica que se esté utilizando. A diferencia de los monitores digitales, estos monitores reciben de la tarjeta gráfica una señal analógica con valores de tensión variable entre 0 y 0,7 voltios; la tensión puede tener cualquier valor entre estos límites, de ahí que puedan representar un número infinito de colores. Tarjetas compatibles con estos monitores son las VGA, SuperVGA y XGA.

Máser




Máser, acrónimo de Microwave Amplification by Stimulated Emission of Radiation, amplificación de microondas por emisión estimulada de radiación. Es un dispositivo que amplifica o genera microondas y ondas de radio. Si produce radiación en el rango del espectro visible se llama láser.
2 PRINCIPIOS DE SU FUNCIONAMIENTO
Como el láser, el máser amplifica una radiación por emisión estimulada o inducida. Esto ocurre cuando un fotón obliga a un átomo o molécula a descender a un nivel de energía menor al emitir éste un fotón de la misma frecuencia que el fotón incidente. El fotón emitido viaja en la misma dirección y en fase con el fotón incidente, que no se absorbe durante la interacción. La amplitud de las dos ondas se suma, y tiene lugar la amplificación de la señal incidente. El máser aprovecha este principio y lo aplica a cristales o moléculas que corresponden a los niveles energéticos de las microondas y las frecuencias de radio.
3 TIPOS DE MÁSER
El primer oscilador máser se inventó en 1954, y utilizaba la frecuencia de la molécula de amoníaco. Esta frecuencia corresponde a la energía del fotón emitido cuando el átomo de nitrógeno se desplaza de un lado al otro del triángulo formado por los tres átomos de hidrógeno de la molécula de amoníaco. El máser de hidrógeno utiliza la frecuencia correspondiente a la del fotón liberado cuando el espín del protón del átomo de hidrógeno se invierte con respecto al espín del electrón. Los máseres paramagnéticos aprovechan las transiciones energéticas que corresponden a la orientación de los momentos magnéticos de los iones paramagnéticos de sustancias cristalinas colocadas en un campo magnético externo. Se pueden obtener diferentes frecuencias variando el campo magnético, lo que permite sintonizar este tipo de máser desde frecuencias inferiores a un megahercio hasta varios cientos de megahercios.
4 APLICACIONES
Debido a la gran estabilidad de las frecuencias generadas, los máseres se utilizan como reguladores de tiempo en relojes atómicos. También se utilizan como amplificadores de frecuencias de radio de bajo nivel de ruido en comunicaciones por satélite y en radioastronomía.

El Láser




Láser, dispositivo de amplificación de luz por emisión estimulada de radiación. Los láseres son aparatos que amplifican la luz y producen haces de luz coherente; su frecuencia va desde el infrarrojo hasta los rayos X. Un haz de luz es coherente cuando sus ondas, o fotones, se propagan de forma acompasada, o en fase (véase Interferencia). Esto hace que la luz láser pueda ser extremadamente intensa, muy direccional, y con una gran pureza de color (frecuencia). Los máseres son dispositivos similares para microondas.
2 PRINCIPIOS DE FUNCIONAMIENTO
Los láseres obligan a los átomos a almacenar luz y emitirla en forma coherente. Primero, los electrones de los átomos del láser son bombeados hasta un estado excitado por una fuente de energía. Después, se los ‘estimula’ mediante fotones externos para que emitan la energía almacenada en forma de fotones, mediante un proceso conocido como emisión estimulada. Los fotones emitidos tienen una frecuencia que depende de los átomos en cuestión y se desplazan en fase con los fotones que los estimulan. Los fotones emitidos chocan a su vez con otros átomos excitados y liberan nuevos fotones. La luz se amplifica a medida que los fotones se desplazan hacia atrás y hacia adelante entre dos espejos paralelos desencadenando nuevas emisiones estimuladas. Al mismo tiempo, la luz láser, intensa, direccional y monocromática, se ‘filtra’ por uno de los espejos, que es sólo parcialmente reflectante.
La emisión estimulada, el proceso en que se basa el láser, fue descrita por primera vez por Albert Einstein en 1917. En 1958, los físicos estadounidenses Arthur Schawlow y Charles Hard Townes describieron a grandes rasgos los principios de funcionamiento del láser en su solicitud de patente. Obtuvieron la patente, pero posteriormente fue impugnada por el físico e ingeniero estadounidense Gordon Gould. En 1960, el físico estadounidense Theodore Maiman observó el primer proceso láser en un cristal de rubí. Un año más tarde, el físico estadounidense nacido en Irán Alí Javan construyó un láser de helio-neón. En 1966, el físico estadounidense Peter Sorokin construyó un láser de líquido. En 1977, el Tribunal de Patentes de Estados Unidos confirmó una de las reivindicaciones de Gould en relación con los principios de funcionamiento del láser.
3 TIPOS DE LÁSER
Según el medio que emplean, los láseres suelen denominarse de estado sólido, de gas, de semiconductores o líquidos.
3.1 Láseres de estado sólido
Los medios más comunes en los láseres de estado sólido son varillas de cristal de rubí o vidrios y cristales con impurezas de neodimio. Los extremos de la varilla se tallan de forma que sus superficies sean paralelas y se recubren con una capa reflectante no metálica. Los láseres de estado sólido proporcionan las emisiones de mayor energía. Normalmente funcionan por pulsos, generando un destello de luz durante un tiempo breve. Se han logrado pulsos de sólo 1,2 × 10-14 segundos, útiles para estudiar fenómenos físicos de duración muy corta. El bombeo se realiza mediante luz de tubos de destello de xenón, lámparas de arco o lámparas de vapor metálico. La gama de frecuencias se ha ampliado desde el infrarrojo (IR) hasta el ultravioleta (UV) al multiplicar la frecuencia original del láser con cristales de dihidrogenofosfato de potasio, y se han obtenido longitudes de onda aún más cortas, correspondientes a rayos X, enfocando el haz de un láser sobre blancos de itrio.
3.2 Láseres de gas
El medio de un láser de gas puede ser un gas puro, una mezcla de gases o incluso un vapor metálico, y suele estar contenido en un tubo cilíndrico de vidrio o cuarzo. En el exterior de los extremos del tubo se sitúan dos espejos para formar la cavidad del láser. Los láseres de gas son bombeados por luz ultravioleta, haces de electrones, corrientes eléctricas o reacciones químicas. El láser de helio-neón resalta por su elevada estabilidad de frecuencia, pureza de color y mínima dispersión del haz. Los láseres de dióxido de carbono son muy eficientes, y son los láseres de onda continua (CW, siglas en inglés) más potentes.
3.3 Láseres de semiconductores
Los láseres de semiconductores son los más compactos, y suelen estar formados por una unión entre capas de semiconductores con diferentes propiedades de conducción eléctrica. La cavidad del láser se mantiene confinada en la zona de la unión mediante dos límites reflectantes. El arseniuro de galio es el semiconductor más usado. Los láseres de semiconductores se bombean mediante la aplicación directa de corriente eléctrica a la unión, y pueden funcionar en modo CW con una eficiencia superior al 50%. Se ha diseñado un método que permite un uso de la energía aún más eficiente. Implica el montaje vertical de láseres minúsculos, con una densidad superior al millón por centímetro cuadrado. Entre los usos más comunes de los láseres de semiconductores están los reproductores de discos compactos (véase Grabación de sonido y reproducción) y las impresoras láser.
3.4 Láseres líquidos
Los medios más comunes en los láseres líquidos son tintes inorgánicos contenidos en recipientes de vidrio. Se bombean con lámparas de destello intensas —cuando operan por pulsos— o por un láser de gas —cuando funcionan en modo CW. La frecuencia de un láser de colorante sintonizable puede modificarse mediante un prisma situado en la cavidad del láser.
3.5 Láseres de electrones libres
En 1977 se desarrollaron por primera vez láseres que emplean para producir radiación haces de electrones, no ligados a átomos, que circulan a lo largo de las líneas de un campo magnético; actualmente están adquiriendo importancia como instrumentos de investigación. Su frecuencia es regulable, como ocurre con los láseres de colorante, y en teoría un pequeño número podría cubrir todo el espectro, desde el infrarrojo hasta los rayos X. Con los láseres de electrones libres debería generarse radiación de muy alta potencia que actualmente resulta demasiado costosa de producir. Véase Radiación de sincrotrón.
4 APLICACIONES DEL LÁSER
Los posibles usos del láser son casi ilimitados. El láser se ha convertido en una herramienta valiosa en la industria, la investigación científica, la tecnología militar o el arte.
4.1 Industria
Es posible enfocar sobre un punto pequeño un haz de láser potente, con lo que se logra una enorme densidad de energía. Los haces enfocados pueden calentar, fundir o vaporizar materiales de forma precisa. Por ejemplo, los láseres se usan para taladrar diamantes, modelar máquinas herramientas, recortar componentes microelectrónicos, calentar chips semiconductores, cortar patrones de moda, sintetizar nuevos materiales o intentar inducir la fusión nuclear controlada (véase Energía nuclear). El potente y breve pulso producido por un láser también hace posibles fotografías de alta velocidad con un tiempo de exposición de algunas billonésimas de segundo. En la construcción de carreteras y edificios se utilizan láseres para alinear las estructuras.
4.2 Investigación científica
Los láseres se emplean para detectar los movimientos de la corteza terrestre y para efectuar medidas geodésicas. También son los detectores más eficaces de ciertos tipos de contaminación atmosférica. Los láseres se han empleado igualmente para determinar con precisión la distancia entre la Tierra y la Luna y en experimentos de relatividad. Actualmente se desarrollan conmutadores muy rápidos activados por láser para su uso en aceleradores de partículas, y se han diseñado técnicas que emplean haces de láser para atrapar un número reducido de átomos en un vacío con el fin de estudiar sus espectros con una precisión muy elevada. Como la luz del láser es muy direccional y monocromática, resulta fácil detectar cantidades muy pequeñas de luz dispersa o modificaciones en la frecuencia provocadas por materia. Midiendo estos cambios, los científicos han conseguido estudiar las estructuras moleculares. Los láseres han hecho que se pueda determinar la velocidad de la luz con una precisión sin precedentes; también permiten inducir reacciones químicas de forma selectiva y detectar la existencia de trazas de sustancias en una muestra. Véase Análisis químico; Fotoquímica.
4.3 Comunicaciones
La luz de un láser puede viajar largas distancias por el espacio exterior con una pequeña reducción de la intensidad de la señal. Debido a su alta frecuencia, la luz láser puede transportar, por ejemplo, 1.000 veces más canales de televisión de lo que transportan las microondas. Por ello, los láseres resultan ideales para las comunicaciones espaciales. Se han desarrollado fibras ópticas de baja pérdida que transmiten luz láser para la comunicación terrestre, en sistemas telefónicos y redes de computadoras. También se han empleado técnicas láser para registrar información con una densidad muy alta. Por ejemplo, la luz láser simplifica el registro de un holograma, a partir del cual puede reconstruirse una imagen tridimensional mediante un rayo láser.
4.4 Medicina
Con haces intensos y estrechos de luz láser es posible cortar y cauterizar ciertos tejidos en una fracción de segundo sin dañar al tejido sano circundante. El láser se ha empleado para ‘soldar’ la retina, perforar el cráneo, reparar lesiones y cauterizar vasos sanguíneos. También se han desarrollado técnicas láser para realizar pruebas de laboratorio en muestras biológicas pequeñas.
4.5 Tecnología militar
Los sistemas de guiado por láser para misiles, aviones y satélites son muy comunes. La capacidad de los láseres de colorante sintonizables para excitar de forma selectiva un átomo o molécula puede llevar a métodos más eficientes para la separación de isótopos en la fabricación de armas nucleares.
5 MEDIDAS DE SEGURIDAD
El principal peligro al trabajar con láseres es el daño ocular, ya que el ojo concentra la luz láser igual que cualquier otro tipo de luz. Por eso, el haz del láser no debe incidir sobre los ojos directamente ni por reflexión. Un láser debe ser manejado por personal experto equipado con gafas o anteojos de seguridad.
6 LÁSER ATÓMICO
En enero de 1997, un equipo de físicos estadounidenses anunció la creación del primer láser compuesto de materia en vez de luz. Del mismo modo que en un láser de luz cada fotón viaja en la misma dirección y con la misma longitud de onda que cualquier otro fotón, en un láser atómico cada átomo se comporta de la misma manera que cualquier otro átomo, formando una “onda de materia” coherente.
Los científicos confían en las numerosas e importantes aplicaciones potenciales de los láseres atómicos, aunque presenten algunas desventajas prácticas frente a los láseres de luz debido a que los átomos están sujetos a fuerzas gravitatorias e interaccionan unos con otros de forma distinta a como lo hacen los fotones.

Lenguaje interpretado




Lenguaje interpretado, en informática, un lenguaje cuyos programas necesitan ser traducidos a lenguaje o código máquina, línea a línea, cada vez que son ejecutados. Para ello se precisa de otro programa complementario, denominado intérprete. No son autosuficientes, como los que resultan de un lenguaje compilado. Muchos de los lenguajes de programación están disponibles en versiones interpretadas y compiladas.

Lenguaje de script o de guión




Lenguaje de script o de guión, tipo de lenguaje de programación interpretado, que se utiliza generalmente para llevar a cabo tareas secuenciales, paso a paso, como son las definidas en macros de aplicaciones, como hojas de cálculo, programas de gráficos o editores de textos. Siempre son lenguajes de alto nivel, que simplifican la labor del usuario, pero que no lo capacitan para acceder a las tareas básicas del sistema. Un ejemplo típico son los comandos ejecutados en los archivos de lotes (extensión BAT) de los sistemas operativos, que reproducen acciones como buscar, dar un listado, copiar, mover, renombrar o borrar archivos.
Con el tiempo, los lenguajes de script o de guión han ido ampliando sus prestaciones y hoy día se dispone de muchos de ellos que, como JavaScript o Visual Basic para Aplicaciones (VBA), son capaces de realizar operaciones más avanzadas de gestión de aplicaciones, crear y controlar elementos de la interfaz de usuario y hasta acceder a ciertos componentes del sistema.

Lenguaje de programación




Lenguaje de programación, en informática, cualquier lenguaje artificial que puede utilizarse para definir una secuencia de instrucciones para su procesamiento por un ordenador o computadora. Es complicado definir qué es y qué no es un lenguaje de programación. Se asume generalmente que la traducción de las instrucciones a un código que comprende la computadora debe ser completamente sistemática. Normalmente es la computadora la que realiza la traducción.
LENGUAJES DE BAJO NIVEL
Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador.
Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que son a menudo difíciles de aprender. Más importante es el hecho de que los programas escritos en un bajo nivel son prácticamente específicos para cada procesador. Si se quiere ejecutar el programa en otra máquina con otra tecnología, será necesario reescribir el programa desde el principio.
LENGUAJES DE ALTO NIVEL
Por lo general se piensa que los ordenadores son máquinas que realizan tareas de cálculos o procesamiento de textos. La descripción anterior es sólo una forma muy esquemática de ver una computadora. Hay un alto nivel de abstracción entre lo que se pide a la computadora y lo que realmente comprende. Existe también una relación compleja entre los lenguajes de alto nivel y el código máquina.
Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales, como el inglés. En BASIC, el lenguaje de alto nivel más conocido, los comandos como 'IF CONTADOR = 10 THEN STOP' pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a 10. Por desgracia para muchas personas esta forma de trabajar es un poco frustrante, dado que a pesar de que las computadoras parecen comprender un lenguaje natural, lo hacen en realidad de una forma rígida y sistemática.
INTÉRPRETES Y COMPILADORES
La traducción de una serie de instrucciones en lenguaje ensamblador (el código fuente) a un código máquina (o código objeto) no es un proceso muy complicado y se realiza normalmente por un programa especial llamado compilador. La traducción de un código fuente de alto nivel a un código máquina también se realiza con un compilador, en este caso más complejo, o mediante un intérprete. Un compilador crea una lista de instrucciones de código máquina, el código objeto, basándose en un código fuente. El código objeto resultante es un programa rápido y listo para funcionar, pero que puede hacer que falle el ordenador si no está bien diseñado. Los intérpretes, por otro lado, son más lentos que los compiladores ya que no producen un código objeto, sino que recorren el código fuente una línea cada vez. Cada línea se traduce a código máquina y se ejecuta. Cuando la línea se lee por segunda vez, como en el caso de los programas en que se reutilizan partes del código, debe compilarse de nuevo. Aunque este proceso es más lento, es menos susceptible de provocar fallos en la computadora.

Lenguaje compilado




Lenguaje compilado, en informática, un lenguaje cuyos programas se traducen a código máquina antes de ser distribuidos listos para ejecutarse, a diferencia de un lenguaje interpretado, cuyos programas se traducen a lenguaje máquina línea a línea en el momento de su ejecución. Para ello se precisa disponer de un programa intérprete, mientras que en los compilados el programa es autosuficiente. Muchos de los lenguajes de programación están disponibles en versiones interpretadas y compiladas.

JAVA Lenguaje




JAVA (informática), lenguaje de programación orientado a objetos desarrollado por la empresa Sun Microsystems en 1995 y que se ha extendido ampliamente en World Wide Web. Es un lenguaje de alto nivel y propósito general similar a C++, con marcadas características de seguridad y transportabilidad. Este lenguaje define una máquina virtual independiente de la plataforma donde se ejecuta, que procesa programas, llamados Applets, descargados desde el servidor Web. Además, debido al modo de ejecución de los Applets, este lenguaje es muy seguro frente a la presencia y ataque de virus informáticos.

FORTRAN




FORTRAN, en informática, acrónimo de FORmula TRANslation (traducción de fórmulas). El primer lenguaje de programación de alto nivel para computadoras, desarrollado de 1954 a 1958 por Jim Backus, y el padre de muchos de los conceptos fundamentales de alto nivel, como variables, expresiones, instrucciones, instrucciones condicionales y repetitivas, subrutinas compiladas de forma independiente y entrada y salida con formato. El FORTRAN es un lenguaje compilado

ENIAC




ENIAC, siglas de Electronic Numerical Integrator And Computer (Integrador y Computador Electrónico Numérico), primer ordenador digital universal totalmente electrónico. El ENIAC, diseñado por John William Mauchly y John Presper Eckert, fue construido entre 1943 y 1946 en la Universidad de Pensilvania. Esta computadora —inicialmente un proyecto militar— era capaz de realizar varios cientos de multiplicaciones por minuto. Sin embargo, su programa estaba físicamente determinado mediante el cableado del procesador, y tenía que ser modificado manualmente. Los diseñadores mejoraron este aspecto en su siguiente creación, el EDVAC (Electronic Discrete Variable Automatic Computer, Computadora Automática Electrónica de Variable Discreta), cuyo sistema de almacenamiento electrónico era mucho más avanzado. El ENIAC pesaba 30 toneladas y contenía 18.000 válvulas de vacío; permaneció en uso hasta 1955.

En 1946, Mauchly y Eckert dejaron la Universidad de Pensilvania para fundar la empresa Electronic Control Company; su UNIVAC fue la primera computadora con éxito comercial. Entre 1971 y 1973 estuvieron inmersos en una batalla judicial por la patente del ENIAC, anulada por los tribunales debido a los trabajos previos de John Vincent Atanasoff. Éste había construido ya en 1939 una computadora simple de válvulas de vacío que nunca se comercializó, pero que al parecer inspiró a uno de los diseñadores del ENIAC. En 1973, la patente del ENIAC fue revocada al considerar probado que se habían utilizado las ideas de Atanasoff sin autorización.

Circuito integrado




Circuito integrado, pequeño circuito electrónico utilizado para realizar una función electrónica específica, como la amplificación. Se combina por lo general con otros componentes para formar un sistema más complejo y se fabrica mediante la difusión de impurezas en silicio monocristalino, que sirve como material semiconductor, o mediante la soldadura del silicio con un haz de flujo de electrones. Varios cientos de circuitos integrados idénticos se fabrican a la vez sobre una oblea de pocos centímetros de diámetro. Esta oblea a continuación se corta en circuitos integrados individuales denominados chips. En la integración a gran escala (LSI, acrónimo de Large-Scale Integration) se combinan aproximadamente 5.000 elementos, como resistencias y transistores, en un cuadrado de silicio que mide aproximadamente 1,3 cm de lado. Cientos de estos circuitos integrados pueden colocarse en una oblea de silicio de 8 a 15 cm de diámetro. La integración a mayor escala puede producir un chip de silicio con millones de elementos. Los elementos individuales de un chip se interconectan con películas finas de metal o de material semiconductor aisladas del resto del circuito por capas dieléctricas. Para interconectarlos con otros circuitos o componentes, los chips se montan en cápsulas que contienen conductores eléctricos externos. De esta forma se facilita su inserción en placas. Durante los últimos años la capacidad funcional de los circuitos integrados ha ido en aumento de forma constante, y el coste de las funciones que realizan ha disminuido igualmente. Esto ha producido cambios revolucionarios en la fabricación de equipamientos electrónicos, que han ganado enormemente en capacidad funcional y en fiabilidad. También se ha conseguido reducir el tamaño de los equipos y disminuir su complejidad física y su consumo de energía. La tecnología de los ordenadores o computadoras se ha beneficiado especialmente de todo ello. Las funciones lógicas y aritméticas de una computadora pequeña pueden realizarse en la actualidad mediante un único chip con integración a escala muy grande (VLSI, acrónimo de Very Large Scale Integration) llamado microprocesador, y todas las funciones lógicas, aritméticas y de memoria de una computadora, pueden almacenarse en una única placa de circuito impreso, o incluso en un único chip. Un dispositivo así se denomina microordenador o microcomputadora.
En electrónica de consumo, los circuitos integrados han hecho posible el desarrollo de muchos nuevos productos, como computadoras y calculadoras personales, relojes digitales y videojuegos. Se han utilizado también para mejorar y rebajar el coste de muchos productos existentes, como los televisores, los receptores de radio y los equipos de alta fidelidad. Su uso está muy extendido en la industria, la medicina, el control de tráfico (tanto aéreo como terrestre), control medioambiental y comunicaciones.

COBOL




COBOL, en informática, acrónimo de Common Bussines-Oriented Language (Lenguaje Común Orientado hacia Aplicaciones de Empresa), lenguaje de programación desarrollado entre 1959 y 1961 que utiliza como base el idioma inglés y que se caracteriza por su gran facilidad de lectura. Su afirmación como lenguaje exigido por el Departamento de Defensa de los Estados Unidos (actualmente es ADA), su énfasis en las estructuras de datos y su sintaxis similar al inglés (a diferencia de la de FORTRAN y ALGOL) fueron las razones de su amplia aceptación y uso, en especial en aplicaciones de empresa. Los programas escritos en COBOL, que es un lenguaje compilado, se clasifican en cuatro divisiones: Identification, Enviroment, Data y Procedure. La Identification division especifica el nombre del programa y contiene información general del programa como puede ser su autor, fecha en que se escribió y una pequeña descripción de su utilidad, así como cualquier otra documentación que el programador desee añadir.

La Enviroment division especifica qué equipo o equipos se están utilizando, y los archivos empleados en el programa para la entrada y la salida.

La Data division describe los datos utilizados en el programa.

La Procedure division contiene la parte del procesamiento que dicta las acciones del programa.

CMOS




CMOS, en informática, acrónimo de Complementary Metal Oxide Semiconductor (semiconductor complementario de óxido metálico). Es un dispositivo semiconductor formado por dos transistores de efecto de campo de óxido metálico (MOSFET), uno del tipo n (NMOS) y otro del tipo p (PMOS), integrados en un único chip de silicio. Utilizados por lo general para fabricar memoria RAM y aplicaciones de conmutación, estos dispositivos se caracterizan por una alta velocidad de acceso y un bajo consumo de electricidad. Pueden resultar dañados fácilmente por la electricidad estática. Véase también Electrónica.

Alan Mathison Turing




Alan Mathison Turing (1912-1954), matemático británico y pionero en la teoría del ordenador o computadora. Nació en Londres y estudió en las universidades de Cambridge y Princeton. En 1936, mientras era todavía un estudiante, publicó un ensayo titulado On Computable Numbers (Sobre números calculables), con el que contribuyó a la lógica matemática al introducir el concepto teórico de un dispositivo de cálculo que hoy se conoce como la máquina de Turing. El concepto de esta máquina, que podría efectuar teóricamente cualquier cálculo matemático, fue importante en el desarrollo de las computadoras digitales. Turing también amplió su trabajo matemático al estudio de la inteligencia artificial y las formas biológicas. Propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. Durante la II Guerra Mundial trabajó como criptógrafo para el Foreign Office británico. Murió al administrarse un veneno, quizá por accidente, a la edad de 41 años.

Código ASCII




ASCII, acrónimo de American Standard Code for Information Interchange (Código Normalizado Americano para el Intercambio de Información). En computación, un esquema de codificación que asigna valores numéricos a las letras, números, signos de puntuación y algunos otros caracteres. Al normalizar los valores utilizados para dichos caracteres, ASCII permite que los ordenadores o computadoras y programas informáticos intercambien información.
ASCII incluye 256 códigos divididos en dos conjuntos, estándar y extendido, de 128 cada uno. Estos conjuntos representan todas las combinaciones posibles de 7 u 8 bits, siendo esta última el número de bits en un byte. El conjunto ASCII básico, o estándar, utiliza 7 bits para cada código, lo que da como resultado 128 códigos de caracteres desde 0 hasta 127 (00H hasta 7FH hexadecimal). El conjunto ASCII extendido utiliza 8 bits para cada código, dando como resultado 128 códigos adicionales, numerados desde el 128 hasta el 255 (80H hasta FFH extendido).
En el conjunto de caracteres ASCII básico, los primeros 32 valores están asignados a los códigos de control de comunicaciones y de impresora —caracteres no imprimibles, como retroceso, retorno de carro y tabulación— empleados para controlar la forma en que la información es transferida desde una computadora a otra o desde una computadora a una impresora. Los 96 códigos restantes se asignan a los signos de puntuación corrientes, a los dígitos del 0 al 9 y a las letras mayúsculas y minúsculas del alfabeto latino.
Los códigos de ASCII extendido, del 128 al 255, se asignan a conjuntos de caracteres que varían según los fabricantes de computadoras y programadores de software. Estos códigos no son intercambiables entre los diferentes programas y computadoras como los caracteres ASCII estándar. Por ejemplo, IBM utiliza un grupo de caracteres ASCII extendido que suele denominarse conjunto de caracteres IBM extendido para sus computadoras personales. Apple Computer utiliza un grupo similar, aunque diferente, de caracteres ASCII extendido para su línea de computadoras Macintosh. Por ello, mientras que el conjunto de caracteres ASCII estándar es universal en el hardware y el software de los microordenadores, los caracteres ASCII extendido pueden interpretarse correctamente sólo si un programa, computadora o impresora han sido diseñados para ello.

La Radio según Encarta




Radio, sistema de comunicación mediante ondas electromagnéticas que se propagan por el espacio. Se utilizan ondas radiofónicas de diferente longitud para distintos fines; por lo general se identifican mediante su frecuencia, que es la inversa de la longitud de onda de la radiación. Las ondas más cortas poseen una frecuencia (número de ciclos por segundo) más alta; las ondas más largas tienen una frecuencia más baja (menos ciclos por segundo).
El nombre del pionero alemán de la radio Heinrich Hertz ha servido para bautizar la unidad de medida de la frecuencia, el ciclo por segundo (hercio, Hz). Un kilohercio (kHz) es 1.000 ciclos por segundo, 1 megahercio (MHz) es 1 millón de ciclos por segundo y 1 gigahercio (GHz), 1.000 millones de ciclos por segundo. Las ondas de radio van desde algunos kilohercios a varios gigahercios. Las ondas de luz visible son mucho más cortas. En el vacío, toda radiación electromagnética se desplaza en forma de ondas a una velocidad uniforme de casi 300.000 kilómetros por segundo.
Las ondas de radio se utilizan no sólo en la radiodifusión, sino también en la telegrafía inalámbrica, la transmisión por teléfono, la televisión, el radar, los sistemas de navegación y la comunicación espacial. En la atmósfera, las características físicas del aire ocasionan pequeñas variaciones en el movimiento ondulatorio, que originan errores en los sistemas de comunicación radiofónica como el radar. Además, las tormentas o las perturbaciones eléctricas provocan fenómenos anormales en la propagación de las ondas de radio.
Las ondas electromagnéticas dentro de una atmósfera uniforme se desplazan en línea recta, y como la superficie terrestre es prácticamente esférica, la comunicación radiofónica a larga distancia es posible gracias a la reflexión de las ondas de radio en la ionosfera. Las ondas radiofónicas de longitud de onda inferior a unos 10 m, que reciben los nombres de frecuencias muy alta, ultraalta y superalta (VHF, UHF y SHF), no se reflejan en la ionosfera; así, en la práctica, estas ondas muy cortas sólo se captan a distancia visual. Las longitudes de onda inferiores a unos pocos centímetros son absorbidas por las gotas de agua o por las nubes; las inferiores a 1,5 cm pueden quedar absorbidas por el vapor de agua existente en la atmósfera limpia.
Los sistemas normales de radiocomunicación constan de dos componentes básicos, el transmisor y el receptor. El primero genera oscilaciones eléctricas con una frecuencia de radio denominada frecuencia portadora. Se puede amplificar la amplitud o la propia frecuencia para variar la onda portadora. Una señal modulada en amplitud se compone de la frecuencia portadora y dos bandas laterales producto de la modulación. La frecuencia modulada (FM) produce más de un par de bandas laterales para cada frecuencia de modulación, gracias a lo cual son posibles las complejas variaciones que se emiten en forma de voz o cualquier otro sonido en la radiodifusión, y en las alteraciones de luz y oscuridad en las emisiones televisivas.
TRANSMISOR
Los componentes fundamentales de un transmisor de radio son: un generador de oscilaciones (oscilador), para convertir la corriente eléctrica común en oscilaciones de una determinada frecuencia de radio; los amplificadores, para aumentar la intensidad de dichas oscilaciones conservando la frecuencia establecida, y un transductor, para convertir la información a transmitir en un voltaje eléctrico variable y proporcional a cada valor instantáneo de la intensidad. En el caso de la transmisión de sonido, el transductor es un micrófono; para transmitir imágenes se utiliza como transductor un dispositivo fotoeléctrico.
Otros componentes importantes de un transmisor de radio son el modulador, que aprovecha los voltajes proporcionales para controlar las variaciones en la intensidad de oscilación o la frecuencia instantánea de la portadora, y la antena, que radia una onda portadora igualmente modulada. Cada antena presenta ciertas propiedades direccionales, es decir, radia más energía en unas direcciones que en otras, pero la antena siempre se puede modificar de forma que los patrones de radiación varíen desde un rayo relativamente estrecho hasta una distribución homogénea en todas las direcciones; este último tipo de radiación se usa en la radiodifusión.
El método concreto utilizado para diseñar y disponer los diversos componentes depende del efecto buscado. Los requisitos principales de la radio de un avión comercial o militar, por ejemplo, son que tenga un peso reducido y que resulte inteligible; el coste es un aspecto secundario y la fidelidad de reproducción carece totalmente de importancia. En una emisora comercial de radio, sin embargo, el tamaño y el peso entrañan poca importancia, el coste debe tenerse en cuenta y la fidelidad resulta fundamental, sobre todo en el caso de emisoras FM; el control estricto de la frecuencia constituye una necesidad crítica. En Estados Unidos, por ejemplo, una emisora comercial típica de 1.000 kHz posee un ancho de banda de 10 kHz, pero este ancho sólo se puede utilizar para modulación; la frecuencia de la portadora propiamente dicha se tiene que mantener exactamente en los 1.000 kHz, ya que una desviación de una centésima del 1% originaría grandes interferencias con emisoras de la misma frecuencia, aunque se hallen distantes.
Osciladores
En una emisora comercial normal, la frecuencia de la portadora se genera mediante un oscilador de cristal de cuarzo rigurosamente controlado. El método básico para controlar frecuencias en la mayoría de las emisoras de radio es mediante circuitos de absorción, o circuitos resonantes, que poseen valores específicos de inductancia y capacitancia (véase Unidades eléctricas; Resonancia) y que, por tanto, favorecen la producción de corrientes alternas de una determinada frecuencia e impiden la circulación de corrientes de frecuencias distintas. De todas formas, cuando la frecuencia debe ser enormemente estable se utiliza un cristal de cuarzo con una frecuencia natural concreta de oscilación eléctrica para estabilizar las oscilaciones. En realidad, éstas se generan a baja potencia en una válvula electrónica y se amplifican en amplificadores de potencia que actúan como retardadores para evitar la interacción del oscilador con otros componentes del transmisor, ya que tal interacción alteraría la frecuencia. El cristal tiene la forma exacta para las dimensiones necesarias a fin de proporcionar la frecuencia deseada, que luego se puede modificar ligeramente agregando un condensador al circuito para conseguir la frecuencia exacta. En un circuito eléctrico bien diseñado, dicho oscilador no varía en más de una centésima del 1% en la frecuencia. Si se monta el cristal al vacío a temperatura constante y se estabilizan los voltajes, se puede conseguir una estabilidad en la frecuencia próxima a una millonésima del 1%.
Los osciladores de cristal resultan de máxima utilidad en las gamas denominadas de frecuencia muy baja, baja y media (VLF, LF y MF). Cuando han de generarse frecuencias superiores a los 10 MHz, el oscilador maestro se diseña para que genere una frecuencia intermedia, que luego se va duplicando cuantas veces sea necesario mediante circuitos electrónicos especiales. Si no se precisa un control estricto de la frecuencia, se pueden utilizar circuitos resonantes con válvulas normales a fin de producir oscilaciones de hasta 1.000 MHz, y se emplean los klistrones reflex para generar las frecuencias superiores a los 30.000 MHz. Los klistrones se sustituyen por magnetrones cuando hay que generar cantidades de mayor potencia.
Modulación
La modulación de la portadora para que pueda transportar impulsos se puede efectuar a nivel bajo o alto. En el primer caso, la señal de frecuencia audio del micrófono, con una amplificación pequeña o nula, sirve para modular la salida del oscilador y la frecuencia modulada de la portadora se amplifica antes de conducirla a la antena; en el segundo caso, las oscilaciones de radiofrecuencia y la señal de frecuencia audio se amplifican de forma independiente y la modulación se efectúa justo antes de transmitir las oscilaciones a la antena. La señal se puede superponer a la portadora mediante modulación de frecuencia (FM) o de amplitud (AM).
La forma más sencilla de modulación es la codificación, interrumpiendo la onda portadora a intervalos concretos mediante una clave o conmutador para formar los puntos y las rayas de la radiotelegrafía de onda continua.
La onda portadora también se puede modular variando la amplitud de la onda según las variaciones de la frecuencia e intensidad de una señal sonora, tal como una nota musical. Esta forma de modulación, AM, se utiliza en muchos servicios de radiotelefonía, incluidas las emisiones normales de radio. La AM también se emplea en la telefonía por onda portadora, en la que la portadora modulada se transmite por cable, y en la transmisión de imágenes estáticas a través de cable o radio.
En la FM, la frecuencia de la onda portadora se varía dentro de un rango establecido a un ritmo equivalente a la frecuencia de una señal sonora. Esta forma de modulación, desarrollada en la década de 1930, presenta la ventaja de generar señales relativamente limpias de ruidos e interferencias procedentes de fuentes tales como los sistemas de encendido de los automóviles o las tormentas, que afectan en gran medida a las señales AM. Por tanto, la radiodifusión FM se efectúa en bandas de alta frecuencia (88 a 108 MHz), aptas para señales grandes pero con alcance de recepción limitado.
Las ondas portadoras también se pueden modular variando la fase de la portadora según la amplitud de la señal. La modulación en fase, sin embargo, ha quedado reducida a equipos especializados.
El desarrollo de la técnica de transmisión de ondas continuas en pequeños impulsos de enorme potencia, como en el caso del radar, planteó la posibilidad de otra forma nueva de modulación, la modulación de impulsos en tiempo, en la que el espacio entre los impulsos se modifica de acuerdo con la señal.
La información transportada por una onda modulada se devuelve a su forma original mediante el proceso inverso, denominado demodulación o detección. Las emisiones de ondas de radio a frecuencias bajas y medias van moduladas en amplitud. Para frecuencias más altas se utilizan tanto la AM como la FM; en la televisión comercial de nuestros días, por ejemplo, el sonido va por FM, mientras que las imágenes se transportan por AM. En el rango de las frecuencias superaltas (por encima del rango de las ultraaltas), en el que se pueden utilizar anchos de banda mayores, la imagen también se transmite por FM. En la actualidad, tanto el sonido como las imágenes se pueden enviar de forma digital a dichas frecuencias.
Antenas
La antena del transmisor no necesita estar unida al propio transmisor. La radiodifusión comercial a frecuencias medias exige normalmente una antena muy grande, cuya ubicación óptima es de forma aislada, lejos de cualquier población, mientras que el estudio de radio suele hallarse en medio de la ciudad. La FM, la televisión y demás emisiones con frecuencias muy elevadas exigen antenas muy altas si se pretende conseguir un cierto alcance y no resulta aconsejable colocarlas cerca del estudio de emisión. En todos estos casos las señales se transmiten a través de cables. Las líneas telefónicas normales suelen valer para la mayoría de las emisiones comerciales de radio; si se precisa obtener alta fidelidad o frecuencias muy altas, se utilizan cables coaxiales.
RECEPTOR
Los componentes fundamentales de un receptor de radio son: 1) una antena para recibir las ondas electromagnéticas y convertirlas en oscilaciones eléctricas; 2) amplificadores para aumentar la intensidad de dichas oscilaciones; 3) equipos para la demodulación; 4) un altavoz para convertir los impulsos en ondas sonoras perceptibles por el oído humano (y en televisión, un tubo de imágenes para convertir la señal en ondas luminosas visibles), y 5) en la mayoría de los receptores, unos osciladores para generar ondas de radiofrecuencia que puedan mezclarse con las ondas recibidas.
La señal que llega de la antena, compuesta por una oscilación de la portadora de radiofrecuencia, modulada por una señal de frecuencia audio o vídeo que contiene los impulsos, suele ser muy débil. La sensibilidad de algunos receptores de radio modernos es tan grande que con que la señal de la antena sea capaz de producir una corriente alterna de unos pocos cientos de electrones, la señal se puede detectar y amplificar hasta producir un sonido inteligible por el altavoz. La mayoría de los receptores pueden funcionar aceptablemente con una entrada de algunas millonésimas de voltio. Sin embargo, el aspecto básico en el diseño del receptor es que las señales muy débiles no se convierten en válidas simplemente amplificando, de forma indiscriminada, tanto la señal deseada como los ruidos laterales (véase Ruido más adelante). Así, el cometido principal del diseñador consiste en garantizar la recepción prioritaria de la señal deseada.
Muchos receptores modernos de radio son de tipo superheterodino, en el que un oscilador genera una onda de radiofrecuencia que se mezcla con la onda entrante, produciendo así una onda de frecuencia menor; esta última se denomina frecuencia media. Para sintonizar el receptor a las distintas frecuencias se modifica la frecuencia de las oscilaciones, pero la media siempre permanece fija (en 455 kHz para la mayoría de los receptores de AM y en 10,7 MHz para los de FM). El oscilador se sintoniza modificando la capacidad del condensador en su circuito oscilador; el circuito de la antena se sintoniza de forma similar mediante un condensador.
En todos los receptores hay una o más etapas de amplificación de frecuencia media; además, puede haber una o más etapas de amplificación de radiofrecuencia. En la etapa de frecuencia media se suelen incluir circuitos auxiliares, como el control automático de volumen, que funciona rectificando parte de la salida de un circuito de amplificación y alimentando con ella al elemento de control del mismo circuito o de otro anterior (véase Rectificación). El detector, denominado a menudo segundo detector (el primero es el mezclador), suele ser un simple diodo que actúa de rectificador y produce una señal de frecuencia audio. Las ondas FM se demodulan o detectan mediante circuitos que reciben el nombre de discriminadores o radiodetectores; transforman las variaciones de la frecuencia en diferentes amplitudes de la señal.
Amplificadores
Los amplificadores de radiofrecuencia y de frecuencia media son amplificadores de voltaje, que aumentan el voltaje de la señal. Los receptores de radio pueden tener una o más etapas de amplificación de voltaje de frecuencia audio. Además, la última etapa antes del altavoz tiene que ser de amplificación de potencia. Un receptor de alta fidelidad contiene los circuitos de sintonía y de amplificación de cualquier radio. Como alternativa, una radio de alta fidelidad puede tener un amplificador y un sintonizador independientes.
Las características principales de un buen receptor de radio son una sensibilidad, una selectividad y una fidelidad muy elevadas y un nivel de ruido bajo. La sensibilidad se consigue en primera instancia mediante muchas etapas de amplificación y factores altos de amplificación, pero la amplificación elevada carece de sentido si no se pueden conseguir una fidelidad aceptable y un nivel de ruido bajo. Los receptores más sensibles tienen una etapa de amplificación de radiofrecuencia sintonizada. La selectividad es la capacidad del receptor de captar señales de una emisora y rechazar otras de emisoras diferentes que limitan con frecuencias muy próximas. La selectividad extrema tampoco resulta aconsejable, ya que se precisa un ancho de banda de muchos kilohercios para recibir los componentes de alta frecuencia de las señales de frecuencia audio. Un buen receptor sintonizado a una emisora presenta una respuesta cero a otra emisora que se diferencia en 20 kHz. La selectividad depende sobre todo de los circuitos en la etapa de la frecuencia intermedia.
Sistemas de alta fidelidad
Fidelidad es la uniformidad de respuesta del receptor a diferentes señales de frecuencia audio moduladas en la portadora. La altísima fidelidad, que se traduce en una respuesta plana (idéntica amplificación de todas las frecuencias audio) a través de todo el rango audible desde los 20 Hz hasta los 20 kHz, resulta extremadamente difícil de conseguir. Un sistema de alta fidelidad es tan potente como su componente más débil, y entre éstos no sólo se incluyen todos los circuitos del receptor, sino también el altavoz, las propiedades acústicas del lugar donde se encuentra el altavoz y el transmisor a que está sintonizado el receptor (véase Acústica). La mayoría de las emisoras AM no reproducen con fidelidad los sonidos por debajo de 100 Hz o por encima de 5 kHz; las emisoras FM suelen tener una gama de frecuencias entre 50 Hz y 15 kilohercios.
Distorsión
En las transmisiones de radio a menudo se introduce una forma de distorsión de amplitud al aumentar la intensidad relativa de las frecuencias más altas de audio. En el receptor aparece un factor equivalente de atenuación de alta frecuencia. El efecto conjunto de estas dos formas de distorsión es una reducción del ruido de fondo o estático en el receptor. Muchos receptores van equipados con controles de tono ajustables por el usuario, de forma que la amplificación de las frecuencias altas y bajas se pueda adaptar a gusto del oyente. Otra fuente de distorsión es la modulación transversal, la transferencia de señales de un circuito a otro por culpa de un apantallamiento defectuoso. La distorsión armónica ocasionada por la transferencia no lineal de señales a través de las etapas de amplificación puede reducirse notablemente utilizando circuitería de realimentación negativa, que anula gran parte de la distorsión generada en las etapas de amplificación.
Ruido
El ruido constituye un problema grave en todos los receptores de radio. Hay diferentes tipos de ruido, como el zumbido, un tono constante de baja frecuencia (unas dos octavas por debajo del do), producido generalmente por la frecuencia de la fuente de alimentación de corriente alterna (por lo común 60 Hz) que se superpone a la señal debido a un filtrado o un apantallamiento defectuoso; el siseo, un tono constante de alta frecuencia, y el silbido, un tono limpio de alta frecuencia producido por una oscilación involuntaria de frecuencia audio, o por un golpeteo. Estos ruidos se pueden eliminar mediante un diseño y una construcción adecuados.
Sin embargo, ciertos tipos de ruidos no se pueden eliminar. El más importante en los equipos normales de AM de baja y media frecuencias es el ruido parásito, originado por perturbaciones eléctricas en la atmósfera. El ruido parásito puede proceder del funcionamiento de un equipo eléctrico cercano (como los motores de automóviles o aviones), pero en la mayoría de los casos proviene de los rayos y relámpagos de las tormentas. Las ondas de radio producidas por estas perturbaciones atmosféricas pueden viajar miles de kilómetros sin sufrir apenas atenuación, y, dado que en un radio de algunos miles de kilómetros respecto del receptor de radio siempre hay alguna tormenta, casi siempre aparecen ruidos parásitos.
Los ruidos parásitos afectan a los receptores FM en menor medida, ya que la amplitud de las ondas intermedias está limitada mediante circuitos especiales antes de la discriminación, lo que elimina los efectos de los ruidos parásitos.
Otra fuente primaria de ruido es la agitación térmica de los electrones. En un elemento conductor a temperatura superior al cero absoluto, los electrones se mueven de forma aleatoria. Dado que cualquier movimiento electrónico constituye una corriente eléctrica, la agitación térmica origina ruido al amplificarlo en exceso. Este tipo de ruido se puede evitar si la señal recibida desde la antena es notablemente más potente que la corriente causada por la agitación térmica; en cualquier caso, se puede reducir al mínimo mediante un diseño adecuado. Un receptor teóricamente perfecto a temperatura ordinaria es capaz de recibir la voz de forma inteligible siempre que la potencia de la señal alcance los 4 × 10-18 W; sin embargo, en los receptores normales se precisa una potencia de señal bastante mayor.
Fuente de alimentación
La radio no tiene componentes móviles excepto el altavoz, que vibra algunas milésimas de centímetro, por lo que la única potencia que requiere su funcionamiento es la corriente eléctrica para hacer circular los electrones por los diferentes circuitos. Cuando aparecieron las primeras radios en la década de 1920, la mayoría iban accionadas por pilas. Aunque se siguen utilizando de forma generalizada en los aparatos portátiles, la fuente de alimentación conectada a la red presenta ciertas ventajas, ya que permite al diseñador una mayor libertad a la hora de seleccionar los componentes de los circuitos.
Si la fuente de alimentación de corriente alterna (CA) es de 120 V, ésta se puede alimentar directamente del arrollamiento primario del transformador, obteniéndose en el secundario el voltaje deseado. Esta corriente secundaria debe rectificarse y filtrarse antes de poder ser utilizada, ya que los transistores requieren corriente continua (CC) para su funcionamiento. Las válvulas utilizan CC como corriente anódica; los filamentos se calientan tanto con CC como con CA, pero en este último caso puede originarse algún zumbido.
Las radios de transistores no necesitan una CC tan alta como las válvulas de antes, pero sigue siendo imprescindible el uso de fuentes de alimentación para convertir la corriente continua (CC) de la red comercial en corriente alterna (CA) y para aumentarla o reducirla al valor deseado mediante transformadores. Los aparatos de los aviones o de los automóviles que funcionan con voltajes entre 12 y 14 voltios CC suelen incluir circuitos para convertir el voltaje CC disponible a CA; tras elevarlo o reducirlo hasta el valor deseado, se vuelve a convertir a CC mediante un rectificado. Los aparatos que funcionan con voltajes entre 6 y 24 voltios CC siempre disponen de un elemento para aumentar el voltaje. La llegada de los transistores, los circuitos integrados y demás dispositivos electrónicos de estado sólido, mucho más reducidos y que consumen muy poca potencia, ha suprimido casi totalmente el uso de las válvulas en los equipos de radio, televisión y otras formas de comunicación.
HISTORIA
Aun cuando fueron necesarios muchos descubrimientos en el campo de la electricidad hasta llegar a la radio, su nacimiento data en realidad de 1873, año en el que el físico británico James Clerk Maxwell publicó su teoría sobre las ondas electromagnéticas (véase Radiación electromagnética: Teoría).
Finales del siglo XIX
La teoría de Maxwell se refería sobre todo a las ondas de luz; quince años más tarde, el físico alemán Heinrich Hertz logró generar eléctricamente tales ondas. Suministró una carga eléctrica a un condensador y a continuación le hizo un cortocircuito mediante un arco eléctrico. En la descarga eléctrica resultante, la corriente saltó desde el punto neutro, creando una carga de signo contrario en el condensador, y después continuó saltando de un polo al otro, creando una descarga eléctrica oscilante en forma de chispa. El arco eléctrico radiaba parte de la energía de la chispa en forma de ondas electromagnéticas. Hertz consiguió medir algunas de las propiedades de estas ondas “hercianas”, incluyendo su longitud y velocidad.
La idea de utilizar ondas electromagnéticas para la transmisión de mensajes de un punto a otro no era nueva; el heliógrafo, por ejemplo, transmitía mensajes por medio de un haz de rayos luminosos que se podía modular con un obturador para producir señales en forma de los puntos y las rayas del código Morse (véase Samuel F. B. Morse). A tal fin la radio presenta muchas ventajas sobre la luz, aunque no resultasen evidentes a primera vista. Las ondas de radio, por ejemplo, pueden cubrir distancias enormes, a diferencia de las microondas (usadas por Hertz).
Las ondas de radio pueden sufrir grandes atenuaciones y seguir siendo perceptibles, amplificables y detectadas; pero los buenos amplificadores no se hicieron una realidad hasta la aparición de las válvulas electrónicas. Por grandes que fueran los avances de la radiotelegrafía (por ejemplo, en 1901 Marconi desarrolló la comunicación transatlántica), la radiotelefonía nunca habría llegado a ser útil sin los avances de la electrónica. Desde el punto de vista histórico, los desarrollos en el mundo de la radio y en el de la electrónica han ocurrido de forma simultánea.
Para detectar la presencia de la radiación electromagnética, Hertz utilizó un aro parecido a las antenas circulares. En aquella época, el inventor David Edward Hughes había descubierto que un contacto entre una punta metálica y un trozo de carbón no conducía la corriente, pero si hacía circular ondas electromagnéticas por el punto de contacto, éste se hacía conductor. En 1879 Hughes demostró la recepción de señales de radio procedentes de un emisor de chispas alejado un centenar de metros. En dichos experimentos hizo circular una corriente de una célula voltaica a través de una válvula rellena de limaduras de cinc y plata, que se aglomeraban al ser bombardeadas con ondas de radio.
Este principio lo utilizó el físico británico Oliver Joseph Lodge en un dispositivo llamado cohesor para detectar la presencia de ondas de radio. El cohesor, una vez hecho conductor, se podía volver a hacer aislante golpeándolo y haciendo que se separasen las partículas. Aunque era mucho más sensible que la bocina en ausencia de amplificador, el cohesor sólo daba una única respuesta a las ondas de radio de suficiente potencia de diversas intensidades, por lo que servía para la telegrafía, pero no para la telefonía.
El ingeniero electrotécnico e inventor italiano Guglielmo Marconi está considerado universalmente el inventor de la radio. A partir de 1895 fue desarrollando y perfeccionando el cohesor y lo conectó a una forma primitiva de antena, con el extremo conectado a tierra. Además mejoró los osciladores de chispa conectados a antenas rudimentarias. El transmisor se modulaba mediante una clave ordinaria de telégrafo. El cohesor del receptor accionaba un instrumento telegráfico que funcionaba básicamente como amplificador.
En 1896 consiguió transmitir señales desde una distancia de 1,6 km, y registró su primera patente inglesa. En 1897 transmitió señales desde la costa hasta un barco a 29 km en alta mar. Dos años más tarde logró establecer una comunicación comercial entre Inglaterra y Francia capaz de funcionar con independencia del estado del tiempo; a principios de 1901 consiguió enviar señales a más de 322 km de distancia, y a finales de ese mismo año transmitió una carta entera de un lado a otro del océano Atlántico. En 1902 ya se enviaban de forma regular mensajes transatlánticos y en 1905 muchos barcos llevaban equipos de radio para comunicarse con emisoras de la costa. Como reconocimiento a sus trabajos en el campo de la telegrafía sin hilos, en 1909 Marconi compartió el Premio Nobel de Física con el físico alemán Karl Ferdinand Braun.
A lo largo de todos estos años se introdujeron diferentes mejoras técnicas. Para la sintonía se utilizaron circuitos resonantes dotados de inductancia y capacitancia. Las antenas se fueron perfeccionando, descubriéndose y aprovechándose sus propiedades direccionales. Se utilizaron los transformadores para aumentar el voltaje enviado a la antena. Se desarrollaron otros detectores para complementar al cohesor y su rudimentario descohesor. Se construyó un detector magnético basado en la propiedad de las ondas magnéticas para desmagnetizar los hilos de acero, un bolómetro que medía el aumento de temperatura de un cable fino cuando lo atravesaban ondas de radio y la denominada válvula de Fleming, precursora de la válvula termoiónica o lámpara de vacío.
Siglo XX
El desarrollo de la válvula electrónica se remonta al descubrimiento que hizo el inventor estadounidense Thomas Alva Edison al comprobar que entre un filamento de una lámpara incandescente y otro electrodo colocado en la misma lámpara fluye una corriente y que además sólo lo hace en un sentido. La válvula de Fleming apenas difería del tubo de Edison. Su desarrollo se debe al físico e ingeniero eléctrico inglés John Ambrose Fleming en 1904 y fue el primer diodo, o válvula de dos elementos, que se utilizó en la radio. El tubo actuaba de detector, rectificador y limitador.
En 1906 se produjo un avance revolucionario, punto de partida de la electrónica, al incorporar el inventor estadounidense Lee de Forest un tercer elemento, la rejilla, entre el filamento y el cátodo de la válvula. El tubo de De Forest, que bautizó con el nombre de audión y que actualmente se conoce por triodo (válvula de tres elementos), en principio sólo se utilizó como detector, pero pronto se descubrieron sus propiedades como amplificador y oscilador; en 1915 el desarrollo de la telefonía sin hilos había alcanzado un grado de madurez suficiente como para comunicarse entre Virginia y Hawai (Estados Unidos) y entre Virginia y París (Francia).
Las funciones rectificadoras de los cristales fueron descubiertas en 1912 por el ingeniero eléctrico e inventor estadounidense Greenleaf Whittier Pickard, al poner de manifiesto que los cristales se pueden utilizar como detectores. Este descubrimiento permitió el nacimiento de los receptores con detector de cristal, tan populares en la década de 1920. En 1912, el ingeniero eléctrico estadounidense Edwin Howard Armstrong descubrió el circuito reactivo, que permite realimentar una válvula con parte de su propia salida. Éste y otros descubrimientos de Armstrong constituyen la base de muchos circuitos de los equipos modernos de radio.
En 1902, el ingeniero estadounidense Arthur Edwin Kennelly y el físico británico Oliver Heaviside (de forma independiente y casi simultánea) proclamaron la probable existencia de una capa de gas ionizado en la parte alta de la atmósfera que afectaría a la propagación de las ondas de radio. Esta capa, bautizada en principio como la capa de Heaviside o Kennelly-Heaviside, es una de las capas de la ionosfera. Aunque resulta transparente para las longitudes de onda más cortas, desvía o refleja las ondas de longitudes más largas. Gracias a esta reflexión, las ondas de radio se propagan mucho más allá del horizonte.
La propagación de las ondas de radio en la ionosfera se ve seriamente afectada por la hora del día, la estación y la actividad solar. Leves variaciones en la naturaleza y altitud de la ionosfera, que tienen lugar con gran rapidez, pueden afectar la calidad de la recepción a gran distancia. La ionosfera es también la causa de un fenómeno por el cual se recibe una señal en un punto muy distante y no en otro más próximo. Este fenómeno se produce cuando el rayo en tierra ha sido absorbido por obstáculos terrestres y el rayo propagado a través de la ionosfera no se refleja con un ángulo lo suficientemente agudo como para ser recibido a distancias cortas respecto de la antena.
Radio de onda corta
Aun cuando determinadas zonas de las diferentes bandas de radio, onda corta, onda larga, onda media, frecuencia muy alta y frecuencia ultraalta, están asignadas a muy diferentes propósitos, la expresión “radio de onda corta” se refiere generalmente a emisiones de radio en la gama de frecuencia altas (3 a 30 MHz) que cubren grandes distancias, sobre todo en el entorno de las comunicaciones internacionales. Sin embargo, la comunicación mediante microondas a través de un satélite de comunicaciones, proporciona señales de mayor fiabilidad y libres de error (véase Comunicaciones vía satélite).
Por lo general se suele asociar a los radioaficionados con la onda corta, aunque tienen asignadas frecuencias en la banda de onda media, la de muy alta frecuencia y la de ultraalta, así como en la banda de onda corta. Algunas conllevan ciertas restricciones pensadas para que queden a disposición del mayor número posible de usuarios.
Durante la rápida evolución de la radio tras la I Guerra Mundial, los radioaficionados lograron hazañas tan espectaculares como el primer contacto radiofónico (1921) transatlántico. También han prestado una ayuda voluntaria muy valiosa en caso de emergencias con interrupción de las comunicaciones normales. Ciertas organizaciones de radioaficionados han lanzado una serie de satélites aprovechando los lanzamientos normales de Estados Unidos, la antigua Unión Soviética y la Agencia Espacial Europea (ESA). Estos satélites se denominan normalmente Oscar (Orbiting Satellites Carrying Amateur Radio). El primero de ellos, Oscar 1, colocado en órbita en 1961, fue al mismo tiempo el primer satélite no gubernamental; el cuarto, en 1965, proporcionó la primera comunicación directa vía satélite entre Estados Unidos y la Unión Soviética. A principios de la década de 1980 había en todo el mundo más de 1,5 millones de licencias de radioaficionados, incluidos los de la radio de banda ciudadana.
La radio actual
Los enormes avances en el campo de la tecnología de la comunicación radiofónica a partir de la II Guerra Mundial han hecho posible la exploración del espacio (véase Astronáutica), puesta de manifiesto especialmente en las misiones Apolo a la Luna (1969-1972). A bordo de los módulos de mando y lunar se hallaban complejos equipos de transmisión y recepción, parte del compacto sistema de comunicaciones de muy alta frecuencia. El sistema realizaba simultáneamente funciones de voz y de exploración, calculando la distancia entre los dos vehículos mediante la medición del tiempo transcurrido entre la emisión de tonos y la recepción del eco. Las señales de voz de los astronautas también se transmitían simultáneamente a todo el mundo mediante una red de comunicaciones. El sistema de radio celular es una versión en miniatura de las grandes redes radiofónicas.
La radio comercial
Aunque no fue ésta su finalidad original, pronto se pensó en la posibilidad de utilizar la radio como medio de comunicación de masas. Su capacidad se puso a prueba el 2 de noviembre de 1920, cuando la emisora KDKA de Pittsburg retransmitió la elección del nuevo presidente estadounidense, Warren G. Harding; su mensaje fue escuchado por 1.000 personas.
Los avances en la electrónica hicieron posible la fabricación de nuevos y más baratos aparatos de radio. Su extensión y el éxito del medio como vehículo de comunicación dieron paso a una nueva actividad empresarial, la radio comercial. En 1925 había unas 600 emisoras repartidas por todo el mundo y en la década de 1960 su número llegaba a las 10.000. Emisoras vinculadas a importantes empresas de comunicación coexisten con emisoras locales de mucho menor alcance pero de gran resonancia allí donde actúan.
La radio en España
La primera emisora de radio de España fue la EAJ 1, Radio Barcelona, inaugurada el 14 de noviembre de 1924. La segunda fue la EAJ 2, Radio España, de Madrid, que también empezó a emitir en 1924, aunque interrumpió sus emisiones en 1925 para retomarlas en 1927. Nótese que la indicación EAJ es el indicativo internacional de las emisoras españolas.
Si bien la utilización de la radio como medio de comunicación siguió en España un camino similar al del resto del mundo, la proliferación de emisoras no se produjo al mismo ritmo. Su contenido estuvo bastante determinado durante mucho tiempo; baste decir que hasta octubre de 1977 era obligatorio que todas las emisoras conectasen con Radio Nacional para emitir su Diario hablado, noticiario informativo de carácter general y político.
A partir de esa época, las distintas emisoras fueron especificando sus contenidos en función de las empresas o instituciones que las sustentaban.
La radio en Internet
La radio tiene un hueco especial en Internet. En la actualidad, hay más de 4.000 emisoras que transmiten a través de ese medio, en su mayor parte ligadas a emisoras de radio convencionales, aunque hay empresas que han creado emisoras específicas.
Para poder oír la radio a través de Internet es necesario tener instalado en el ordenador o computadora un conector (plug-in) que soporte formatos de audio, como RealAudio y ASF, suministrados por las empresas RealNetworks y Microsoft, respectivamente.

Entradas populares

Me gusta

Seguidores