Circuito integrado(CI),




Un circuito integrado(CI), es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.
En abril de 1949, el ingeniero alemán Werner Jacobi (Siemens AG) completa la primera solicitud de patente para circuitos integrados (CI) con dispositivos amplificadores de semiconductores. Jacobi realizó una típica aplicación industrial para su patente, la cual no fue registrada.
Más tarde, la integración de circuitos fue conceptualizada por el científico de radares Geoffrey W.A. Dummer (1909-2002), que estaba trabajando para la Royal Radar Establishment del Ministerio de Defensa Británico, a finales de la década de los 1940s y principios de los 1950s.
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby (1923-2005) pocos meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase.
En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.
Los circuitos integrados se encuentran en todos los aparatos electrónicos modernos, como automóviles, televisores, reproductores de CD, reproductores de MP3, teléfonos móviles, etc.
El desarrollo de los circuitos integrados fue posible gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar algunas de las funciones de las válvulas de vacío.
La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre el ensamblaje manual de los tubos de vacío (válvulas) y fabricación de circuitos utilizando componentes discretos.
La capacidad de producción masiva de circuitos integrados, su confiabilidad y la facilidad de agregarles complejidad, impuso la estandarización de los circuitos integrados en lugar de diseños utilizando transistores discretos que pronto dejaron obsoletas a las válvulas o tubos de vacío.
Existen dos ventajas importantes que tienen los circuitos integrados sobre los circuitos convencionales construidos con componentes discretos: su bajo costo y su alto rendimiento. El bajo costo es debido a que los CI son fabricados siendo impresos como una sola pieza por fotolitografía a partir de una oblea de silicio, permitiendo la producción en cadena de grandes cantidades con una tasa de defectos muy baja. El alto rendimiento se debe a que, debido a la miniaturización de todos sus componentes, el consumo de energía es considerablemente menor, a iguales condiciones de funcionamiento.
Los avances que hicieron posible el circuito integrado han sido, fundamentalmente, los desarrollos en la fabricación de dispositivos semiconductores a mediados del siglo XX y los descubrimientos experimentales que mostraron que estos dispositivos podían reemplazar las funciones de las válvulas o tubos de vacío,que se volvieron rápidamente obsoletos al no poder competir con el pequeño tamaño, el consumo de energía moderado, los tiempos de conmutación mínimos, la confiabilidad, la capacidad de producción en masa y la versatilidad de los CI.
Entre los circuitos integrados más avanzados se encuentran los microprocesadores, que controlan todo desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memorias digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información. Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción el costo individual de los CIs por lo general se reduce al mínimo. La eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo (como es el caso de CMOS) en altas velocidades de conmutación.
Con el transcurso de los años, los CI están constantemente migrando a tamaños más pequeños con mejores características, permitiendo que mayor cantidad de circuitos sean empaquetados en cada chip (véase la ley de Moore). Al mismo tiempo que el tamaño se comprime, prácticamente todo se mejora (el costo y el consumo de energía disminuyen a la vez que aumenta la velocidad). Aunque estas ganancias son aparentemente para el usuario final, existe una feroz competencia entre los fabricantes para utilizar geometrías cada vez más delgadas. Este proceso, y el esperado proceso en los próximos años, está muy bien descrito por la International Technology Roadmap for Semiconductors, o ITRS.
Solo ha trascurrido medio siglo desde que se inició su desarrollo y los circuitos integrados se han vuelto casi omnipresentes. Computadoras, teléfonos móviles y otras aplicaciones digitales son ahora partes inextricables de las sociedades modernas. La informática, las comunicaciones, la manufactura y los sistemas de transporte, incluyendo Internet, todos dependen de la existencia de los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución digital causada por los circuitos integrados es uno de los sucesos más significativos de la historia de la humanidad.
Existen tres tipos de circuitos integrados:
• Circuitos monolíticos: Están fabricados en un solo monocristal, habitualmente de silicio, pero también existen en germanio, arseniuro de galio, silicio-germanio, etc.
• Circuitos híbridos de capa fina: Son muy similares a los circuitos monolíticos, pero, además, contienen componentes difíciles de fabricar con tecnología monolítica. Muchos conversores A/D y conversores D/A se fabricaron en tecnología híbrida hasta que los progresos en la tecnología permitieron fabricar resistencias precisas.
• Circuitos híbridos de capa gruesa: Se apartan bastante de los circuitos monolíticos. De hecho suelen contener circuitos monolíticos sin cápsula (dices), transistores, diodos, etc, sobre un sustrato dieléctrico, interconectados con pistas conductoras. Las resistencias se depositan por serigrafía y se ajustan haciéndoles cortes con láser. Todo ello se encapsula, tanto en cápsulas plásticas como metálicas, dependiendo de la disipación de potencia que necesiten. En muchos casos, la cápsula no está "moldeada", sino que simplemente consiste en una resina epoxi que protege el circuito. En el mercado se encuentran circuitos híbridos para módulos de RF, fuentes de alimentación, circuitos de encendido para automóvil, etc.
Clasificación
Atendiendo al nivel de integración - número de componentes - los circuitos integrados se clasifican en:
• SSI (Small Scale Integration) pequeño nivel: de 10 a 100 transistores
• MSI (Medium Scale Integration) medio: 101 a 1.000 transistores
• LSI (Large Scale Integration) grande: 1.001 a 10.000 transistores
• VLSI (Very Large Scale Integration) muy grande: 10.001 a 100.000 transistores
• ULSI (Ultra Large Scale Integration) ultra grande: 100.001 a 1.000.000 transistores
• GLSI (Giga Large Scale Integration) giga grande: mas de un millón de transistores
En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:
• Circuitos integrados analógicos.
Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos.
• Circuitos integrados digitales.
Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados microprocesadores o microcontroladores.
Éstos son diseñados y fabricados para cumplir una función específica dentro de un sistema. En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido de forma que llegan a ser microscópicos. Sin embargo, permiten grandes simplificaciones con respecto los antiguos circuitos, además de un montaje más rápido.


El microprocesador





El microprocesador es un circuito integrado que contiene algunos o todos los elementos hardware, y el de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU. Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.
La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales.
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético-lógica, y dependiendo del procesador, puede contener una unidad en coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:
• PreFetch, pre lectura de la instrucción desde la memoria principal.
• Fetch, envío de la instrucción al decodificador
• Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
• Lectura de operandos (si los hay).
• Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento.
• Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz.
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito ("mito de los megahertz") se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su poder de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún.
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de punto flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.
El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 Mm por hora) se va formando el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de menos de un milímetro de espesor (una capa de unas 10 micras de espesor, la décima parte del espesor de un cabello humano), utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Luego de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micrón, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del “dibujado” de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028 metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.
En procesadores como los Intel y AMD de las series Pentium I (mediados de los 90) y compatibles aún se usaba el empaque cerámico que tenia un arreglo de pines PGA y una cavidad en el espacio de ese arreglo, donde se introducía el chip del procesador y se soldaba con pequeños alambres a los pines. La cavidad se sellaba con una lamina de cobre.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el substrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El substrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un socket de CPU o una placa base.[2]
Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el substrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 Ghz.
Con el aumento en el número de transistores incluidos en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación natural del procesador no es suficiente para mantener temperaturas aceptables en el material semiconductor, de manera que se hace necesario el uso de mecanismos de enfriamiento forzado, como son los disipadores de calor.
Entre ellos se encuentran los sistemas sencillos como disipadores metálicos que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.
El microprocesador posee un arreglo de elementos metálicos (pines, esferas, contactos) que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 1000 elementos metálicos en la superficie de su empaque. El montaje del procesador puede ser con la ayuda de un Socket de CPU o soldado sobre la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al Socket, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.
odos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bytes por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama el Front Side Bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 tranferencias por ciclo.[3]
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas.
Los microprocesadores de última generación de Intel y muchos de AMD poseen además un controlador de memoria DDR en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 3 buses de memoria.
Arquitecturas
• 65xx
o MOS Technology 6502
o Western Design Center 65xx
• ARM
• Altera Nios, Nios II
• AVR (puramente microcontroladores)
• EISC
• RCA 1802 (aka RCA COSMAC, CDP1802)
• DEC Alpha
• Intel
o Intel 4556, 4040
o Intel 8970, 8085, Zilog Z80
o Intel Itanium
o Intel i860
o Intel i515
• LatticeMico32
• M32R
• MIPS
• Motorola
o Motorola 6800
o Motorola 6809
o Motorola c115, ColdFire
o corelduo 15485
o sewcret ranses 0.2457
o Motorola 88000 (antecesor de la familia PowerPC con el IBM POWER)
• IBM POWER (antecesor de la familia PowerPC con el Motorola 88000)
o Familia PowerPC, G3, G4, G5
• NSC 320xx
• OpenRISC
• PA-RISC
• National Semiconductor SC/MP ("scamp")
• Signetics 2650
• SPARC
• SuperH family
• Transmeta Crusoe, Transmeta Efficeon (arquitectura VLIW, con emulador de la IA32 de 32-bit Intel x86)
• INMOS Transputer
• x86
o Intel 8086, 8088, 80186, 80188 (arquitectura x86 de 16-bit con sólo modo real)
o Intel 80286 (arquitectura x86 de 16-bit con modo real y modo protegido)
o IA-32 arquitectura x86 de 32-bits
o x86-64 arquitectura x86 de 64-bits
• Cambridge Consultants XAP


El transistor





El transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, teléfonos móviles, etc.

Fue el sustituto de la válvula termoiónica de tres electrodos o triodo, el transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956.

Al principio se usaron transistores bipolares y luego se inventaron los denominados transistores de efecto de campo (FET). En los últimos, la corriente entre la fuente y la pérdida (colector) se controla usando un campo eléctrico (salida y pérdida (colector) menores). Por último, apareció el semiconductor metal-óxido FET (MOSFET). Los MOSFET permitieron un diseño extremadamente compacto, necesario para los circuitos altamente integrados (IC). Hoy la mayoría de los circuitos se construyen con la denominada tecnología CMOS (semiconductor metal-óxido complementario). La tecnología CMOS es un diseño con dos diferentes MOSFET (MOSFET de canal n y p), que se complementan mutuamente y consumen muy poca corriente en un funcionamiento sin carga.

El transistor consta de un sustrato (usualmente silicio) y tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicas) que forman dos uniones bipolares, el emisor que emite portadores, el colector que los recibe o recolecta y la tercera, que está intercalada entre las dos primeras, modula el paso de dichos portadores (base). A diferencia de las válvulas, el transistor es un dispositivo controlado por corriente y del que se obtiene corriente amplificada. En el diseño de circuitos a los transistores se les considera un elemento activo, a diferencia de los resistores, capacitores e inductores que son elementos pasivos. Su funcionamiento sólo puede explicarse mediante mecánica cuántica.

De manera simplificada, la corriente que circula por el "colector" es función amplificada de la que se inyecta en el "emisor", pero el transistor sólo gradúa la corriente que circula a través de sí mismo, si desde una fuente de corriente continua se alimenta la "base" para que circule la carga por el "colector", según el tipo de circuito que se utilice. El factor de amplificación o ganancia logrado entre corriente de base y corriente de colector, se denomina Beta del transistor. Otros parámetros a tener en cuenta y que son particulares de cada tipo de transistor son: Tensiones de ruptura de Colector Emisor, de Base Emisor, de Colector Base, Potencia Máxima, disipación de calor, frecuencia de trabajo, y varias tablas donde se grafican los distintos parámetros tales como corriente de base, tensión Colector Emisor, tensión Base Emisor, corriente de Emisor, etc. Los tres tipos de esquemas básicos para utilización analógica de los transistores son emisor común, colector común y base común.

Modelos posteriores al transistor descrito, el transistor bipolar (transistores FET, MOSFET, JFET, CMOS, VMOS, etc.) no utilizan la corriente que se inyecta en el terminal de "base" para modular la corriente de emisor o colector, sino la tensión presente en el terminal de puerta o reja de control y gradúa la conductancia del canal entre los terminales de Fuente y Drenador. De este modo, la corriente de salida en la carga conectada al Drenador (D) será función amplificada de la Tensión presente entre la Puerta (Gate) y Fuente (Source). Su funcionamiento es análogo al del triodo, con la salvedad que en el triodo los equivalentes a Puerta, Drenador y Fuente son Reja, Placa y Cátodo.

Los transistores de efecto de campo, son los que han permitido la integración a gran escala que disfrutamos hoy en día, para tener una idea aproximada pueden fabricarse varios miles de transistores interconectados por centímetro cuadrado y en varias capas superpuestas.

Fue el primer transistor que obtuvo ganancia, inventado en 1947 por J. Bardeen y W. Brattain. Consta de una base de germanio sobre la que se apoyan, muy juntas, dos puntas metálicas que constituyen el emisor y el colector. La corriente de base es capaz de modular la resistencia que se "ve" en el colector, de ahí el nombre de "transfer resistor". Se basa en efectos de superficie, poco conocidos en su día. Es difícil de fabricar (las puntas se ajustaban a mano), frágil (un golpe podía desplazar las puntas) y ruidoso. Sin embargo convivió con el transistor de unión (W. Shockley, 1948) debido a su mayor ancho de banda. En la actualidad ha desaparecido.

El transistor de unión bipolar, o BJT por sus siglas en inglés, se fabrica básicamente sobre un monocristal de Germanio, Silicio o Arseniuro de Galio, que tienen cualidades de semiconductores, estado intermedio entre conductores como los metales y los aislantes como el diamante. Sobre el sustrato de cristal, se contaminan en forma muy controlada tres zonas, dos de las cuales son del mismo tipo, NPN o PNP, quedando formadas dos uniones NP.

La zona N con elementos donantes de electrones (cargas negativas) y la zona P de aceptadores o "huecos" (cargas positivas). Normalmente se utilizan como elementos aceptadores P al Indio (In), Aluminio (Al) o Galio (Ga) y donantes N al Arsénico (As) o Fósforo (P).

La configuración de uniones PN, dan como resultado transistores PNP o NPN, donde la letra intermedia siempre corresponde a la característica de la base, y las otras dos al emisor y al colector que, si bien son del mismo tipo y de signo contrario a la base, tienen diferente contaminación entre ellas (por lo general, el emisor esta mucho más contaminado que el colector).

El mecanismo que representa el comportamiento semiconductor dependerá de dichas contaminaciones, de la geometría asociada y del tipo de tecnología de contaminación (difusión gaseosa, epitaxial, etc.) y del comportamiento cuántico de la unión.

También llamado de efecto de campo de unión (JFET), fue el primer transistor de efecto de campo en la práctica. Lo forma una barra de material semiconductor de silicio de tipo N o P. En los terminales de la barra se establece un contacto óhmico, tenemos así un transistor de efecto de campo tipo N de la forma más básica. Si se difunden dos regiones P en una barra de material N y se conectan externamente entre sí, se producirá una puerta. A uno de estos contactos le llamaremos surtidor y al otro drenador. Aplicando tensión positiva entre el drenador y el surtidor y conectando a puerta al surtidor, estableceremos una corriente, a la que llamaremos corriente de drenador con polarización cero. Con un potencial negativo de puerta al que llamamos tensión de estrangulamiento, cesa la conducción en el canal.

El transistor de efecto de campo, o FET por sus siglas en inglés, que controla la corriente en función de una tensión; tienen alta impedancia de entrada.

* Transistor de efecto de campo de unión, JFET, construido mediante una unión PN.
* Transistor de efecto de campo de compuerta aislada, IGFET, en el que la compuerta se aísla del canal mediante un dieléctrico.
* Transistor de efecto de campo MOS, MOSFET, donde MOS significa Metal-Óxido-Semiconductor, en este caso la compuerta es metálica y está separada del canal semiconductor por una capa de óxido.

Válvula electrónica,




La válvula electrónica, también llamada válvula termoiónica, válvula de vacío, tubo de vacío o bulbo, es un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La válvula originaria fue el componente crítico que posibilitó el desarrollo de la electrónica durante la primera mitad del siglo XX, incluyendo la expansión y comercialización de la radiodifusión, televisión, radar, audio, redes telefónicas, computadoras analógicas y digitales, control industrial, etc. Algunas de estas aplicaciones son anteriores a la válvula, pero vivieron un crecimiento explosivo gracias a ella.
A lo largo de su historia, fueron introducidos muchísimos tipos de válvulas, pero los principios de funcionamiento básicos son:
• Efecto Edison. La gran mayoría de las válvulas electrónicas están basadas en la propiedad que tienen los metales en caliente de liberar electrones desde su superficie.
• Gases ionizados. En otros casos, se utilizan las características de la conducción electrónica en gases ionizados, esto resulta principalmente importante en los reguladores de tensión, rectificadores de vapor de mercurio, válvula de conmutación T/R, etc.
• Efecto fotoeléctrico En otros casos, el principio de funcionamiento se basa en la emisión de electrones por el efecto fotoeléctrico
El ocaso de esta tecnología comenzó con la invención del transistor y el posterior desarrollo de componentes de estado sólido que eran mucho más pequeños, baratos y confiables que la válvula. Sin embargo hoy en día aún sobrevive en ciertas aplicaciones específicas, donde por razones técnicas resultan más conveniente. Por ejemplo en transmisores de radiofrecuencia de alta potencia y sistemas de radar se utilizan magnetrones, válvulas de onda progresiva TWT, thyratrones, etc. En televisión y sistemas de imagen medicinal aún se utilizan tubos de rayos catódicos o tubos de captura de imagen, y en el hogar es la base de funcionamiento del horno microondas. También siguen siendo ampliamente utilizadas en amplificadores de guitarras y bajos, así como en equipos de sonido de alta fidelidad.
Aunque el efecto de emisión termoiónica fue originalmente reportado por Frederick Guthrie en 1873, es la investigación de Thomas Alva Edison el trabajo más a menudo mencionado. Edison, al ver que con el uso el cristal de las lámparas incandescentes se iba oscureciendo, buscó la forma de aminorar dicho efecto, realizando para ello diversos experimentos. Uno de ellos fue la introducción en la ampolla de la lámpara de un electrodo en forma de placa, que se polarizaba eléctricamente con el fin de atraer las partículas que, al parecer, se desprendían del filamento. A pesar de que Edison no comprendía a nivel físico el funcionamiento, y desconocía el potencial de su "descubrimiento", en 1884 Edison lo patentó bajo el nombre de "Efecto Edison".[1]
Al agregar un electrodo plano (placa), cuando el filamento se calienta se produce una agitación de los átomos del material que lo recubre, y los electrones de las órbitas de valencia son acelerados, alcanzando velocidades de escape, con lo que se forma una nube de electrones por encima del mismo. La nube termoiónica, fuertemente atraída por la placa, debido al potencial positivo aplicado en la misma, da lugar a la circulación de una corriente electrónica a través de la válvula entre el filamento y el ánodo. A este fenómeno se le denomina Efecto Edison-Richardson o termoiónico.
Llegados a este punto, tenemos que la válvula termoiónica más simple está constituida por una ampolla de vidrio, similar a la de las lámparas de incandescencia, a la que se le ha practicado el vacío y en la que se hallan encerrados dos electrodos, denominados cátodo y ánodo.
Físicamente, el cátodo, consiste en un filamento de wolframio, recubierto por una sustancia rica en electrones libres, que se calienta mediante el paso de una corriente. El ánodo está formado por una placa metálica que rodea al filamento a una cierta distancia y a la que se aplica un potencial positivo. Por constar de dos electrodos a la válvula antes descrita se le denomina diodo.
En tanto en cuanto que la función de cátodo es realizada directamente por el filamento, se trata de una válvula de caldeo directo.
Cuando se quieren obtener mayores corrientes a través de la válvula y un aislamiento eléctrico entre la fuente de corriente de caldeo del filamento y la de ánodo-cátodo, se utiliza un cátodo independiente constituido por un tubito metálico revestido o "pintado" con algún material rico en electrones libres, como el óxido de torio, que rodea el filamento, aislado eléctricamente, pero muy próximo a él para poder calentarlo adecuadamente. En este caso la válvula se denomina de caldeo indirecto, pudiendo entonces la corriente del caldeo ser incluso alterna. En este tipo de válvulas el filamento solo es el elemento calefactor y no se considera un electrodo activo. Al estar los filamentos aislados se pueden conectar juntos (en serie o paralelo) los filamentos de todas las válvulas del equipo, lo que no es posible con cátodos de caldeo directo.
Si se agregan otros electrodos entre ánodo y cátodo - llamados rejillas - se puede controlar o modular el flujo de electrones que llegan al ánodo, de ahí la denominación de válvula.
Debido al hecho de que la corriente por el interior de la válvula solo puede circular en un sentido, una de las aplicaciones de las válvulas termoiónicas es su utilización como rectificador. Asimismo, y dado que con pequeñas diferencias de potencial aplicadas entre rejilla y cátodo se pueden producir variaciones considerables de la corriente circulante entre cátodo y ánodo, otra aplicación, posiblemente la más importante, es como amplificador.
Aunque existe una gran diversidad de tipos de válvulas termoiónicas, tanto en su aplicación como en sus principios de funcionamiento (control de la cantidad de electrones, en triodos, tetrodos, pentodos...; modulación de su velocidad en klistrones; acoplo entre el flujo de electrones y una onda electromagnética en tubos de onda progresiva; etc), la mayoría comparten una serie de características comunes que se han ido potenciando al ir avanzando su desarrollo tecnológico.

El filamento es el órgano calefactor que proporciona la energía suficiente para que el cátodo emita una cantidad de electrones adecuada.
En las primeras válvulas, el filamento también actuaba como cátodo (cátodo de caldeo directo). Posteriormente se separaron las funciones, quedando el filamento sólo como calefactor y el cátodo como electrodo separado (cátodo de caldeo indirecto). Ambas formas convivieron ya que el caldeo directo mejora la transferencia térmica entre el cátodo y el filamento, mientras que el caldeo indirecto simplifica grandemente el diseño de los circuitos y permite optimizar cada uno de los electrodos.
El filamento, al estar caliente, se ve sometido al efecto de sublimación del material de su superficie, es decir, su paso al estado gaseoso, lo que va reduciendo su sección en ciertos puntos que ahora se calientan más que el resto, aumentando la sublimación en ellos hasta que el filamento se rompe. Este efecto disminuye enormemente si se trabaja a temperaturas bajas con materiales de alto punto de fusión (Wolframio...). Por ello la temperatura de los filamentos ha ido descendiendo.
Efecto microfónico: este efecto consiste en la transmisión al filamento de vibraciones mecánicas. Cuando el filamento vibra, transmite estas oscilaciones al cátodo, variando su distancia con la rejilla, lo que produce una modulación en la corriente de electrones. En el ánodo, la señal útil aparece modulada por las vibraciones mecánicas, lo que es especialmente desagradable en el caso de amplificadores de audio, ya que las vibraciones que se acoplan provienen del propio altavoz.
Los campos magnéticos también pueden crear oscilaciones del filamento, por ello algunas válvulas se encerraban en tubos de gran permeabilidad magnética (mu-metal).

El cátodo es el responsable de la emisión de electrones, que debe ser constante a lo largo de la vida de la válvula. Desgraciadamente, esto no es así, y los cátodos se van agotando según envejecen.
Para prolongar la vida de los filamentos, la temperatura de funcionamiento de los cátodos ha ido haciéndose cada vez menor, gracias al empleo de materiales con un potencial de extracción de electrones más bajo (aleaciones de torio, óxidos de lantánidos... )
Los cátodos también deben ser buenos conductores, lo que limita la aplicación de algunos recubrimientos a aplicaciones muy particulares. Por ejemplo, el óxido de calcio suele recubrir los filamentos de los anuncios fluorescentes (VFD).
Ánodos
El ánodo recibe el flujo de electrones que, en la mayoría de las válvulas, han sido acelerados hasta adquirir gran energía que transfieren al ánodo cuando chocan contra él. Por ello, los ánodos de las válvulas de potencia son grandes, muchas veces masivos y forman parte del propio cuerpo de la válvula, pudiendo refrigerarse directamente desde el exterior, por contacto con una superficie fría, aire a presión, vapor de agua, etc. Anteriormente, la refrigeración de ánodo se realizaba fundamentalmente por radiación, por lo que las ampollas de vidrio eran grandes y separadas del ánodo, para que éste pudiese adquirir gran temperatura.
La emisión secundaria es un efecto, normalmente indeseable, que se produce en el ánodo, cuando los electrones incidentes, de gran energía, arrancan electrones del metal. Aunque en algunas válvulas este efecto se aprovecha para obtener ganancia, en la mayoría de ellas degrada la señal y debe evitarse.
Vacío
Un menor grado de vacío implica la presencia de un mayor número de moléculas de gas en la válvula, aumentando el número de colisiones con los electrones y disminuyendo el rendimiento del tubo. Pero un mayor vacío implica un mayor desgaste de los filamentos, por lo que históricamente se ha ido avanzando hacia las válvulas de alto vacío mediante un avance conjunto en todos los demás componentes. Sin embargo, algunas válvulas como los tiratrones basan su funcionamiento en la presencia de ciertos gases llenando el tubo.
Los metales y otros materiales tienen propiedades de adsorción y absorción de gases de la atmósfera, y cuando se calientan a baja presión los van liberando lentamente. Por ello, aunque se extraiga todo el aire de una válvula, con el uso, el vacío interior se reduce. Para evitarlo se utiliza el getter, que es un material (por ejemplo, magnesio) que se evapora una vez sellado el tubo. El magnesio evaporado se deposita en la superficie del vídrio formando un recubrimiento brillante. El getter adsorbe las moléculas de gas que puedan liberarse en el tubo, manteniendo la integridad del vacío. Cuando entra aire en el tubo, el getter se vuelve blanquecino.

Entradas populares

Me gusta

Seguidores