Desintegración beta
Hay dos tipos de desintegración beta. En la que se muestra a la izquierda, un neutrón se convierte en un protón emitiendo un antineutrino y una partícula beta cargada negativamente. En la de la derecha, un protón se convierte en un neutrón emitiendo un neutrino y una partícula beta positivamente cargada. Las partículas beta positivas se llaman positrones, y las negativas electrones. Después de la desintegración, el núcleo del átomo contiene un protón más o menos, por lo que constituye un elemento nuevo, con número atómico distinto.
El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo en 1896 por Becquerel, también facilitó la comprensión de la estructura atómica. En los años siguientes se comprobó que la radiación de los materiales radiactivos estaba formada por tres tipos de emisiones: los llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros eran núcleos de átomos de helio, y Becquerel demostró que los segundos eran electrones muy rápidos. Los rayos gamma resultaron ser radiación electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a partir del mineral de uranio, con lo que demostraron que las radiaciones pueden identificarse con determinados elementos. En 1903, Rutherford y el químico y físico británico Frederick Soddy demostraron que la emisión de rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en un núcleo de un elemento diferente. Poco después se comprobó que los procesos radiactivos son aleatorios y sólo se pueden estudiar desde un punto de vista estadístico: no existe ningún método para indicar qué núcleo de un átomo de un material radiactivo se desintegrará en un momento dado. Estos avances, además de llevar al modelo atómico de Rutherford y Bohr, también sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y oxígeno, con lo que logró la primera transmutación artificial de elementos.
Entretanto, el conocimiento de la naturaleza y abundancia de los isótopos iba creciendo, debido en gran medida al desarrollo del espectrómetro de masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga positiva y casi toda la masa del átomo. Los portadores de la carga nuclear fueron identificados como protones, pero sólo podía explicarse la masa del núcleo si existían otras partículas adicionales sin carga (salvo en el caso del hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra cuya masa es igual a 1,675 × 10-27 kg, algo mayor que la del protón. Los núcleos atómicos resultaron pues estar formados por protones y neutrones —llamados colectivamente nucleones—, y el número atómico del elemento corresponde al número de protones del núcleo. Por otra parte, el número másico, también denominado número isotópico, corresponde a la suma del número de protones y neutrones. Por ejemplo, todos los átomos de oxígeno (cuyo número atómico es 8) tienen ocho protones, pero los tres isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve y diez neutrones en su núcleo.
Marie Curie
Marie Curie fue la primera mujer que ganó el Premio Nobel y la primera persona que lo ganó dos veces. Su brillante trabajo en radiactividad le costó la vida por una exposición excesiva a la radiación. Curie acuñó el término ‘radiactividad’ para describir las emisiones del uranio que observó en sus experimentos. Junto con su marido, descubrió los elementos polonio y radio.
Las cargas eléctricas positivas se repelen, y puesto que los núcleos atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear fuerte, que mantiene unidos los nucleones. La energía asociada con esta interacción fuerte es muy grande, millones de veces mayor que las energías características de los electrones en sus órbitas, responsables de los enlaces químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos protones) tendría que superar esta intensa interacción fuerte para escapar de un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la emisión alfa y demostraron que la naturaleza estadística de los procesos nucleares permitía que las partículas alfa salieran de los núcleos radiactivos aunque su energía media fuera insuficiente para superar la interacción nuclear fuerte. La emisión beta se explicó como resultado de la desintegración de un neutrón del núcleo, que se transforma en un electrón (la partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo resultante tiene un protón más que el núcleo original, por lo que su número atómico, y por tanto su posición en la tabla periódica, aumentan en una unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso de energía, del que se deshace emitiendo un fotón de rayos gamma.
En todos estos procesos se libera una gran cantidad de energía, según la ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los productos es menor que la del núcleo original: esta diferencia de masa corresponde a la energía liberada. Véase Energía nuclear.
5
| |
AVANCES DE LA FÍSICA DESDE 1930
|
La rápida expansión de la física en las últimas décadas ha sido posible gracias a los avances fundamentales del primer tercio del siglo XX, junto con los recientes adelantos tecnológicos, sobre todo en tecnología informática, electrónica, aplicaciones de la energía nuclear y aceleradores de partículas de altas energías.
Ciclotrón y sincrotrón
En física se emplean aceleradores de partículas para estudiar la naturaleza de la materia. Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.) Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.
Rutherford y los otros pioneros de la investigación de las propiedades nucleares estaban limitados a emplear en sus investigaciones sobre el átomo las emisiones de alta energía procedentes de sustancias radiactivas naturales. Las emisiones artificiales de alta energía fueron producidas por primera vez en 1932 por el físico británico John Cockcroft y su colega irlandés Ernest Walton, que emplearon generadores de alta tensión para acelerar electrones hasta unos 700.000 eV; estos elementos fueron utilizados para bombardear núcleos de litio, que se transformaron en núcleos de helio. Un electronvoltio (eV) es la energía que adquiere un electrón al ser acelerado con una diferencia de potencial de 1 voltio, y equivale a 1,6 × 10-19 julios. Los aceleradores modernos producen energías de millones de eV (megaelectronvoltios, o MeV), miles de millones de eV (gigaelectronvoltios, o GeV) o incluso billones de eV (teraelectronvoltios, o TeV). La posibilidad de generar tensiones muy elevadas apareció en 1932, cuando el físico estadounidense Robert J. Van de Graaff inventó el aparato conocido como generador de Van de Graaff.
Poco tiempo después, los físicos estadounidenses Ernest Orlando Lawrence y Milton Stanley Livingston inventaron el ciclotrón; este dispositivo emplea un campo magnético para mantener partículas cargadas moviéndose en trayectorias circulares, y en cada media vuelta proporciona a las partículas un pequeño “empujón” eléctrico hasta que acumulan las altas energías deseadas. El ciclotrón permitía acelerar protones hasta unos 10 MeV, pero para obtener energías más elevadas hubo que esperar hasta después de la II Guerra Mundial, cuando se desarrolló el sincrotrón a partir de las ideas del físico estadounidense Edwin Mattison McMillan y el físico soviético Vladimir I. Veksler. Después de la II Guerra Mundial se produjeron rápidos avances en el diseño de aceleradores y se construyeron aparatos de diferentes tipos para producir haces de alta energía de electrones, protones, deuterones, iones pesados o rayos X.
El círculo grande marca la situación del túnel del LEP, el gran colisionador de electrones-positrones del CERN (Organización Europea para la Investigación Nuclear), que estuvo en funcionamiento hasta finales de 2000. El túnel, que se encuentra a 100 m de profundidad y tiene una circunferencia de 27 km, albergará el gran colisionador de hadrones LHC.
Los aceleradores de menores energías tienen diferentes aplicaciones en industrias y laboratorios, mientras que los más potentes se utilizan para estudiar la estructura de las partículas elementales, los componentes básicos de la naturaleza. En estos estudios se desintegran partículas elementales golpeándolas con haces de proyectiles, que suelen ser protones o electrones. La distribución de los fragmentos proporciona información sobre la estructura de las partículas elementales.
Para obtener información más detallada hace falta usar proyectiles con más energía. Como los proyectiles se aceleran “empujándolos” para obtener mayores energías, hace falta “empujarlos” durante un tiempo mayor. Por eso, los aceleradores de altas energías suelen ser más grandes. La mayor energía de haz obtenida a finales de la II Guerra Mundial era menor de 100 MeV. En 1952 se produjo un avance revolucionario en el diseño de aceleradores cuando los físicos estadounidenses Livingston, Ernest D. Courant y Hartland S. Snyder introdujeron el principio de enfoque intenso. En la actualidad, los mayores aceleradores del mundo producen haces de protones con energías superiores a 1 TeV. Véase Aceleradores de partículas.
5.2
| |
Detectores de partículas
|
Trazas de partículas elementales
Estas trazas fueron producidas por partículas elementales en una cámara de burbujas del CERN, cerca de Ginebra. Examinando dichas trazas, se pueden determinar ciertas propiedades de las partículas que atravesaron la cámara. Por ejemplo, la carga de una partícula puede determinarse a partir del tipo de trayectoria seguida. La cámara de burbujas se coloca en un campo magnético, con lo que la trayectoria de las partículas positivas se curva en un sentido, la de las negativas en sentido opuesto y la de las neutras no se curva.
En sus comienzos, la detección y análisis de partículas elementales se basaba en su capacidad para impresionar emulsiones fotográficas y excitar materiales fluorescentes. El físico británico C. T. R. Wilson observó por primera vez las trayectorias de partículas ionizadas en una cámara de niebla, donde las gotitas de agua se condensaban sobre los iones producidos por las partículas a su paso por la cámara. Mediante campos eléctricos o magnéticos era posible desviar las trayectorias de las partículas, lo que proporcionaba información sobre su momento lineal y su carga eléctrica. Un avance significativo sobre la cámara de niebla fue la cámara de burbujas, inventada por el físico estadounidense Donald Arthur Glaser en 1952. A diferencia de la cámara de niebla, este dispositivo emplea un líquido (por lo general hidrógeno a presión) en lugar de aire; los iones producidos por una partícula rápida se convierten en centros de ebullición y dejan una trayectoria de burbujas fácilmente visible. Como la densidad del líquido es mucho mayor que la del aire, en una cámara de burbujas se producen más interacciones que en una cámara de niebla. Además, las burbujas desaparecen más deprisa que las gotitas de agua, lo que permite una recuperación más rápida de la cámara. Un tercer avance, la cámara de chispa, surgió también en la década de 1950. En este aparato, una serie de placas paralelas se mantiene a una diferencia de potencial elevada en una atmósfera gaseosa adecuada. Cuando una partícula ionizante pasa entre las placas, los átomos de gas se ionizan y producen chispas que delinean la trayectoria de la partícula.
Un contador Geiger es un dispositivo empleado para detectar la presencia y la intensidad de una radiación. Está formado por un tubo lleno de gas a baja presión, que actúa como cámara de ionización. Un circuito eléctrico mantiene un campo eléctrico intenso entre las paredes del tubo y un alambre fino situado en el centro del mismo. Cuando las partículas cargadas, a elevada velocidad, procedentes de una fuente radiactiva colisionan con los átomos del gas del tubo, los ionizan y generan electrones libres, que fluyen por el alambre central y crean un pulso eléctrico que se amplifica y cuenta electrónicamente. Además, los pulsos producen un sonido semejante a un chasquido.
Un tipo diferente de detector, el contador de descarga, fue desarrollado a principios del siglo XX por el físico alemán Hans Geiger; más tarde lo mejoró el físico estadounidense de origen alemán Walter Müller. En la actualidad se conoce como contador Geiger-Müller, o simplemente contador Geiger. A pesar de su pequeño tamaño y fácil manejo, ha sido sustituido en la mayoría de los casos por contadores de estado sólido más rápidos y prácticos, como el contador de centelleo, que fue desarrollado alrededor de 1947 por el físico estadounidense de origen alemán Hartmut Paul Kallmann y otros. El contador de centelleo se basa en los destellos luminosos que producen las partículas ionizadas al atravesar determinados cristales y líquidos orgánicos. Véase Detectores de partículas.
Rayos cósmicos
Los rayos cósmicos son partículas subatómicas extremadamente energéticas que viajan por el espacio exterior a velocidades próximas a la de la luz. Los rayos cósmicos galácticos, originados a muchos años luz de distancia, permiten estudiar el espacio remoto. Esta fotografía, tomada a finales de la década de 1940 con una emulsión fotográfica especial (Kodak NT4), muestra una colisión de una partícula de rayos cósmicos con una partícula de la película. La partícula de rayos cósmicos produjo la traza que empieza en la esquina superior izquierda, colisionó con un núcleo (en el centro) y produjo una lluvia de partículas subatómicas.
Alrededor de 1911, el físico estadounidense de origen austriaco Victor Franz Hess estudió los rayos cósmicos. Los rayos cósmicos primarios están formados por partículas que proceden directamente del exterior de la atmósfera terrestre. Los rayos cósmicos secundarios son partículas y radiaciones producidas en la colisión de las partículas de rayos cósmicos primarios con los átomos de la atmósfera. Hess descubrió que la distribución de los rayos cósmicos está determinada por el campo magnético terrestre. Se comprobó que los rayos estaban cargados positivamente y corresponden sobre todo a protones con energías situadas entre 1 y 1011 GeV. Los rayos cósmicos atrapados en órbitas alrededor de la Tierra son los responsables de los cinturones de radiación de Van Allen, descubiertos por el primer satélite artificial estadounidense, lanzado en 1958.
Cuando un protón primario de alta energía entra en la atmósfera y colisiona con los núcleos de nitrógeno y oxígeno del aire, produce grandes cantidades de partículas secundarias que se dirigen hacia la Tierra formando una lluvia de rayos cósmicos. El origen de los protones de los rayos cósmicos primarios todavía no se comprende en su totalidad. Se sabe que algunos proceden del Sol y otras estrellas, pero los de energías más altas son difíciles de explicar: parece probable que los débiles campos galácticos aceleren los protones interestelares a lo largo de periodos extremadamente largos (véase Galaxia; Vía Láctea).
5.4
| |
Partículas elementales
|
Además del electrón, el protón, el neutrón y el fotón se han descubierto muchas otras partículas fundamentales. En 1932, el físico estadounidense Carl David Anderson descubrió el antielectrón o positrón, que Dirac había predicho en 1928. Anderson comprobó que un rayo gamma de alta energía procedente de la radiación cósmica podía desaparecer en las proximidades de un núcleo pesado y crear un par electrón-positrón exclusivamente a partir de su energía. Cuando un positrón choca con un electrón se aniquilan entre sí y dan lugar a una lluvia de fotones.
En 1935, el físico japonés Yukawa Hideki desarrolló una teoría que explicaba cómo se mantiene unido un núcleo a pesar de la repulsión mutua entre sus protones. Yukawa postuló la existencia de una partícula de masa intermedia entre el electrón y el protón. En 1936, Anderson y sus colaboradores descubrieron en la radiación cósmica secundaria una nueva partícula con una masa 207 veces superior a la del electrón. Al principio se creyó que esa partícula, que se denominó muón, era el “pegamento” nuclear de Yukawa. Los experimentos posteriores del físico británico Cecil Frank Powell y otros llevaron al descubrimiento de una partícula algo más pesada, con una masa 270 veces mayor que la del electrón. Este mesón pi o pión (también hallado en la radiación cósmica secundaria) fue finalmente identificado como la pieza que faltaba en la teoría de Yukawa.
Desde entonces se han encontrado muchas partículas adicionales en la radiación cósmica secundaria y en los aceleradores de partículas de altas energías. Entre ellas figuran numerosas partículas de gran masa, denominadas hadrones (partículas afectadas por la interacción nuclear fuerte, que mantiene unidos los núcleos atómicos), que incluyen los hiperones y diversos mesones pesados cuya masa es de 1 a 3 veces la del protón, además de los llamados bosones vectoriales intermedios, como las partículas W y Z0, los portadores de la interacción nuclear débil. Estas partículas pueden ser eléctricamente neutras, positivas o negativas, pero nunca tienen más de una carga eléctrica elemental, e. Tienen un periodo de semidesintegración que va desde 10-8 hasta 10-14 segundos, y se desintegran dando lugar a numerosas partículas más ligeras. Cada partícula tiene su antipartícula correspondiente y posee un determinado momento angular. Todas cumplen una serie de leyes de conservación relativas a números cuánticos como el número bariónico, la llamada extrañeza o el espín isotópico.
En 1931, para explicar el aparente incumplimiento de algunas leyes de conservación en determinados procesos radiactivos, Pauli postuló la existencia de partículas eléctricamente neutras de masa nula o casi nula que transportan energía y momento lineal. Esta idea fue desarrollada por el físico estadounidense nacido en Italia Enrico Fermi, que llamó neutrino a esta partícula hipotética. Al carecer de carga y ser extremadamente pequeño, el neutrino es muy difícil de detectar, y puede atravesar con facilidad toda la Tierra sin ser capturado. Fue finalmente descubierto por los estadounidenses Frederick Reines y Clyde Lorrain Cowan, hijo. Los experimentos del físico estadounidense Robert Hofstadter con electrones rápidos procedentes de aceleradores lineales también contribuyeron a ampliar el conocimiento de la estructura interna de los protones y neutrones.
A finales de la década de 1940, una serie de experimentos con rayos cósmicos reveló nuevos tipos de partículas cuya existencia no se había pronosticado. Se las denominó partículas extrañas, y sus propiedades se estudiaron intensivamente en la década de 1950. En la década de 1960, se encontraron muchas partículas nuevas en experimentos con grandes aceleradores. El nombre de partículas elementales se aplica al electrón, el protón, el neutrón, el fotón y a todas las partículas descubiertas desde 1932. Sin embargo, el término es de hecho incorrecto, ya que se ha comprobado que la mayoría de estas partículas tienen una estructura interna complicada.
La física de partículas elementales se ocupa de dos cuestiones: 1) la estructura interna de estos componentes de la materia; 2) la interacción de los mismos para formar núcleos. La teoría dominante acerca de la estructura interna de las partículas elementales se basa en los quarks, subpartículas de carga fraccionaria; por ejemplo, un protón está formado por tres quarks. Esta teoría fue propuesta por primera vez en 1964 por los físicos estadounidenses Murray Gell-Mann y George Zweig. Los nucleones están formados por tríos de quarks, mientras que los mesones están formados por parejas de quarks. No se conoce ningún proceso para producir quarks aislados, pero se cree que existieron de forma individual en las condiciones extremas que reinaron al comienzo del Universo. Al principio, la teoría postulaba tres tipos de quarks, pero los experimentos posteriores exigieron la introducción de otros tres tipos adicionales.
5.4.1
| |
Teoría del campo unificado
|
Hasta ahora, las teorías más fructíferas de las interacciones entre las partículas elementales son las llamadas teorías de gauge. En estas teorías, la interacción entre dos clases de partículas se caracteriza por la simetría. Por ejemplo, la simetría entre neutrones y protones consiste en que si se intercambian las identidades de las partículas no cambia nada en lo relativo a la interacción fuerte. La primera de las teorías de gauge se aplicó a las interacciones electromagnéticas entre partículas cargadas. Aquí, la simetría reside en el hecho de que los cambios en la combinación de potenciales eléctricos y magnéticos no tienen efecto sobre los resultados finales. Una teoría de gauge muy potente, posteriormente verificada, fue propuesta de forma independiente por el físico estadounidense Steven Weinberg y el físico paquistaní Abdus Salam en 1967 y 1968. Su modelo vinculaba los bosones vectoriales intermedios con el fotón, con lo que unificaba las interacciones electromagnética y nuclear débil, aunque sólo en el caso de los leptones (partículas no afectadas por la interacción nuclear fuerte). Los trabajos posteriores de Sheldon Lee Glashow, J. Iliopolis y L. Maiani demostraron la forma en que el modelo puede aplicarse también a los hadrones (partículas afectadas por la interacción fuerte).
En principio, la teoría de gauge puede aplicarse a cualquier campo de fuerzas, lo que presenta la posibilidad de que todas las fuerzas o interacciones puedan unirse en una única teoría del campo unificado. Estos intentos implican siempre el concepto de simetría. Las simetrías generalizadas se extienden también a intercambios de partículas que varían de un punto a otro en el espacio y en el tiempo. El problema para los físicos es que estas simetrías no amplían el conocimiento científico de la naturaleza de la materia. Por eso, muchos físicos están explorando las posibilidades de las llamadas teorías de supersimetría, que relacionarían directamente los fermiones y los bosones postulando nuevas parejas de partículas “gemelas” además de las conocidas, que sólo se diferenciarían por el espín. Se han expresado algunas reservas en relación con estos intentos; en cambio, otro enfoque conocido como teoría de supercuerdas suscita mucho interés. En esta teoría, las partículas fundamentales no se consideran objetos sin dimensiones sino “cuerdas” que se extienden en una dimensión con longitudes menores de 10-35 metros. Todas estas teorías resuelven muchos de los problemas con que se encuentran los físicos que trabajan en la teoría del campo unificado, pero de momento sólo son construcciones bastante especulativas.
Irène y Jean Frédéric Joliot-Curie
Irène y Jean Frédéric Joliot-Curie, una de las más célebres parejas de la historia de la física, en el laboratorio de la Universidad de París, donde desarrollaron la mayor parte de su actividad investigadora. En 1933 los dos científicos descubrieron que los elementos radiactivos se pueden preparar artificialmente a partir de elementos estables.
En 1932 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias.
Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una veintena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios. Véase Armas nucleares.
Reactor de Fusión Tokamak
En 1993, científicos del Reactor Experimental de Fusión Tokamak, del laboratorio de física del plasma de la Universidad de Princeton (EEUU), produjeron una reacción de fusión controlada en la que la temperatura del reactor triplicó la existente en el núcleo solar. En un tokamak, unos enormes imanes confinan plasma de hidrógeno a temperatura y presiones muy elevadas, lo que obliga a los núcleos de hidrógeno a fusionarse liberando una extraordinaria cantidad de energía.
La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones —en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller— como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear.
Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo.
5.6
| |
Física del estado sólido
|
En los sólidos, los átomos están densamente empaquetados, lo que lleva a la existencia de fuerzas de interacción muy intensas y numerosos efectos relacionados con este tipo de fuerzas que no se observan en los gases, donde las moléculas actúan en gran medida de forma independiente. Los efectos de interacción son responsables de las propiedades mecánicas, térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que resulta difícil de tratar desde el punto de vista teórico, aunque se han realizado muchos progresos.
Una característica importante de la mayoría de los sólidos es su estructura cristalina, en la que los átomos están distribuidos en posiciones regulares que se repiten de forma geométrica (véase Cristal). La distribución específica de los átomos puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos como el cloruro de sodio o sal común se mantienen unidos por enlaces iónicos debidos a la atracción eléctrica entre los iones que componen el material. En otros, como el diamante, los átomos comparten electrones, lo que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado de unas fuerzas de atracción conocidas como fuerzas de van der Waals, así llamadas en honor al físico holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre moléculas o átomos neutros como resultado de la polarización eléctrica. Los metales, por su parte, se mantienen unidos por lo que se conoce como “gas electrónico”, formado por electrones libres de la capa atómica externa compartidos por todos los átomos del metal y que definen la mayoría de sus propiedades (véase Metalografía).
Los niveles de energía definidos y discretos permitidos a los electrones de átomos individuales se ensanchan hasta convertirse en bandas de energía cuando los átomos se agrupan densamente en un sólido. La anchura y separación de esas bandas definen muchas de las propiedades del material. Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir electrones, restringen el movimiento de éstos y hacen que el material sea un buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan, como ocurre en los metales, los electrones pueden moverse con facilidad, lo que hace que el material sea un buen conductor de la electricidad y el calor. Si la banda prohibida es estrecha, algunos de los electrones más rápidos pueden saltar a la banda de energía superior: es lo que ocurre en un semiconductor como el silicio. En ese caso, el espacio entre las bandas de energía puede verse muy afectado por cantidades minúsculas de impurezas, como arsénico. Cuando la impureza provoca el descenso de una banda de energía alta, se dice que es un donante de electrones, y el semiconductor resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una banda de energía baja, como ocurre con el galio, se dice que es un aceptor de electrones. Los vacíos o “huecos” de la estructura electrónica actúan como si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo p. Numerosos dispositivos electrónicos modernos, en particular el transistor, desarrollado por los físicos estadounidenses John Bardeen, Walter Houser Brattain y William Bradford Shockley, están basados en estas propiedades de los semiconductores.
Las propiedades magnéticas de los sólidos se deben a que los electrones actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de los sólidos dependen de la temperatura. Por ejemplo, los materiales ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo residual cuando se los calienta a una temperatura característica denominada punto de Curie. La resistencia eléctrica suele decrecer al disminuir la temperatura, y en algunos materiales denominados superconductores desaparece por completo en las proximidades del cero absoluto (véase Superconductividad). Éste y muchos otros fenómenos observados en los sólidos dependen de la cuantización de la energía, y la mejor forma de describirlos es a través de “partículas” efectivas con nombres como fonón, polarón o magnón.
Levitación magnética
Un pequeño imán cilíndrico flota por encima de un superconductor. El vapor es nitrógeno líquido en ebullición, que mantiene al superconductor en un estado de resistencia nula. Cuando el imán desciende hacia el superconductor, induce una corriente eléctrica, que a su vez crea un campo magnético opuesto al del imán. Como el superconductor no tiene resistencia eléctrica, la corriente inducida sigue fluyendo y mantiene el imán suspendido indefinidamente.
A temperaturas muy bajas (cerca del cero absoluto), muchos materiales presentan características sorprendentes (véase Criogenia). A comienzos del siglo XX, el físico holandés Heike Kamerlingh Onnes desarrolló técnicas para producir estas bajas temperaturas y descubrió la superconductividad del mercurio, que pierde toda su resistencia eléctrica a una temperatura de unos 4 kelvins. A muchos otros elementos, aleaciones y compuestos les ocurre lo mismo a una temperatura característica cercana a 0 K, y los materiales magnéticos se convierten en aislantes magnéticos. Desde 1986 se han fabricado varios materiales que presentan superconductividad a temperaturas mayores. La teoría de la superconductividad, desarrollada en gran medida por John Bardeen y otros dos físicos estadounidenses, Leon N. Cooper y John Robert Schrieffer, es extremadamente complicada, e implica el apareamiento de electrones en la red cristalina.
Otro descubrimiento fascinante fue el de que el helio no se congela, sino que a unos 2 K pasa de ser un líquido ordinario, denominado He I, a convertirse en He II, un líquido superfluido que no tiene viscosidad y presenta una conductividad térmica unas 1.000 veces mayor que la de la plata. El He II puede formar películas que se desplazan hacia arriba por las paredes del recipiente que lo contiene, y traspasa con facilidad materiales como el platino. Aún no hay una teoría plenamente satisfactoria para este comportamiento.
Un plasma es cualquier sustancia, generalmente un gas, cuyos átomos han perdido uno o más electrones, por lo que ha quedado ionizada. Sin embargo, los electrones perdidos se mantienen en el volumen del gas, que de forma global permanece eléctricamente neutro. La ionización se puede producir mediante la introducción de grandes concentraciones de energía, como el bombardeo con electrones externos rápidos, mediante irradiación con luz láser o mediante calentamiento a temperaturas muy altas. Las partículas cargadas individuales que forman el plasma responden a campos eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas.
Los plasmas se encuentran en fuentes de luz gaseosas (como una lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas interiores producen un alto grado de ionización, un proceso estrechamente relacionado con la fusión nuclear que proporciona su energía a las estrellas. Para que los núcleos de hidrógeno se fusionen y formen núcleos más pesados deben tener una velocidad suficientemente alta para superar su repulsión eléctrica mutua; esto implica una temperatura muy elevada (millones de grados). Para producir una fusión controlada hay que generar plasmas y contenerlos magnéticamente. Es un problema importante y complejo que entra en el ámbito de la magnetohidrodinámica.
Aplicaciones industriales del láser
Una de las muchas aplicaciones del láser es la soldadura de piezas metálicas. Los soldadores láser funden metales a temperaturas superiores a 5.500 ºC. También se emplea el láser para cortar agujeros pequeños o tallar detalles finos en metales.
Un importante avance reciente es el láser, acrónimo en inglés de “amplificación de luz por emisión estimulada de radiación”. En un láser, cuya sustancia activa puede ser un gas, un líquido o un sólido, se excita un gran número de átomos hasta un nivel elevado de energía y se hace que liberen dicha energía simultáneamente, con lo que producen luz coherente en la que todas las ondas están en fase. Esta coherencia permite generar haces de luz muy intensos y de longitud de onda muy definida, que se mantienen enfocados o colimados a lo largo de distancias muy grandes. La luz láser es mucho más intensa que la de cualquier otra fuente. Un láser continuo puede proporcionar cientos de vatios, y un láser pulsado puede generar millones de vatios durante periodos muy cortos. El láser fue desarrollado en las décadas de 1950 y 1960 por el ingeniero e inventor estadounidense Gordon Gould y los físicos estadounidenses Charles Hard Townes, T. H. Maiman, Arthur Schawlow y Alí Javan. En la actualidad constituye un instrumento muy potente para la ciencia y la tecnología, con aplicaciones en comunicación, medicina, navegación, metalurgia, fusión y corte de materiales.
5.10
| |
Astrofísica y cosmología
|
Desde la II Guerra Mundial los astrónomos han hecho muchos descubrimientos importantes, como los quasares, los púlsares (véase Estrella) o la radiación de fondo cósmica. Estos descubrimientos, que no pueden ser explicados totalmente por la física actual, han estimulado el avance de la teoría en campos como la gravitación o la física de partículas elementales. En la actualidad se acepta que toda la materia accesible a nuestra observación estaba originalmente comprimida de forma muy densa en un solo lugar, y explotó entre 10.000 y 20.000 millones de años antes del momento presente en un estallido colosal conocido como Big Bang o Gran Explosión. La explosión dio lugar a un universo que todavía se está expandiendo. Un aspecto enigmático de este universo, recientemente descubierto, es que las galaxias no están distribuidas de modo uniforme. Hay inmensos espacios vacíos rodeados por grupos de galaxias con forma de filamentos. La distribución de esos vacíos y filamentos aporta datos importantes sobre la naturaleza de la materia que surgió de la Gran Explosión e indica que es muy probable que la llamada materia oscura predominase sobre las formas conocidas de materia. Éste es sólo uno de los puntos en los que “la física de lo muy grande” enlaza con “la física de lo muy pequeño”. Véase también Teoría inflacionaria (cosmología).