Relatividad




Albert Einstein
Albert Einstein, autor de las teorías general y restringida de la relatividad, es considerado uno de los mayores científicos de todos los tiempos. No se conoce tanto su compromiso social. En la grabación, Einstein habla de Gandhi y elogia la no violencia.

Relatividad, teoría desarrollada a principios del siglo XX, que originalmente pretendía explicar ciertas anomalías en el concepto de movimiento relativo, pero que en su evolución se ha convertido en una de las teorías básicas más importantes en las ciencias físicas (véase Física). Esta teoría, desarrollada fundamentalmente por Albert Einstein, fue la base para que los físicos demostraran la unidad esencial de la materia y la energía, el espacio y el tiempo, y la equivalencia entre las fuerzas de la gravitación y los efectos de la aceleración de un sistema.
2
FÍSICA CLÁSICA
Hendrik A. Lorentz
El físico holandés Hendrik A. Lorentz fue galardonado con el Premio Nobel de Física en 1902 por sus investigaciones sobre la influencia del magnetismo en la radiación. Realizó también numerosas contribuciones al desarrollo de la teoría de la relatividad.

Las leyes físicas aceptadas de forma general por los científicos antes del desarrollo de la teoría de la relatividad —hoy denominadas leyes clásicas— se basaban en los principios de la mecánica enunciados a finales del siglo XVII por el físico y matemático británico Isaac Newton. La mecánica newtoniana y la relativista se diferencian por sus suposiciones fundamentales y su desarrollo matemático, pero en la mayoría de los casos no se distinguen apreciablemente en sus resultados finales; por ejemplo, el comportamiento de una bola de billar al ser golpeada por otra bola puede predecirse mediante cálculos matemáticos basados en cualquiera de los dos tipos de mecánica con resultados casi idénticos. Como la matemática clásica es muchísimo más sencilla que la relativista, es la que se emplea en este tipo de cálculos. Sin embargo, cuando las velocidades son muy elevadas —si suponemos, por ejemplo, que una de las bolas de billar se mueve con una velocidad próxima a la de la luz— las dos teorías predicen un comportamiento totalmente distinto, y en la actualidad los científicos están plenamente convencidos de que las predicciones relativistas se verían confirmadas y las clásicas quedarían refutadas.
En general, el límite de aplicación de la mecánica clásica a un objeto en movimiento viene determinado por un factor introducido por el físico holandés Hendrik Antoon Lorentz y el físico irlandés George Francis Fitzgerald a finales del siglo XIX. Este factor se representa con la letra griega g (gamma) y depende de la velocidad del objeto según la siguiente ecuación:

donde v es la velocidad del objeto, c es la velocidad de la luz y β = v/c. El factor gamma no difiere prácticamente de la unidad para las velocidades observadas en la vida diaria. Por ejemplo, las mayores velocidades que se encuentran en la balística ordinaria son de unos 1,6 km/s, la mayor velocidad que puede obtenerse con un cohete propulsado por combustibles normales es algo superior, y la velocidad de la Tierra en su órbita alrededor del Sol es de unos 29 km/s; para esta última velocidad, el valor de gamma sólo difiere de la unidad en cinco milmillonésimas. Por tanto, para fenómenos terrestres ordinarios, las correcciones relativistas son poco importantes. Sin embargo, cuando las velocidades son muy grandes, como ocurre a veces en fenómenos astronómicos, las correcciones relativistas se hacen significativas. La relatividad también es importante para calcular comportamientos en distancias muy grandes o agrupaciones de materia de gran tamaño. A diferencia de la teoría cuántica, que se aplica a lo muy pequeño, la teoría de la relatividad se aplica a lo muy grande.
Hasta 1887 no había aparecido ninguna grieta en la estructura de la física clásica, que se estaba desarrollando con rapidez. Aquel año, el físico estadounidense Albert Michelson y el químico estadounidense Edward Williams Morley llevaron a cabo el llamado experimento de Michelson-Morley. El experimento pretendía determinar la velocidad de la Tierra a través del éter, una sustancia hipotética que, según se creía, transmitía la radiación electromagnética, incluida la luz, y llenaba todo el espacio. Si el Sol se encuentra en reposo absoluto en el espacio, la Tierra debería tener una velocidad constante de 29 km/s debido a su rotación en torno al Sol; si este astro y todo el Sistema Solar se están moviendo a través del espacio, el continuo cambio de dirección de la velocidad orbital de la Tierra hará que su valor se sume a la velocidad del Sol en algunas épocas del año y se reste en otras. El resultado del experimento fue totalmente inesperado e inexplicable: la velocidad aparente de la Tierra a través del hipotético éter era nula en todos los periodos del año.

Dispositivo de Michelson-Morley
En 1887, Albert Michelson y Edward Morley diseñaron una experiencia para medir la velocidad de la Tierra con respecto al éter, una sustancia que se suponía que era el medio en que se propagaba la luz. Para ello dividieron un haz de luz en dos haces que se propagaban formando un ángulo recto y los hicieron interferir, formando un diagrama característico de franjas claras y oscuras. Si la Tierra (y por tanto el aparato) se moviera respecto al éter, la velocidad de los haces sería distinta, igual que la velocidad de un barco que va río arriba y después río abajo difiere de la de un barco que cruza el río. La diferencia de velocidades de los haces modificaría el diagrama de interferencia. Sin embargo, no se halló ninguna modificación. Éste y otros fracasos en la detección del movimiento de la Tierra en el éter llevaron 18 años después a Albert Einstein a desarrollar la teoría de la relatividad restringida, con lo que se abandonó la teoría del éter.

Lo que pretendía detectar el experimento de Michelson-Morley era una diferencia en la velocidad de la luz a través del espacio en dos direcciones distintas. Si un rayo de luz se mueve en el espacio a 300.000 km/s y un observador se desplaza en la misma dirección y sentido a 29 km/s, la luz debería moverse con respecto al observador con una velocidad aparente igual a la diferencia entre esos dos valores. Si el observador se mueve en la misma dirección pero en sentido opuesto, la velocidad aparente de la luz debería ser la suma de ambos valores. El experimento de Michelson-Morley no logró detectar una diferencia de este tipo (de hecho, el experimento empleó dos haces de luz perpendiculares entre sí). Ese resultado no podía explicarse con la hipótesis de que el paso de la luz no se ve afectado por el movimiento de la Tierra.
En la década de 1890, Fitzgerald y Lorentz aventuraron la hipótesis de que, cuando cualquier objeto avanza a través del espacio, su longitud en la dirección del movimiento se ve alterada por el factor beta. El resultado negativo del experimento de Michelson-Morley se explicaba suponiendo que, aunque un rayo de luz atravesaba efectivamente una distancia más corta que el otro en el mismo tiempo (es decir, avanzaba más lentamente), el efecto no pudo observarse porque la distancia se medía necesariamente con algún dispositivo mecánico que también sufría el mismo acortamiento. Efectivamente, si un objeto de 2,99 m de longitud se mide con una cinta métrica que indica 3 m pero ha encogido 1 cm, el objeto parecerá tener 3 m de longitud. Así, en el experimento de Michelson-Morley, la distancia recorrida por la luz en un segundo parecía ser la misma independientemente de la velocidad real de la luz. Los científicos consideraban que la contracción de Lorentz-Fitzgerald era una hipótesis poco satisfactoria, ya que empleaba el concepto de movimiento absoluto pero sacaba la conclusión de que ese movimiento no podía medirse.
3
TEORÍA DE LA RELATIVIDAD ESPECIAL
En 1905, Einstein publicó el primero de dos importantes artículos sobre la teoría de la relatividad, en el que eliminaba el problema del movimiento absoluto negando su existencia. Según Einstein, ningún objeto del Universo se distingue por proporcionar un marco de referencia absoluto en reposo en relación al espacio. Cualquier objeto (por ejemplo, el centro del Sistema Solar) proporciona un sistema de referencia igualmente válido, y el movimiento de cualquier objeto puede referirse a ese sistema. Así, es igual de correcto afirmar que el tren se desplaza respecto a la estación como que la estación se desplaza respecto al tren. Este ejemplo no es tan absurdo como parece a primera vista, porque la estación también se mueve debido al movimiento de la Tierra sobre su eje y a su rotación en torno al Sol. Según Einstein, todo el movimiento es relativo.
Ninguna de las premisas básicas de Einstein era revolucionaria; Newton ya había afirmado que “el reposo absoluto no puede determinarse a partir de la posición de los cuerpos en nuestras regiones”. Lo revolucionario era afirmar, como hizo Einstein, que la velocidad relativa de un rayo de luz respecto a cualquier observador es siempre la misma, aproximadamente unos 300.000 km/s. Aunque dos observadores se muevan a una velocidad de 160.000 km/s uno respecto al otro, si ambos miden la velocidad de un mismo rayo de luz, los dos determinarán que se desplaza a 300.000 km/s. Este resultado aparentemente anómalo quedaba demostrado en el experimento de Michelson-Morley. Según la física clásica, sólo uno de los dos observadores —como mucho— podía estar en reposo, mientras que el otro cometía un error de medida debido a la contracción de Lorentz-Fitzgerald experimentada por sus aparatos; según Einstein, ambos observadores tienen el mismo derecho a considerarse en reposo y ninguno de los dos comete un error de medida. Cada observador emplea un sistema de coordenadas como marco de referencia para sus medidas, y un sistema puede transformarse en el otro mediante una manipulación matemática. Las ecuaciones de esta transformación, conocidas como ecuaciones de transformación de Lorentz, fueron adoptadas por Einstein, aunque las interpretó de forma radicalmente nueva. La velocidad de la luz permanece invariante en cualquier transformación de coordenadas.
Según la transformación relativista, no sólo se modifican las longitudes en la dirección del movimiento de un objeto, sino también el tiempo y la masa. Un reloj que se desplace en relación a un observador parecería andar más lento y cualquier objeto material parecería aumentar su masa, en ambos casos en un factor igual al factor Γ (gamma mayúscula), inverso del factor g. El electrón, que acababa de descubrirse, proporcionaba un método para comprobar esta última suposición. Los electrones emitidos por sustancias radiactivas tienen velocidades próximas a la de la luz, con lo que el factor Γ podría llegar a ser de 2 y la masa del electrón se duplicaría. La masa de un electrón en movimiento puede determinarse con facilidad midiendo la curvatura de su trayectoria en un campo magnético; cuanto más pesado sea el electrón, menor será la curvatura de su trayectoria para una determinada intensidad del campo (véase Magnetismo). Los experimentos confirmaron espectacularmente la predicción de Einstein; el electrón aumentaba de masa exactamente en el factor que él había predicho. La energía cinética del electrón acelerado se había convertido en masa de acuerdo con la fórmula: mc2 (véase Átomo; Energía nuclear).
La hipótesis fundamental en la que se basaba la teoría de Einstein era la inexistencia del reposo absoluto en el Universo. Einstein postuló que dos observadores que se mueven a velocidad constante uno respecto de otro observarán unas leyes naturales idénticas. Sin embargo, uno de los dos podría percibir que dos hechos en estrellas distantes han ocurrido simultáneamente, mientras que el otro hallaría que uno ha ocurrido antes que otro; esta disparidad no es de hecho una objeción a la teoría de la relatividad porque según esta teoría, la simultaneidad no existe para acontecimientos distantes. En otras palabras, no es posible especificar de forma unívoca el momento en que ocurre un hecho sin una referencia al lugar donde ocurre. Toda partícula u objeto del Universo se describe mediante una llamada ‘línea del universo’, que traza su posición en el tiempo y el espacio. Cuando se cruzan dos o más líneas del universo, se produce un hecho o suceso. Si la línea del universo de una partícula no cruza ninguna otra línea del universo, no le ocurre nada, por lo que no es importante —ni tiene sentido— determinar la situación de la partícula en ningún instante determinado. La ‘distancia’ o ‘intervalo’ entre dos sucesos cualesquiera puede describirse con precisión mediante una combinación de intervalos espaciales y temporales, pero no mediante uno sólo. El espacio-tiempo de cuatro dimensiones (tres espaciales y una temporal) donde tienen lugar todos los sucesos del Universo se denomina continuo espacio-tiempo.
Todas las afirmaciones anteriores son consecuencias de la relatividad especial o restringida, nombre aplicado a la teoría desarrollada por Einstein en 1905 como resultado de su estudio de objetos que se mueven a velocidad constante uno respecto de otro.
4
TEORÍA DE LA RELATIVIDAD GENERAL
En 1915, Einstein desarrolló su teoría de la relatividad general, en la que consideraba objetos que se mueven de forma acelerada uno respecto a otro. Einstein desarrolló esta teoría para explicar contradicciones aparentes entre las leyes de la relatividad y la ley de la gravitación. Para resolver esos conflictos desarrolló un enfoque totalmente nuevo del concepto de gravedad, basado en el principio de equivalencia.
El principio de equivalencia afirma que las fuerzas producidas por la gravedad son totalmente equivalentes a las fuerzas producidas por la aceleración, por lo que en teoría es imposible distinguir entre fuerzas de gravitación y de aceleración mediante un experimento. La teoría de la relatividad especial implica que una persona situada en un vehículo cerrado no puede determinar mediante ningún experimento imaginable si está en reposo o en movimiento uniforme. La relatividad general implica que si el vehículo resulta acelerado o frenado, o toma una curva, el ocupante no puede afirmar si las fuerzas producidas se deben a la gravedad o son fuerzas de aceleración producidas al pisar el acelerador o el freno o al girar el vehículo bruscamente.
La aceleración se define como el cambio de velocidad por unidad de tiempo. Consideremos a un astronauta que está de pie en una nave estacionaria. Debido a la gravedad, sus pies presionan contra el suelo de la nave con una fuerza igual al peso de la persona, w. Si esa misma nave se encuentra en el espacio exterior, lejos de cualquier otro objeto y prácticamente no influida por la gravedad, el cosmonauta también se verá presionado contra el suelo si la nave acelera. Si la aceleración es de 9,8 m/s2 (la aceleración de la gravedad en la superficie terrestre), la fuerza con que el astronauta es presionado contra el suelo es de nuevo igual a w. Si no mira por la escotilla, el cosmonauta no tiene forma de saber si la nave está en reposo sobre la Tierra o está siendo acelerada en el espacio exterior. La fuerza debida a la aceleración no puede distinguirse en modo alguno de la fuerza debida a la gravedad. Einstein atribuye todas las fuerzas, tanto las gravitacionales como las asociadas convencionalmente a la aceleración, a los efectos de la aceleración. Así, cuando la nave está en reposo sobre la superficie terrestre, se ve atraída hacia el centro de la Tierra. Einstein afirma que este fenómeno de atracción es atribuible a una aceleración de la nave. En el espacio tridimensional, la nave se encuentra estacionaria, por lo que no experimenta aceleración; sin embargo, en el espacio-tiempo de cuatro dimensiones, la nave está moviéndose a lo largo de su línea del universo. Según Einstein, la línea del universo está curvada debido a la curvatura del continuo espacio-tiempo en la proximidad de la Tierra.
Así, la hipótesis de Newton de que todo objeto atrae a los demás objetos de forma directamente proporcional a su masa es sustituida por la hipótesis relativista de que el continuo está curvado en las proximidades de objetos masivos. La ley de la gravedad de Einstein afirma sencillamente que la línea del universo de todo objeto es una geodésica en el continuo. Una geodésica es la distancia más corta entre dos puntos, pero en el espacio curvado no es, normalmente, una línea recta. Del mismo modo, las geodésicas en la superficie terrestre son los círculos máximos, que no son líneas rectas en los mapas corrientes. Véase Geometría; Geometría no euclídea; Navegación: Mapa y proyecciones cartográficas.
5
CONFIRMACIÓN Y MODIFICACIÓN
En la mayoría de los casos mencionados hasta ahora, las predicciones clásica y relativista son prácticamente idénticas, aunque la matemática relativista es más compleja. La famosa afirmación apócrifa de que sólo había 10 personas en el mundo que entendieran la teoría de Einstein se refería al complicado álgebra tensorial y a la geometría riemanniana de la relatividad general; en cambio, cualquier estudiante de cálculo elemental puede comprender la relatividad especial.
La teoría de la relatividad general ha sido confirmada en numerosas formas desde su aparición. Por ejemplo, la teoría predice que la línea del universo de un rayo de luz se curva en las proximidades de un objeto masivo como el Sol. Para comprobar esta predicción, los científicos decidieron observar las estrellas que parecen encontrarse muy cerca del borde del Sol. Estas observaciones no pueden realizarse normalmente, porque el brillo del Sol oculta las estrellas cercanas. Durante un eclipse solar total, sin embargo, es posible observar estas estrellas y registrar con precisión sus posiciones. Durante los eclipses de 1919 y 1922 se organizaron expediciones científicas para realizar esas observaciones. Después se compararon las posiciones aparentes de las estrellas con sus posiciones aparentes algunos meses más tarde, cuando aparecían de noche, lejos del Sol. Einstein predijo un desplazamiento aparente de la posición de 1,745 segundos de arco para una estrella situada justo en el borde del Sol, y desplazamientos cada vez menores de las estrellas más distantes. Las expediciones que estudiaron los eclipses comprobaron esas predicciones. En los últimos años se han llevado a cabo mediciones semejantes de la desviación de ondas de radio procedentes de quasares distantes, utilizando interferómetros de radio (véase Radioastronomía). Las medidas arrojaron unos resultados que coincidían con una precisión del 1% con los valores predichos por la relatividad general.
Otra confirmación de la relatividad general está relacionada con el perihelio del planeta Mercurio. Hacía años que se sabía que el perihelio (el punto en que Mercurio se encuentra más próximo al Sol) gira en torno al Sol una vez cada tres millones de años, y ese movimiento no podía explicarse totalmente con las teorías clásicas. En cambio, la teoría de la relatividad sí predice todos los aspectos del movimiento, y las medidas con radar efectuadas recientemente han confirmado la coincidencia de los datos reales con la teoría con una precisión de un 0,5%.
Otro fenómeno predicho por la relatividad general es el efecto de retardo temporal, en el que las señales enviadas a un planeta o nave espacial situados al otro lado del Sol experimentan un pequeño retraso —que puede medirse al ser devueltas a la Tierra— en comparación con lo indicado por la teoría clásica. Aunque se trata de intervalos de tiempo muy pequeños, las diferentes pruebas realizadas con sondas planetarias han dado valores muy cercanos a los predichos por la relatividad general (véase Astronomía por radar). Se han realizado otras muchas comprobaciones de la teoría, y hasta ahora todas parecen confirmarla.
6
OBSERVACIONES POSTERIORES
Después de 1915, la teoría de la relatividad experimentó un gran desarrollo y expansión a cargo de Einstein y de los astrónomos británicos James Jeans, Arthur Eddington y Edward Arthur Milne, el astrónomo holandés Willem de Sitter y el matemático estadounidense de origen alemán Hermann Weyl. Gran parte del trabajo de estos científicos correspondió a un esfuerzo por ampliar la teoría de la relatividad para que incluyera los fenómenos electromagnéticos. Recientemente, numerosos científicos han tratado de unir la teoría gravitatoria relativista con el electromagnetismo y con las otras dos fuerzas fundamentales, las interacciones nuclear fuerte y nuclear débil (véase Teoría del campo unificado). Aunque se han realizado algunos avances en ese terreno, no ha habido grandes éxitos, y hasta ahora no se ha aceptado ninguna de las teorías de forma generalizada. Véase también Partículas elementales.
Los físicos también han dedicado muchos esfuerzos al desarrollo de las consecuencias cosmológicas de la teoría de la relatividad. Dentro del marco de los axiomas planteados por Einstein son posibles muchas líneas de desarrollo. Por ejemplo, el espacio está curvado, y se conoce exactamente su grado de curvatura en las proximidades de cuerpos pesados, pero su curvatura en el espacio vacío —causada por la materia y la radiación de todo el Universo— es incierta. Además, los científicos no están de acuerdo en si es una curva cerrada (comparable con una esfera) o abierta (comparable con un cilindro o una taza con paredes de altura infinita). La teoría de la relatividad lleva a la posibilidad de que el Universo se está expandiendo: esa es la explicación generalmente aceptada para la observación experimental de que las líneas espectrales de galaxias, quasares y otros objetos distantes se encuentran desplazadas hacia el rojo. La teoría del Universo en expansión hace que sea razonable suponer que la historia del Universo es finita, pero también permite otras alternativas. Véase Cosmología.
Einstein predijo que las perturbaciones gravitacionales importantes, como la oscilación o el colapso de estrellas de gran masa, provocarían ondas gravitacionales, perturbaciones del continuo espacio-tiempo que se expandirían a la velocidad de la luz. Los físicos siguen buscando este tipo de ondas.
Gran parte de los trabajos posteriores sobre la relatividad se centraron en la creación de una mecánica cuántica relativista que resultara satisfactoria. En 1928, el matemático y físico británico Paul Dirac expuso una teoría relativista del electrón. Más tarde se desarrolló una teoría de campo cuántica llamada electrodinámica cuántica, que unificaba los conceptos de la relatividad y la teoría cuántica en lo relativo a la interacción entre los electrones, los positrones y la radiación electromagnética. En los últimos años, los trabajos del físico británico Stephen Hawking se han dirigido a intentar integrar por completo la mecánica cuántica con la teoría de la relatividad.


El invento de los los Rayos X




Wilhelm C. Roentgen
El físico alemán Wilhelm C. Roentgen fue galardonado con el primer Premio Nobel de Física, en 1901, por su descubrimiento de una radiación invisible más penetrante que la radiación ultravioleta, a la que denominó rayos X.

Rayos X, radiación electromagnética penetrante, con una longitud de onda menor que la luz visible, producida bombardeando un blanco —generalmente de volframio— con electrones de alta velocidad. Los rayos X fueron descubiertos de forma accidental en 1895 por el físico alemán Wilhelm Conrad Roentgen mientras estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto voltaje. A pesar de que el tubo estaba dentro de una caja de cartón negro, Roentgen vio que una pantalla de platinocianuro de bario, que casualmente estaba cerca, emitía luz fluorescente siempre que funcionaba el tubo. Tras realizar experimentos adicionales, determinó que la fluorescencia se debía a una radiación invisible más penetrante que la radiación ultravioleta (véase Luminiscencia). Roentgen llamó a los rayos invisibles “rayos X” por su naturaleza desconocida. Posteriormente, los rayos X fueron también denominados rayos Roentgen en su honor.
2
NATURALEZA DE LOS RAYOS X
Los rayos X son radiaciones electromagnéticas cuya longitud de onda va desde unos 10 nm hasta 0,001 nm (1 nm o nanómetro equivale a 10-9 m). Cuanto menor es la longitud de onda de los rayos X, mayores son su energía y poder de penetración. Los rayos de mayor longitud de onda, cercanos a la banda ultravioleta del espectro electromagnético, se conocen como rayos X blandos; los de menor longitud de onda, que están más próximos a la zona de rayos gamma o incluso se solapan con ésta, se denominan rayos X duros. Los rayos X formados por una mezcla de muchas longitudes de onda diferentes se conocen como rayos X ‘blancos’, para diferenciarlos de los rayos X monocromáticos, que tienen una única longitud de onda. Tanto la luz visible como los rayos X se producen a raíz de las transiciones de los electrones atómicos de una órbita a otra. La luz visible corresponde a transiciones de electrones externos y los rayos X a transiciones de electrones internos. En el caso de la radiación de frenado o bremsstrahlung (ver más adelante), los rayos X se producen por el frenado o deflexión de electrones libres que atraviesan un campo eléctrico intenso. Los rayos gamma, cuyos efectos son similares a los de los rayos X, se producen por transiciones de energía en el interior de núcleos excitados. Véase Átomo; Radiactividad.
Los rayos X se producen siempre que se bombardea un objeto material con electrones de alta velocidad. Gran parte de la energía de los electrones se pierde en forma de calor; el resto produce rayos X al provocar cambios en los átomos del blanco como resultado del impacto. Los rayos X emitidos no pueden tener una energía mayor que la energía cinética de los electrones que los producen. La radiación emitida no es monocromática, sino que se compone de una amplia gama de longitudes de onda, con un marcado límite inferior que corresponde a la energía máxima de los electrones empleados para el bombardeo. Este espectro continuo se denomina a veces con el término alemán bremsstrahlung, que significa ‘radiación de frenado’, y es independiente de la naturaleza del blanco. Si se analizan los rayos X emitidos con un espectrómetro de rayos X, se encuentran ciertas líneas definidas superpuestas sobre el espectro continuo; estas líneas, conocidas como rayos X característicos, corresponden a longitudes de onda que dependen exclusivamente de la estructura de los átomos del blanco. En otras palabras, un electrón de alta velocidad que choca contra el blanco puede hacer dos cosas: inducir la emisión de rayos X de cualquier energía menor que su energía cinética o provocar la emisión de rayos X de energías determinadas, que dependen de la naturaleza de los átomos del blanco.
3
PRODUCCIÓN DE RAYOS X
El primer tubo de rayos X fue el tubo de Crookes, llamado así en honor a su inventor, el químico y físico británico William Crookes; se trata de una ampolla de vidrio bajo vacío parcial con dos electrodos. Cuando una corriente eléctrica pasa por un tubo de Crookes, el gas residual que contiene se ioniza, y los iones positivos golpean el cátodo y expulsan electrones del mismo. Estos electrones, que forman un haz de rayos catódicos, bombardean las paredes de vidrio del tubo y producen rayos X. Estos tubos sólo generan rayos X blandos, de baja energía. Véase Ion; Ionización.
Un primer perfeccionamiento del tubo de rayos X fue la introducción de un cátodo curvo para concentrar el haz de electrones sobre un blanco de metal pesado, llamado anticátodo o ánodo. Este tipo de tubos genera rayos más duros, con menor longitud de onda y mayor energía que los del tubo de Crookes original; sin embargo, su funcionamiento es errático porque la producción de rayos X depende de la presión del gas en el tubo.
La siguiente gran mejora la llevó a cabo en 1913 el físico estadounidense William David Coolidge. El tubo de Coolidge tiene un vacío muy alto y contiene un filamento calentado y un blanco. Esencialmente, es un tubo de vacío termoiónico en el que el cátodo emite electrones al ser calentado por una corriente auxiliar, y no al ser golpeado por iones, como ocurría en los anteriores tipos de tubos. Los electrones emitidos por el cátodo calentado se aceleran mediante la aplicación de una alta tensión entre los dos electrodos del tubo. Al aumentar la tensión disminuye la longitud de onda mínima de la radiación.
La mayoría de los tubos de rayos X que se emplean en la actualidad son tubos de Coolidge modificados. Los tubos más grandes y potentes tienen anticátodos refrigerados por agua para impedir que se fundan por el bombardeo de electrones. El tubo antichoque, muy utilizado, es una modificación del tubo de Coolidge, con un mejor aislamiento de la carcasa (mediante aceite) y cables de alimentación conectados a tierra. Los aparatos como el betatrón (véase Aceleradores de partículas) se emplean para producir rayos X muy duros, de longitud de onda menor que la de los rayos gamma emitidos por elementos naturalmente radiactivos.
4
PROPIEDADES DE LOS RAYOS X
Los rayos X afectan a una emulsión fotográfica del mismo modo que lo hace la luz (véase Fotografía). La absorción de rayos X por una sustancia depende de su densidad y masa atómica. Cuanto menor sea la masa atómica del material, más transparente será a los rayos X de una longitud de onda determinada. Cuando se irradia el cuerpo humano con rayos X, los huesos —compuestos de elementos con mayor masa atómica que los tejidos circundantes— absorben la radiación con más eficacia, por lo que producen sombras más oscuras sobre una placa fotográfica. En la actualidad se utiliza radiación de neutrones para algunos tipos de radiografía, y los resultados son casi los inversos. Los objetos que producen sombras oscuras en una imagen de rayos X aparecen casi siempre claros en una radiografía de neutrones.
4.1
Fluorescencia
Los rayos X también producen fluorescencia en determinados materiales, como el platinocianuro de bario o el sulfuro de cinc. Si se sustituye la película fotográfica por uno de estos materiales fluorescentes, puede observarse directamente la estructura interna de objetos opacos. Esta técnica se conoce como fluoroscopia. Véase Fluoroscopio.
4.2
Ionización
Otra característica importante de los rayos X es su poder de ionización, que depende de su longitud de onda. La capacidad de ionización de los rayos X monocromáticos es directamente proporcional a su energía. Esta propiedad proporciona un método para medir la energía de los rayos X. Cuando se hacen pasar rayos X por una cámara de ionización (véase Detectores de partículas) se produce una corriente eléctrica proporcional a la energía del haz incidente. Además de la cámara de ionización, otros aparatos más sensibles como el contador Geiger o el contador de centelleo también miden la energía de los rayos X a partir de la ionización que provocan. Por otra parte, la capacidad ionizante de los rayos X hace que su trayectoria pueda visualizarse en una cámara de niebla o de burbujas.
4.3
Difracción de rayos X
Fotografía de difracción de rayos X
La difracción de rayos X ha sido un instrumento muy útil para entender la estructura de los sólidos. La red de átomos en un cristal funciona como una serie de barreras y aberturas que difractan los rayos X que lo atraviesan. Los rayos X difractados forman un diagrama de interferencia que se puede utilizar para determinar la distancia entre los átomos del cristal. Esta fotografía muestra el diagrama de interferencia que resulta cuando los rayos X atraviesan un complejo de coordinación de paladio, un compuesto con un átomo de paladio en el centro de cada molécula.

Los rayos X pueden difractarse al atravesar un cristal, o ser dispersados por él, ya que el cristal está formado por redes de átomos regulares que actúan como redes de difracción muy finas. Los diagramas de interferencia resultantes pueden fotografiarse y analizarse para determinar la longitud de onda de los rayos X incidentes o la distancia entre los átomos del cristal, según cuál de ambos datos se desconozca (véase Interferencia). Los rayos X también pueden difractarse mediante redes de difracción rayadas si su espaciado es aproximadamente igual a la longitud de onda de los rayos X.
5
INTERACCIÓN CON LA MATERIA
En la interacción entre la materia y los rayos X existen tres mecanismos por los que éstos son absorbidos; los tres demuestran la naturaleza cuántica de los rayos X. Véase Teoría cuántica.
5.1
Efecto fotoeléctrico
Cuando un cuanto de radiación o fotón correspondiente a la zona de rayos X del espectro electromagnético choca contra un átomo, puede golpear un electrón de una capa interna y expulsarlo del átomo. Si el fotón tiene más energía que la necesaria para expulsar el electrón, le transferirá esta energía adicional en forma de energía cinética. Este fenómeno, denominado efecto fotoeléctrico, tiene lugar principalmente en la absorción de rayos X de baja energía.
5.2
Efecto Compton
El efecto Compton, descubierto en 1923 por el físico y educador estadounidense Arthur Holly Compton, es una manifestación importante de la absorción de rayos X de menor longitud de onda. Cuando un fotón de alta energía choca con un electrón, ambas partículas pueden ser desviadas formando un ángulo con la trayectoria de la radiación incidente de rayos X. El fotón incidente cede parte de su energía al electrón y sale del material con una longitud de onda más larga. Estas desviaciones acompañadas por un cambio en la longitud de onda se conocen como dispersión Compton.
5.3
Producción de pares
En el tercer tipo de absorción, que se observa especialmente cuando se irradian elementos de masa atómica elevada con rayos X de muy alta energía, se produce el fenómeno de producción de pares. Cuando un fotón de alta energía penetra en la capa electrónica cercana al núcleo, puede crear un par de electrones, uno con carga negativa y otro con carga positiva; los electrones con carga positiva se conocen también como positrones. La producción de pares es un ejemplo de la conversión de energía en masa. El fotón necesita una energía de al menos 1,2 MeV para proporcionar la masa del par. Si el fotón incidente posee más energía de la necesaria para la producción del par, el exceso de energía se cede al par de electrones en forma de energía cinética. Las trayectorias de las dos partículas son divergentes.
6
APLICACIONES DE LOS RAYOS X
Los rayos X se emplean sobre todo en los campos de la investigación científica, la industria y la medicina.
6.1
Investigación
El estudio de los rayos X ha desempeñado un papel primordial en la física teórica, sobre todo en el desarrollo de la mecánica cuántica. Como herramienta de investigación, los rayos X han permitido confirmar experimentalmente las teorías cristalográficas. Utilizando métodos de difracción de rayos X es posible identificar las sustancias cristalinas y determinar su estructura. Casi todos los conocimientos actuales en este campo se han obtenido o verificado mediante análisis con rayos X. Los métodos de difracción de rayos X también pueden aplicarse a sustancias pulverizadas que, sin ser cristalinas, presentan alguna regularidad en su estructura molecular. Mediante estos métodos es posible identificar sustancias químicas y determinar el tamaño de partículas ultramicroscópicas. Los elementos químicos y sus isótopos pueden identificarse mediante espectroscopia de rayos X, que determina las longitudes de onda de sus espectros de líneas característicos. Varios elementos fueron descubiertos mediante el análisis de espectros de rayos X.
Algunas aplicaciones recientes de los rayos X en la investigación van adquiriendo cada vez más importancia. La microrradiografía, por ejemplo, produce imágenes de alta resolución que pueden ampliarse considerablemente. Dos radiografías pueden combinarse en un proyector para producir una imagen tridimensional llamada estereorradiograma. La radiografía en color también se emplea para mejorar el detalle; en este proceso, las diferencias en la absorción de rayos X por una muestra se representan como colores distintos. La microsonda de electrones, que utiliza un haz de electrones muy preciso para generar rayos X sobre una muestra en una superficie de sólo una micra cuadrada, proporciona también una información muy detallada.
6.2
Industria
Imagen de rayos X de una grieta
Imagen de rayos X en la que se muestra una grita en un intercambiador de calor de una planta química. Esta técnica no destructiva es una herramienta valiosa para poner de manifiesto fisuras, grietas o fallos en los aparatos.

Además de las aplicaciones de los rayos X para la investigación en física, química, mineralogía, metalurgia y biología, los rayos X también se emplean en la industria como herramienta de investigación y para realizar numerosos procesos de prueba. Son muy útiles para examinar objetos, por ejemplo piezas metálicas, sin destruirlos. Las imágenes de rayos X en placas fotográficas muestran la existencia de fallos, pero la desventaja de este sistema es que el equipo de rayos X de alta potencia que se necesita es voluminoso y caro. Por ello, en algunos casos se emplean radioisótopos que emiten rayos gamma de alta penetración en vez de equipos de rayos X. Estas fuentes de isótopos pueden albergarse en contenedores relativamente ligeros, compactos y blindados. Para la radiografía industrial se suelen utilizar el cobalto 60 y el cesio 137. En algunas aplicaciones médicas e industriales se ha empleado tulio 70 en proyectores isotópicos pequeños y cómodos de usar.
Muchos productos industriales se inspeccionan de forma rutinaria mediante rayos X, para que las unidades defectuosas puedan eliminarse en el lugar de producción. Existen además otras aplicaciones de los rayos X, entre las que figuran la identificación de gemas falsas o la detección de mercancías de contrabando en las aduanas; también se utilizan en los aeropuertos para detectar objetos peligrosos en los equipajes. Los rayos X ultrablandos se emplean para determinar la autenticidad de obras de arte y para restaurar cuadros.
6.3
Medicina
Enema opaco
La introducción de un contraste en el colon permite la visualización del mismo mediante rayos X.

Las fotografías de rayos X o radiografías y la fluoroscopia se emplean mucho en medicina como herramientas de diagnóstico. En la radioterapia se emplean rayos X para tratar determinadas enfermedades, en particular el cáncer, exponiendo los tumores a la radiación. Véase Efectos biológicos de la radiación; Radiología.
La utilidad de las radiografías para el diagnóstico se debe a la capacidad de penetración de los rayos X. A los pocos años de su descubrimiento ya se empleaban para localizar cuerpos extraños, por ejemplo balas, en el interior del cuerpo humano. Con la mejora de las técnicas de rayos X, las radiografías revelaron minúsculas diferencias en los tejidos, y muchas enfermedades pudieron diagnosticarse con este método. Los rayos X eran el método más importante para diagnosticar la tuberculosis cuando esta enfermedad estaba muy extendida. Las imágenes de los pulmones eran fáciles de interpretar porque los espacios con aire son más transparentes a los rayos X que los tejidos pulmonares. Otras cavidades del cuerpo pueden llenarse artificialmente con materiales de contraste, de forma que un órgano determinado se vea con mayor claridad. El sulfato de bario, muy opaco a los rayos X, se utiliza para la radiografía del aparato digestivo. Para examinar los riñones o la vesícula biliar se administran determinados compuestos opacos por vía oral o intravenosa. Estos compuestos pueden tener efectos secundarios graves, por lo que sólo deben ser empleados después de una consulta cuidadosa. De hecho, el uso rutinario de los rayos X se ha desaconsejado en los últimos años, ya que su utilidad es cuestionable.
Un aparato de rayos X de invención reciente, y que se emplea sin compuestos de contraste, proporciona visiones claras de cualquier parte de la anatomía, incluidos los tejidos blandos. Se conoce como escáner (scanner) o aparato de tomografía axial computerizada; gira 180° en torno al cuerpo del paciente emitiendo un haz de rayos X del grosor de un lápiz en 160 puntos diferentes. Unos cristales situados en los puntos opuestos reciben y registran la absorción de los distintos espesores de tejido y huesos. Estos datos se envían a un ordenador o computadora que convierte la información en una imagen sobre una pantalla. Con la misma dosis de radiación que un aparato de rayos X convencional, puede verse todo un corte de espesor determinado del cuerpo con una claridad aproximadamente 100 veces mayor. El escáner fue inventado en 1972 por el ingeniero electrónico británico Godfrey Hounsfield, y en 1979 ya se había generalizado su uso.
En relación con las aplicaciones de radioisótopos que emiten rayos gamma.


La Radiactividad




Antoine Henri Becquerel
El físico francés Antoine Henri Becquerel recibió el Premio Nobel de Física en 1903. Becquerel descubrió la radiactividad del uranio.

Radiactividad, desintegración espontánea de núcleos atómicos mediante la emisión de partículas subatómicas llamadas partículas alfa y partículas beta, y de radiaciones electromagnéticas denominadas rayos X y rayos gamma. El fenómeno fue descubierto en 1896 por el físico francés Antoine Henri Becquerel al observar que las sales de uranio podían ennegrecer una placa fotográfica aunque estuvieran separadas de la misma por una lámina de vidrio o un papel negro. También comprobó que los rayos que producían el oscurecimiento podían descargar un electroscopio, lo que indicaba que poseían carga eléctrica. En 1898, los químicos franceses Marie y Pierre Curie dedujeron que la radiactividad es un fenómeno asociado a los átomos e independiente de su estado físico o químico. También llegaron a la conclusión de que la pechblenda, un mineral de uranio, tenía que contener otros elementos radiactivos ya que presentaba una radiactividad más intensa que las sales de uranio empleadas por Becquerel. El matrimonio Curie llevó a cabo una serie de tratamientos químicos de la pechblenda que condujeron al descubrimiento de dos nuevos elementos radiactivos, el polonio y el radio. Marie Curie también descubrió que el torio es radiactivo. En 1899, el químico francés André Louis Debierne descubrió otro elemento radiactivo, el actinio. Ese mismo año, los físicos británicos Ernest Rutherford y Frederick Soddy descubrieron el gas radiactivo radón, observado en asociación con el torio, el actinio y el radio.
Pronto se reconoció que la radiactividad era una fuente de energía más potente que ninguna de las conocidas. Los Curie midieron el calor asociado con la desintegración del radio y establecieron que 1 gramo de radio desprende aproximadamente unos 420 julios (100 calorías) de energía cada hora. Este efecto de calentamiento continúa hora tras hora y año tras año, mientras que la combustión completa de un gramo de carbón produce un total de 34.000 julios (unas 8.000 calorías) de energía. Tras estos primeros descubrimientos, la radiactividad atrajo la atención de científicos de todo el mundo. En las décadas siguientes se investigaron a fondo muchos aspectos del fenómeno.
2
TIPOS DE RADIACIÓN
Partículas alfa
Una partícula alfa está formada por dos protones y dos neutrones que actúan como una única partícula. Son núcleos de átomos de helio. Cuando un núcleo radiactivo inestable emite una partícula alfa, éste se convierte en un núcleo de un elemento distinto.

Rutherford descubrió que las emisiones radiactivas contienen al menos dos componentes: partículas alfa, que sólo penetran unas milésimas de centímetro en el aluminio, y partículas beta, que son casi 100 veces más penetrantes. En experimentos posteriores se sometieron las emisiones radiactivas a campos eléctricos y magnéticos, y estas pruebas pusieron de manifiesto la presencia de un tercer componente, los rayos gamma, que resultaron ser mucho más penetrantes que las partículas beta. En un campo eléctrico, la trayectoria de las partículas beta se desvía mucho hacia el polo positivo, mientras que la de las partículas alfa lo hace en menor medida hacia el polo negativo; los rayos gamma no son desviados en absoluto. Esto indica que las partículas beta tienen carga negativa, las partículas alfa tienen carga positiva (se desvían menos porque son más pesadas que las partículas beta) y los rayos gamma son eléctricamente neutros.
Desintegración beta
Hay dos tipos de desintegración beta. En la que se muestra a la izquierda, un neutrón se convierte en un protón emitiendo un antineutrino y una partícula beta cargada negativamente. En la de la derecha, un protón se convierte en un neutrón emitiendo un neutrino y una partícula beta positivamente cargada. Las partículas beta positivas se llaman positrones, y las negativas electrones. Después de la desintegración, el núcleo del átomo contiene un protón más o menos, por lo que constituye un elemento nuevo, con número atómico distinto.

El descubrimiento de que la desintegración del radio produce radón demostró de forma fehaciente que la desintegración radiactiva está acompañada de un cambio en la naturaleza química del elemento que se desintegra. Los experimentos sobre la desviación de partículas alfa en un campo eléctrico demostraron que la relación entre la carga eléctrica y la masa de dichas partículas es aproximadamente la mitad que la del ion hidrógeno. Los físicos supusieron que las partículas podían ser iones helio con carga doble (átomos de helio a los que les faltaban dos electrones). El ion helio tiene una masa unas cuatro veces mayor que el de hidrógeno, lo que supondría que su relación carga-masa sería efectivamente la mitad que la del ion hidrógeno. Esta suposición fue demostrada por Rutherford cuando hizo que una sustancia que emitía partículas alfa se desintegrara cerca de un recipiente de vidrio de paredes finas en el que se había hecho el vacío. Las partículas alfa podían atravesar el vidrio y quedaban atrapadas en el recipiente; al cabo de unos días pudo demostrarse la presencia de helio elemental utilizando un espectroscopio. Más tarde se demostró que las partículas beta eran electrones, mientras que los rayos gamma eran radiaciones electromagnéticas de la misma naturaleza que los rayos X pero con una energía considerablemente mayor.
2.1
La hipótesis nuclear
Ernest Rutherford
El físico británico Ernest Rutherford, que obtuvo el Premio Nobel de Química en 1908, fue un pionero de la física nuclear por sus investigaciones experimentales y su desarrollo de la teoría nuclear de la estructura atómica. Rutherford afirmó que un átomo está constituido en gran medida por espacio vacío, con un núcleo con carga positiva en el centro, en torno al cual orbitan los electrones, cargados negativamente. Bombardeando gas nitrógeno con partículas alfa (partículas nucleares emitidas en procesos radiactivos), Rutherford logró transformar un átomo de nitrógeno en un átomo de oxígeno y otro de hidrógeno. Este experimento fue un primer estímulo para el desarrollo de la energía nuclear, que se libera en cantidades enormes por la desintegración nuclear.

En la época en que se descubrió la radiactividad, los físicos creían que el átomo era el bloque de materia último e indivisible. Después se comprobó que las partículas alfa y beta son unidades discretas de materia, y que la radiactividad es un proceso en el que los átomos se transforman (mediante la emisión de una de estas dos partículas) en nuevos tipos de átomos con propiedades químicas nuevas. Esto llevó al reconocimiento de que los propios átomos deben tener una estructura interna, y que no son las partículas últimas y fundamentales de la naturaleza.
En 1911, Rutherford demostró la existencia de un núcleo en el interior del átomo mediante experimentos en los que se desviaban partículas alfa con láminas delgadas de metal. Desde entonces, la hipótesis nuclear ha evolucionado hasta convertirse en una teoría muy elaborada de la estructura atómica, que permite explicar todo el fenómeno de la radiactividad. En resumen, se ha comprobado que el átomo está formado por un núcleo central muy denso, rodeado por una nube de electrones. El núcleo, a su vez, está compuesto de protones, cuyo número es igual al de electrones (en un átomo no ionizado), y de neutrones. Estos últimos son eléctricamente neutros y su masa es aproximadamente igual a la de los protones. Una partícula alfa (un núcleo de helio con carga doble) está formada por dos protones y dos neutrones, por lo que sólo puede ser emitida por el núcleo de un átomo. Cuando un núcleo pierde una partícula alfa se forma un nuevo núcleo, más ligero que el original en cuatro unidades de masa (las masas del neutrón y el protón son de una unidad aproximadamente). Cuando un átomo del isótopo de uranio con número másico 238 emite una partícula alfa, se convierte en un átomo de otro elemento, con número másico 234. (El número másico de un núcleo es el número total de neutrones y protones que contiene; es aproximadamente igual a su masa expresada en unidades de masa atómica). Cada uno de los dos protones de la partícula alfa tiene una carga eléctrica positiva de valor unidad. El número de cargas positivas del núcleo, equilibrado por el mismo número de electrones negativos en las órbitas exteriores al núcleo, determina la naturaleza química del átomo. Como la carga del uranio 238 disminuye en dos unidades como resultado de la emisión alfa, el número atómico del átomo resultante es menor en dos unidades al original, que era de 92. El nuevo átomo tiene un número atómico de 90, y es un isótopo del elemento torio. Véase Elemento químico; Física nuclear.
El torio 234 emite partículas beta, es decir, electrones. La emisión beta se produce a través de la transformación de un neutrón en un protón, lo que implica un aumento de la carga nuclear (o número atómico) en una unidad. La masa de un electrón es despreciable, por lo que el isótopo producido por la desintegración del torio 234 tiene un número másico de 234 y un número atómico de 91; se trata de un isótopo del protactinio.
2.2
Radiación gamma
Las emisiones alfa y beta suelen ir asociadas con la emisión gamma. Los rayos gamma no poseen carga ni masa; por tanto, la emisión de rayos gamma por parte de un núcleo no conlleva cambios en su estructura, sino simplemente la pérdida de una determinada cantidad de energía radiante. Con la emisión de estos rayos, el núcleo compensa el estado inestable que sigue a los procesos alfa y beta. La partícula alfa o beta primaria y su rayo gamma asociado se emiten casi simultáneamente. Sin embargo, se conocen algunos casos de emisión alfa o beta pura, es decir, procesos alfa o beta no acompañados de rayos gamma; también se conocen algunos isótopos que emiten rayos gamma de forma pura. Esta emisión gamma pura tiene lugar cuando un isótopo existe en dos formas diferentes, los llamados isómeros nucleares, con el mismo número atómico y número másico pero distintas energías. La emisión de rayos gamma acompaña a la transición del isómero de mayor energía a la forma de menor energía. Un ejemplo de esta isomería es el isótopo protactinio 234, que existe en dos estados de energía diferentes, y en el que la emisión de rayos gamma indica la transición de uno al otro.
Los núcleos emiten la radiación alfa, beta y gamma a velocidades enormes. Las partículas alfa resultan frenadas y detenidas al pasar por la materia, sobre todo debido a su interacción con los electrones de dicha materia. Casi todas las partículas alfa emitidas por una misma sustancia salen de los núcleos con una velocidad prácticamente igual; por ejemplo, la mayoría de las emitidas por el polonio 210 viajan 3,8 cm por el aire antes de quedar detenidas completamente, mientras que las emitidas por el polonio 212 avanzan 8,5 cm. La medida de la distancia recorrida por las partículas alfa se emplea para identificar isótopos. Las partículas beta se emiten a velocidades mucho mayores que las partículas alfa, por lo que penetran bastante más en la materia, aunque el mecanismo de frenado es esencialmente similar. Sin embargo, a diferencia de las partículas alfa, las partículas beta son emitidas a muchas velocidades diferentes, y sus emisores se distinguen entre sí por las velocidades máxima y media características de sus partículas beta. La distribución de las energías de las partículas beta (y por tanto de sus velocidades) exige la hipótesis de la existencia de una partícula sin carga ni masa denominada neutrino; todas las desintegraciones beta están acompañadas de una emisión de neutrinos. La distancia recorrida por los rayos gamma es varias veces mayor que la de las partículas beta, y en algunos casos estos rayos pueden atravesar varios centímetros de plomo. Cuando las partículas alfa y beta atraviesan la materia originan la formación de numerosos iones; esta ionización es especialmente fácil de observar cuando la materia es gaseosa. Los rayos gamma no tienen carga, por lo que no causan tanta ionización. Las partículas beta producen entre t y z de la ionización generada por las partículas alfa en cada centímetro de su trayectoria en aire. Los rayos gamma producen aproximadamente t de la ionización de las partículas beta. El contador de Geiger-Müller y otras cámaras de ionización (véase Detectores de partículas) se basan en estos principios y se emplean para detectar las cantidades de radiación alfa, beta y gamma y, por tanto, la tasa absoluta de desintegración o actividad de las sustancias radiactivas. Una de las unidades de actividad radiactiva, el curio, se basa en la tasa de desintegración del radio 226, que corresponde a 37.000 millones de desintegraciones por segundo por cada gramo de radio. Véase Efectos biológicos de la radiación.
Existen formas de desintegración radiactiva diferentes de las tres que se han mencionado. Algunos isótopos pueden emitir positrones, que son idénticos a los electrones pero de carga opuesta. Esta emisión suele clasificarse también como desintegración beta, y se denomina emisión beta más (β+) o positrón para distinguirla de la emisión de electrones negativos, más común. Se cree que la emisión de positrones se lleva a cabo mediante la conversión de un protón del núcleo en un neutrón, lo que provoca el descenso del número atómico en una unidad. Otra forma de desintegración, conocida como captura de electrón K, consiste en la captura de un electrón por parte del núcleo, seguida de la transformación de un protón en un neutrón. El resultado global también es la reducción del número atómico en una unidad. Este proceso sólo es observable porque la desaparición del electrón de su órbita provoca la emisión de rayos X. Algunos isótopos, en particular el uranio 235 y varios isótopos de los elementos transuránicos, pueden desintegrarse mediante un proceso de fisión espontánea en el que el núcleo se divide en dos fragmentos (véase Energía nuclear). A mediados de la década de 1980, se observó una forma de desintegración única en la que los isótopos del radio con números másicos 222, 223 y 224 emiten núcleos de carbono 14 en lugar de desintegrarse en la forma normal emitiendo partículas alfa.
3
PERIODO DE SEMIDESINTEGRACIÓN
La desintegración de algunas sustancias, como el uranio 238 o el torio 232, parece continuar indefinidamente sin que disminuya de forma detectable la tasa de desintegración por unidad de masa del isótopo (tasa de desintegración específica). Otras sustancias radiactivas muestran una marcada reducción de la tasa de desintegración específica a lo largo del tiempo. Un ejemplo es el isótopo torio 234 (llamado originalmente uranio X), que una vez separado del uranio reduce su tasa de desintegración específica a la mitad en 25 días. Cada sustancia radiactiva tiene un periodo de semidesintegración; en algunos isótopos es tan prolongado que los métodos actuales no permiten observar la disminución de la tasa de desintegración específica a lo largo del periodo de estudio. El torio 232, por ejemplo, tiene un periodo de semidesintegración de 14.000 millones de años.
4
SERIES DE DESINTEGRACIÓN RADIACTIVA
Cuando el uranio 238 se desintegra mediante emisión alfa, se forma torio 234; éste es un emisor beta y se desintegra para formar protactinio 234, que a su vez, es un emisor beta que da lugar a un nuevo isótopo del uranio, el uranio 234. Este isótopo se desintegra mediante emisión alfa para formar torio 230, que también se desintegra mediante emisión alfa y produce el isótopo radio 226. Esta serie de desintegración radiactiva, denominada serie uranio-radio, continúa de forma similar con otras cinco emisiones alfa y otras cuatro emisiones beta hasta llegar al producto final, un isótopo no radiactivo (estable) del plomo (el elemento 82) con número másico 206. En esta serie están representados todos los elementos de la tabla periódica situados entre el uranio y el plomo, y cada isótopo puede distinguirse por su periodo de semidesintegración característico. Todos los miembros de esta serie tienen un rasgo común: si se resta 2 a sus números másicos se obtienen números exactamente divisibles por 4, es decir, sus números másicos pueden expresarse mediante la sencilla fórmula 4n + 2, donde n es un número entero. Otras series radiactivas naturales son la serie del torio, llamada serie 4n porque los números másicos de todos sus miembros son exactamente divisibles por cuatro, y la serie del actinio o serie 4n + 3. El elemento original de la serie del torio es el isótopo torio 232, y su producto final es el isótopo estable plomo 208. La serie del actinio empieza con el uranio 235 (llamado originalmente actinouranio por los investigadores) y acaba en el plomo 207. En los últimos años se ha descubierto y estudiado en profundidad una cuarta serie, la serie 4n + 1, en la que todos son elementos radiactivos artificiales. Su miembro inicial es un isótopo del elemento artificial curio, el curio 241. Contiene el isótopo más duradero del elemento neptunio, y su producto final es el bismuto 209.
Una aplicación interesante del conocimiento de los elementos radiactivos es su uso en la determinación de la edad de la Tierra. Un método para determinar la edad de una roca se basa en el hecho de que, en muchos minerales de uranio y torio (que se están desintegrando desde su formación), las partículas alfa han quedado atrapadas (en forma de átomos de helio) en el interior de la roca. Determinando con precisión las cantidades relativas de helio, uranio y torio que hay en la roca, puede calcularse el tiempo que llevan ocurriendo los procesos de desintegración (es decir, la edad de la roca). Otro método se basa en la determinación de la relación que existe en la roca entre las cantidades de uranio 238 y plomo 206, o de torio 232 y plomo 208 (o sea, las relaciones entre la concentración de los miembros inicial y final de las series de desintegración). Estos y otros métodos arrojan valores de la edad de la Tierra que oscilan en torno a unos 4.600 millones de años. Se han obtenido valores similares en meteoritos que han caído a la superficie terrestre y en muestras lunares traídas por el Apolo 11 en julio de 1969, lo que indica que todo el Sistema Solar tiene probablemente una edad similar a la Tierra.
5
RADIACTIVIDAD ARTIFICIAL
Irène y Jean Frédéric Joliot-Curie
Irène y Jean Frédéric Joliot-Curie, una de las más célebres parejas de la historia de la física, en el laboratorio de la Universidad de París, donde desarrollaron la mayor parte de su actividad investigadora. En 1933 los dos científicos descubrieron que los elementos radiactivos se pueden preparar artificialmente a partir de elementos estables.

Todos los isótopos naturales situados por encima del bismuto en la tabla periódica son radiactivos; además, existen isótopos naturales radiactivos del bismuto, el talio, el vanadio, el indio, el neodimio, el gadolinio, el hafnio, el platino, el plomo, el renio, el lutecio, el rubidio, el potasio, el hidrógeno, el carbono, el lantano y el samario. En 1919, Rutherford provocó la primera reacción nuclear inducida artificialmente al bombardear gas nitrógeno corriente (nitrógeno 14) con partículas alfa; comprobó que los núcleos de nitrógeno capturaban estas partículas y emitían protones muy rápidamente, con lo que formaban un isótopo estable del oxígeno, el oxígeno 17. Esta reacción puede escribirse en notación simbólica como ¨N + ¸He → ©O + §Hdonde, por convenio, se escriben los números atómicos de los núcleos implicados como subíndices y a la izquierda de sus símbolos químicos, y sus números másicos como superíndices. En la reacción anterior, la partícula alfa se expresa como un núcleo de helio, y el protón como un núcleo de hidrógeno.
Hasta 1933 no se demostró que estas reacciones nucleares podían llevar en ocasiones a la formación de nuevos núcleos radiactivos. Los químicos franceses Irène y Frédéric Joliot-Curie produjeron aquel año la primera sustancia radiactiva bombardeando aluminio con partículas alfa. Los núcleos de aluminio capturaban estas partículas y emitían neutrones, con lo que se formaba un isótopo de fósforo que se desintegraba por emisión de positrones, con un periodo de semidesintegración muy corto. Los Joliot-Curie también produjeron un isótopo de nitrógeno a partir de boro, y uno de aluminio a partir de magnesio. Desde entonces se han descubierto muchísimas reacciones nucleares, y se han bombardeado los núcleos de todos los elementos de la tabla periódica con distintas partículas, entre ellas partículas alfa, protones, neutrones y deuterones (núcleos de deuterio, el isótopo de hidrógeno de número másico 2). Como resultado de esta investigación intensiva se conocen en la actualidad más de 400 elementos radiactivos artificiales. Esta investigación se ha visto favorecida por el desarrollo de aceleradores de partículas que comunican velocidades enormes a las partículas empleadas en el bombardeo, con lo que en muchos casos aumenta la probabilidad de que sean capturadas por los núcleos utilizados como objetivo.
El estudio de las reacciones nucleares y la búsqueda de nuevos isótopos radiactivos artificiales, sobre todo entre los elementos más pesados, llevó al descubrimiento de la fisión nuclear y al posterior desarrollo de la bomba atómica (véase Energía nuclear; Armas nucleares). También se descubrieron varios elementos nuevos que no existen en la naturaleza. El desarrollo de reactores nucleares hizo posible la producción a gran escala de isótopos radiactivos de casi todos los elementos de la tabla periódica, y la disponibilidad de estos isótopos supone una ayuda incalculable para la investigación química y biomédica (véase Isótopo trazador). Entre los isótopos radiactivos producidos artificialmente tiene gran importancia el carbono 14, con un periodo de semidesintegración de 5.730 ± 40 años. La disponibilidad de esta sustancia ha permitido investigar con mayor profundidad numerosos aspectos de procesos vitales, como la fotosíntesis.
En la atmósfera terrestre existe una cantidad muy pequeña de carbono 14, y todos los organismos vivos asimilan trazas de este isótopo durante su vida. Después de la muerte, esta asimilación se interrumpe, y el carbono radiactivo, que se desintegra continuamente, deja de tener una concentración constante. Las medidas del contenido de carbono 14 permiten calcular la edad de objetos de interés histórico o arqueológico, como huesos o momias. Véase Datación.
En el análisis de activación de neutrones se coloca una muestra de una sustancia en un reactor nuclear para hacerla radiactiva. Detectando los tipos de radiactividad asociados con los radioisótopos correspondientes es posible encontrar impurezas que no pueden ser detectadas por otros medios. Otras aplicaciones de los isótopos radiactivos se dan en la terapia médica (véase Radiología), la radiografía industrial, y ciertos dispositivos específicos como fuentes de luz fosforescente, eliminadores estáticos, calibradores de espesor o pilas nucleares.


Entradas populares

Me gusta

Seguidores