La Era Atómica en el campo de la Física

En el campo de las Ciencias Físicas una trascendental revolución se producía en:

1. Las ideas sobre la cuantificación de la luz y la sustancia que permitieron  el desarrollo de la llamada Mecánica Cuántica.

El primer período en el desenvolvimiento meteórico de la Física Cuántica abarca desde el propio año inicial del siglo hasta 1913. Si tuviera que bautizarse esta etapa recurriendo a los protagonistas fundacionales, como el paradigma mecánico se reconoce como la época de Newton-Galileo, o la concepción electromagnética del mundo se asocia al par Faraday-Maxwell, habría que llamar a este momento histórico como el de Planck-Einstein-Rutherford-Bohr. Y al así hacerlo tendríamos en cuenta que ellos lideraron la búsqueda y solución de los problemas esenciales que condujeron a la teoría cuántica del átomo de Bohr:

  • La distribución de la energía en el espectro de emisión del cuerpo negro absoluto.
  • La elaboración de un modelo atómico constituido por partículas positivas y negativas.
  • La determinación de las leyes que rigen en los espectros de rayas y de bandas.

El surgimiento de las ideas de la cuantificación de la luz nace con el inicio del siglo XX. Los trabajos de Max Planck (1858 – 1947) al explicar el comportamiento de la radiación por temperatura del radiador ideal, considera la existencia de paquetes de energía que depende de la frecuencia de la radiación. Por primera vez la Física se encontró con las representaciones cuánticas que modificarían la faz de esta Ciencia.

Las representaciones cuánticas fueron aplicadas por Albert Einstein (1879 – 1955) en 1905 a la teoría del efecto fotoeléctrico. Einstein a diferencia de Planck formuló la hipótesis de que los cuantos de magnitud hυ existen no solo en el proceso de emisión o de absorción, sino que tienen, además, existencia independiente. A partir de esta concepción explicó las particularidades de este efecto, inexplicables desde el punto de vista de la teoría ondulatoria de la luz, y enunció la ley básica del efecto fotoeléctrico. La ecuación que resume esta concepción teórica  fue comprobada experimentalmente por Arthur Holly Compton (1892 – 1962) en 1912.  La explicación del efecto fotoeléctrico externo establece las bases de la Teoría Fotónica (dual) de la Luz.   

Finalmente, Niels Bohr (1885- 1962) en 1913, abre la etapa de la cuantificación de la energía para las partículas al  proponer un modelo inicial del átomo basado en el postulado de cuantificación del momento angular y la energía de los electrones en sus órbitas para los átomos hidrogenoides. La noción de los estados estacionarios del electrón rompía con la electrodinámica clásica  y apuntaba hacia una nueva manera de entender el mundo de las micropartículas. En 1914, Bohr visitó las universidades de Munich y Gottinga y establece relaciones con famosos físicos como Max Born (1882- 1970) y Arnold Sommerfeld (1868-1951). La Primera Guerra Mundial interrumpió su gira por Alemania y ya en 1916 abre una cátedra  de Física Teórica en Copenhague. Cinco años después funda el Instituto de Física Teórica de la Universidad de Copenhague. En los próximos años, el Instituto de Bohr y la Universidad de Gottinga se convierten en los baluartes de la naciente Mecánica Cuántica.

Un segundo período nacido con la posguerra, nos trae las ideas duales para las partículas que tienen su origen en los trabajos teóricos de Louis De Broglie (1892 – 1987). Hasta entonces todos los fenómenos relacionados con el electrón se explicaban sólo desde el punto de vista corpuscular. De Broglie busca obstinadamente una idea generalizada, en la cual los puntos de vista corpuscular y ondulatorio estuviesen íntimamente integrados. A partir de su hipótesis deduce de una forma sorprendentemente sencilla la condición de cuantificación de las órbitas electrónicas de Bohr.

La confirmación experimental del carácter ondulatorio de los electrones fue espectacularmente obtenida en 1927 por los científicos norteamericanos Clinton Joseph Davisson (1881-1958) y Lester H. Germer (1896-1971) y de forma independiente en Aberdeen por George P. Thomsom (1892- 1975) al obtener el espectro de difracción de un haz de electrones convenientemente acelerados.

En los años cruciales para el desarrollo de la Mecánica Cuántica del 1921 al 27, en Zurich, Edwin Schrodinger (1887 – 1961) llevó a cabo las investigaciones fundamentales que culminaron en su famosa ecuación de onda. La ecuación de onda de Schrodinger permite, a través del instrumental matemático con que opera, obtener valores discontinuos para la energía, que cuantifican el movimiento de las partículas no relativistas; y al mismo tiempo plantea el problema del sentido físico de la función de onda. Estas investigaciones basadas en la objetividad de las ondas existentes y en su comportamiento causal fueron aplaudidas desde Berlín por Planck y Einstein que por entonces ejercían la docencia en la Universidad berlinesa. 

En el mismo año en que Schrodinger   establece su famosa ecuación de onda, Werner Karl Heisenberg (1874 – 1956)  enuncia  el principio de indeterminación (incertidumbre). Heisenberg demuestra mediante un experimento imaginario que cuanto mayor es la precisión con que determinemos la posición de la micropartícula tanto menor es la precisión con que se determine su velocidad.

El sentido de la relación de indeterminación ha sido objeto de encendidas polémicas. Compartimos el criterio de que estas relaciones no constituyen barreras para la cognición del mundo de las micropartículas sino que expresan su peculiar esencia. Al establecer un enfoque probabilístico en la descripción del micromundo no se está intentando evadir las grandes dificultades representadas por el gran número de partículas de los sistemas abordados en  la Física Molecular y la Termodinámica, pero que al menos en principio podían ser descritos con arreglo a leyes bien determinadas. En el caso del micromundo,  no existe la posibilidad de descripción determinista y es necesario el reconocimiento de la existencia de leyes objetivas con un carácter probabilístico.  

El trabajo fundamental que fija el sentido de probabilidad de la función de onda pertenece a Max Born quien, al examinar esta cuestión en 1926 llegó a la conclusión de que si el sistema consta de un punto, la función de onda expresa la probabilidad de encontrar la partícula en el punto del espacio tridimensional; ahora bien si se trata de un sistema de n partículas la función de onda cambia de  un punto a otro del espacio de representación con 3n dimensiones.  Born fue uno de los pocos físicos que edificaron la estructura filosófica de la Mecánica Cuántica. Su principal contribución fue la interpretación probabilística de las ondas de Schrodinger, una  interpretación que eleva la probabilidad a categoría primaria de la Mecánica Cuántica.

En 1928, el eminente teórico inglés Paul Dirac (1902-1984) deduce la famosa ecuación relativista cuántica que describe el comportamiento del electrón. Se considera la ley que generaliza las ecuaciones relativistas cuánticas del movimiento de las partículas. 

La resolución de las ecuaciones obtenidas por Dirac indicaba que debía existir una partícula con la misma masa del electrón pero con carga positiva. Era la predicción del antimundo, por primera vez apareció el concepto de antipartícula, nació así teóricamente el positrón. Cuatro años más tarde, el físico norteamericano Carl D. Anderson (1905 – 1991) logró observar en la cámara de Wilson la traza de una partícula extraordinaria que poseía la masa del electrón pero era desviada por el campo magnético en sentido contrario: el positrón. Se había hallado experimentalmente el gemelo del electrón predicho por Dirac.

La teoría de Dirac auguraba la existencia de antipartículas para casi todas las partículas elementales, lo que se confirmó en lo sucesivo. En 1955 fueron descubiertos los antiprotones y luego otras antipartículas, en fin fue descubierto el antimundo.

Los pronósticos de Dirac iban más lejos y aseguraban que durante su encuentro ocurriría el  aniquilamiento mutuo de partículas y antipartículas con la correspondiente liberación de energía. El proceso de aniquilación fue una confirmación más de la ecuación de Einstein que interrelaciona masa y energía. En octubre de 1985, en el Laboratorio Nacional “Enrico Fermi”de Illinois, probaron un nuevo y superpotente acelerador de partículas con el cual colisionaron protones y antiprotones. La energía descargada durante la colisión superó cualquier cantidad conseguida hasta el momento: se produjo una energía equivalente a 1,6 trillones de electrón- volts.

El impetuoso avance de la Física Atómica permitió una mayor profundización en los niveles de la naturaleza e hizo posible el surgimiento de la Teoría de los Quarks.

La explicación de la estabilidad del núcleo atómico, que confinaba en regiones muy reducida a los protones de carga positiva, exigió el postulado de nuevas partículas nucleares. El físico japonés Yukawa Hideki (1908 – 1981) fue el primero en emitir la hipótesis de que las partículas que garantizan la estabilidad de los núcleos pueden poseer una masa mucho mayor que la del electrón. Estas partículas luego fueron llamadas mesones, y la comprobación experimental de su existencia debió esperar 11 años cuando se investigaban los rayos cósmicos. Fue entonces que se encontraron partículas con una masa 273 veces la masa del electrón y otras con 207 masas del electrón. A estas partículas se les llamaron mesones π o piones y mesones µ o muones. El pión resultó ser el mesón propuesto por Yukawa. 

El camino que tomaron las investigaciones en el campo de las micropartículas demostraba la inagotabilidad de la materia. En 1961, el físico norteamericano Murray Gell-Mann (1929- ) diseñó una especie de tabla periódica que agrupaba a las partículas subatómicas en familias de ocho. Este esquema fue confirmado por descubrimientos posteriores. Tres años después Gell-Mann propuso la existencia de los quarks, partículas constituyentes de las partículas “elementales”. Según la profundización alcanzada en los niveles del micromundo,  hay pues bariones (de masa mayor o igual a los protones); mesones (de masa inferior a los protones y mayor que los electrones) y luego hay quarks. Por razones estructurales se clasificaron los quarks en seis grupos teóricos. A finales de los sesenta se experimentó mucho con los quarks y en los noventa se probó la existencia del último de los seis grupos.  

El progreso de la Teoría Dual de la Luz se fortalece con la llamada estadística de los bosones propuesta en los trabajos de A. Einstein, en 1924, y de Satyendra Nath Bose (1894 – 1974), de los cuales el fotón es un caso particular, y al incorporar, según las concepciones actuales, los fotones al sistema de partículas básicas consideradas por la Teoría de los Quarks.

En unos cincuenta años, se consolidó la Teoría Atómica, con el desarrollo de modelos, tanto para el átomo de hidrógeno, con cálculos exactos, como para los átomos multielectrónicos, con cálculos aproximados, pero muy eficientes, y edificado la Teoría del Núcleo que dio lugar a la utilización de la energía nuclear en las distintas ramas de la economía, aunque lamentablemente también en el terreno bélico.

Los avances en esta rama de las ciencias han tenido importantes aplicaciones prácticas, en particular sobresalen las aportaciones en la rama de las comunicaciones, la codificación de información, los diversos tratamientos con la utilización de los láseres, las aplicaciones en la medicina de técnicas basadas en el láser y en la resonancia magnética nuclear, los átomos marcadores para la datación de hallazgos arqueológicos, y el desarrollo de la rama de la energética nuclear.

Las realizaciones de la Escuela de Física soviética, fundada hacia los años treinta entre otros por  Piotr Kapitsa (1894-1984) y Lev Landau (1908-68), abarcan un amplio campo de trabajo que incluye la superconductividad y la superfluidez, la electrodinámica cuántica, la física nuclear y la física de partículas. En la segunda mitad del siglo aparecen como continuadores sobresalientes de las investigaciones en la superconductividad y la superfluidez los rusos, premios Nobel de Física del 2003, Alexei A. Abrikosov (1928- ), declarado científico distinguido del Laboratorio Nacional de Argonne, naturalizado en los Estados Unidos,  y el octogenario Vitali L.Ginzburg (1916-), jefe del Grupo de Teoría del Instituto de Física moscovita P.N. Lebedev. 

La Mecánica Cuántica y sus múltiples aplicaciones en otras ramas concretas de las Ciencias,  han traído importante derivaciones epistemológicas y filosóficas. Entre ellas destaca el debate  sobre la cognoscibilidad del mundo, dado por diferentes interpretaciones del Principio de Indeterminación.  En realidad este principio debe entenderse  que define un límite de validez para la aplicación de los conceptos que el hombre ha aplicado a una determinada esfera de fenómenos naturales, y acusa el riesgo de una generalización no fundamentada.

2.      2. Las ideas sobre la variabilidad del tiempo y del espacio, desarrolladas inicialmente casi en solitario por A. Einstein al crear su Teoría de la Relatividad.

El siglo XX conoció de la construcción en paralelo de las teorías que pretendían explicar el universo de las micropartículas y ofrecer una nueva visión del mundo macroscópico. Estos esfuerzos en lugar de encontrar un punto convergente se distanciaban desde sus propios enfoques de partida.

Al cierre del siglo el sueño de Einstein de encontrar un principio integrador de los mundos gravitatorios, electromagnéticos (y más tarde nucleares) parecía comenzar a cristalizar con la emergente teoría de las cuerdas. 

Las páginas que siguen hacen un  vertiginoso recorrido por los principales momentos en la evolución de estas ideas que traen nuevas nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio.

La teoría general de la relatividad de Albert Einstein es uno de los grandes logros de la Física contemporánea. Si la Mecánica de Newton representa en el siglo XVII el acto fundacional de la Física, la Mecánica Relativista desarrollada por el científico alemán en este siglo provoca una nueva cosmovisión del universo y constituye lo que se ha dado en llamar un cambio paradigmático a partir de la interpretación dada por el físico Thomas Samuel Khun (1922-1996) en su clásico “Estructura de las Revoluciones Científicas”.

De cualquier modo compartimos el criterio expresado por Steven Weinberg (Premio Nóbel de Física en 1979) en una retrospectiva sobre el trabajo de Kuhn:

“No es verdad que los científicos sean incapaces “de conectarse con diferentes formas de mirar hacia atrás o hacia delante” y que después de una revolución científica ellos sean incapaces de comprender la ciencia que le precedió. Uno de los  desplazamientos de paradigmas a los cuales Kuhn brinda mucha atención en “Estructura” es la sustitución al inicio de esta centuria de la Mecánica de Newton por la Mecánica relativista de Einstein. Pero en realidad, durante la educación de los nuevos físicos la primera cosa que les enseñamos es todavía la buena mecánica vieja de Newton, y ellos nunca olvidan como pensar en términos newtonianos, aunque después aprendan la teoría de la relatividad de Einstein. Kuhn mismo como profesor de Harvard, debe haber enseñado la mecánica de Newton a sus discípulos”{1}.

Einstein, en 1905, ya había demostrado al proponer la Teoría de la Relatividad Especial, que la Mecánica de Newton no tenía validez universal; demostró que si los cuerpos se mueven con velocidades comparables a la de la luz, entonces la Mecánica de Newton no puede describir los fenómenos correspondientes. La Teoría de la Relatividad es una generalización de la teoría newtoniana, que amplía su dominio de aplicación. Si en la Teoría de la Relatividad se consideran fenómenos en los cuales la velocidad de los cuerpos es mucho menor que la de la luz, como son la mayoría de los fenómenos cotidianos, entonces se recupera la mecánica de Newton. Es decir, la teoría newtoniana es un caso particular de la relativista, para velocidades muy pequeñas. Desde este punto de vista Einstein ya había señalado antes una limitación de la Física entonces existente.

Tanto la llamada Teoría Especial para el caso de los sistemas inerciales que fue, en lo fundamental enunciada en 1905, como su ulterior extensión de la llamada Teoría General de la Relatividad que consideraba el caso de los sistemas no inerciales, les permitieron a Einstein desarrollar su Teoría sobre la Gravitación Universal a partir de la propiedades del espacio – tiempo en la cercanías de las grandes aglomeraciones de masa.

Es necesario destacar que la Teoría General de la Relatividad pertenece no solo a la Historia de la Ciencia, sino a la Física contemporánea. Constituye una síntesis, desde postulados relativistas, de  la teoría newtoniana de la atracción gravitatoria, de la teoría del espacio-tiempo tetradimensional curvo y, finalmente, de la generalización del principio de relatividad de movimientos uniformes respecto a movimientos acelerados.

Como expresión de una teoría revolucionaria, en el ámbito que abarca, va a exigir de nuevas concepciones sobre el espacio, el tiempo y el movimiento, a la vez que se apoya en novedosos instrumentos matemáticos de trabajo.

Asentada principalmente en la Teoría Especial de la Relatividad; en las observaciones de Poincaré (1854 – 1912) sobre la gravitación; y en la interpretación cuatridimensional de Minkowski (1864 – 1909); así como en los trabajos geométricos de Nicolai I. Lobachevski (1793 -1856) y Bernhard Riemann (1826-1866), su construcción fue obra casi exclusiva de Albert Einstein.

Este hecho, insólito ya en la Física del siglo XX, repleta de ejemplos del trabajo en equipo, en el seno de “Escuelas”, donde se gestan las grandes soluciones a los desafíos de la época, se explica al recordar que en el período que abarca de 1905 al 1916 la atención de la comunidad de físicos se centra en el desarrollo de la Teoría Cuántica del átomo.

No parecía entonces que los problemas de la atracción gravitatoria y de la generalización de la Teoría Especial de la Relatividad, fuera a ofrecer resultados trascendentes. De hecho, una característica de este descubrimiento que puede resultar, a primera vista sorprendente es que si bien la Teoría General de la Relatividad señala un giro radical en nuestras ideas sobre categorías tan generales como el espacio, el tiempo y la gravitación, esta no presentó la menor trascendencia técnica. 

Sin embargo, después de su formulación y sobre todo luego de la confirmación experimental por Arthur S. Eddington (1882 –1944) del entonces llamado efecto Einstein acerca de la pequeñísima desviación de los rayos de luz de las estrellas al pasar cerca de la superficie del sol, una nueva promoción de físicos se sintió inclinada a participar en nuevas búsquedas, emitir audaces hipótesis, y someter las nuevas ideas a confirmación astronómica. Desde entonces se han repetido los intentos de estructurar una teoría única del campo, y elaborar la Teoría Cuántica de la Gravitación.

La cosmología relativista entró en una nueva fase en 1922, cuando el físico y geofísico ruso Alexander A. Fridman (1888 – 1925) publicó dos obras clásicas que se oponían al modelo estacionario propuesto por Einstein, y abrían paso a las ideas sobre un universo en expansión. Sólo siete años después de los trabajos de Fridman, en 1929, el astrónomo norteamericano Edwin P. Hubble (1889 – 1953), que trabajaba en el reflector más grande de aquellos tiempos en el observatorio de Mount Wilson, llegó a la conclusión, a partir del desplazamiento hacia el rojo de las rayas espectrales de todos los sistemas estelares alejados, de que todas las estrellas se alejan de nuestra galaxia. Estos trabajos fueron proseguidos por el astrónomo belga Georges Lemaitre (1894 – 1966) y dieron origen a la publicación de una explosión de otros que llegan hasta nuestros días. En la Cosmología actual prevalece el modelo del Bing Bang, y la teoría del relevante físico Stephen Hawking (1942 – ). Las ideas relativistas de Einstein posibilitaron así el nacimiento de una ciencia del Cosmos y adelantar hipótesis sobre el surgimiento del universo conocido.

En el otro extremo de la cuerda, en el campo del micromundo, el impacto de las aportaciones de  Einstein, ha sido enorme y merece destacarse que todo progreso de la Mecánica Cuántica ha tomado en cuenta el carácter relativista de las micropartículas introduciéndose magnitudes para la descripción de los fenómenos del universo subatómico que no tienen su similar en el mundo clásico como por ejemplo son el momento de espín, las cargas bariónica y leptónica, y la hipercarga, entre otros. Por otro lado al aprovechar el carácter relativo del espacio y del tiempo se han podido construir aceleradores de partículas con el objetivo de estudiar las propiedades más íntimas de la materia.

En 1967 el físico de Harvard, Steven Weinberg (1933- ) dio un gran paso adelante hacia la realización de una «teoría del campo unificado». Ésta comprendería las cuatro fuerzas aparentemente distintas de la naturaleza: gravedad, electromagnetismo y las fuerzas nucleares débil y fuerte.  La fuerza nuclear débil se manifiesta al expulsar partículas del núcleo en deterioro radiactivo y la fuerza fuerte une las partículas nucleares. El modelo de Weinberg describe el electromagnetismo y la fuerza nuclear débil como distintas manifestaciones del mismo fenómeno.

Abdus Salam (1926 – 1996), físico paquistaní, fue profesor de Física Teórica del Imperial College de Londres, hizo notables aportaciones a la teoría electrodébil, aplicable a las partículas elementales, y el modelo resultante se conoció entonces como modelo de Weinberg – Salam.

En 1970 Sheldon Glashow (1932- ), otro físico de Harvard, extendió la teoría de este modelo a todas las partículas conocidas. En 1979, Weinberg, Salam y Glashow compartirían el Premio Nóbel de Física.

A finales de los años setenta, una teoría del campo sobre la fuerza nuclear fuerte, Cromodinámica Cuántica, se integró con la teoría electrodébil de Weinberg y Salam para formar el modelo estándar. De las cuatro fuerzas, la única que queda fuera de esta teoría unificada es la gravedad. El científico holandés Gerardus’t Hooft (1946- ) y su colega Martinus J Veltman (1931- ) merecieron el premio Nóbel de Física de 1999 por sus relevantes aportaciones en el desarrollo de las matemáticas necesarias para explicar el modelo estándar.

En el terreno epistemológico la Teoría de General de la Relatividad permitió una concepción más profunda sobre las nociones acerca del espacio y el tiempo y su relación con el movimiento al desechar o refutar las viejas ideas sobre el carácter absoluto o de receptáculos de estas entidades y analizar su variabilidad en dependencia del estado de movimiento de los sistemas. Además hizo posible comprender las relaciones entre la masa y la energía como magnitudes que expresan medidas cuantitativas de las propiedades inerciales y gravitatorias de las micropartículas por una parte y de las propiedades del movimiento de tales partículas por otra.

Otra importante derivación epistemológica de esta teoría radica en hacer evidente, tal vez por primera vez en el campo de la Ciencias Físicas, la importancia del llamado Principio de Correspondencia, considerado por muchos como el segundo criterio de la verdad sobre una determinada teoría científica, al establecer que toda nueva teoría, además de demostrar su valía en el campo de la práctica social, debe comprender o englobar a la teoría anterior sobre el mismo campo o dominio de aplicación, como un caso particular o límite. Tal era el caso entre la Teoría de la Relatividad y la Mecánica de Newton, de forma que la primera abarcaba a la segunda para el caso de bajas velocidades en comparación con la rapidez de propagación de la luz en el vacío.

Pero el gran mérito de la obstinada búsqueda de Eisntein, radica en indicar el camino para que mas de medio siglo después una nueva generación de físicos fundara una teoría que, estremeciendo preceptos establecidos, se esforzara por cumplir sus sueños de encontrar un principio universal para explicar las propiedades y fuerzas observadas en dos mundos “antagónicos” el microcosmos y el universo de los objetos ordinarios.

En años recientes surge la teoría de las supercuerdas que reconoce una estructura interna para las partículas fundamentales del universo que han identificado los físicos –electrones, neutrinos, quarks, y otras, las letras de toda la materia.  De acuerdo con la teoría de las cuerdas si nosotros examinamos estas partículas con una mayor precisión, una precisión de muchos ordenes de magnitud  mayor que la alcanzable con la capacidad tecnológica actual encontraríamos que cada partícula no es puntual sino consiste de un diminuto anillo. Como una banda de goma infinitamente delgada cada partícula contiene un filamento vibrante que los físicos han llamado cuerda.

Aunque no resulte obvio esta simple sustitución de partículas puntuales constituyentes de los materiales con las cuerdas resuelve la incompatibilidad entre la mecánica cuántica y la relatividad general.  

La teoría de las cuerdas proclama por ejemplo que las propiedades observadas para las partículas fundamentales y las partículas asociadas a las cuatro fuerzas de la naturaleza (las fuerzas nucleares fuertes y débiles, el electromagnetismo y la gravedad) son un reflejo de las variadas formas en que una cuerda puede vibrar. Justamente como las cuerdas de un violín tienen frecuencias resonantes a las cuales ellas prefieren vibrar, lo mismo se mantiene para los anillos de la teoría de las cuerdas. Pero en lugar de producir notas musicales cada una de ellas prefiere determinadas masas o cargas de fuerzas según el modo oscilatorio de la cuerda. El electrón es una cuerda vibrante de un modo, el quark es una cuerda vibrante de otro modo, y así sucesivamente.

La misma idea se aplica a las fuerzas de la naturaleza. Las partículas de la fuerza son también asociadas con los modos particulares de vibración de la cuerda  y de ahí que cada cosa, todo material y todas las fuerzas se unifican bajo la misma rubrica de oscilaciones microscópicas de las cuerdas, las notas que las cuerdas pueden tocar.

Por primera vez en la historia de la física se dispone de un cuadro con la capacidad de explicar cada característica fundamental sobre la cual el universo es construido. Por esta razón la teoría de las cuerdas es con frecuencia descrita como la “teoría de todo”. Este término hace pensar en el advenimiento de la teoría de mayor profundidad posible que incluye todas las otras. Y esto enciende otra violenta polémica. ¿Qué significa la teoría del todo? ¿Pretende abarcar esta teoría en un solo principio la divina diversidad de “nuestros mundos”?

Si el debut del siglo XX abrió un nuevo capítulo en el desarrollo de la Física que supuso la superación de una crisis de sus nociones sobre el mundo de las micropartículas y el advenimiento de un nuevo paradigma, con el cierre del siglo se anunciaba el descubrimiento de un principio integrador que explicaba el mundo cósmico, electromagnético y nuclear. No era precisamente la Teoría del “Todo” pero representa una nueva conquista del inagotable conocimiento científico.

3.      3.  Las ideas sobre la desintegración radiactiva y el desarrollo de la teoría del átomo nuclear.

El átomo indivisible había nacido en el ámbito químico mientras el mundo subatómico aparecía vinculado a la física contemporánea. De cualquier manera una enorme resonancia tendría sobre la Química el conocimiento de la estructura atómica. De hecho el trabajo conjunto de radioquímicos y físicos experimentadores condujo a relevantes descubrimientos sobre todo en el campo de la desintegración radiactiva. Es por ello que violando cierta lógica en el curso de los acontecimientos científicos hemos situado estas conquistas del pensamiento atómico justamente en las fronteras entre ambas ciencias.

El descubrimiento del electrón y la radioactividad fueron prácticamente coincidentes en el tiempo. La práctica demostraba la complejidad del átomo, por lo menos los electrones y las partículas alfa (emitidas por los radioelementos) entraban en la estructura atómica.

Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico. Joseph J. Thomson (1856 – 1940) concebía la carga positiva distribuida uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga se encuentran en el interior de esta nube positiva. Un año más tarde,  supone a los electrones en movimiento dentro de la carga positiva distribuida en una esfera.

Luego de otros intentos para describir un modelo que explicara el espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) “La dispersión por parte de la materia, de las partículas alfa y beta, y la estructura del átomo” en la que propone el modelo nuclear del átomo. Según Rutherford la carga positiva y la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y  Z aproximadamente la mitad del peso atómico.

Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en una unidad al pasar al elemento siguiente en la Tabla Periódica.  Esto puede explicarse si se admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual a la carga nuclear.

Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la construcción de un modelo para el núcleo atómico era un problema relativamente relegado y frente al cual se levantaban enormes obstáculos teóricos y prácticos.

Rutherford había sugerido desde sus primeras investigaciones que muy probablemente el núcleo estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa correspondían a núcleos del Helio, es decir, partículas de carga +2  y masa 4. Otra línea de pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la desintegración radioactiva eran lanzados desde el mismo núcleo.

Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración radioactiva en la Tabla Periódica colocó los elementos que mostraban  propiedades químicas idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo: lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los átomos era la carga nuclear.

Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la tecnología militar.

Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 – 1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para llevar a cabo estudios vinculados con la naciente guerra química,  Meitner continúa las investigaciones y descubre en 1918 el protactinio.

En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo. La existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación neutral, un doblete comprendido como una unión estrecha de un protón y un electrón.

Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en vano demostrar experimentalmente la existencia del neutrón.

Las señales alentadoras vendrían de París, del laboratorio de los Joliot.  Jean Frederick (1900 – 1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto poder de penetración que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para la Historia como el descubridor de los neutrones.

La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez convenientemente aprovechada. Ellos encontraron que al bombardear aluminio con partículas alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el blanco continuaba emitiendo conforme a la ley exponencial de la descomposición  de radionúclidos. Se había descubierto la radioactividad artificial.

Inmediatamente después del  descubrimiento del neutrón, Heinseberg propone el modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación universal de la comunidad científica. Algunos cálculos preliminares estimaron la densidad del núcleo en ~ 1012kg/m3, lo cual es un valor enorme. Por otra parte, la presencia de los protones, partículas cargadas positivamente, confinadas a distancias del orden de las dimensiones del núcleo~10-15 m implicaba la existencia de fuerzas de repulsión coulombianas (de origen electrostático) gigantescas, que deberían ser compensadas por algún otro tipo de fuerza de atracción para mantenerlas no solo unidas, sino con una cohesión tal que su densidad tuviera los valores antes citados.

Estas son las fuerzas nucleares, las cuales son de corto alcance, muestran independencia respecto a la carga (ya que actúan por igual entre protones que entre neutrones) y presentan saturación dado que un nucleón solo interactúa con un número limitado de nucleones. La naturaleza de este nuevo tipo de fuerza, que se añadía a las conocidas anteriormente fuerzas gravitacionales y electromagnéticas, fue considerada como el tipo de intercambio, un nuevo concepto cuántico que involucra en la interacción entre nucleones  el intercambio de una tercera partícula. En 1934 los científicos soviéticos Ígor E. Tamm (1895 -1971), premio Nobel en 1958, y el profesor D. D. Ivanenko intentaron describir las fuerzas nucleares como fuerzas de intercambio en que las dos partículas interaccionan por medio de una tercera que intercambian continuamente. Ellos además comprobaron que no se podía explicar las fuerzas nucleares mediante el intercambio de ninguna de las partículas conocidas en aquel momento.

En 1935 el físico japonés Hideki Yukawa dio una respuesta a este problema al suponer que ese intercambio se realiza mediante una nueva partícula: el mesón.  En los dos años que siguieron se detectaron primero por Anderson y luego por el británico Cecil Powell (1903 – 1969) partículas con similares características en los rayos cósmicos.  

Conjuntamente con el descubrimiento de las diferentes partículas constitutivas del núcleo fue surgiendo la necesaria pregunta de cuál era la estructura del mismo, o sea, de qué manera pudieran estar dispuestos los nucleones y así surgieron los primeros modelos del núcleo.  Entre estos vale la pena citar el modelo de la gota líquida y el modelo de las capas.  

Cada uno de estos modelos se fundamenta en determinados resultados experimentales y logra explicar algunas de las características del núcleo. Por ejemplo, el modelo de la gota líquida se apoya en la analogía entre las fuerzas nucleares y las que se ejercen entre las moléculas de un líquido puesto que ambas presentan saturación. A partir del mismo se puede calcular la energía de enlace por nucleón teniendo en cuenta la energía volumétrica, la de tensión superficial y la de repulsión coulombiana, la cual tiene un aspecto similar a la curva experimental.  Sin embargo, no puede explicar los picos que tiene dicha curva para los núcleos de elementos tales como el He, C, O, Ca, etc.

El modelo de la capas admite que el núcleo posee una estructura energética de niveles semejante a la estructura de capas electrónicas del átomo. En este sentido reproduce el esquema atómico para el núcleo. Este modelo explica satisfactoriamente la existencia de los números “mágicos”, que corresponden al número total de nucleones de los núcleos más estables: 2, 8, 20, 50, 82 y 126. También justifica adecuadamente el valor de los espines nucleares, las grandes diferencias entre los períodos de semi-desintegración  de los núcleos alfa-radiactivos, la radiación gamma, etc.  No obstante, los valores de los momentos magnéticos muestran discrepancias con los valores experimentales.

Otros modelos nucleares más desarrollados han sido concebidos de manera que tienen en cuenta elementos de los anteriores y en este sentido resultan su síntesis. Es preciso aclarar que aún en la actualidad no existe un modelo universal del núcleo capaz de explicar todas sus características

Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los electrones resultantes de la desintegración radiactiva beta? Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso obedeciera la ley de conservación y transformación de la energía,  no presentaba carga ni masa en reposo.

Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada por Enrico Fermi (1901 – 1954) con el nombre de neutrino,  fuera  observada mediante experimentos indirectos conducidos de modo irrefutable por el físico norteamericano Frederick Reines (1918 – ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.

Pero antes de esta espectacular verificación de la teoría, aún en la década de los 30, el propio Fermi y su grupo de la Universidad de Roma, al juntar las nociones del neutrón y la radioactividad artificial, en el transcurso de unas semanas inició el camino hacia la fisión nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos elementos más pesados.

En 1934 Fermi y sus colaboradores, pensando en la mayor facilidad que debían tener los neutrones para penetrar en los núcleos respecto a las partículas alfa, bombardearon diferentes sustancias con neutrones. Apoyándose en los resultados anteriores, usaban en calidad de fuente de neutrones una ampolla de vidrio que contenía una mezcla de berilio y gas radón, el cual se conocía como emisor de partículas alfa. Ellos investigaron 60 elementos, de los cuales 40 resultaron radiactivos luego del bombardeo con neutrones.

En Berlín, un equipo de investigación compuesto por Otto Hahn (1879-1968), Fritz Strassmann (1902 – 1980) y Lise Meitner (1878 -1968), pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de uranio con neutrones, esperando poder descubrir nuevos elementos más pesados.  En vez de esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado bario. Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner,  entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas como se suponía,  se rompía en dos fragmentes ligeros, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la ecuación de Einstein, podía transformarse en energía.

Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley,  Edwin McMillan (1907 – 1991) y Philip Hauge Abelson (1913 – 2004)realizaron experimentos en los que obtuvieron un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se le llamó neptunio, por el planeta Neptuno, más allá de Urano.

Luego un equipo dirigido por Glenn Seaborg (1912 – 1999), del propio Berkeley, descubrió que los átomos de neptunio se deterioraban y se convertían en un elemento cuyo número atómico era 94. Este elemento fue llamado plutonio por el planeta Plutón. El primer isótopo descubierto fue el plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.

En octubre de 1942, un equipo de científicos dirigido por  Fermi empezó a construir una pila atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión de un átomo de uranio podían “disparar” un mecanismo en cadena que generaría una enorme cantidad de energía.

Nueve años después de creada la pila atómica de Fermi,  y a seis años del holocausto de Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo energía suficiente para poner en funcionamiento su propio sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina. 

En 1954, los soviéticos abrieron la primera planta nuclear civil.  Dos años después, los británicos inauguraron la segunda planta industrial. Pronto empezaron a funcionar centrales nucleares en todo el mundo. Pero las predicciones de un futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de construir y de mantener, resultaron peligrosas por los residuos radiactivos y la posibilidad de accidentes catastróficos. Contrario al supuesto de los especialistas sobre la confiabilidad de los sistemas de seguridad de las Plantas Nucleares, varios accidentes se han conocido a causa del error humano. La catástrofe de Chernobil, en Ucrania, conmocionó por su devastador impacto a toda la humanidad. Entretanto las grandes potencias se esfuerzan por lograr el monopolio de la energía nuclear, preocupadas por el posible desarrollo paralelo de la tecnología nuclear con fines militares, sin dedicar los recursos necesarios para las búsquedas de fuentes alternativas de energía que den solución, no a los proyectos de un modelo neoliberal basado en las leyes del mercado, sino al hambre energética que experimentan vastas zonas del planeta. 

Así, la Revolución en el campo de la Física se abrió paso en el siglo XX a través de la superación de profundas crisis en el campo de las ideas, que exigieron lo que se ha dado en llamar un cambio de paradigmas. Esta Revolución  en la Física ha impactado el resto de las Ciencias e impulsado el progreso científico técnico en todas las esferas de la sociedad contemporánea. La irracionalidad del orden mundial establecido  tal vez explique el dramático panorama que exhibe aún la sociedad humana.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *