LA ERA ATÓMICA Y EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez. Universidad de Cienfuegos.
El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente darían un impulso al desarrollo del conocimiento científico en aquellas áreas en que se advertían necesidades internas y principalmente con fines relacionados con la tecnología militar. Este desarrollo dio lugar, incluso, al holocausto nuclear de la década de los años cuarenta.
El progreso de las ciencias debió navegar en medio de tales circunstancias históricas. Desde inicios de la centuria comenzó a manifestarse la principal característica de su desarrollo consistente en la transformación, de producto social, elemento de la superestructura de la sociedad humana, en una fuerza productiva con rasgos muy especiales. Esta característica estuvo precedida por una explosión en el ritmo de la producción de los conocimientos científicos que alcanzó un crecimiento exponencial. Las relaciones Ciencia – Sociedad se hicieron más complicadas.
Un proceso de fortalecimiento de los nexos en la comunidad científica, que se habían iniciado con las Sociedades fundadas en el siglo XVIII, se advierte desde los comienzos del siglo, sufriendo en los períodos de duración de ambas guerras un inevitable debilitamiento. En este contexto se destacan los Congresos realizados en Bruselas, con el apoyo financiero del químico industrial belga Ernest Solvay (1838-1922), que congregaron a los más brillantes físicos de la época.
El Congreso Solvay de 1911 inaugura el reconocimiento de la comunidad científica a las ideas de la Teoría Cuántica, verdadera revolución en el campo de las Ciencias Físicas. En el transcurso del evento se arribó a un consenso de que la Física de Newton y Maxwell si bien explicaba satisfactoriamente los fenómenos macroscópicos era incapaz de interpretar los fenómenos de la interacción de la radiación con la sustancia, o las consecuencias de los movimientos microscópicos de los átomos en las propiedades macroscópicas. Para cumplir este último propósito era necesario recurrir a las ideas de la cuantificación. Ello demostraba la comprensión de la vanguardia de las Ciencias sobre el carácter temporal, histórico en la construcción del conocimiento científico.
El siglo XX traería también una organización de la ciencia en Instituciones que debían concentrar sus esfuerzos bien en estudios fundamentales como en aquellos de orden práctico. Los políticos se darían cuenta, desde la Primera Guerra Mundial, de la importancia de sufragar los gastos de aquellas investigaciones relacionadas con la tecnología militar.
El Laboratorio Cavendish en Cambridge, fundado en el siglo XIX, hizo época no sólo por la relevancia de sus investigaciones fundamentales para la determinación de la estructura atómica, sino por la excelencia mostrada por sus directores científicos, Joseph John Thomson (1856 – 1940) y Ernest Rutherford (1872 – 1937), que lograron con su liderazgo la reproducción de los valores de la producción científica (siete investigadores del Laboratorio alcanzaron el Premio Nóbel de Física).
En las primeras décadas del siglo el Laboratorio "Kaiser Guillermo" de Berlín se erigió en modelo de institución investigativa y en el período de la Primera Guerra Mundial contó con la asistencia de los más célebres científicos alemanes vinculados a proyectos de desarrollo de nuevas armas. Fritz Haber, notable químico alemán jugó el triste papel de introductor del arma química en los campos de batalla.
En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los Álamos, verdadera empresa científica multinacional, con el objetivo de dar cumplimiento al llamado Proyecto Manhattan para la fabricación de la bomba atómica. La movilización de hombres de ciencias de todas las banderas tuvo el propósito de neutralizar cualquier tentativa de la Alemania hitleriana de emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y autoridad moral, inicia el movimiento enviando una misiva al presidente de los Estados Unidos. Cinco años después, enterado de los éxitos ya obtenidos en los ensayos de la bomba atómica, vuelve a usar la pluma está vez para reclamar prudencia en el empleo de este engendro de la Física Nuclear. El resto de la Historia es bien conocido.
El 9 de agosto de 1945 la humanidad se aterrorizaba con la hecatombe nuclear en Hiroshima, días después se repetía la escena esta vez en Nagasaki. Se inauguraba la época del arma nuclear con un saldo inmediato en Hiroshima de unos 140 mil muertos de una población estimada en 350 mil habitantes, y una multiplicación a largo plazo de las víctimas como resultado de las manifestaciones cancerígenas y las mutaciones genéticas inducidas por la radiación nuclear.
Los más relevantes exponentes, y la mayoría de la comunidad científica reaccionaron vigorosamente contra el desarrollo del armamento nuclear y abrazó la causa del uso pacífico de la energía nuclear. Poco antes del lanzamiento de la bomba en Hiroshima, como expresión de las ideas de los científicos que trabajaban en el proyecto Manhattan, 68 participantes en las investigaciones desarrolladas en el Laboratorio de Metalurgia de la Universidad de Chicago firmaron una carta de petición al presidente de los E.U. para impedir el empleo del arma nuclear. El propio Albert Einstein (1879 -1955) abogó por el desarme internacional y la creación de un gobierno mundial. No faltaron, sin embargo aquellos que como el físico húngaro, nacionalizado estadounidense, Edward Teller (1908 – 2003), arquitecto principal de la bomba H, consideraron oportuno continuar la espiral armamentista, confiados en que el liderazgo de un país podía resultar ventajoso para todo el mundo.
Al finalizar la Segunda Guerra Mundial se conformaron dos grandes bloques militares, económicos y políticos, que se enfrascaron en una guerra fría, desarrollaron una irracional carrera armamentista, y fomentaron la hipertrofia de un complejo militar industrial. El ruido de la guerra ha tenido una huella que no ha sido evaluada con suficiente precisión. De acuerdo con los resultados del primer "ensayo nuclear" en las Islas Marshall, las superpotencias trasladaron sus polígonos de prueba para sitios protegidos por extensas zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias radiactivas que suelen llevar impulsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta ha sufrido la sacudida telúrica, y el pulso electromagnético de radiaciones ionizantes provocados por más de dos mil explosiones nucleares, más de la mitad lanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden Francia, China y Gran Bretaña. Cinco pruebas se reparten entre dos países asiáticos envueltos en un litigio histórico: Paquistán y la India. Una bomba atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los vecinos africanos. Desde 1992, logrado un Tratado Internacional de no proliferación del arma nuclear, se han silenciado notablemente "los ensayos nucleares". Pero India y Paquistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países responsables de esta demencial carrera se ha sumado recientemente Corea del Norte.
La rivalidad dominante este – oeste del siglo se reflejó también entre las instituciones científicas hasta bien avanzado el siglo. A la competencia y el intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones en las primeras décadas entre las Escuelas de Copenhague, Berlín, París, y Londres, le sustituyó un cerrado silencio. El intercambio fue tapiado y supuestas filtraciones al bando opuesto adquirieron la dramática connotación de espionaje político. Los logros publicables que obtenían los laboratorios nucleares de Dubna, en la ex - Unión Soviética, Darmstad en Alemania, y Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre prioridad, como es el caso del descubrimiento (acaso sería mejor decir "la fabricación" en los aceleradores lineales) de los elementos transférmicos que ocupan una posición en la tabla periódica posterior al elemento número 100.
El proceso de descolonización en África y Asia experimentó una aceleración en el período de la posguerra. Pero el cuadro del desarrollo socioeconómico de los países a lo largo del siglo se mantuvo tan desigual y asimétrico como irracional resultaría la distribución de riquezas heredada del pasado colonial. La brecha entre ricos y pobres continuó ampliándose y se reflejó necesariamente en el estado de la ciencia y la técnica. Los países "en vías de desarrollo" debieron sufrir otro fenómeno: la fuga de cerebros. El capital humano, tal vez el mayor capital que atesora un país, se ve tentado en los países en desarrollo por las oportunidades que ofrecen las Mecas contemporáneas de las ciencias y al triste fenómeno de la emigración selectiva asisten sin posible defensa ante el mercado de la inteligencia, los países pobres.
Un panorama similar se advierte si se recurre a cifras que ilustren el financiamiento por países en el área de investigación y desarrollo, así como si se analizan la producción de patentes de invención. En esta última esfera un nuevo problema viene a matizar el progreso científico.
La protección de la propiedad industrial en todo el siglo XIX operó como un elemento de financiamiento de nuevas investigaciones que alentaran y permitieran nuevos logros en la invención. Pero con el siglo XX se van haciendo borrosos los contornos de los descubrimientos y las invenciones para la pupila de las grandes transnacionales interesadas más que todo en competir con éxito en el templo del mercado. Una encendida polémica se viene gestando en la opinión pública que gana creciente conciencia de los peligros que entraña semejante política. Afortunadamente, entre los propios investigadores se desarrolla un movimiento tendiente a preservar como patrimonio de toda la humanidad los descubrimientos científicos de mayor trascendencia.
Ya a finales de la década de los años ochenta, con el derrumbe del sistema socialista en el este europeo, se establecieron las bases de un mundo unipolar, caracterizado por un proceso de globalización, que si en principio pudiera considerarse en bien del intercambio científico, potencialmente representa un desafío para la supervivencia del mosaico de culturas de las naciones emergentes y de sus identidades nacionales.
Por otra parte, la desaparición de la guerra fría y el clima de universal entendimiento que parecía poder alcanzarse brindaban la posibilidad de congelar la irracional carrera de armamentos y desviar estos enormes recursos financieros hacia la esfera del desarrollo. Esto equivale a decir que podría al fin inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de toda la humanidad. Pronto el optimismo inicial, derivado de semejante razonamiento se evaporó ante las nuevas realidades.
En el ámbito de las Matemáticas el siglo se inicia con el Congreso Internacional de París que concentró a las más relevantes figuras del momento y tuvo la significación de contar con las predicciones de David Hilbert (1862 -1943), notable matemático de la célebre Universidad de Gotinga forja académica de Gauss y Riemann y uno de las instituciones dónde se generó la actual interpretación de la Mecánica Cuántica, sobre los problemas más candentes que deberían ser resueltos por el esfuerzo de la comunidad de matemáticos. En efecto, a lo largo del siglo estos problemas serían abordados, pero lo que no pudo Hilbert pronosticar fue que las más significativas aportaciones en las Matemáticas guardarían relación con el mundo de la informatización y la inteligencia artificial. Así aparecen una nueva rama de la Geometría, esta vez la Geometría de los fractales, una nueva Lógica, la llamada Lógica Difusa, un Álgebra de nuevo tipo, conocida como el Álgebra de Neumann, y una teoría que había sido relegada por la complejidad inherente a su abordaje, la Teoría de los Sistemas Caóticos.
En el año 1946 se construye en Estados Unidos el primer ordenador electrónico digital de uso práctico (enicak), sin pieza mecánica alguna. Desde entonces estos artefactos han tenido un vertiginoso desarrollo, alcanzando su cima en la inteligencia artificial.
La teoría de los juegos aparece a fines de los años 20, impulsada principalmente por John von Neumann (1903-1957), matemático estadounidense nacido en Hungría. La teoría de juegos se aplicó a los negocios y las guerras y Neumann extiende sus conceptos para desarrollar nuevos operadores y sistemas conocidos como anillos de operadores que reciben el nombre de Álgebra de Neumann que resultan muy utiles en la Mecánica Cuántica.
A pesar de los grandes adelantos en la optimización computacional ocurridos durante los últimos 20 años, el método Simplex inventado por George B. Dantzig (1914-2005) en 1947 es aún la herramienta principal en casi todas las aplicaciones de la Programación Lineal. Las contribuciones de Dantzig abarcan además la teoría de la descomposición, el análisis de sensibilidad, los métodos de pivotes complementarios, la optimización en gran escala, la programación no lineal, y la programación bajo incertidumbre. De ahí en adelante la Teoría del Caos, y la Lógica Difusa vienen emergiendo con gran fuerza en el panorama científico y tecnológico.
La Teoría del Caos se ocupa de sistemas que presentan un comportamiento impredecible y aparentemente aleatorio, aunque sus componentes estén regidas por leyes deterministas. Desde 1970 se viene aplicando esta teoría en la esfera de los fenómenos meteorológicos y en la Física Cuántica entre otras, siendo el físico estadounidense Mitchell Feigenbaum (1944- ) uno de los exponentes más representativos. Estos sistemas tienen afinidades con la Geometría Fractal y con la teoría de catástrofes.
La Geometría Fractal fue descubierta en la década de los setenta por el matemático polaco, nacionalizado francés, Benoit B. Mandelbrot (1924 - ). Ya no se limita la Geometría a una, dos o tres dimensiones, sino que se plantea el trabajo con dimensiones fraccionarias. Las montañas, nubes, rocas de agregación y galaxias se pueden estudiar como fractales. Estos vienen siendo usados en gráficos por computadora y para reducir el tamaño de fotografías e imágenes de vídeo.
La Lógica Difusa fue introducida en 1965 por Lotfi Zadeh (1921- ), profesor de la universidad de Berkeley. La gran diferencia con la teoría de conjuntos clásica, enunciada por el alemán George Cantor a finales del siglo XIX, es que un elemento puede pertenecer parcialmente a un conjunto; en contradicción con la concepción tradicional que solo brinda dos posibilidades: "se pertenece o no se pertenece". La Lógica Difusa constituye una de las técnicas que sustentan la inteligencia artificial y se viene aplicando en Medicina y Biología, Ecología, Economía y Controles Automáticos.
Las Matemáticas invaden en el siglo XX todas las esferas de la sociedad, de la técnica y la ciencia, y sus más significativas aportaciones se relacionan con las nuevas áreas de la informatización y la inteligencia artificial. La modelación matemática reina en los procesos de ingeniería, de control automático, de la robótica, se introduce en los procesos biológicos y hasta algunos lo han evocado, a nuestro juicio con excesivo entusiasmo, en la solución de complejos problemas sociales.
La Revolución en el campo de la Física se abrió paso en el siglo XX a través de la superación de profundas crisis en el campo de las ideas, que exigieron lo que se ha dado en llamar un cambio de paradigma. La construcción en paralelo de las teorías que pretendían explicar el universo de las micropartículas y ofrecer una nueva visión del mundo macroscópico, en lugar de encontrar un punto convergente se distanciaban desde sus propios enfoques de partida.
Las páginas que siguen hacen un vertiginoso recorrido por los principales momentos en la evolución de estas ideas que traen nuevas nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio, al tiempo que se esfuerzan por explicar y dominar la estructura interna del átomo y de las propias partículas subatómicas. Por este camino, inundado por complejas teorías se abren paso colosales realizaciones prácticas que implican el gobierno de aquella energía fuente de todo el movimiento del sistema solar: la energía nuclear.
En el campo de las Ciencias Físicas una trascendental revolución se producía en:
El primer período en el desenvolvimiento meteórico de la Física Cuántica abarca desde el propio año inicial del siglo hasta 1913. Si tuviera que bautizarse esta etapa recurriendo a los protagonistas fundacionales, como el paradigma mecánico se reconoce como la época de Newton-Galileo, o la concepción electromagnética del mundo se asocia al par Faraday-Maxwell, habría que llamar a este momento histórico como el de Planck-Einstein-Rutherford-Bohr. Y al así hacerlo tendríamos en cuenta que ellos lideraron la búsqueda y solución de los problemas esenciales que condujeron a la teoría cuántica del átomo de Bohr:
El surgimiento de las ideas de la cuantificación de la luz nace con el inicio del siglo XX. Los trabajos de Max Planck (1858 – 1947) al explicar el comportamiento de la radiación por temperatura del radiador ideal, considera la existencia de paquetes de energía que depende de la frecuencia de la radiación. Por primera vez la Física se encontró con las representaciones cuánticas que modificarían la faz de esta Ciencia.
Las representaciones cuánticas fueron aplicadas por Albert Einstein (1879 – 1955) en 1905 a la teoría del efecto fotoeléctrico. Einstein a diferencia de Planck formuló la hipótesis de que los cuantos de magnitud hυ existen no solo en el proceso de emisión o de absorción, sino que tienen, además, existencia independiente. A partir de esta concepción explicó las particularidades de este efecto, inexplicables desde el punto de vista de la teoría ondulatoria de la luz, y enunció la ley básica del efecto fotoeléctrico.
La ecuación que resume esta concepción teórica fue comprobada experimentalmente por Arthur Holly Compton (1892 – 1962) en 1912. La explicación del efecto fotoeléctrico externo establece las bases de la Teoría Fotónica de la Luz.
Finalmente, Niels Bohr (1885- 1962) en 1913, abre la etapa de la cuantificación de la energía para las partículas al proponer un modelo inicial del átomo basado en el postulado de cuantificación del momento angular y la energía de los electrones en sus órbitas para los átomos hidrogenoides. La noción de los estados estacionarios del electrón rompía con la electrodinámica clásica y apuntaba hacia una nueva manera de entender el mundo de las micropartículas.
En 1914, Bohr visitó las universidades de Munich y Gottinga y establece relaciones con famosos físicos como Max Born (1882- 1970) y Arnold Sommerfeld (1868-1951). La Primera Guerra Mundial interrumpió su gira por Alemania y ya en 1916 abre una cátedra de Física Teórica en Copenhague. Cinco años después funda el Instituto de Física Teórica de la Universidad de Copenhague. En los próximos años, el Instituto de Bohr y la Universidad de Gottinga se convierten en los baluartes de la naciente Mecánica Cuántica.
Un segundo período nacido con la posguerra, nos trae las ideas duales para las partículas que tienen su origen en los trabajos teóricos de Louis De Broglie (1892 – 1987). Hasta entonces todos los fenómenos relacionados con el electrón se explicaban sólo desde el punto de vista corpuscular.
De Broglie busca obstinadamente una idea generalizada, en la cual los puntos de vista corpuscular y ondulatorio estuviesen íntimamente integrados. A partir de su hipótesis deduce de una forma sorprendentemente sencilla la condición de cuantificación de las órbitas electrónicas de Bohr.
La confirmación experimental del carácter ondulatorio de los electrones fue espectacularmente obtenida en 1927 por los científicos norteamericanos Clinton Joseph Davisson (1881-1958) y Lester H. Germer (1896-1971) y de forma independiente en Aberdeen por George P. Thomsom (1892- 1975) al obtener el espectro de difracción de un haz de electrones convenientemente acelerados.
En los años cruciales para el desarrollo de la Mecánica Cuántica del 1921 al 27, en Zurich, Erwin Schrodinger (1887 – 1961) llevó a cabo las investigaciones fundamentales que culminaron en su famosa ecuación de onda. La ecuación de onda de Schrodinger permite, a través del instrumental matemático con que opera, obtener valores discontinuos para la energía, que cuantifican el movimiento de las partículas no relativistas; y al mismo tiempo plantea el problema del sentido físico de la función de onda. Estas investigaciones basadas en la objetividad de las ondas existentes y en su comportamiento causal fueron aplaudidas desde Berlín por Planck y Einstein que por entonces ejercían la docencia en la Universidad berlinesa.
En el mismo año en que Schrodinger establece su famosa ecuación de onda, Werner Karl Heisenberg (1874 – 1956) enuncia el principio de indeterminación (incertidumbre). Heisenberg demuestra mediante un experimento imaginario que cuanto mayor es la precisión con que determinemos la posición de la micropartícula tanto menor es la precisión con que se determine su velocidad.
El sentido de la relación de indeterminación ha sido objeto de encendidas polémicas. Compartimos el criterio de que estas relaciones no constituyen barreras para la cognición del mundo de las micropartículas sino que expresan su peculiar esencia. Al establecer un enfoque probabilístico en la descripción del micromundo no se está intentando evadir las grandes dificultades representadas por el gran número de partículas de los sistemas abordados en la Física Molecular y la Termodinámica, pero que al menos en principio podían ser descritos con arreglo a leyes bien determinadas.
El Congreso de Solvay de 1927 dejó como saldo para la Historia el rico debate alentado principalmente por Bohr y Einstein sobre los principios de la nueva Mecánica Cuántica. A partir de este Congreso la Comunidad de los físicos teóricos reconoció como válida la interpretación de la Escuela de Copenhague (liderada por Bohr). Einstein aceptó la coherencia alcanzada por la teoría cuántica pero siempre creyó en la posibilidad de crear una teoría más completa.
En el caso del micromundo, no existe la posibilidad de descripción determinista y es necesario el reconocimiento de la existencia de leyes objetivas con un carácter probabilístico.
El trabajo fundamental que fija el sentido de probabilidad de la función de onda pertenece a Max Born (1882 - 1970) quien, al examinar esta cuestión en 1926 llegó a la conclusión de que si el sistema consta de un punto, la función de onda expresa la probabilidad de encontrar la partícula en el punto del espacio tridimensional; ahora bien si se trata de un sistema de n partículas la función de onda cambia de un punto a otro del espacio de representación con 3n dimensiones. Born fue uno de los pocos físicos que edificaron la estructura filosófica de la Mecánica Cuántica. Su principal contribución fue la interpretación probabilística de las ondas de Schrodinger, una interpretación que eleva la probabilidad a categoría primaria de la Mecánica Cuántica.
En 1928, el eminente teórico inglés Paul Dirac (1902-1984) deduce la famosa ecuación relativista cuántica que describe el comportamiento del electrón. Se considera la ley que generaliza las ecuaciones relativistas cuánticas del movimiento de las partículas.
La resolución de las ecuaciones obtenidas por Dirac indicaba que debía existir una partícula con la misma masa del electrón pero con carga positiva. Era la predicción del antimundo, por primera vez apareció el concepto de antipartícula, nació así teóricamente el positrón. Cuatro años más tarde, el físico norteamericano Carl D. Anderson (1905 – 1991) logró observar en la cámara de Wilson la traza de una partícula extraordinaria que poseía la masa del electrón pero era desviada por el campo magnético en sentido contrario. Se había hallado experimentalmente el gemelo del electrón predicho por Dirac.
En octubre de 1985, en el Laboratorio Nacional "Enrico Fermi"de Illinois, probaron un nuevo y superpotente acelerador de partículas con el cual colisionaron protones y antiprotones. La energía descargada durante la colisión superó cualquier cantidad conseguida hasta el momento: se produjo una energía equivalente a 1,6 trillones de electrón- volts.
El impetuoso avance de la Física Atómica permitió una mayor profundización en los niveles de la naturaleza e hizo posible el surgimiento de la Teoría de los Quarks. La explicación de la estabilidad del núcleo atómico, que confinaba en regiones muy reducida a los protones de carga positiva, exigió el postulado de nuevas partículas nucleares.
El físico japonés Hideki Yukawa (1908 – 1981) fue el primero en emitir la hipótesis de que las partículas que garantizan la estabilidad de los núcleos pueden poseer una masa mucho mayor que la del electrón. Estas partículas luego fueron llamadas mesones, y la comprobación experimental de su existencia debió esperar 11 años cuando se investigaban los rayos cósmicos. Fue entonces que se encontraron partículas con una masa 273 veces la masa del electrón y otras con 207 masas del electrón. A estas partículas se les llamaron mesones π o piones y mesones µ o muones. El pión resultó ser el mesón propuesto por Yukawa.
El progreso de la Teoría Dual de la Luz se fortalece con la llamada estadística de los bosones propuesta en los trabajos de A. Einstein, en 1924, y de Satyendra Nath Bose (1894 – 1974), de los cuales el fotón es un caso particular, y al incorporar, según las concepciones actuales, los fotones al sistema de partículas básicas consideradas por la Teoría de los Quarks.
En unos cincuenta años, se consolidó la Teoría Atómica, con el desarrollo de modelos, tanto para el átomo de hidrógeno, con cálculos exactos, como para los átomos multielectrónicos, con cálculos aproximados, pero muy eficientes, y edificado la Teoría del Núcleo que dio lugar a la utilización de la energía nuclear en las distintas ramas de la economía, aunque lamentablemente también en el terreno bélico.
Las realizaciones de la Escuela de Física soviética, fundada hacia los años treinta entre otros por Piotr Kapitsa (1894-1984) y Lev Landau (1908-68), abarcan un amplio campo de trabajo que incluye la superconductividad y la superfluidez, la electrodinámica cuántica, la física nuclear y la física de partículas. En la segunda mitad del siglo aparecen como continuadores sobresalientes de las investigaciones en la superconductividad y la superfluidez los rusos, premios Nobel de Física del 2003, Alexei A. Abrikosov (1928- ), declarado científico distinguido del Laboratorio Nacional de Argonne, naturalizado en los Estados Unidos, y el octogenario Vitali L.Ginzburg (1916- ), jefe del Grupo de Teoría del Instituto de Física P.N. Lebedev de Moscú.
La Mecánica Cuántica y sus múltiples aplicaciones en otras ramas concretas de las Ciencias, han traído importante derivaciones epistemológicas y filosóficas. Entre ellas destaca el debate sobre la cognoscibilidad del mundo, dado por diferentes interpretaciones del Principio de Indeterminación. En realidad este principio debe entenderse que define un límite de validez para la aplicación de los conceptos que el hombre ha aplicado a una determinada esfera de fenómenos naturales, y acusa el riesgo de una generalización no fundamentada.
Los avances en esta rama de las ciencias han tenido importantes aplicaciones prácticas, en particular sobresalen las aportaciones en la rama de las comunicaciones, la codificación de información, los diversos tratamientos con la utilización de los láseres, las aplicaciones en la medicina de técnicas basadas en el láser y en la resonancia magnética nuclear, los átomos marcadores para la datación de hallazgos arqueológicos, y el desarrollo de la rama de la energética nuclear.
El siglo XX conoció de la construcción en paralelo de las teorías que pretendían explicar el universo de las micropartículas y ofrecer una nueva visión del mundo macroscópico. Estos esfuerzos en lugar de encontrar un punto convergente se distanciaban desde sus propios enfoques de partida.
Las páginas que siguen hacen un vertiginoso recorrido por los principales momentos en la evolución de las ideas que traen nuevas nociones para las coordenadas esenciales de la existencia humana y cósmica: el tiempo y el espacio. En este otro extremo de la cuerda, el cuadro físico del mundo experimentaba una profunda reestructuración, en lo fundamental, por los trabajos del genio alemán Albert Einstein.
La teoría de la relatividad de Einstein es uno de los grandes logros de la Física contemporánea. Si la Mecánica de Newton representa en el siglo XVII el acto fundacional de la Física, la Mecánica Relativista desarrollada en este siglo provoca una nueva cosmovisión del universo y constituye lo que se ha dado en llamar un cambio paradigmático a partir de la interpretación dada por el físico Thomas Samuel Khun (1922-1996) en su clásico "Estructura de las Revoluciones Científicas".
De cualquier modo compartimos el criterio expresado por Steven Weinberg (Premio Nóbel de Física en 1979) en una retrospectiva sobre el trabajo de Kuhn:
"No es verdad que los científicos sean incapaces de conectarse con diferentes formas de mirar hacia atrás o hacia delante" y que después de una revolución científica ellos sean incapaces de comprender la ciencia que le precedió. Uno de los desplazamientos de paradigmas a los cuales Kuhn brinda mucha atención en "Estructura" es la sustitución al inicio de esta centuria de la Mecánica de Newton por la Mecánica relativista de Einstein. Pero en realidad, durante la educación de los nuevos físicos la primera cosa que les enseñamos es todavía la buena mecánica vieja de Newton, y ellos nunca olvidan como pensar en términos newtonianos, aunque después aprendan la teoría de la relatividad de Einstein. Kuhn mismo como profesor de Harvard, debe haber enseñado la mecánica de Newton a sus discípulos".
Einstein, en 1905, ya había demostrado al proponer la Teoría de la Relatividad Especial, que la Mecánica de Newton no tenía validez universal; demostró que si los cuerpos se mueven con velocidades comparables a la de la luz, entonces la Mecánica de Newton no puede describir los fenómenos correspondientes. La Teoría de la Relatividad es una generalización de la teoría newtoniana, que amplía su dominio de aplicación. Si en la Teoría de la Relatividad se consideran fenómenos en los cuales la velocidad de los cuerpos es mucho menor que la de la luz, como son la mayoría de los fenómenos cotidianos, entonces se recupera la mecánica de Newton. Es decir, la teoría newtoniana es un caso particular de la relativista, para velocidades muy pequeñas.
Tanto la llamada Teoría Especial para el caso de los sistemas inerciales que fue, en lo fundamental enunciada en 1905, como su ulterior extensión, la llamada Teoría General de la Relatividad que consideraba el caso de los sistemas no inerciales, les permitieron a Einstein desarrollar su Teoría sobre la Gravitación Universal a partir de la propiedades del espacio – tiempo en la cercanías de las grandes aglomeraciones de masa.
Es necesario destacar que la Teoría General de la Relatividad pertenece no solo a la Historia de la Ciencia sino a la Física contemporánea. Constituye una síntesis, desde postulados relativistas, de la teoría newtoniana de la atracción gravitatoria, de la teoría del espacio-tiempo tetradimensional curvo y, finalmente, de la generalización del principio de relatividad de movimientos uniformes respecto a movimientos acelerados.
Como expresión de una teoría revolucionaria, en el ámbito que abarca, va a exigir de nuevas concepciones sobre el espacio, el tiempo y el movimiento, a la vez que se apoya en novedosos instrumentos matemáticos de trabajo.
Asentada principalmente en la Teoría Especial de la Relatividad; en las observaciones de Poincaré (1854 – 1912) sobre la gravitación; y en la interpretación cuatridimensional de Minkowski (1864 – 1909); así como en los trabajos geométricos de Lovachevski y Riemann, su construcción fue obra casi exclusiva de A.Einstein. Este hecho, insólito ya en la Física del siglo XX, repleta de ejemplos del trabajo en "Escuelas", se explica al recordar que en el período que abarca de 1905 al 1916 la atención de la comunidad de físicos se centra en el desarrollo de la Teoría Cuántica del átomo.
No parecía entonces que los problemas de la atracción gravitatoria y de la generalización de la Teoría Especial de la Relatividad, fuera a ofrecer resultados trascendentes. De hecho, una característica de este descubrimiento que puede resultar, a primera vista sorprendente es que si bien la Teoría General de la Relatividad señala un giro radical en nuestras ideas sobre categorías tan generales como el espacio, el tiempo y la gravitación, esta no presentó la menor trascendencia técnica.
Sin embargo, después de su formulación y sobre todo luego de la confirmación experimental por Eddington (1882 - 1944) del entonces llamado efecto Einstein acerca de la pequeñísima desviación de los rayos de luz de las estrellas al pasar cerca de la superficie del sol, una nueva promoción de físicos se sintió inclinada a participar en nuevas búsquedas, emitir audaces hipótesis, y someter las nuevas ideas a confirmación astronómica. Desde entonces se han repetido los intentos de estructurar una teoría única del campo, y elaborar la Teoría Cuántica de la Gravitación.
En el propio año de 1916 en que se publica la teoría general de la relatividad, poco antes de su muerte, el matemático alemán Karl Schwarzschild (1873-1916), predijo la existencia de los agujeros negros. Sobre la base de la relatividad einsteniana, postuló "el radio de Schwarzschild", magnitud cósmica relacionada con el hipotético círculo, que se generaría durante la explosión de una supernova, tan compacto que nada ni siquiera la luz podría escapar de su intenso campo gravitatorio. A estos objetos se les conoció más tarde como agujeros negros. Fue necesario esperar a fines del siglo XX para que el radiotelescopio Hubble instalado en una sonda espacial confirmara la existencia de un agujero negro en el centro de una enorme galaxia llamada M87.
Estos trabajos fueron proseguidos por el sacerdote y astrónomo belga Georges Lemaitre (1894 – 1966) que fundamentó una teoría cosmológica según la cual, la expansión del Universo habría comenzado con una enorme explosión de un "núcleo primordial". Este "núcleo primordial", según sus deducciones matemáticas, increíblemente denso contenía toda la materia del Universo dentro de una esfera unas 30 veces mayor que el Sol.
1948 representa el año en que se desarrollan dos teorías cosmológicas contrapuestas: el llamado modelo estacionario y la más conocida teoría de la gran explosión. La teoría del universo estacionario resultante de la creación continua de materia que se condensa para la formación de nuevas galaxias fue desarrollada en Cambridge por los astrofísicos Hermann Bondi (1919-2005), Fred Hoyle (1915-2001), y Thomas Gold (1920-2004). La teoría de la Gran Explosión se enriquece con los trabajos del físico teórico ucraniano, nacionalizado estadounidense, George Gamow (1904-1968) que explica la expansión del universo y desarrolla nuevas hipótesis sobre la creación de los elementos en los primeros momentos del descomunal estallido.
Los progresos del período de investigaciones aceleradas en plena guerra habían legado un instrumental avanzado para escudriñar ahora la infinitud del universo. En 1960, desde el Observatorio de Monte Palomar en California, el astrónomo estadounidense Allan Rex Sandage (1926- ) consigue la primera imagen espectrográfica de un objeto estelar caracterizado por dos fenómenos enigmáticos: sus líneas espectrales de emisión resultan inidentificables al tiempo que emiten enormes cantidades de energía.
Los quásares (acrónimo de quasi-stellar radio source, fuente de radio cuasiestelar), fueron sometidos a sistemática observación a partir de este momento y en 1963, el astrónomo estadounidense de origen holandés Maarten Schmidt emitió la hipótesis de que estas líneas de emisión no identificadas en el espectro eran líneas ya conocidas pero que mostraban un desplazamiento hacia el rojo mucho más intenso que en cualquier otro objeto conocido, lo cual se interpreta como que el quasar se aleja rápidamente de nuestro planeta como resultado de la expansión del Universo. El análisis de observaciones posteriores y su correspondencia con las teorías existentes indican como única explicación satisfactoria para que un quásar variable produzca tal cantidad de energía en un volumen relativamente pequeño es la absorción de grandes cantidades de materia por un agujero negro. Los astrónomos creen que los quásares son agujeros negros supermasivos rodeados de materia que gira a su alrededor; esta materia emite energía al caer en el agujero negro.
En este debate sobre la cosmovisión del universo, el descubrimiento en 1965 de una misteriosa radiación de fondo cósmica correspondiente a las microondas de 3 K (-270oC) que no tiene fuente específica y se detecta desde todas las direcciones del universo fue interpretada como una prueba a favor de la teoría que apuesta a un universo que se expande producto de una colosal explosión original. Esta radiación detectada por el astrofísico estadounidense, de origen alemán, Arno Penzias (1933- ) y el radioastrónomo estadounidense Robert W. Wilson (1933- ) se comprendió como el remanente cósmico de las elevadísimas temperaturas que acompañaron al instante inicial del Gran Bang.
En 1979 el físico estadounidense Alan Guth (1947- ), desarrolló una nueva teoría acerca de la expansión del Universo, continuadora de la hipótesis inflacionaria desarrollada 30 años atrás por Gamow, que ha servido de base para la interpretación contemporánea de los primeros momentos del Universo. Guth combina las ideas cuánticas con la teoría del campo unificado para demostrar la posibilidad de que toda la materia del Universo podría haber sido creada por fluctuaciones cuánticas en un espacio ‘vacío’ y que una región de aquel estado caótico original podía haberse hinchado rápidamente para permitir que se formara una región observable del Universo.
En la Cosmología actual prevalece el modelo del Bing Bang, y la teoría del relevante físico Stephen Hawking (1942 - ). Las ideas relativistas de Einstein posibilitaron así el nacimiento de una ciencia del Cosmos y adelantar hipótesis sobre el surgimiento del universo conocido.
En el campo del micromundo, el impacto de las aportaciones de A. Einstein, ha sido enorme y merece destacarse que todo progreso de la Mecánica Cuántica ha tomado en cuenta el carácter relativista de las micropartículas introduciéndose magnitudes para la descripción de los fenómenos del universo subatómico que no tienen su similar en el mundo clásico como por ejemplo son el momento de espín, las cargas bariónica y leptónica, y la hipercarga, entre otros. Por otro lado al aprovechar el carácter relativo del espacio y del tiempo se han podido construir aceleradores de partículas con el objetivo de estudiar las propiedades más íntimas de la materia.
Hacia 1948, veinte años después de los trabajos fundacionales de Dirac en la versión cuántico-relativista de la formulación de Maxwell, la electrodinámica cuántica se consideraba una teoría completada, en lo esencial, por los físicos estadounidenses Richard Feynman (1918 -1988), y Julian Schwinger (1918 -1994) y por el físico japonés Sin-itiro Tomonaga (1906 – 1979). En 1965 compartirían el premio Nobel de Física.
En 1967 el físico de Harvard, Steven Weinberg (1933- ) dio un gran paso adelante hacia la realización de una «teoría del campo unificado». Ésta comprendería las cuatro fuerzas aparentemente distintas de la naturaleza: gravedad, electromagnetismo y las fuerzas nucleares débil y fuerte. La fuerza nuclear débil se manifiesta al expulsar partículas del núcleo en la desintegración radiactiva y la fuerza fuerte une las partículas nucleares. El modelo de Weinberg describe el electromagnetismo y la fuerza nuclear débil como distintas manifestaciones del mismo fenómeno.
Notables aportaciones a la teoría electrodébil, aplicable a las partículas elementales, fueron desarrolladas por el físico paquistaní, profesor de Física Teórica del Imperial College de Londres, Abdus Salam (1926 – 1996). A partir de entonces se conoció el modelo de Weinberg - Salam. En 1970 Sheldon Glashow (1932- ), otro físico de Harvard, extendió la teoría de este modelo a todas las partículas conocidas. En 1979, Weinberg, Salam y Glashow compartirían el Premio Nóbel de Física.
A finales de los años setenta, una teoría del campo sobre la fuerza nuclear fuerte, Cromodinámica Cuántica, se integró con la teoría electrodébil de Weinberg y Salam para formar el modelo estándar. De las cuatro fuerzas, la única que queda fuera de esta teoría unificada es la gravedad. El científico holandés Gerardus’t Hooft (1946- ) y su colega Martinus J Veltman (1931- ) merecieron el premio Nóbel de Física de 1999 por sus relevantes aportaciones en el desarrollo de las matemáticas necesarias para explicar el modelo estándar.
En el terreno epistemológico la Teoría de General de la Relatividad permitió una concepción más profunda sobre las nociones acerca del espacio y el tiempo y su relación con el movimiento al desechar o refutar las viejas ideas sobre el carácter absoluto o de receptáculos de estas entidades y analizar su variabilidad en dependencia del estado de movimiento de los sistemas. Además hizo posible comprender las relaciones entre la masa y la energía como magnitudes que expresan medidas cuantitativas de las propiedades inerciales y gravitatorias de las micropartículas por una parte y de las propiedades del movimiento de tales partículas por otra.
Otra importante derivación epistemológica de esta teoría radica en hacer evidente, tal vez por primera vez en el campo de la Ciencias Físicas, la importancia del llamado Principio de Correspondencia, considerado por muchos como el segundo criterio de la verdad sobre una determinada teoría científica, al establecer que toda nueva teoría, además de demostrar su valía en el campo de la práctica social, debe comprender o englobar a la teoría anterior sobre el mismo campo o dominio de aplicación, como un caso particular o límite. Tal era el caso entre la Teoría de la Relatividad y la Mecánica de Newton, de forma que la primera abarcaba a la segunda para el caso de bajas velocidades en comparación con la rapidez de propagación de la luz en el vacío.
Pero el gran mérito de la obstinada búsqueda de Eisntein, radica en indicar el camino para que mas de medio siglo después una nueva generación de físicos fundara una teoría que, estremeciendo preceptos establecidos, se esforzara por cumplir sus sueños de encontrar un principio universal para explicar las propiedades y fuerzas observadas en dos mundos "antagónicos" el microcosmos y el universo de los objetos ordinarios.
Al cierre del siglo el sueño de Einstein de encontrar un principio integrador de los mundos gravitatorios, electromagnéticos (y más tarde nucleares) parecía comenzar a cristalizar con la emergente teoría de las cuerdas. La teoría de las supercuerdas reconoce una estructura interna para las partículas fundamentales del universo que han identificado los físicos –electrones, neutrinos, quarks, y otras, las letras de toda la materia. De acuerdo con esta teoría si nosotros examinamos estas partículas con una mayor precisión, una precisión de muchos ordenes de magnitud mayor que la alcanzable con la capacidad tecnológica actual encontraríamos que cada partícula no es puntual sino consiste de un diminuto anillo. Como una banda de goma infinitamente delgada cada partícula contiene un filamento vibrante que los físicos han llamado cuerda. El electrón es una cuerda vibrante de un modo, el quark es una cuerda vibrante de otro modo, y así sucesivamente.
Aunque no resulte obvio esta simple sustitución de partículas puntuales constituyentes de los materiales con las cuerdas resuelve la incompatibilidad entre la mecánica cuántica y la relatividad general. La teoría de las cuerdas proclama por ejemplo que las propiedades observadas para las partículas fundamentales y las partículas asociadas a las cuatro fuerzas de la naturaleza (las fuerzas nucleares fuertes y débiles, el electromagnetismo y la gravedad) son un reflejo de las variadas formas en que una cuerda puede vibrar. Justamente como las cuerdas de un violín tienen frecuencias resonantes a las cuales ellas prefieren vibrar, lo mismo se mantiene para los anillos de la teoría de las cuerdas. Pero en lugar de producir notas musicales cada una de ellas prefiere determinadas masas o cargas de fuerzas según el modo oscilatorio de la cuerda.
La misma idea se aplica a las fuerzas de la naturaleza. Las partículas de la fuerza son también asociadas con los modos particulares de vibración de la cuerda y de ahí que cada cosa, todo material y todas las fuerzas se unifican bajo la misma rubrica de oscilaciones microscópicas de las cuerdas, las notas que las cuerdas pueden tocar.
Por primera vez en la historia de la Física se dispone de un cuadro con la capacidad de explicar cada característica fundamental sobre la cual el universo es construido. Por esta razón la teoría de las cuerdas es con frecuencia descrita como la "teoría de todo". Este término hace pensar en el advenimiento de la teoría de mayor profundidad posible que incluye todas las otras. Y esto enciende otra violenta polémica. ¿Qué significa la teoría del todo? ¿Pretende abarcar esta teoría en un solo principio la divina diversidad de "nuestros mundos"?
Si el debut del siglo XX abrió un nuevo capítulo en el desarrollo de la Física que supuso la superación de una crisis de sus nociones sobre el mundo de las micropartículas y el advenimiento de un nuevo paradigma, con el cierre del siglo se anunciaba el descubrimiento de un principio integrador que explicaba el mundo cósmico, electromagnético y nuclear. No era precisamente la Teoría del "Todo" pero representa una nueva conquista del inagotable conocimiento científico.
A continuación intentaremos llevar a cabo un breve recorrido por aquellos descubrimientos trascendentes de la estructura nuclear del átomo. Al hacerlo revelaremos el protagonismo de hombres de ciencias e instituciones élites en momentos cruciales vividos por la humanidad, asistiendo a conflictos de género, peligros de subsistencia, compromisos políticos, y en fin al drama de las ideas que los acompañó.
Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico. J.J. Thomson concibe inicialmente la carga positiva distribuida uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga se encuentran en el interior de esta nube positiva. Un año más tarde, supone a los electrones en movimiento de tipo oscilatorio alrededor de ciertas posiciones de equilibrio dentro de la carga positiva distribuida en una esfera.
Luego de otros intentos para describir un modelo atómico que explicara el espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) "La dispersión por parte de la materia, de las partículas alfa y beta, y la estructura del átomo" en la que propone el modelo nuclear del átomo. Según Rutherford la carga positiva y prácticamente la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z aproximadamente la mitad del peso atómico.
Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en una unidad al pasar al elemento siguiente en la Tabla Periódica. Esto puede explicarse si se admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual a la carga nuclear.
Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la construcción de un modelo para el núcleo atómico era un problema relativamente relegado y frente al cual se levantaban enormes obstáculos teóricos y prácticos. Rutherford sugirió desde sus primeras investigaciones que muy probablemente el núcleo estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4. Otra línea de pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la desintegración radioactiva eran lanzados desde el mismo núcleo.
Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración radioactiva en la Tabla Periódica colocó los elementos que mostraban propiedades químicas idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo: lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los átomos era la carga nuclear. Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la tecnología militar. Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 – 1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para llevar a cabo estudios vinculados con la naciente guerra química, Meitner continúa las investigaciones y descubre en 1918 el protactinio.
En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo, los protones. La existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación neutral, un doblete comprendido como una unión estrecha de un protón y un electrón, el neutrón. Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en vano demostrar experimentalmente la existencia del neutrón.
Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean Frederick (1900 – 1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto poder de penetración, nombrada originalmente "la radiación del berilio", que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para la Historia como el descubridor de los neutrones.
La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez convenientemente aprovechada. En 1928 Paúl Dirac (1902-1984) había predicho la existencia de la antipartícula del electrón, el positrón, que cuatro años después, experimentalmente descubre el físico norteamericano C. Anderson (1905 – 1991). Ellos encontraron que al bombardear aluminio con partículas alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el blanco continuaba emitiendo conforme a la ley exponencial de la descomposición de radionúclidos. Se había descubierto la radioactividad artificial.
Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación universal de la comunidad científica. Algunos cálculos preliminares estimaron la densidad del núcleo en ~ 1012 kg/m3, lo cual es un valor enorme.
Por otra parte, la presencia de los protones, partículas cargadas positivamente, confinadas a distancias del orden de las dimensiones del núcleo ~ 10-15 m implicaba la existencia de fuerzas de repulsión coulombianas (de origen electrostático) gigantescas, que deberían ser compensadas por algún otro tipo de fuerza de atracción para mantenerlas no solo unidas, sino con una cohesión tal que su densidad tuviera los valores antes citados. Estas son las fuerzas nucleares, las cuales son de corto alcance, muestran independencia respecto a la carga (ya que actúan por igual entre protones que entre neutrones) y presentan saturación dado que un nucleón solo interactúa con un número limitado de nucleones. La naturaleza de este nuevo tipo de fuerza, que se añadía a las conocidas anteriormente fuerzas gravitacionales y electromagnéticas, fue considerada como el tipo de intercambio, un nuevo concepto cuántico que involucra en la interacción entre nucleones el intercambio de una tercera partícula. En 1934 los científicos soviéticos Ígor Y. Tamm (1895-1971), premio Nobel de 1958 y el profesor Dmitri D. Ivanenko (1904- 1994) intentaron describir las fuerzas nucleares como fuerzas de intercambio en que las dos partículas interaccionan por medio de una tercera que intercambian continuamente. Ellos además comprobaron que no se podía explicar las fuerzas nucleares mediante el intercambio de ninguna de las partículas conocidas en aquel momento. En 1935 el físico japonés Hideki Yukawa dio una respuesta a este problema al suponer que ese intercambio se realiza mediante una nueva partícula: el mesón. En los dos años que siguieron se detectaron primero por Carl Anderson y luego por el británico Cecil Powell (1903 – 1969) partículas con similares características en los rayos cósmicos.
Conjuntamente con el descubrimiento de las diferentes partículas constitutivas del núcleo fue surgiendo la necesaria pregunta de cuál era la estructura del mismo, o sea, de qué manera pudieran estar dispuestos los nucleones y así surgieron los primeros modelos del núcleo. Entre estos vale la pena citar el modelo de la gota líquida y el modelo de las capas.
Cada uno de estos modelos se fundamenta en determinados resultados experimentales y logra explicar algunas de las características del núcleo. Por ejemplo, el modelo de la gota líquida se apoya en la analogía entre las fuerzas nucleares y las que se ejercen entre las moléculas de un líquido puesto que ambas presentan saturación. A partir del mismo se puede calcular la energía de enlace por nucleón teniendo en cuenta la energía volumétrica, la de tensión superficial y la de repulsión coulombiana, la cual tiene un aspecto similar a la curva experimental. Sin embargo, no puede explicar los picos que tiene dicha curva para los núcleos de elementos tales como el He, C, O, Ca, etc.
El modelo de la capas admite que el núcleo posee una estructura energética de niveles semejante a la estructura de capas electrónicas del átomo. En este sentido reproduce el esquema atómico para el núcleo. Este modelo explica satisfactoriamente la existencia de los números "mágicos", que corresponden al número total de nucleones de los núcleos más estables: 2, 8, 20, 50, 82 y 126. También justifica adecuadamente el valor de los espines nucleares, las grandes diferencias entre los períodos de semi-desintegración de los núcleos alfa-radiactivos, la radiación gamma, etc. No obstante, los valores de los momentos magnéticos muestran discrepancias con los valores experimentales.
Otros modelos nucleares más desarrollados han sido concebidos de manera que tienen en cuenta elementos de los anteriores y en este sentido resulta su síntesis. Es preciso aclarar que aún en la actualidad no existe un modelo universal del núcleo capaz de explicar todas sus características.
Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los electrones resultantes de la desintegración radiactiva beta? Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso obedeciera la ley de conservación y transformación de la energía, no presentaba carga ni masa en reposo.
Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada por Enrico Fermi (1901 - 1954) con el nombre de neutrino, fuera observada mediante experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines (1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.
Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma, inició el camino hacia la fisión nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos elementos más pesados.
En 1934 Fermi y sus colaboradores, pensando en la mayor facilidad que debían tener los neutrones para penetrar en los núcleos respecto a las partículas alfa, bombardearon diferentes sustancias con neutrones. Apoyándose en los resultados anteriores, usaban en calidad de fuente de neutrones una ampolla de vidrio que contenía una mezcla de berilio y gas radón, el cual se conocía como emisor de partículas alfa. Ellos investigaron 60 elementos, de los cuales 40 resultaron radiactivos luego del bombardeo con neutrones.
En Berlín, un equipo de investigación compuesto por Otto Hahn (1879-1968), Fritz Strassmann (1902 – 1980) y Lise Meitner (1878 -1968), pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de uranio con neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado bario.
Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner, entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas como se suponía, se rompía en dos fragmentes ligeros, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la ecuación de Einstein, podía aparecer en forma de energía cinética de los fragmentos y factible de transformarse a su vez en calor por frenado de los mismos transformarse en energía.
Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley, Edwin McMillan (1907 – 1991) y Philip Hauge Abelson (1913 – 2004) realizaron experimentos en los que obtuvieron un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se le llamó Neptunio, por el planeta Neptuno, más allá de Urano. Luego, Glenn Seaborg (1912 – 1999) dirigió un colectivo del propio Berkeley, que demostró la conversión de los átomos de Neptunio en un elemento cuyo número atómico era 94. Este elemento fue llamado Plutonio recordando al último planeta de nuestro sistema solar. El primer isótopo descubierto fue el Plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el Uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.
En octubre de 1942, un equipo de científicos dirigido por Fermi empezó a construir una pila atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión de un átomo de uranio podían "disparar" un mecanismo en cadena que generaría una enorme cantidad de energía. La pila atómica de Fermi es precursora de los reactores termonucleares para generar energía eléctrica. Una nueva fuente energética plantearía nuevos desafíos.
Nueve años después de inventada la pila atómica, y a seis años del holocausto de Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo energía suficiente para poner en funcionamiento su propio sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.
En 1954, los soviéticos abrieron la primera planta nuclear civil en Obninsk. La planta fue capaz de generar sólo 5 MW de energía eléctrica. La planta civil de Calder Hall representó la inauguración del programa nuclear británico en 1956. Pero la primera planta electronuclear comercial fue levantada en 1957 por la compañía Westinghouse en Shippingport, Pensilvania. Pronto empezaron a funcionar centrales nucleares en todo el mundo. Al finalizar la centuria las más de 400 centrales nucleares instaladas en 18 países generaban casi la quinta parte de la producción mundial, que se había decuplicado en la segunda mitad del siglo superando la astronómica cifra de 10 billones de kWh. Francia, líder mundial, producía el 75% de su generación eléctrica en plantas nucleares.
Pero las predicciones de un futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de construir y de mantener, también resultan peligrosas por los residuos radiactivos y la posibilidad de accidentes catastróficos. Entretanto las grandes potencias se esfuerzan por lograr el monopolio de la energía nuclear, preocupadas por el posible desarrollo paralelo de la tecnología nuclear con fines militares, sin dedicar los recursos necesarios para las búsquedas de fuentes alternativas de energía que den solución, no a los proyectos de un modelo neoliberal basado en las leyes del mercado, sino al hambre energética que experimentan vastas zonas del planeta.
Por lo menos cuatro accidentes principales han sido registrados en las plantas nucleares. En todos se reporta como causa una combinación de errores humanos (como factor principal) con fallas en el diseño de los equipos. La Organización Internacional de la Energía Atómica (OIEA) ha implantado una escala para categorizar la magnitud de los accidentes (conocida por sus siglas INES) en siete niveles. La categoría máxima está representada por un accidente de consecuencias comparables al ocurrido en la Central de Chernóbil.
Resulta sorprendente que en los diferentes informes sobre la catástrofe se acepte la increíble versión de que se sumaran tantas negligencias para desatar la tragedia. Primero, el equipo que operaba en la planta el día del accidente, se propuso, con la intención de aumentar la seguridad del reactor, realizar un experimento a un régimen de baja potencia, que exigía desconectar el sistema de regulación de la potencia, el sistema de emergencia refrigerante del núcleo y otros sistemas de protección. Segundo, los operadores quedaron responsabilizados con la manipulación de las barras de control del reactor y de las 30 barras de la aleación de acero al boro que debieron permanecer bajadas, según establecen como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8 de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de control se dio la señal de alarma de que el reactor experimentaba una subida de potencia extremadamente rápida. Se ordenó bajar de inmediato las barras de moderación pero cumplir el mandato exigió "liberarlas" pues el sistema de descenso no funcionó, y entonces sobrevino la explosión que levantó por los aires el techo de 100 t del reactor provocando un incendio en la planta y lanzando una gigantesca emisión a la atmósfera de productos de fisión.
Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en el momento del accidente, alrededor de 350.000 personas tuvieron que ser evacuadas de los 155.000 km² afectados, permaneciendo extensas áreas deshabitadas durante muchos años. La radiación se extendió a la mayor parte de Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante varios días. Se estima que se liberó unas 500 veces la radiación de la bomba atómica arrojada en Hiroshima en 1945.
En septiembre de 2005, el borrador del informe del Fórum de Chernobyl (en el que participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las mayores dosis de radiación. La versión completa del informe de la OMS, publicado en 2006, incluye la predicción de otras 5000 víctimas en áreas significativamente contaminadas de Bielorus, Rusia y Ucrania, con lo que se alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en los próximos 10 años, muchos de ellos muy lejos del área del accidente.
Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria inmediata a los afectados, además de realizar promesas a largo plazo, que nunca cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de institución internacional alguna, un programa de socorro para las víctimas de este accidente nuclear. El sistema de salud de Cuba ha atendido a 18 153 pequeños de Ucrania y Bielorus con diversas enfermedades y ha acogido además a 3 427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos, 136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento. Se han realizado 14 operaciones cardiovasculares y seis transplantes de médula ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen de orfanatos y escuelas para niños sin amparo filial.
En el peligroso polo del desarrollo de las armas nucleares también se vieron envueltos eminentes físicos y radioquímicos. A fines de los años 30 el panorama de la 2da Guerra Mundial se presentaba muy complicado. El odioso Reichstag alemán había amenazado con estar desarrollando un arma de potencia desconocida que rendiría a la humanidad a los pies del nazifascismo.
En 1939 Einstein junto con otros físicos envió una carta al presidente Roosevelt solicitando el desarrollo de un programa de investigación que garantizara el liderazgo de los aliados en la construcción del arma atómica. Científicos de diferentes generaciones y países concurrieron a la convocatoria del Proyecto Manhattan, para producir el arma atómica antes de que el eje nazifascista pudiera obtenerla. Al finalizar la guerra, el profundo carácter humanista y la inteligente pupila de la mayoría de estos científicos quedaron revelados por la firme oposición mostrada a la continuación de las investigaciones en el arma nuclear.
Desde 1942, Julius R. Oppenheimer (1904 – 1967), físico norteamericano, de origen judío, actúa como director científico del Proyecto Manhattan para la fabricación de la bomba atómica. Formado en los momentos de esplendor de la Universidad de Gottinga al lado de físicos de la talla de su mentor James Franck (1882- 1964), y su colega Eugene Rabinovitch (1903 -1973), .Oppenheimer mostró una incuestionable capacidad de liderazgo en el círculo de científicos participantes del proyecto. Estimuló una atmósfera de confianza y respeto que produjo enormes progresos. Con consagración se mantuvo al frente del complejo proyecto, aunque su vida privada se resintió enormemente.
Toda una red de establecimientos investigativos, en particular de universidades estadounidenses, y de instalaciones especialmente diseñadas para este propósito se compartieron las tareas del Proyecto Manhattan. Dentro de esta comunidad científica multinacional se destacaba el colectivo estadounidense que creció alrededor del Colegio de Química y del Laboratorio de Radiación de la Universidad de California en Berkeley, y jugó un papel extraordinario en el descubrimiento de radioisótopos y elementos transuránicos, su aplicación en nuevos dominios de la ciencia y la técnica, y también en el desarrollo del arma nuclear.
Durante este período, Seaborg era ya uno de los más brillantes radioquímicos de la época, y según se comentó brevemente arriba, dirigió el colectivo que se enfrascó con éxito en la obtención del material nuclear fisionable. En febrero de 1941, continuó los estudios sobre la fusión nuclear iniciados por McMillan, reclamado en ese momento para investigaciones relacionadas con la guerra, en el nuevo ciclotrón del laboratorio de radiación y descubrió que el Plutonio-239 es fisionable con neutrones lentos producidos en el ciclotrón de 37 pulgadas. Esto demostraba la utilidad del plutonio como componente explosivo en el arma nuclear y lo más importante abría paso al uso del uranio como combustible nuclear para reactores generadores de la energía necesitada por el mundo.
Casi veinte años más tarde Seaborg intervino de forma relevante en la redacción del Tratado para la Prohibición de Pruebas Nucleares de 1963, cuyo fin era prohibir los ensayos nucleares en el espacio, la atmósfera o bajo las aguas.
Pero apenas a dos meses antes del lanzamiento de la bomba atómica en Hiroshima el secretario de la guerra de EU recibió un documento firmado por científicos de las investigaciones conducidas en el Laboratorio de Metalurgia de la Universidad de Chicago, que pasó a la historia como "Franck Report". Entre los firmantes se encontraba Seaborg, y lo encabeza el jefe de la división de Química, el físico y químico alemán, naturalizado en los EU, James Franck (1882- 1964).
El copioso documento intenta frenar el lanzamiento de la bomba atómica de forma unilateral por los EU. Su sumario parece redactado más que por científicos por políticos profundos y sensatos que comprendieron, amén de la tragedia que le tocaría vivir a las víctimas de semejante engendro destructivo, el espectro de la guerra fría y el clima de recelos mutuos que se entronizarían en las relaciones internacionales a partir de este momento. Leamos a continuación los convincentes argumentos sintetizados en los últimos párrafos del reporte:
"Nosotros creemos que estas consideraciones hacen el uso de las bombas nucleares inadmisible si antes no se anuncia el terrible poder destructivo de esta arma, que con menos de una tonelada, es capaz de arrasar un área urbana de más de 10 millas cuadradas y cuyos efectos a largo plazo no conoce la humanidad.
Si los EU fueran los primeros en lanzar este nuevo medio de indiscriminada destrucción sobre el género humano, con seguridad estaríamos sacrificando el apoyo público internacional, precipitaríamos la carrera armamentista y perjudicaría la posibilidad de alcanzar un acuerdo internacional sobre el control futuro de tales armas.
Si el gobierno decidiera a favor de una demostración previa de las armas nucleares, entonces tendría la posibilidad de tomar en cuenta la opinión pública de este país y de otras naciones antes de decidir si estas armas deben ser usadas contra el Japón. De esta manera otras naciones podrían compartir la responsabilidad de tan fatal decisión.
Nosotros urgimos que el uso de las bombas nucleares en esta guerra sea considerada como un problema de la política nacional estratégica mas que una decisión evaluada desde posiciones militares y que esta política sea dirigida al alcance de un acuerdo que permita un control internacional efectivo de los medios de la guerra nuclear".
Esta exhortación aunque no alcanza su objetivo principal, ya que en junio de este mismo año la humanidad se despierta aterrorizada ante el holocausto de Hiroshima, queda como un monumento testimonial del rechazo de los científicos al uso de la ciencia para la destrucción e intimidación en los asuntos políticos.
Las terribles consecuencias del lanzamiento de la bomba atómica sirvieron de detonante para estremecer la conciencia de un grupo de científicos que pronto comprendieron la horrible significación de trabajar para el desarrollo del armamento nuclear.
En plena guerra fría, el propio año del fallecimiento de Einstein, se publica el llamamiento a los científicos que pasa la historia como el Manifiesto de Russel – Einstein. No pudo ser más oportuno este aldabonazo para unir las voluntades de científicos de diferentes credos y orientaciones políticas en la lucha por la paz pero diversas circunstancias no hicieron posible el encuentro propuesto hasta 1957, en que el filántropo estadounidense Cyrus Eaton ofreció la villa de Pugwash en Nova Scotia, Canadá, como sede del evento que pasó a la historia como Primera Conferencia del Pugwash. A partir de entonces se inauguró un movimiento a favor de la solución pacífica de los litigios entre naciones que ha tenido una creciente capacidad de convocatoria entre la comunidad científica con el propósito de examinar los problemas más candentes que aquejan a la especie humana.
Entre los que mostraron un temprano alistamiento en la causa a favor de la paz y el desarme se encuentra el físico nuclear polaco Joseph Rotblat (1908 - 2005) que apoyó sin reservas este Manifiesto firmado por Einstein dos días antes de su muerte y por otros nueve científicos relevantes en el campo de la Física Nuclear.
Rotblat que había trabajado en el laboratorio de Chadwick en Liverpool en el desarrollo de experimentos básicos para evaluar la factibilidad de fabricar una bomba atómica, se ve enrolado en la delegación británica que asiste en 1941, luego de la entrada de los Estados Unidos en la guerra y la decisión del gobierno de iniciar el Proyecto Manhatann, al Laboratorio de los Álamos, Nuevo México. Se contó entre el grupo de científicos que tan pronto comprendieron que la amenaza fascista había desaparecido, abandonaron inmediatamente el proyecto.
En 1950 Rotblat se traslada al Colegio Medico del Hospital de San Bartolomé de la Universidad de Londres, donde su carrera profesional fue orientada a la aplicación de la Física Nuclear a la Medicina, desarrollando trabajos pioneros en radiología, radioterapia con acelerador lineal, y radiobiología.
Pero la principal contribución de Rotblat al desarrollo de la paz mundial fue la organización de aquel movimiento que naciera del Manifiesto de Russel – Einstein en la pequeña villa de Pugwash. A partir de este momento casi una vez al año se reúnen más de 100 participantes de unos 40 países, principalmente de USA, Rusia y Gran Bretaña con el propósito de evaluar las vías para lograr un mayor entendimiento y viabilizar acuerdos internacionales en materia de regulaciones y prohibiciones de desarrollar nuevas generaciones de armamentos nucleares. Rotblat es durante largos periodos secretario general del movimiento (1957 - 1973), su presidente desde 1988 – 1997 y en 1995 resulta galardonado con el Premio Nobel de la Paz.
Otra gran figura en el activismo a favor de la paz y la comprensión entre los pueblos es el físico –químico estadounidense Linus Pauling (1901- 1994). Su esposa Ava Helen Miller se interesó primero que Pauling por los temas de los derechos humanos, la paz y la prohibición de los ensayos nucleares llegando a ser miembro de la Liga Internacional de Mujeres por la Paz y la Libertad. Pero pronto Linus que era ya un profundo conocedor de la estructura de las moléculas, y de su transmisión a través de la herencia, despertó una honda preocupación por los efectos potenciales malignos de las emisiones nucleares sobre las estructuras de las moléculas humanas.
Desde fines de los cuarenta, Pauling, se afilió al Comité de Emergencia organizado por Einstein entre los científicos atómicos, y sirvió como activista de apoyo de muchas organizaciones por la paz. Intentó demostrar con cálculos la probabilidad de las deformaciones congénitas en las futuras generaciones resultantes de los productos de la fisión nuclear emitidos por las pruebas nucleares, y los publicó; protestó por la producción de la bomba de hidrógeno, abogó por la prevención de la proliferación de las armas nucleares; y promovió la suspensión de las pruebas de armas nucleares, como un primer paso hacia el desarme multilateral. En 1958, Pauling presentó en Naciones Unidas la petición firmada por más de diez mil científicos de muchas naciones de suspender las pruebas nucleares. Por esto debió rendir cuentas al Comité Senatorial de Seguridad Interna que deseaba obtener los nombres de los científicos firmantes de esta petición. En 1962 recibió su segundo premio Nobel, este por su relevante contribución a la paz mundial. El primero por sus aportaciones a la comprensión de la naturaleza del enlace químico.
Muy a pesar de la actividad de los hombres de ciencias por frenar la carrera de las armas y detener los nuevos desarrollos del arma atómica, la lógica de la espiral armamentista había alcanzado al arma nuclear.
Cuando el presidente Truman ordena la fabricación de la Bomba H, luego del primer ensayo atómico soviético, se encarga del proyecto al eminente físico de origen húngaro Edward Teller (1908-2003). Teller, que había recibido una formación académica en Alemania y trabajado en Munich en el equipo del propio Heisenberg, emigró hacia Estados Unidos huyendo de la represión de la Alemania fascista. En Estados Unidos se unió al proyecto Manhattan y en Los Álamos se mostró como un defensor entusiasta de la continuación del programa de fabricación de nuevas armas nucleares. Esta vez la conquista se enfilaba a liberar la colosal energía asociada a la fusión nuclear. El 1 de noviembre de 1952 explotaba la primera bomba de hidrógeno (nombrada Mike) con la fuerza equivalente a 500 bombas como la que había destruido a Hiroshima. Desde California, Teller pudo registrar el impacto sísmico que produjo y exclamó alegremente: "Es un chico". Un "chico" que podía cegar la vida de millones de seres...
Como ya apreciamos en el caso de dos personalidades como Szilard y Rotblat, una trascendente orientación de los físicos nucleares se dirigió hacia la solución de problemas en el campo de la biología. Un notable impacto en los estudios de los procesos biológicos tuvo el descubrimiento del isótopo radioactivo del carbono –14. Pero no solo la biología resultó beneficiada con este hallazgo, la técnica de datación con el carbono –14 provocó una revolución en los ámbitos de la arqueología, y la geología.
Los autores de este descubrimiento fueron dos jóvenes científicos que en la década del 30 formaron parte de un impresionante staff de físicos y químicos agrupados en torno al joven director del Laboratorio de Radiación de la Universidad de Berkeley, inventor del ciclotrón, Ernest O. Lawrence (1901-1958). Martín D. Kamen (1913-2002) y Samuel Ruben (1913-1943) vieron sus planes inmediatos postergados por su enrolamiento en investigaciones para los servicios de la guerra y, a partir de estos momentos, sufrieron una verdadera tragedia.
El paralelismo en las vidas de Ruben y Kamen supera el marco profesional. Ambos nacieron en 1913. Kamen había nacido en Toronto de padres inmigrantes, la madre de la región del Báltico, el padre de Bielorrusia. Los padres de Ruben eran polacos. En 1936, Kamen había defendido su grado de doctor en la temática de la interacción protones-neutrones en la Universidad de Chicago. Ruben, dos años, después recibió el doctorado por la Universidad de California, Berkeley, y el tema central de su disertación estuvo vinculado con el empleo del fósforo radioactivo como trazador para estudiar procesos biológicos.
La razón de su posterior alianza se puede encontrar en los temas hacia dónde dirigieron sus esfuerzos iniciales en la investigación. En 1937, Ed McMillan traslada a esta pareja de jóvenes talentosos de dos áreas complementarias de Berkeley, un encargo de comprobación experimental solicitado por el propio Lawrence. A partir de entonces una tácita división del trabajo opera entre ellos: la producción y caracterización de los isótopos producidos en el ciclotrón sería una responsabilidad de Kamen, mientras su aplicación en la investigación química debía ser tarea de Ruben.
En febrero de 1940, se anunciaba, en ocasión de la ceremonia de entrega oficial del premio Nobel de Física (1939) a E.O. Lawrence el descubrimiento del carbono-14. La valoración del significado trascendental del hallazgo destacaba que por medio del ciclotrón, se había obtenido una nueva forma radioactiva del carbono, probablemente de masa 14 y tiempo de vida media del orden de magnitud de algunos años. Sobre la base de su potencial utilidad es la más importante sustancia radioactiva que haya sido creada. Tenían entonces ambos 27 años. Pronto intervendría EU en la Guerra, y sería reclamada la participación de ellos en estudios relacionados con la actividad bélica.
Ruben fue solicitado por el Comité Nacional de Defensa para un proyecto que se proponía desarrollar métodos para la determinación de la concentración de gases en el ambiente. Durante la manipulación de una ampolleta de vidrio defectuosa, cargada con fosgeno, escapó el gas y Ruben debió inhalar una dosis mortal del mismo. Un día después, en el otoño de 1943 murió en el Hospital en que fuera internado.
En este año de la muerte de Ruben, fue enrolado Kamen en las investigaciones del Laboratorio Nacional de Oak Ridge del Proyecto Manhattan. Pero poco después es separado de este laboratorio cuando Kamen especula con sus colegas sobre la existencia de un reactor nuclear en las dependencias de estas instalaciones y esta información, sumamente sensible, llega a los agentes de seguridad del proyecto. Este suceso es interpretado como una intromisión de Kamen y una inclinación por datos de la seguridad y se decide no sólo su separación del programa sino también someterlo a chequeo personal.
Un nuevo incidente se crea al reincorporarse a Berkeley. En el transcurso de una velada musical organizada por su amigo el músico Isaac Stern, al cual acompaña en la viola, conoce a dos oficiales rusos, uno de los cuales le pide a Kamen averigüe sobre como puede un compañero aquejado de leucemia acceder a la nueva terapia radioquímica.
Los agentes del FBI lo chequeaban y esta "relación" con oficiales rusos es de nuevo interpretada como un motivo para levantar un expediente de investigación. Kamen es despedido de su trabajo en Berkeley. El despido de Kamen fue seguido por un año de negaciones a ofertas de trabajo tanto en puestos académicos como de la industria. Es difícil imaginar las ideas perdidas tras la muerte de Ruben y la suerte corrida por Kamen.
En la primavera de 1945 el premio Nobel de Física (1923) Arthur H. Compton (1892 - 1962) lo invita a trabajar en la Escuela de Medicina de la Universidad Washington para conducir el programa del ciclotrón. Sin embargo la enseñanza de la metodología del trazador radioactivo a los profesores y la preparación de materiales radioactivos marcadores para sus investigaciones clínicas, desplazaron el interés de la investigación desde la física nuclear hacia la biofísica. Con la publicación en 1947 de su aclamado texto "Radioactive tracers in Biology", Kamen concluyó su trabajo sobre el C-14.
Kamen debió sufrir en estos años la negativa del Departamento de Estado a concederle el pasaporte que le impedía su participación en las conferencias internacionales a las cuales era invitado en calidad de pionero en el trabajo con trazadores radioactivos. Semejante prohibición se extendió desde 1947 hasta 1955. En 1948, de nuevo soportó las presiones del Comité de Actividades Antiamericanas ante la posibilidad de que hubiera filtrado secretos atómicos a los rusos mientras trabajaba en el proyecto Manhattan. La insostenibilidad de los cargos obligó al Comité a revocarlos pero la marca de espía atómico debió llevarla Kamen aún varios años.
En 1951, según recoge en su autobiografía, "Radiant Science, Dark Politics", comenzó un litigio legal contra la Compañía Tribuna cuyos periódicos lo identificaron en sus páginas de historias como un científico atómico espía y traidor. Al final, Kamen triunfó, obteniendo una reparación monetaria en el juicio. Pero su rehabilitación ante la historia vino tardíamente ya a los 83 años cuando el Departamento de Energía le confirió el Premio "Enrico Fermi", una de las más altas condecoraciones dadas a los científicos atómicos por el gobierno de los EU.
Resumir en breves líneas los extraordinarios progresos alcanzados en el siglo XX en materia de tecnología derivadas de teorías físicas es tarea imposible. Reducimos nuestro propósito a esbozar algunas técnicas de avanzada que emergen de los resultados teóricos más brillantes nacidos y desarrollados en este siglo.
Cuando Roentgen descubre en 1895 los rayos de naturaleza entonces desconocida pero desde ya comprobada su alta capacidad de penetración pronto se aplica para obtener las primeras fotos de los huesos humanos. Su aplicación en Medicina encuentra una rápida difusión y en determinadas circunstancias históricas brilla en esta actividad la célebre Marie Curie. También con relativa rapidez se inaugura una época en que los rayos –X resultan útiles para analizar las sustancias cristalinas o los espectros de emisión de estas radiaciones por los elementos químicos permiten su identificación. Las páginas que siguen abordaran brevemente estos momentos.
Con el propósito de apoyar la candidatura para una plaza vacante en la Academia de Ciencias del eminente físico Edouard Branly (1844-1940), que representaba los valores del conservadurismo francés, la prensa reaccionaria francesa no dudó en dañar la imagen de la insigne científica de origen polaco, Marie Curie. El daño se hizo y la candidatura de Marie fue derrotada en 1910 por dos votos. Un año después a su regreso del Congreso Solvay en Bruselas, debió enfrentar una nueva ronda de odio esta vez "acusada" de sostener relaciones con el destacado físico francés Paul Langevin (1872 – 1946). Poco después recibiría la información de la Academia Nobel de haber recibido un segundo Premio, esta vez en la disciplina de Química. De cualquier forma en los primeros meses de 1912, sufrió primero una fuerte depresión nerviosa y luego debió someterse una operación de los riñones. Sólo a fines de este año Marie retornó al laboratorio después de casi 14 meses de ausencia. El escándalo había finalizado y la Academia de Ciencias estaba dispuesta a darle la bienvenida a la mujer que había sido dos veces laureada con un premio Nobel.
Pero pronto se pondría a prueba la estatura moral y el patriotismo verdadero que, durante el periodo de la guerra, iba a demostrar Marie por su nación de adopción. Por el otoño de 1914, cuando Alemania declaró la guerra a Francia, la construcción del Instituto de Radio había terminado pero la Curie no había trasladado aún su laboratorio para la nueva edificación. El trabajo del Instituto de Radio podría haber esperado por la restauración de la paz pero la Curie encontró formas de poner su conocimiento científico al servicio del país. En el Instituto de Radio, la Curie entrenó alrededor de 150 mujeres en la técnica de rayos – X que actuaron como asistentes en las unidades radiológicas móviles que fueron llevadas a las líneas del frente. Previamente había encabezado una campaña nacional para adaptar carros de aquellos tiempos como unidades radiológicas móviles que dieran una asistencia inmediata para el tratamiento de los heridos y fracturados en el campo de batalla. El uso de los rayos –X durante la guerra salvó las vidas de muchos heridos y redujo los sufrimientos de los que sufrieron fracturas de todo tipo.
Cuando los servicios radiológicos ya estaban marchando establemente, Curie cambió su atención hacia el servicio de radioterapia. Comenzó entonces a usar una técnica desarrollada en Dublín para colectar radón, un gas radioactivo emitido continuamente por el radio. Trabajando sola y sin una protección adecuada Madame Curie pudo colectar el gas en ampolletas de vidrio selladas que eran así entregadas a los hospitales militares y civiles para que los médicos empleando agujas de platino lo inyectaran en la zona del cuerpo de los pacientes donde la radiación debía destruir el tejido enfermo. Se inauguraba la época de la radioterapia en la medicina.
El redescubrimiento de los rayos –X se produjo cuando el físico alemán Max von Laue (1879 – 1960) determina experimentalmente la longitud de onda de los rayos –X al estudiar los espectros de difracción que experimentan las sustancias cristalinas. Otros pioneros en el estudio de la estructura de los cristales mediante sus espectros de difracción de rayos –X fueron los físicos británicos, padre e hijo, William Henry Bragg (1862-1942) y William Lawrence Bragg (1890-1971). El primero fue profesor de Física de universidades inglesas y en el último tramo de su vida profesional ocupo la cátedra de Física de la Universidad de Londres. Su hijo le siguió los pasos en la investigación y juntos desarrollaron trascendentales estudios sobre la estructura cristalina de importantes sustancias del mundo inorgánico demostrando la utilidad de la técnica como herramienta de investigación para confirmar las teorías cristalográficas. En reconocimiento a los logros cosechados compartieron padre e hijo el premio Nobel de Física de 1915. Nunca antes ni después se ha repetido este acontecimiento. William Lawrence fue sucesor en la Universidad de Manchester del físico nuclear Ernest Rutherford y luego funda en Cambridge, en 1938 el laboratorio de Biología Molecular que se destacará en los próximos años por los estudios fundamentales que desarrolla que cubren todo una época.
Otro grande de las primeras décadas en el desarrollo de la espectroscopia de rayos –X fue el físico sueco, primer director del Instituto Nobel de Física Experimental, Karl Manne Georg Siegbahn (1886-1978). Siegbahn no se dedicó a la interpretación de los espectros de difracción sino al análisis de los rayos –X emitidos por los elementos químicos al ser bombardeados por electrones rápidos. En tales casos cada elemento ofrece un espectro de emisión característico. Los espectrómetros construidos por el propio Siegbahn permitían medir y registrar con alta precisión las longitudes de onda emitidas por cada elemento químico. Sus trabajos revelaron información sobre prácticamente todos los elementos químicos, desde el sodio hasta el uranio, lo que facilitó el análisis de sustancias desconocidas y encontraron aplicación en campos tan diversos como la física nuclear, la química, la astrofísica y la medicina.
En artículos publicados en la Revista Journal of Applied Physics de 1963 y 1964 el físico sudafricano, naturalizado en EU, Allan M. Cormack (1924 -1998) expusó los principios de una nueva técnica que aplicaba un barrido multidireccional de rayos –X sobre el paciente para luego reconstruir las imágenes de sus órganos con mayor resolución que las técnicas convencionales. Estos trabajos no llamaron la atención de la comunidad de radiólogos hasta que en 1967 el ingeniero electrónico británico Godfrey N. Hounsfield (1919-2004) sin conocerlos desarrolló el escáner un equipo que bajo el mismo principio propuesto por Cormack iba a representar una de las más importantes invenciones médicas del siglo XX: la tomografía axial computerizada (TAC). Los escáneres se empezaron a utilizar en la década de 1970 y en la actualidad se emplean en muchos países, sobre todo para diagnosticar el cáncer. La tomografía permite un diagnóstico más preciso al obtener imágenes tridimensionales con una resolución mucho mayor. En 1979 Cormack y Hounsfield compartieron el Premio Nobel de Fisiología y Medicina.
La radiación coherente intensa y direccional producida por el dispositivo llamado láser en una amplia región del espectro electromagnético desde el infrarrojo hasta los rayos – X, es el resultado de un proceso de amplificación de la radiación mediante emisión estimulada de un medio que puede ser un gas, un líquido o un sólido. La radiación láser ha encontrado aplicaciones en el campo de la técnica, la medicina y las investigaciones científicas.
En 1917 Einstein introduce el concepto de emisión estimulada y sólo décadas más tarde, en 1954, los físicos soviéticos Nikolai G. Basov (1922- 2001) y Alexander M. Projorov (1916 - 2002) del Instituto Lebedev de Física de Moscú y, de modo independiente, el físico estadounidense Charles H. Townes (1915- ), por entonces profesor de la Universidad de Columbia, utilizan el proceso de emisión estimulada para la fabricación de los primeros amplificadores de microondas (Máser). Por sus estudios en el campo de la electrónica cuántica que anticiparon la técnica de amplificación de las microondas por emisión estimulada de la radiación, Basov, Projorov y Townes compartieron el Premio Nobel de Física en 1964. Pronto se encontraron numerosas aplicaciones para estos dispositivos capaces de enviar microondas de elevada intensidad en cualquier dirección y un resultado inmediato fue el perfeccionamiento de la tecnología de los radares. Los máseres encontraron aplicación por la gran estabilidad de las frecuencias generadas, como reguladores de tiempo en relojes atómicos.
No pasan cuatro años sin que Projorov e —independientemente— Arthur L. Schawlow (1921 - 1999) y Townes extiendan los principios de la amplificación por estimulación de la radiación a la luz visible (Láser). En 1958, la pareja de estadounidenses describió a grandes rasgos los principios de funcionamiento del láser en su solicitud de patente. Obtuvieron la patente, pero posteriormente fue impugnada por el ingeniero estadounidense Gordon Gould. En 1977, el Tribunal de Patentes de Estados Unidos confirmó una de las reivindicaciones de Gould en relación con los principios de funcionamiento del láser.
Los plazos siguen acortándose y esta vez en 1960 el físico estadounidense Theodore H. Maiman (1927- ) construye el primer láser utilizando un rubí como medio amplificador del láser. Un año después el físico de origen iraní Alí Javan fabrica un láser utilizando una mezcla gaseosa de helio y neón. El láser de helio-neón resalta por su elevada estabilidad de frecuencia, pureza de color y mínima dispersión del haz.
A lo largo de la década de los sesenta se investigan con éxito diferentes medios de estimulación. En 1962 se fabrican los primeros láseres de semiconductores en varios laboratorios del mundo. Este tipo de laser está integrados por una unión entre capas de semiconductores con diferentes propiedades que confina la cavidad del láser mediante dos límites reflectantes. Se logra así una estructura de láser compacta. En la actualidad, entre los usos más comunes de los láseres de semiconductores se encuentran los reproductores de discos compactos y las impresoras láser.
En 1931 el físico estadounidense Robert Jemison Van de Graaff (1901-1967) inventó la máquina electrostática conocida como generador de Van de Graaff capaz de producir las altas tensiones requeridas para acelerar partículas con las cuales estudiar transformaciones nucleares. Poco después Ernest O. Lawrence (1901-1958) inventa un acelerador de micropartículas, el ciclotrón, que abría nuevas horizontes a las investigaciones de los procesos de fusión nuclear pronosticados por Fermi. Lawrence, profesor titular de la Universidad de Berkeley a los 29 años, fundó el Laboratorio de Radiación que en alianza productiva con el Colegio de Química dirigido por el veterano Gilbert Newton Lewis (1875 –1946) posibilitó el descubrimiento de los elementos transuránicos y de numerosos radioisótopos de gran utilidad como trazadores en investigaciones biológicas y en aplicaciones médicas. En 1939 recibe el Premio Nobel de Física.
El descubrimiento de los 22 elementos transuránicos con número atómico superior a 92 (que caracteriza al uranio) fue posible gracias a los aceleradores de partículas. Sólo tres de estos elementos fueron producidos en los reactores nucleares por procesos de fusión mediante el bombardeo con neutrones rápidos, y de desintegración radiactiva. Así cuando el uranio- 238 es bombardeado con neutrones se convierte en el uranio -239 que experimenta la beta desintegración para producir neptunio 239Np93 y plutonio 239Pu94. El plutonio-239 cambia a americio 241Am95 por bombardeo de neutrones y posterior desintegración beta del plutonio-241.
Los elementos transuránicos desde número atómico 96 y más alto son todos fabricados mediante aceleración de un pequeño núcleo (tal como He, B, o C) en un acelerador de partículas cargado para colisionar con un núcleo pesado marcado (a menudo de un núcleo transuránico previamente producido).
A los descubrimientos del Laboratorio Nacional Lawrence se sumaron otros dos laboratorios de relieve internacional que fundados en la segunda mitad del siglo XX asumieron como direcciones fundamentales de la investigación la síntesis de nuevos elementos pesados y superpesados, el estudio de sus propiedades físicas y químicas así como la investigación de las propiedades de sus desintegraciones radioactivas. Una sobresaliente actuación en estas complejas tareas ha caracterizado la gestión del Laboratorio de las Reacciones Nucleares de Flerov perteneciente al Instituto Conjunto para la Investigación Nuclear de Dubna, a unos 160 km de Moscú y el Laboratorio de Investigación de Iones Pesados en Darmstadt, Alemania.
La naturaleza y complejidad de los problemas que debieron superar estos colectivos se entiende mejor cuando se conoce que los tiempos de vida de los nuevos elementos resultan extraordinariamente breves, los rendimientos de las reacciones de fusión son extremadamente bajos mientras los rendimientos de los núclidos secundarios que interfieren con la identificación de los nuevos elementos son altos. Por consiguiente se necesita contar con métodos de detección ultrarrápidos y específicos que identifiquen sin ambigüedad los nuevos núcleos.
Complicados experimentos sobre la síntesis de los nuevos núcleos fueron con frecuencia conducidos paralelamente en las tres instituciones. Como consecuencia de esta simultaneidad se origina la polémica sobre la prioridad de los descubrimientos. Para resolver este problema en 1986, de acuerdo con una decisión unánime de la Unión Internacional de Química Pura y Aplicada (IUPAC) y la Unión Internacional de la Física Pura y Aplicada, se constituyó un grupo especial de trabajo compuesto por físicos y químicos para trabajar en el criterio de reconocer la prioridad en el descubrimiento de los nuevos elementos químicos.
Entre los 80 y los 90 el Laboratorio de Darmstadt, cosechó significativos éxitos en el terreno de la síntesis de nuevos elementos pesados. El equipo encabezado por el físico alemán Peter Ambruster participó en el descubrimiento de los elementos Bohrio (Z=107, 1981), Hassio (Z=108, 1984), 109 Meitnerio (Z= 109, 1982); Darmstadtio (Z=110, 1994) y Roentgenio (Z=111, 1994).
El camino iniciado por Kamen en la utilización de los isótopos radioactivos como trazadores de procesos biológicos resultó clave en la identificación definitiva del agente responsable de la transmisión hereditaria. La comunidad científica hacia finales de los cuarenta no había sido convencida por las pruebas experimentales presentadas por el colectivo del Instituto Rockefeller de Investigación Médica encabezado por el inmunólogo estadounidense Oswald Theodore Avery (1877-1955) que demostraban que era el ADN, y no otras posibles sustancias como el ácido ribonucleico (ARN) o las proteínas, el que transmitía las características hereditarias. Tuvieron que pasar ocho años más para que Alfred D. Hershey (1908 – 1997) y Martha Chase (1928 – 2003) en 1952, utilizando bacteriófagos marcados con los isótopos radioactivos S-35 o P-32 (el azufre como elemento químico propio de las proteínas y el fósforo del ADN) demostraran de manera irrefutable que el ADN viral llevaba la información genética responsable de la síntesis de los compuestos proteicos que constituyen la cápside del virus. Es decir, los genes son ADN. En 1969, Hershey compartió el premio Nobel con Salvador E. Luria (1912- 1991) y Max Delbrück (1906 -1987) "por sus descubrimientos en relación con el mecanismo de replicación y estructura genética de los virus".
Una vez aceptado el significado genético del ADN, el paso obligado siguiente era determinar la estructura que explicara las propiedades mágicas de la replicación y la mutación. Los nombres de dos científicos británicos y un estadounidense se enlazan en el trascendental descubrimiento de la estructura de doble hélice del ácido desoxirribonucleico. Sin embargo son muchos los que reclaman un merecido espacio a un nombre de mujer: la prematuramente desaparecida Rosalind Franklin (1920 -1958).
Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos materiales y capital humano que forjó una comunidad con un nivel de primera línea. El físico británico Francis H. C. Cricks (1916- ) y el bioquímico estadounidense James D. Watson (1928- ) coincidieron en los primeros años de los cincuenta en el Cavendish. Contaban en el arsenal de antecedentes con el principio de complementariedad de las bases nitrogenadas establecido experimentalmente por el químico checo Erwin Chargaff (1905- 2003), los modelos de estructura helicoidal propuestos para las proteínas por Linus Pauling, y las imágenes de los espectros de difracción de rayos X obtenidos por Maurice Wilkins (1916- ), y sobre todo por la química – física Rosalind Franklin (1920 – 1958).
La integración de estas fuentes con una imaginación creativa desbordante los condujo a publicar en 1953 dos artículos en par de meses. Publicaron primero en la revista "Nature", la descripción, en algo más de una página, del modelo estructural de la doble hélice y luego en el segundo "Implicaciones genéticas de la estructura del ácido desoxirribonucleico" justifican cómo el modelo propuesto es capaz de explicar dos propiedades fundamentales del material hereditario: la de conservarse a sí mismo (replicación) y la de cambiar (mutación). En 1962 Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología y Medicina. La evolución de los acontecimientos luego de sus publicaciones ratifica la importancia de la teoría para alumbrar la práctica. Se tornaba más claro y firme el despegue de la ingeniería genética.
En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983), premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este esfuerzo de expansión el también suizo Richard Ernst (1933 - ), premio Nóbel de Química en 1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el desarrollo paralelo de la teoría para ampliar el alcance de su aplicación.
Un nuevo salto se produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ), premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra y cómo funciona en el organismo viviente.
Un ejemplo de la aplicación del método propuesto por Wuthrich para orientar las investigaciones clínicas la encontramos en el reciente estudio de las proteínas implicadas en un número de enfermedades peligrosas tales como "la enfermedad de las vacas locas". Ahora la técnica de RMN puede también usarse para los estudios estructurales y dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la información hereditaria.
En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988), premio Nóbel de Física en 1986, elaboró los principios de funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron equipadas con este equipo.
Los modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta, cuando el físico suizo H. Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986 con Ruska, desarrollara la técnica de microscopía electrónica de barrido por efecto túnel en el laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica. Las posibilidades brindadas por la microscopía electrónica fueron aprovechadas para la obtención de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito sobresale la obra de Aaron Klug (1926- ), biólogo molecular, lituano de nacimiento, surafricano por crianza, y británico según adopción, que mereció el Nóbel de Química en 1991.
La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922.
El equipo para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las moléculas a investigar; b) separar estos iones de acuerdo con la relación carga: masa; y c) medir la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con masas de muestras del orden de una millonésima de gramo.
La aplicación de la espectrometría de masa, sobre todo acoplada a la Cromatografía Gaseosa, técnica capaz de separar componentes de una muestra, se extiende en la actualidad al análisis de sustancias dopantes o drogas; el control de los alimentos; y los ensayos ultrarrápidos para determinar los niveles de contaminación ambiental.
Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en la década de los ochenta propusieron los procedimientos para burlar este obstáculo. El estadounidense John B. Fenn (1917- ) propuso dispersar la proteína bajo estudio en un solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. Cómo el solvente se evapora las microgotas se convierten en moléculas de las proteínas totalmente desnudas. El método se conoce como ionización por electrodispersión (en inglés las siglas ESI, corresponden a electrospray ionization).
Las técnicas de análisis de los componentes de la atmósfera y sus contaminantes han resultados decisivos para la comprensión y toma de opiniones en relación con los cambios climáticos globales promovidos por actividad irracional del hombre en la superficie del planeta.
Hacia la mitad de la década de 1950 el biofísico británico James E. Lovelock (1919 - ) se ocupaba de diseñar una serie de detectores de ionización para su empleo en los cromatógrafos de gases, cuando uno de ellos, el detector de captura electrónica vino a revolucionar las técnicas de análisis de los gases en la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental. Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles métodos para el análisis de aquellas sustancias químicas que constituyen una amenaza para el medio ambiente. Su empleo condujo al descubrimiento de la distribución de los residuos de pesticidas en el ambiente natural que sirvió de base para el libro de la bióloga Rachel Carson (1907 – 1964) "La Primavera Silenciosa" que alertó a la conciencia pública sobre los peligros del uso irracional de los pesticidas. Una década más tarde Lovelock se encargó de demostrar, al menos con algunos ejemplos relevantes, que la propia biosfera se ocupa de engendrar, reproducir y regular sus propias condiciones ambientales.
En 1971, Lovelock detectó ciertas sustancias que actúan como reguladoras del equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el verano las algas costeras proliferan, incrementando sus emisiones del dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para el vapor de agua, lo que eleva la concentración nubosa, oscurece por consiguiente la superficie y provoca el descenso de las temperaturas. Por el contrario el frío del invierno inhibe la multiplicación de las algas en los océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil sulfuro, se forman menos nubes y comienza una nueva escalada térmica.
Aparte de los cinturones de las selvas tropicales y de las plataformas continentales un tercer cinturón mostró su sensibilidad a la actividad del hombre, y por sorpresa, este se ubica fuera de los límites de la biosfera escapando del dominio de ésta, pero ejerciendo una notable influencia en su protección: la capa de ozono.
Mientras el ingeniero mecánico estadounidense Thomas Midgley (1889 – 1944) evaluaba la utilización de una nueva generación de refrigerantes potencialmente inofensivos, un científico inglés Gordon M. B. Dobson (1889 - 1976) en la Universidad de Oxford iniciaba la observación y estudio del ozono atmosférico. Hoy sabemos que las tres mil millones de toneladas de ozono que se acumulan en la estratosfera es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del oxígeno) que alcanza una concentración en el intervalo de los 300 - 500 Dobson. La unidad Dobson, propuesta para perpetuar la memoria de este pionero en la determinación del ozono atmosférico, representa una molécula por cada 109 moléculas, es decir la concentración de ozono es muy baja, entre 03, - 0,5 ppm (partes por millón).
Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante como sugería el propio nombre de estratosfera sino que había una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozono, y decidió construir un equipo para hacer mediciones de las cantidades de ozono y su variabilidad. El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecieron las características principales de la variación estacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrecha correlación entre la cantidad de ozono y las condiciones meteorológicas en la alta troposfera y la baja estratosfera. A fines de 1929, Dobson y sus colaboradores habían extendido una red de equipos que permitió establecer las regularidades mas generales entre la variación de la cantidad de ozono con la latitud y la estación.
Paralelamente con estos trabajos de medición del ozono en la atmósfera superior el geofísico inglés Sydney Chapman (1888 - 1970) publicaba en 1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozono y el oxígeno atómico en la atmósfera superior que implicaban la interacción del ozono con la radiación ultravioleta proveniente del astro rey.
La idea de que la capa de ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que estudiaba la atmósfera del planeta. La II Guerra Mundial detuvo estas investigaciones pero poco después de su final se fundó la Comisión Internacional de Ozono por la Unión Internacional de Geodesia y Geofísica. A fines de 1956, en el Año Internacional de la Geodesia y Geofísica no menos de 44 nuevos espectrómetros fueron distribuidos a través del mundo.
Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que los clorofluorcarbonos empleados masivamente como propulsores en todo tipo de "spray" y como refrigerantes, tienen potencial para destruir la capa de ozono. Y en efecto, años después se confirmó el adelgazamiento de la capa de ozono en diferentes latitudes del planeta.
Este adelgazamiento ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Las consecuencias son ya importantes y podrían llegar a ser trágicas.
La incidencia de este incremento de la radiación ultravioleta "dura" sobre las distintas especies de los seres vivos puede ser muy diversa pero entre los efectos más dramáticos se cuenta la afectación a largo plazo que sufrirá el fitoplancton lo que trastornará la cadena alimentaria en mares y océanos con efectos ecológicos impredecibles, y a mediano plazo la reducción de la población marina disminuirá sensiblemente los rendimientos de la industria pesquera.
En 1976 el Programa de Naciones Unidas para el Medio Ambiente (PNUMA) llama a una Conferencia Internacional para discutir una respuesta internacional al problema del ozono. En 1985 se firma en Austria "La Convención de Viena para la protección de la capa de ozono pero esta no se acompaña de un protocolo vinculante. Dos años mas tarde en Canadá se firma "Protocolo de Montreal sobre las sustancias que degradan la capa de ozono". Este protocolo, legalmente vinculante, es aprobado por 24 países. Sucesivos encuentros han sido auspiciados por la ONU para discutir y tomar medidas de acuerdo con los informes de los expertos sobre el efecto de la degradación de la capa de ozono. Hacia fines de siglo los datos demostraban que la concertación internacional había al menos detenido el avance del enrarecimiento de la capa protectora.
En 1904 el físico - químico sueco Svante Arrhenius (1859 – 1927) pronosticó que las crecientes emisiones industriales de CO2 determinarían un cambio notable en la concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este incremento podría resultar beneficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos.
Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenergético británico Guy Stewart Callendar (1898 – 1964) publica en 1938 el artículo titulado "La producción artificial del dióxido de carbono y su influencia sobre la temperatura". Este trabajo y los que posteriormente dio a conocer demostraban la correlación existente entre la elevación de las concentraciones del dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia observada de la elevación de la temperatura. Las deducciones de Callendar no encontraron resonancia en la comunidad científica de la época. Prevalecía el criterio de que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capacidad absorbente del CO2.
Sin embargo las investigaciones conducidas en la década de los cincuenta por el geofísico estadounidense Roger Revelle (1909-1991) con la colaboración del radioquímico de origen austríaco Hans Suess (1909- ) demostraron de manera irrefutable que los niveles de dióxido de carbono en la atmósfera se habían incrementado como resultado de la quema de los combustibles fósiles y de la tala de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora de mares y océanos.
En 1988 el Programa Medioambiental de la ONU fundó un Panel Intergubernamental sobre el Cambio Climático (IPCC) que debió valorar la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos potenciales y las opciones para la adaptación y mitigación de los daños. El IPCC fue el primer esfuerzo internacional para dirigir los temas medioambientales.
En resumen los expertos coincidieron en que la elevación de las temperaturas globales provocará una elevación del nivel del mar, cambios en los regímenes de precipitación y otras condiciones climáticas locales. Los cambios regionales del clima pueden alterar los bosques, el rendimiento en las cosechas, y las fuentes de agua. También puede resultar amenazada la salud humana, dañadas especies de aves, peces y muchos tipos de ecosistemas.
En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990. A cinco años de este tratado, se firma en la ciudad japonesa de Kyoto el Protocolo que anuncia el compromiso de las naciones poderosas a limitar sus emisiones de los gases de invernadero hasta los niveles emitidos en 1990. Los inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de Kyoto por precisamente dos grandes, que "ven amenazados su desarrollo si no se prevén limitaciones en las cuotas de emisiones de los países en vías de desarrollo", los Estados Unidos de América y la nueva Rusia. La comunidad científica y toda la humanidad deben apoyar la ratificación de estos tratados y su celoso cumplimiento.
La creciente preocupación de los círculos científicos por el manejo que hacen los políticos de los problemas medioambientales llevó a la fundación de una "Unión de los Científicos Preocupados" (UCS) que en carta abierta firmada por más de 20 laureados con el premio Nóbel acusó al Gobierno de Estados Unidos de estar manipulando el sistema científico asesor de esta nación para evitar los consejos que puedan ser contrarios a sus intereses políticos. A escasos doce meses de su fundación el listado de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobel que han expresado su adhesión a este movimiento de hombres de ciencia comprometidos con los problemas de su tiempo. Los problemas que ahora se plantean rebasan las fronteras originales de los Estados Unidos y tienen un alcance internacional.
La superconductividad ha atraído la atención de los investigadores pues si esta propiedad exhibida por distintos materiales a temperaturas muy bajas fuera observada a temperaturas viables produciría una verdadera revolución tecnológica. El descubrimiento de este fenómeno data de 1911 cuando el profesor de la Universidad de Leiden, Heike Kamerlingh Onnes (1853-1926), investigando los efectos observados en gases y metales a temperaturas extremadamente bajas, cercanas al 0 de la escala absoluta descubrió que el mercurio a temperaturas por debajo de 4,2 K no presentaba resistencia al paso de la corriente eléctrica.
La comprensión de la superconductividad como un fenómeno cuántico no llegó hasta los años 50, cuando los físicos estadounidenses John Bardeen (1908-1991), Leon N. Cooper (1930- ) y John R. Schrieffer (1931- ) explicaron la superconducción en los metales como resultado del desplazamiento electrónico en pares, apantallados por la atmósfera de iones positivos, que no muestran resistencia eléctrica.
En 1962, cuando aún era un estudiante en Cambridge, el físico británico Brian D. Josephson (1940 - ) descubrió el fenómeno de conducción que se manifiesta entre dos superconductores mantenidos a temperaturas muy bajas, que están separados entre sí por una capa muy fina de un aislante. Un flujo constante de corriente a través del aislante se puede inducir mediante un campo magnético fijo. Este efecto que representa un efecto de túnel a través de un aislante recibió el nombre de efecto Josephson. Por este descubrimiento compartió el premio Nobel de Física.
A finales de 1986, el físico-químico alemán Johannes G. Bednorz (1950- ) y el físico suizo Karl A Müller (1927- ), del Laboratorio de Investigaciones de IBM en Zurich, anunciaban al mundo que un compuesto cerámico, el óxido de lantano, bario y cobre, manifestaba la superconductividad a una temperatura más alta que la exigida por los sistemas hasta entonces investigados, los metales y aleaciones. Aún la barrera impuesta para la aparición de la superconductividad era muy baja, 35 K, pero el descubrimiento de un nuevo tipo de superconductores abría un campo de investigación. En 1987 se reveló la composición de un cuprato de itrio y bario que mostraba una temperatura crítica de superconducción de 94 K. A medida que las temperaturas resulten superiores a 77 K (la temperatura del nitrógeno líquido), y los óxidos resulten más baratos, las aplicaciones potenciales de estos materiales resultaran económicamente más viables. Por este trabajo merecieron Bednorz y Muller el Premio Nobel de Física de 1987.
Quizás ninguna otra empresa científica tenga una naturaleza interdisciplinaria tan marcada como la conquista del cosmos. Pero nadie duda que los vuelos espaciales exigieran el desarrollo de una ciencia y una ingeniería propia y que en estos progresos desempeñara un importante papel la Física, al tiempo que sus ideas se nutrieran de los resultados de esta soñada exploración.
El análisis del panorama político en que se desarrolla la conquista del cosmos desborda los propósitos de nuestro breve examen pero es imposible omitir que, a mediados del siglo, la lógica que presidía las relaciones entre las naciones más poderosas del planeta, determinó que en lugar de una eficaz colaboración entre las partes, la cosmonáutica naciera con un claro perfil de competencia que dividió los esfuerzos, tapió el intercambio de experiencias, multiplicó los gastos, y paralelamente alentó el desarrollo en espiral de programas y armas que "neutralizaran" al enemigo.
La guerra fría entre los bloques calentó las relaciones entre las naciones y los proyectos para la fabricación de cohetes portadores ambivalentes (empleados para las lanzaderas de las naves espaciales y de proyectiles intercontinentales) y el curso de programas tan irracionales como "la guerra de las galaxias", demandaron de enormes recursos que compitieron con la necesaria asistencia a los países subdesarrollados. Esta ayuda para el desarrollo hubiera seguramente saneado la atmósfera internacional y evitado tal vez el surgimiento de los focos de tensión que matizados por la frustración y el odio de pueblos y culturas hacia la irracionalidad de la civilización occidental derivaron hacia la dolorosa confrontación y las guerras "locales" del fin siglo.
Cuba pequeño país del Caribe, sumergida en esta confrontación, sufrió la hostilidad del gobierno de los Estados Unidos desde el propio nacimiento de la Revolución cubana y en el otro extremo de la cuerda apreció la solidaridad y ayuda recibida de la nación soviética. Esto explica que varias generaciones de cubanos aplaudieran los logros en materia de vuelos espaciales de la ciencia soviética en tanto las realizaciones de la astronáutica estadounidense encontraran en nuestro contexto una baja resonancia.
A continuación, pasaremos breve revista a los momentos principales de esta carrera, sus cabezas más visibles, los logros y fracasos, y las repercusiones más importantes hacia el desarrollo de la ciencia. No esconderemos el sesgo de nuestra pupila, pero intentaremos equilibrar las fuentes de información y mantener una objetividad que rara vez es encontrada en el tratamiento de estos temas.
En la actualidad, es un criterio bastante aceptado el reconocer como antecedente inmediato del desarrollo de los cohetes propulsores de las naves espaciales tanto de la Unión Soviética como de los Estados Unidos, los logros alcanzados en la Alemania nazi por el equipo encabezado por el científico alemán Werner von Braun (1912 – 1977).
Nadie ignora hoy las dramáticas circunstancias históricas en que un equipo de científicos y técnicos alemanes en una base de investigaciones radicada en Peenemünde, diseñaron los cohetes V-2 que eran fabricados y después lanzados desde esta zona de la isla de Usedom, situada en el mar Báltico, en la desembocadura del río Oder. En la fábrica de estos cohetes laboraron en trabajos forzosos prisioneros de los fascistas y el blanco a que apuntaron estos cohetes fueron territorios de Inglaterra. Los V-2 representaban un proyectil propulsado por combustible líquido con una longitud que superaba los 46 pies y un peso de 27 000 libras, que volaban a una velocidad superior a las 3 500 millas por hora, llevando una cabeza explosiva a un blanco a 500 millas de distancia.
Tampoco se oculta que von Braun, ante el avance de las tropas aliadas, planeó detalladamente la rendición de 500 científicos alemanes especialistas en cohetes, y la entrega de los proyectos y vehículos de prueba a los estadounidenses. No hay que olvidar que las tropas que venían desde el este eran las soviéticas pero la entrega se hizo desde el frente occidental, según el programa calculado por von Braun. En 1945 llegó a Estados Unidos como consejero técnico del programa nacional de cohetes desarrollado en Nuevo México. Cinco años después dirigía el programa de misiles Redstone en Alabama y ya en 1955 adoptaba la nacionalidad estadounidense.
Serguéi Koroliov (1912-1966) fue el constructor jefe de las naves espaciales soviéticas. Por una parte el hermetismo de las fuentes oficiales de la URSS y por otra el silencio cómplice de Occidente sobre las personalidades que brillaron en la ciencia y la ingeniería del país de los soviets hacen que injustamente no sea reconocido como un gigante de la conquista del cosmos.
Las nuevas fuentes rusas aseguran que en la década del 30, justamente cuando Koroliov daba sus primeros pasos como ingeniero jefe del programa de cohetes rusos, fue víctima de la represión stalinista. Se afirma que por una falsa delación sufre prisión durante años, hasta que en 1944 es puesto en libertad. Poco después de la victoria de los aliados se le encomienda la tarea de viajar a Alemania y recopilar todos los datos que le permita a la renaciente cohetería soviética reproducir la tecnología de los cohetes alemanes. El tiempo demostró que en esta empresa el equipo de Koroliov logra superarlos. A partir de 1954, cumple con el sueño de su vida, trabajar en investigaciones que lanzaran el hombre al cosmos. Todos los éxitos iniciales del programa espacial soviético: Laika, Gagarin, Tereshkova, y Popov están indisolublemente ligados a un nombre: Serguéi Koroliov.
La Exposición de Logros de la Ciencia y la Técnica Soviética mostraba por los años sesenta, entre sus piezas más atrayentes, una esfera de aluminio de poco más de medio metro de diámetro cuyo sistema de antenas acopladas hacia imaginar que este diminuto objeto, el primer satélite artificial de la Historia, fue capaz de mantener comunicación con la Tierra y enviar la información científica deseada (temperatura y densidad de las capas superiores de la atmósfera e intensidad y naturaleza de las radiaciones cósmicas) durante el tiempo que estuvo orbitando al planeta. El Sputnik 1 fue lanzado el 4 de octubre de 1957 y circunvoló la Tierra 57 días hasta ingresar en la atmósfera y arder por el calor liberado producto de la fricción. La perra Laika ascendería a bordo del Sputnik -2, poco menos de un mes después, para iniciar las investigaciones biomédicas acerca de la influencia de la ingravidez y exposición a las radiaciones sobre los seres vivos. En mayo de 1958, el Sputnik -3, despegó del Cosmódromo de Baikonur elevando más de una tonelada de carga total y continuó verificando los sistemas soviéticos de puesta en órbita y correcciones a la misma, al tiempo que prosiguió las investigaciones sobre el campo magnético, y las radiaciones cósmicas.
Aún no había reingresado en la atmósfera destruyéndose la cápsula del Sputnik-2, cuando el primer satélite estadounidense el Explorer -1, iniciaba el 31 de enero de 1958 el programa de la NASA. La nave cilíndrica de dimensiones más pequeñas que sus homólogas soviéticas aportó datos excepcionales sobre las radiaciones cósmicas que condujeron al descubrimiento de los cinturones de van Allen. En marzo de este mismo año dos satélites artificiales el Vanguard 2 y el Explorer 3 continuaron el estudio de las radiaciones cósmicas, al tiempo que comprobaban la eficiencia de los sistemas de despegue y de guiado desde la Tierra como fase de preparación hacia los vuelos tripulados.
El Programa Apolo de la NASA tenía como ambicioso objetivo llevar al hombre hasta la superficie lunar. Esta hazaña debía neutralizar el síndrome de los Sputniks y demostrar a la gran audiencia el liderazgo en materia espacial de los Estados Unidos. Se ha afirmado que una vez cumplida las tareas de inyección translunar para trasladar la nave de la órbita terrestre a la lunar y de regreso repetir la operación ahora de inyección transterrestre y además dominar las técnicas de acoplamiento de naves a módulos, la participación el hombre en la empresa lunar carecía de sentido práctico. De cualquier forma es indudable que el cumplimiento del programa confirmó de modo espectacular el desarrollo de la ingeniería y la ciencia estadounidense.
1968 marca el inicio del lanzamiento de las naves que iban comprobando las diferentes fases del proyecto Apolo. Un año después, el hombre pisó la superficie de su satélite en los pies de dos astronautas estadounidenses, Edwin E. Aldrin (1930- ) y Neil A. Armstrong (1930- ). Michael Collins (1930- ) permaneció en la órbita lunar pilotando el módulo de control después de la separación y apoyando las maniobras del módulo lunar. Armstrong al borde del Mar de la Tranquilidad, declaró: "Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad". Millones de personas pudieron seguir en directo la retransmisión vía satélite del acontecimiento. Armstrong y Aldrin clavaron en el suelo lunar una bandera de Estados Unidos. El acto hizo reflexionar a no pocos sobre el simbolismo que este acto de reconocido orgullo nacional, podía entrañar. El programa científico de la estancia en suelo lunar fue exitosamente cumplido. En los tres años siguientes, 6 naves estadounidenses con sus tripulaciones de tres astronautas cada una, se dirigieron hacia el satélite lunar. Sólo una, el Apolo 13, confrontó una avería que felizmente no terminó en desastre, en abril de 1970. A partir del Apolo 15, las expediciones contaron con un vehículo de ruedas eléctrico que permitió extender la zona de exploración de los cosmonautas. Más de 70 horas en total permanecieron los astronautas en labores de exploración de la superficie selenita.
El primer montaje de estaciones orbitales soviéticas comenzó en abril de 1971 cuando fue lanzada al espacio la Saliut 1, con un peso de 18 toneladas. En junio, la nave Soyuz 11 se acopló a la estación Salyut 1 y su tripulación de tres hombres entró en ella para realizar un vuelo que alcanzó el récord de 24 días. En ese tiempo llevaron a cabo numerosos experimentos biológicos y estudios sobre recursos de la Tierra. Sin embargo, a su regreso a la Tierra ocurrió una tragedia y los tres cosmonautas soviéticos — Georgi T. Dobrovolsky (1928–71), Vladislav N. Volkov (1935–71), y Víctor I. Patsayev (1933–71) — perecieron a causa de una fuga de aire en una válvula. Su muerte fue instantánea al no tener puestos los trajes espaciales.
El accidente detuvo el programa espacial soviético pero luego el programa de las Salyut continuó desarrollándose con éxito y ya la Salyut 6 (septiembre de 1977-julio de 1982) y la Salyut 7 fueron visitadas por numerosas tripulaciones internacionales de países como Cuba, Francia e India, así como por la primera mujer que realizó un paseo espacial: Svetlana Savitskaya (1948- ). La caminata que duró casi 4 horas se produjo un 25 de julio de 1984. Este mismo año se produjo uno de los acontecimientos más importantes del programa Sayuz-Saliut cuando la tripulación integrada por Leonid Kizim (1941- ), Vladímir Soloviov (1946- ) y el médico Oleg Atkov (1949 - ) pasaron 237 días a bordo de la Salyut 7 antes de regresar a la Tierra; fue el vuelo más largo de la época.
El programa soviético perseguía el objetivo de perfeccionar la tecnología de las estaciones orbitales con el diseño de una capaz de experimentar una progresiva ampliación de sus módulos de acuerdo con las demandas del propio proyecto y que garantizara las facilidades para una larga estadía de tripulantes. La primera estación espacial en cumplir estos propósitos, la Mir (paz, en ruso), fue lanzada en 1986. Constituida inicialmente por un único módulo central se expandió hasta llegar a contar con siete módulos. Astronautas de Afganistán, Alemania, Austria, Estados Unidos, Francia, Gran Bretaña, Japón, Kazajstán y Siria trabajaron a bordo de la Mir al lado de sus colegas rusos. La estación acogió a un total de 104 astronautas. Entre otras misiones relevantes merece destacarse la permanencia en 1994 de más de un año (exactamente 438 días, récord de permanencia en el espacio) del médico Valeri Polyakov (1942- ). Está misión de Polyakov fue compartida durante más 5 meses con Yelena Kondakova (1957- ), la primera mujer en pasar una larga estancia (168 días) en el espacio. Dos años después la astronauta estadounidense Shannon Lucid (1943- ), con 53 años, implantó una nueva marca de permanencia en el cosmos para una mujer cuando a bordo de la MIR se mantuvo 188 días en la estación orbital soviética.
La falta de financiamiento hizo que los astronautas que ocupaban la Mir la abandonaran en agosto de 1999; pero Rusia decidió prolongar la vida de la estación espacial y, en abril de 2000, se lanzó la nave tripulada Soyuz PM-30 con la misión de repararla. Esta última tripulación de la Mir regresó el 16 de junio de 2000. Finalmente se decidió hacer descender la estación hacia las capas densas de la atmósfera, donde se desintegraría en su mayor parte, y hundir sus restos en el océano Pacífico. La caída controlada de la Mir tuvo lugar el 23 de marzo de 2001, tal como estaba previsto. Para muchos constituyó un símbolo de la caída de otros tantos valores de la nación soviética.
En 1993 la NASA firmó un acuerdo de colaboración con la Agencia Espacial Rusa. La concertación comprendía también a Japón, Canadá y los miembros de la Agencia Espacial Europea. El proyecto concibe la construcción de una estación espacial internacional (ISS, en inglés) a un coste aproximado a unos 60.000 millones de dólares. Se estima que para su montaje en una órbita terrestre serán necesarios más de 40 vuelos espaciales. La ISS podrá acoger a una tripulación permanente de siete astronautas para continuar el estudio del cosmos, las investigaciones biomédicas y las modernizaciones de los sistemas de a bordo y de exploración extravehicular. Para fines de siglo se había acoplado como resultado de esta cooperación tres módulos de los 10 elementos que se preveían para la estación en pleno funcionamiento. La estación fue inaugurada por una tripulación ruso-estadounidense el 2 de noviembre de 2000. Un año después, los socios del proyecto aprobaron el inicio del negocio turístico en el cosmos con el viaje a la Estación de un acaudalado estadounidense, quien permaneció seis días a bordo de la ISS a principios de mayo.
Nuestro conocimiento actual sobre Marte procede esencialmente de las exploraciones estadounidenses desarrolladas entre 1964 y 1976. Hoy sabemos que el planeta rojo de nuestro sistema solar presenta una atmósfera delgada por lo que el efecto de invernadero se hace débil y su superficie es mucho más fría que la de nuestro planeta. La temperatura promedio en Marte es de -63° C con una temperatura máxima de 20° C y un mínimo de - 140° C. El principal componente de la atmósfera marciana es el dióxido de carbono, en un 95,32% de su masa. En 1976, las Sondas Viking se posaron suavemente sobre su superficie ofreciendo las primeras determinaciones in situ sobre la composición de la atmósfera y el suelo marciano.
En julio de 1997, un nuevo programa de la NASA se puso en ejecución llevando una nave (la Mars Pathfinder) con un vehículo todo terreno a la superficie marciana. Los datos obtenidos indican que la sonda se asentó en lo que fue un entorno marciano húmedo. En general, esta misión proporcionó a los científicos importantes informaciones sobre el presente y el pasado de Marte. Las dos sondas que le siguieron terminaron en fracaso cuando intentaron entrar en la órbita de Marte.
Venus, el otro planeta vecino al nuestro, es a veces llamada el planeta hermano de la Tierra ya que los dos son muy similares en tamaño y en masa. Pero allí terminan las similitudes. La densa atmósfera de Venus hace especialmente difícil las observaciones telescópicas y la obtención de datos espectrales fiables desde nuestro planeta. Por consiguiente los conocimientos que hemos construido sobre el segundo planeta desde el Sol se basan en los datos enviados por las naves enviadas hacia este destino. El programa de la URSS para penetrar en la densa atmósfera de Venus, comenzó en agosto de 1970 con el lanzamiento de la nave Venera 6 que en apenas media hora envió datos sobre la temperatura en su superficie. Dos años más tarde el Venera 8, fue capaz de enviar datos sobre un análisis de su suelo. En octubre de 1975, dos naves de la serie Venera se posaron en la superficie del planeta y obtuvieron las primeras fotografías. La presión de 90 atmósferas (similar a la que se encuentra a 900 metros de profundidad en los océanos de la Tierra) y una temperatura en superficie de 460 ºC fue registrada por vez primera en 1978, también por naves soviéticas.
En marzo de1982, de nuevo dos naves Venera se posaron en Venus, y efectuaron los primeros análisis sobre la composición química de la atmósfera y del suelo, demostrando que la atmósfera de Venus está constituida principalmente por dióxido del carbono, casi ningún vapor de agua, y gotas de ácido sulfúrico lo que ocasiona un efecto invernadero tan intenso que explica las temperaturas registradas superiores a los 450° C una superficie más caliente que la del planeta Mercurio, el cual está más cerca del Sol. La más importante misión de los Estados Unidos hacia Venus fue el lanzamiento en 1989 desde un trasbordador espacial de la sonda Magallanes. Esta sonda remitió hacia la Tierra imágenes de radar que procesadas por técnicas de computación dieron lugar a imágenes tridimensionales espectaculares de la superficie del lucero del Alba.
Junto a los triunfos relevantes de la cosmonáutica también se han conocido los dramáticos reveses. En el intervalo de tres meses, durante 1967 se conocieron los dos primeros accidentes fatales en la historia de la conquista del cosmos. En enero, tres astronautas estadounidenses murieron durante un ensayo en la Tierra, víctimas del incendio desatado en el módulo de control de la tripulación. En abril se probaba una nueva generación de naves soviéticas, la Sayuz -1, diseñada para producir el acoplamiento orbital, y con un compartimiento más amplio para llevar a tres cosmonautas, cuando ya de regreso al ingresar en la atmósfera el sistema de frenado falló y la nave se estrelló contra la superficie terrestre provocando la muerte instantánea del piloto.
El programa soviético se reinició dos años más tarde y luego en 1971, una misión en nave Sayuz, tras 224 días de exitosa estancia en la primera estación orbital Saliut, cuando regresaba a Tierra la nave se desintegró y sus tres tripulantes perecieron.
La fiabilidad de los sistemas parecía haber aumentado y durante más de 15 años no se reportaron accidentes que lamentar pero en enero de 1986, el transbordador estrella de la NASA, el Challenger, tras 75 segundos de vuelo, se convirtió en una bola de fuego y sus siete tripulantes -dos mujeres y cinco hombres- murieron. Las conmovedoras escenas televisivas transmitieron al mundo la magnitud de la tragedia. El accidente paralizó el programa de vuelos hasta que se analizaron y volvieron a diseñar todos los sistemas. Una comisión presidencial, en que participara el veterano astronauta Neil Armstrong, culpó del accidente a la NASA y a sus sistemas de de control de la calidad.Sólo dos años después hizo su aparición el nuevo transbordador, el Discovery.
Ya en el siglo XXI, en 2003, el transbordador Columbia al regreso de una expedición de 15 días con una tripulación de 7 cosmonautas, se desintegró cuando faltaban 16 minutos para pisar tierra firme. Era primera vez en 42 años de vuelos tripulados estadounidenses que un accidente se registrara durante el regreso de la nave.
La humanidad conoció así de programas riesgosos de vuelos tripulados que buscaron un efecto político a costos desproporcionados, supo de proyectos trasnochados que pretendieron trasladar las conquistas espaciales al terreno de “los escudos bélicos espaciales” y de las nuevas generaciones de misiles y antimisiles con ojivas nucleares; esquemas todos que resultaban una ofensa a los países históricamente condenados al subdesarrollo, y recibió por otro lado con optimismo los planes racionales de colaboración entre las naciones desarrolladas que promovieron la expansión de los conocimientos del hombre sobre su cuna mayor: el infinito universo.
Uno de estos logros se ejemplifica con el programa de instalación en órbita del telescopio espacial Hubble en 1990. Fruto de la cooperación de la Agencia Espacial Europea y la NASA el telescopio alcanzaba una resolución 10 veces superior a la mejor obtenida desde los telescopios terrestres y se diseñaba para realizar observaciones en la región del espectro visible y ultravioleta con una capacidad inimaginable 50 años atrás para escudriñar las regiones más remotas del universo. Adicionalmente, la necesaria corrección de un error de fabricación de su espejo principal y la modernización progresiva de sus dispositivos han sido tareas resueltas por misiones de astronautas que aproximando sus naves al telescopio han salido al espacio para desarrollar con éxito las tareas encomendadas.
Si el mundo de la electrónica comprende la ciencia y la tecnología relacionadas con el movimiento de las partículas cargadas en un gas, en el vacío, o en un semiconductor, entonces la invención de la válvula de oscilación o tubo de vacío le dio a la tecnología inalámbrica su primer impulso y marcó el inicio de la nueva ciencia de la electrónica. Correspondió este honor al físico británico John Ambrose Fleming (1849-1945).
En 1899 Fleming se hizo consultante de la Compañía de Marconi. Por entonces la telegrafía inalámbrica se encontraba en su infancia y Marconi estaba experimentando constantes innovaciones para aumentar la distancia que podía alcanzarse. Fleming quedó absorbido con esta cuestión y comprendió que el principal problema provenía de la escasa sensibilidad del dispositivo detector de las señales. En noviembre de 1904 Fleming patentó su válvula de oscilación llamada así por la analogía observada con la válvula de un fluido que permite solo el movimiento del flujo en una sola dirección. El diodo de tubo de vacío, como mas comúnmente se conoció, estaba constituido por un filamento caliente que emite electrones de acuerdo con el efecto Edison y una placa, el ánodo, que es el colector de electrones. En este dispositivo la corriente circula sólo cuando esta placa es positiva respecto al cátodo. Si se aplica un potencial alterno a la placa, la corriente pasará por el tubo solamente durante la mitad positiva del ciclo, actuando así como rectificador. La válvula de Fleming fue el primer diodo que se utilizó en la radio como detector y rectificador.
Pero el más importante hito de los primeros tiempos de la electrónica llegó en 1906 cuando el físico e inventor estadounidense Lee De Forest (1873 – 1961) colocó un tercer electrodo, como una rejilla, en la válvula de Fleming, y así inventó el tubo triodo al que llamó audión. Un pequeño cambio en el voltaje de la rejilla provocaba un notable cambio en el voltaje de la placa. De modo que fue el audión el primer amplificador. Todavía debieron pasar cinco años para mejorar el vacío en el audión y añadir un revestimiento eficiente de oxido en el cátodo para obtener un dispositivo confiable. Este fortaleció la corriente a través del tubo, amplificando las débiles señales del telégrafo y también de la radio.
En los círculos británicos se ha creado cierto estado de opinión sobre la novedad de la patente de De Forest en relación con la válvula de Fleming. El inventor de la tecnología termoiónica disputó en las cortes la originalidad de la propuesta de De Forest y su opinión fue desestimada por los jueces.
En 1912 De Forest desarrolló un circuito de retroalimentación que podría incrementar la salida de un transmisor de radio y producir corriente alterna. Es difícil admitir la afirmación de que no apreció correctamente la importancia de su invención y por ello no solicitara la patente hasta 1915 cuando ya lo había hecho el profesor de la Escuela de Ingeniería Eléctrica de la Universidad de Columbia, Edwin Howard Armstrong (1890- 1954). El circuito regenerador de Armstrong constituyó un progreso en la radiofonía porque podía amplificar débiles señales de radio sin distorsión. De Forest apeló ante los jueces y casi 20 años después la Corte falló a su favor pero en la comunidad de electrónicos el crédito le fue dado a Armstrong.
Ambos debieron hacer invenciones trascendentes en la tecnología de los medios de comunicación. De Forest en la década de los 20 encontró una forma de registrar el sonido sobre la cinta de la película. Esto llevó directamente a la creación de las imágenes animadas con movimiento y con sonido. Solicitó la patente en 1921 y le fue otorgada en 1924. Desde entonces intentó atraer la industria del cine hacia su tecnología y sin embargo los cineastas no mostraron interés. Irónicamente las primeras tentativas del cine hablado no usaron la patente de De Forest pero años después aplicaron su método.
En 1933, Armstrong inventó el sistema de modulación de frecuencia (FM), que brindaba una mejor calidad en la recepción del sonido y lograba reducir las interferencias en comparación con el sistema de amplitud modulada (AM). Unos 5 años después el primer recibidor de frecuencia modulada era disponible. Sin embargo la FM no comenzó a utilizarse hasta después la 2da Guerra Mundial, y los derechos de autor de Armstrong fueron ignorados, lo que sumergió al inventor en la pobreza y depresión. Sólo después de su dramática muerte (se lanzaría por la ventana de su apartamento neoyorkino a una altura de trece pisos) su viuda logró que primero la RCA (Radio Corporation of America) y luego prácticamente todas la compañías que usaban la FM le reconocieran los derechos correspondientes. Actualmente la radiodifusión por FM está ampliamente extendida.
Algo más de un lustro después de la patente de estudiante de ingeniería alemán Paul G. Nipkow (1860 –1940), que adelantaba el primer sistema de televisión electromecánico, en 1889 el ingeniero eléctrico Alan Archibald Campbell Swinton (1863 – 1930) expone en la Sociedad Roentgen de Inglaterra un esquema que en principio constituye el sistema de la tecnología televisiva actual. Otros 24 años hicieron falta para que la idea de Campbell se transformara en el primer sistema mundial de fotografía electrónica.
Por estos años, el joven ruso Vladimir Kosma Zworykin (1889-1982) estudiaba ingeniería eléctrica en el Instituto Imperial de Tecnología de San Petersburgo, habiendo asistido a su mentor Boris Rosing en el desarrollo y la exhibición en 1910 de un sistema híbrido de televisión, primitivo pero exitoso, que combinaba ingeniosamente el disco mecánico de Nipkow como cámara y como receptor el tubo de rayos catódicos inventado por el físico alemán premio Nobel de Física (1909), Karl Braun (1850 – 1918). Poco después de graduarse con honores en San Petersburgo, Zworykin emigra a Paris donde pudo trabajar en Física Teórica y en 1919 se traslada a los Estados Unidos. Durante diez años trabaja en Pittsburgh en los laboratorios de Westinghouse, obteniendo en 1923 su primera patente sobre un nuevo sistema de televisión, que es desestimada por sus superiores que le aconsejan abandonar un proyecto impracticable. Pero Zworykin no se desalienta y en 1929 presenta en una convención de ingenieros de radio su sistema electrónico al combinar su dos ingenios: el "iconoscopio", la primera cámara de tubo electrónico, con su "cinescopio" un tubo de rayos catódicos más sofisticado como receptor de la imagen. Uno de los problemas que supo resolver Zworykin para hacer eficiente su iconoscopio fue desarrollar un método que permitiera el depósito uniforme de más de un millón de elementos fotosensibles de plata cubiertos con oxido de cesio en la placa de la cámara.
Cuando David Sarnoff (1891–1971), directivo de la RCA Victor, se interesó por el proyecto, Zworykin aseguró que con una inversión de unos 100 mil dólares en el plazo de 18 meses estarían resueltos los problemas pendientes para disponer de una tecnología factible. Se equivocó en ambas predicciones, la empresa debió invertir 50 millones y el sistema no estuvo listo hasta diez años después. El ingreso de los Estados Unidos en la 2da Guerra Mundial detuvo la difusión de la industria televisiva., aunque continuaron los estudios para perfeccionar sobre todo la sensibilidad de los elementos. Durante los años de la guerra, un grupo de científicos e ingenieros dirigidos por Zworykin desarrollaron una cámara 100 veces más sensible que el iconoscopio y al terminar la guerra, la RCA reinició sus trabajos en este campo.
En 1946 se vendieron unos 7,000 equipos en los Estados Unidos. Para 1950, la cifra de televisores superaba los 10 millones. Hoy, con la entrada del gigante asiático en la producción seriada se estima que una cifra cercana a los mil millones de equipos se fabrica usando esencialmente la misma tecnología propuesta en el modelo de 1939 de Vladimir Zworykin. Al final de su vida, lamentó el uso y abuso que hacían los medios televisivos de la trivialización y la violencia en lugar de ponerse en función del enriquecimiento educativo y cultural del público.
A principios de la década de los 40, el doctor en ciencias físicas, profesor de la Universidad de Pensilvania, John William Mauchly (1907-1980) escribió un memorando titulado: "Utilización de Tubos al Vacío de Alta Velocidad par realizar Cálculos" Este memorando abrió las puertas para que Washington aprobara el presupuesto para emprender la construcción de una computadora electrónica. Entre 1943 y 1946, Mauchly, como consultante principal, y el ingeniero eléctrico John Presper Eckert (1919 - 1995), como ingeniero jefe, ambos de la Universidad de Pensilvania, dirigieron el programa patrocinado por la sección de artillería del ejército estadounidense para los laboratorios de investigación balística.
Fruto de este proyecto fue la primera computadora electrónica, conformada por 30 unidades independientes que totalizaban una masa de 30 toneladas, y representaba un sistema ensamblado de 18 000 tubos de vacío, 70 mil resistores, 10 mil capacitores, 6 mil interruptores manuales, y otros componentes electrónicos con sus diversos acoplamientos. La ENIAC (Electronic Numerical Integrator And Computer) representó entonces la mayor colección de circuitos electrónicos interconectados. Aunque se concluyó tarde para contribuir a los servicios militares en la II Guerra Mundial, prestó asistencia durante el período de la guerra fría en los cálculos relacionados con la fabricación de la bomba de Hidrógeno.
La ENIAC demostró su alta velocidad de procesamiento utilizando los tubos de vacío o bulbos que representaban la más alta tecnología de punta de la época. Podía ejecutar 5,000 adiciones, 357 multiplicaciones, y 38 divisiones en un segundo. ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y se afirma que durante su vida operativa realizó más cálculos matemáticos que todos los realizados anteriormente por la humanidad. Esta primera versión fue perfeccionada por los autores en los siguientes modelos conocidos por EVAC (Electronic Discrete Variable Automatic Computer) y finalmente, para 1951 habían producido el primer modelo de computadora digital comercial que recibió el nombre de UNIVAC (Universal Automatic Computer). Fue la primera en utilizar un compilador o autoprogramador para traducir idioma de programa en idioma de máquinas.
En la década de los 50 el ingeniero eléctrico estadounidense Seymour Cray (1925-1996) trabajaba en el diseño y fabricación de las primeras supercomputadoras, ingenios que los expertos clasificaban así, cuando eran capaces de efectuar 20 millones de operaciones matemáticas por segundo. El nombre de Cray se relaciona en particular con la primera supercomputadora comercial, la UNIVAC 1103 fabricada en 1953 por la corporación Remington Rand. Su afán de diseñar computadoras más potentes, con mayor velocidad de procesamiento lo lleva a fundar ya en los setenta su propia compañía de investigación que continua diseñando nuevas versiones de computadoras capaces de realizar hasta 1 200 millones de operaciones de cálculo por segundo.
Gracias a estas poderosas máquinas los científicos e ingenieros pueden llevar a cabo procedimientos matemáticos muy complejos que los ayudan a analizar una vasta cantidad de datos y predecir que ocurrirá en procesos de disímil naturaleza que alcanza hasta el pronóstico del clima. Cray muere víctima de un accidente del tránsito sin haber conocido los éxitos comerciales. Estamos a dos décadas del lanzamiento del primer microprocesador capaz de efectuar 60 mil operaciones por segundo, para que este dispositivo apareciera en escena se necesito la invención de los semiconductores.
Apenas concluida la Guerra, los Laboratorios Bell apostaron por la investigación fundamental orientada a la sustitución de los tubos de vacío que no eran muy seguros, principalmente porque ellos generaban una gran cantidad de calor, y sus filamentos tenían una vida útil limitada. Para cumplir este propósito en 1945 un grupo de físicos del estado sólido fue formado teniendo como uno de sus más importantes objetivos específicos tratar de desarrollar un amplificador en el estado sólido.
En el listado de este grupo se incluían tres físicos Walter Houser Brattain (1902-1987), John Bardeen (1908-1991), y William Shockley (1910-1989) que unían a una experiencia importante en el campo de la Física Experimental, un conocimiento profundo del legado de las investigaciones teóricas conducidas por Arnold Sommerfeld, John Hasbrouck van Vleck (1899-1980), Nevill Francis Mott (1905-1996), y otros científicos de todo el mundo.
En 1947, Brattain y Bardeen comprobaron experimentalmente que si sobre la superficie de un cristal de germanio se presionaban dos alambres de oro muy cercanos, entonces el voltaje de salida (con respecto a la base de germanio) hacia el colector de prueba era mayor que el de entrada al emisor. Así había nacido el amplificador en el estado sólido. Pero estos primeros transistores fueron muy malos, tenían baja ganancia, un bajo ancho de banda y resultaron ruidosos. Entonces fue Shockley quien reconoció que las dificultades de este dispositivo se relacionaban con los contactos de puntos metálicos y en consecuencia propuso casi inmediatamente el transistor de junta, elaborando en lo esencial la teoría de su operación. Era un dispositivo que en vez de la corriente de conducción presente en un tubo basaba su operación en la difusión. El nuevo dispositivo tenia además portadores de carga de ambas polaridades operando simultáneamente, es decir eran mecanismos dipolares. La teoría predecía que el nuevo dispositivo permitiría la conducción de altas densidades de corriente a bajos potenciales aplicados.
La posibilidad de obtener aparatos de gran importancia práctica sin filamentos calentados fue inmediatamente reconocida. Sin embargo consideraciones teóricas predecían también que el transistor no podría ser fiable y seguro sino eran disponibles cristales simples de ultrapureza. Tres cortos años mediaron entre el descubrimiento de la amplificación en un sólido, la invención del transistor y su fabricación como producto comercial, un diminuto aparato electrónico capaz de sustituir ventajosamente las funciones de los tubos de vacío apareció en 1952.
En 1956, Bardeen, Bradain y Shockley recibieron el premio Nobel de Física. Fue la primera ocasión en que la Academia Nobel otorgó el galardón por la invención de un dispositivo de ingeniería y el desarrollo de la ciencia que lo anunció. Los transistores fueron usados por el público por primera vez en 1953, en la forma de amplificadores para los aparatos contra la sordera. En 1954 se desarrolló la radio de transistores y en febrero de 1956 el Laboratorio de Computadoras Digitales de MIT empezó a desarrollar en colaboración con IBM una computadora transistorizada.
Bardeen fue el primer científico que ganó dos premios Nobel en la misma disciplina, su segundo galardón le fue conferido en 1972, también en forma compartida con Leon N. Cooper y John R. Schrieffer, esta vez por sus investigaciones en el campo de la superconductividad. El químico británico Frederick Sanger (1918- ) por sus trabajos fundamentales para el despegue de la ingeniería genética mereció igual distinción en 1958 y luego en 1980.
En 1954, el físico - químico estadounidense Gordon Teal (1907 - 2003), trabajando en los laboratorios de investigación de Texas Instruments descubre que los transistores pueden ser fabricados de silicio puro, describiendo el primer transistor verdaderamente apropiado para la producción masiva. Un año después los ingenieros Carl Frosch y Link Derick de los Laboratorios Bell descubren que el dióxido de silicio puede actuar como una máscara de difusión. Es decir descubren que al calentar una pastilla de silicio a 1200°C en una atmósfera de vapor de agua u oxígeno, una capa delgada de dióxido de silicio se forma en la superficie.
Con la grabación selectiva de la capa de óxido, se podía difundir impurezas en el silicio para crear las juntas P-N. Es entonces que el doctor en Ingeniería Eléctrica por la Universidad Estatal de Ohio, John L. Moll (1921- ), desarrolla el transistor de silicio de completa difusión, en el cual las impurezas son difundidas en la pastilla mientras los elementos activos son protegidos por la capa del óxido. Ya en esta década el silicio comienza a desplazar al germanio como el material semiconductor que se expande a la producción de casi todos los transistores modernos.
La ciencia y la tecnología de los semiconductores tomarían diversos senderos. Otro trío de físicos se encuentran entre los científicos de la época que hicieran aportaciones notables al desarrollo de la teoría de los semiconductores: John Hasbrouck van Vleck (1899-1980), conocido como "el padre del magnetismo moderno", su discípulo de Harvard, Philip Warren Anderson (1923- ), y el británico Nevill Francis Mott (1905-1996). No solo impulsaron el desarrollo inicial de la teoría de las transformaciones de los semiconductores, que se conocen actualmente como transiciones de Mott, sino que abrieron una nueva perspectiva en las investigaciones cuando a partir del descubrimiento en 1958 del fenómeno llamado "localización de Anderson" centran la atención no en los semiconductores cristalinos utilizados convencionalmente, sino en el comportamiento de materiales amorfos que han hecho posible el desarrollo de dispositivos de memoria fabricados a partir del vidrio.
En 1963 el físico bieloruso Zhores I. Alferov (1930 - ) y el físico alemán Hebert Kroemer (1928- ) postularon de forma independiente, el principio del llamado láser de heteroestructuras. La aplicación de la teoría desarrollada por ambos científicos les permitió crear estructuras de semiconductores dispuestos en capas para la fabricación de los transistores de alta velocidad utilizados en las estaciones de la telefonía móvil y el desarrollo de los diodos de láser empleados en los reproductores de CD y para impulsar los flujos de información en los cables de fibra óptica de Internet. En el 2000 compartieron el Premio Nobel de Física con el inventor estadounidense Jack S. Kelby.
En 1959 la industria electrónica conocería un renacimiento cuando fuera concebido y creado un diminuto circuito monolítico integrado en una pieza simple de material semiconductor del tamaño de un anillo de dedo, había llegado la época de la microelectrónica. La proeza tecnológica fue realizada por el ingeniero eléctrico estadounidense Jack Kilby (1923- 2005). Los circuitos integrados provocaron cambios revolucionarios en la fabricación de equipamientos electrónicos, que ganaron en capacidad funcional y en fiabilidad al tiempo que se conseguía reducir el tamaño de los equipos y disminuir su complejidad física y su consumo de energía. La tecnología de las computadoras pronto se beneficiaría especialmente por las bondades de esta invención. Una ola de perfeccionamientos ha venido aumentando constantemente la capacidad funcional de los circuitos integrados.
Una década después de la invención del microchip, Gilbert Hyatt (1938- ) dio un paso trascendente cuando concibió en un circuito integrado todos los elementos necesarios para operar un microprocesador. Hyatt solicitó la patente en 1970, pero un año después, cuando esta solicitud seguía los trámites requeridos en la oficina de patentes, Gary W. Boone a la cabeza de un equipo de la Texas Instruments (TI) creó el primer microcontrolador comercialmente viable (TMS100). En 1990 la US Patent Office concedió el derecho de autoría a Hyatt pero 5 años mas tarde un tribunal declaró sin efecto este reconocimiento acreditando a Boone y la TI los derechos de invención.
En el propio 1971, un colectivo de la Corporación Intel encabezados por el doctor de la Universidad de Padua Federico Faggin (1941- ), el PhD en ingeniería eléctrica, Marcian Edward "Ted" Hoff, Jr. (1937- ) y el especialista en software Stanley Mazor (1941- ), crearon la primera unidad central del procesador (CDU) totalmente integrada en un chip, el microprocesador 4004 (4-bit) de la Intel fue el primero en el mercado. A 35 años de la aparición de la ENIAC surgía el dispositivo que en 1/8 de pulgada de ancho y 1/6 pulgada de largo presentaba la misma capacidad de procesamiento que el enorme sistema constituido por 18 000 tubos de vacío. En 1974 apareció el Intel 8080 (8-bit), dieciséis veces más potente. Este fue el hardware de la primera microcomputadora popular la Altair 8800. Los microcontroladores no sólo van a permitir el lanzamiento de las computadoras personales, sino que encontraran un amplio empleo en televisores, lavadoras, hornos microwave y otros equipos electrónicos.
A inicios de los 70, las compañías fabricantes de computadoras se encontraban enfrascadas en perfeccionar grandes sistemas informáticos para su introducción en la industria y en otras actividades macroecononómicas. Pasó inadvertida para los grandes inversionistas la oportunidad que brindaron los microprocesadores en la fabricación de pequeñas computadoras para el hogar. Un joven ingeniero investigador, Ed Roberts (1942- ), propietario de una pequeña empresa de calculadoras al borde de la quiebra, aceptó el desafío de endeudarse con el objetivo de fabricar una pequeña computadora basada en los recientes desarrollos del microprocesador de Intel, que logró comprar al increíble precio de 500 dólares. Roberts bautizó la computadora como Altair 8800 y la lanzó al mercado en la portada del primer número de 1975 de la revista "Popular Electronics". El crédito obtenido por Roberts suponía una recapitalización por concepto de la venta de unas 800 máquinas al año. El fin de semana de la publicación de la Revista estaba recibiendo 30 llamadas diarias interesándose por la computadora.
Los usuarios de la Altair tenían que programarla en código de máquina. Conocedores de las bondades del popular lenguaje Basic inventado en 1964 por John George Kemeny (1926 - 1992) y Tom Kurtz, los jóvenes Bill Gates (1955- ) y Paul Allen (1953- ), comprendieron que la Altair pudiera ser mucho más eficiente y cómoda si los usuarios pudieran programarla en este lenguaje. La emprendedora pareja propuso a Roberts un intérprete del Basic para la Altair. Roberts estuvo de acuerdo y en seis semanas compró el programa de Gates y Allen y contrató al último cono programador de software. Allen y Gates poco después fundaron la Microsoft Corporation.
En 1977, los jóvenes diseñadores de computadoras Stephen Wozniak (1950- ) y Steve Jobs (1955- ) introdujeron el Apple II, un ordenador personal capaz de generar gráficos en color, con su propio teclado, fuente de alimentación y ocho plazas para dispositivos periféricos, que permitían a los usuarios amplias posibilidades de incorporar dispositivos y programas de software complementarios. Pronto la Apple Computer Company se convertiría en el negocio de más rápido crecimiento en la historia de Estados Unidos. En enero de 1983 Apple presentó el Lisa, un ordenador personal diseñado para la empresa que incorporaba el ratón o mouse para seleccionar comandos y controlar un cursor en pantalla.
Un software básico para el control de una computadora, el sistema operativo con una interfaz de línea de comandos fue diseñado en 1980 por el joven programador estadounidense Tim Paterson (1956- ), que lo nombró como Quick and Dirty Operating System, QDOS. Microsoft se lo compró en 50 000 dólares para cumplir el encargo de la IBM que necesitaba un sistema operativo para la primera computadora personal que lanzaría al mercado en 1981, la IBM PC, y lo llamó MS-DOS.
En 1984 Microsoft había otorgado licencias de MS-DOS a 200 fabricantes de equipos informáticos y, así, este sistema operativo se convirtió en el más utilizado para PC, lo que permitió a Microsoft crecer vertiginosamente en la década de 1980.
En 1980 Timothy Berners-Lee (1950- ), egresado en Física de la Universidad de Oxford, era consultante en el CERN (Consejo Europeo para la Investigación Nuclear). La implementación del trabajo en red de esta multinacional institución resultaba muy compleja porque los investigadores del sistema empleaban diferentes técnicas, protocolos y equipos. Berners-Lee consagró entonces todo su tiempo libre a la elaboración de un programa de almacenamiento de datos llamado "Enquire-Within-Upon-Everything," capaz de vincular cualquier punto en el sistema. Este programa fue el fundamento conceptual de lo que llegó a ser la WEB.
Nueve años más tarde Berners-Lee escribió "Information Management: A Proposal" En vez de estandarizar el equipamiento o el software se crearon patrones para la data y un sistema universal de dirección. De esta manera cualquier documento en Internet podía ser recuperado y visto. En 1990, el CERN fue el mayor sitio europeo de Internet. Dos años después la WEB se distribuyó y el software del navegador se estrenó a lo largo de las instituciones del CERN y aún más allá. Entonces existían 26 servidores fiables.
Los primeros exploradores de Internet fueron funcionales pero no simples para el usuario. En 1993 Marc Andreessen (1971- ) un joven programador del Centro Nacional para Aplicaciones de Supercomputadoras (NCSA), que aún estudiaba en la Universidad de Illinois, creó un nuevo explorador de la WEB que ofrecía una interfaz gráfica para explorar texto, imagen y sonido que sólo exigía apuntar y hacer click en la opción gráfica deseada. Los usuarios no necesitaban conocer nada de programación ni aún las direcciones de Internet. El explorador hacia posible de una manera muy simple para el usuario añadir sus propios materiales a la WEB. El explorador llamado NCSA Mosaic, se distribuyó gratuitamente a través de las redes informáticas y, en 18 meses, consiguió una cifra estimada de usuarios de 2 millones, lo que propició el crecimiento espectacular de la World Wide Web.
En 1994, Andreessen y su equipo diseñaron un nuevo explorador superior al Mosaic, al que llamaron Netscape Navigator. Este navegador pronto se convirtió en el explorador más utilizado por los usuarios de Internet, y al año de su lanzamiento decenas de millones exploraban con este software la WEB.
En 1993, Intel presentó la quinta generación de su línea de procesadores compatibles que llevaría el nombre de Pentium. 21 años lo separaban del Intel 4004 que inauguró la era de los microprocesadores. Los 2 300 transistores del Intel 4004 procesaban 108 kHz, contaban con 60 instrucciones y 8kb de espacio de almacenamiento, ejecutando 60 000 operaciones por segundo. El Pentium incluyó 3.100.000 transistores (fabricado con el proceso BICMOS (Bipolar-CMOS) de 0,8 micrones), con velocidades iniciales de 60 y 66 MHz y capacidad de ejecución de 112 millones de instrucciones por segundo, verificación interna de paridad para asegurar la ejecución correcta de las instrucciones, bus de datos de 64 bit para una comunicación más rápida con la memoria externa y, lo más importante, permitía la ejecución de dos instrucciones simultáneamente.
En 1998 un equipo de investigadores de los Laboratorios Bell - Howard Katz, V. Reddy Raju, Ananth Dodabalapur, Andrew Lovinger, y John Rogers— presentan sus últimos hallazgos en la producción de un transistor impreso totalmente en plástico. Los usos potenciales de los transistores plásticos incluyen pantallas de computadoras flexibles y tarjetas inteligentes portadoras de estadísticas vitales y virtualmente indestructibles. Estos progresos se inscriben en una dirección más amplia que persigue controlar y, en algunos casos, inducir respuestas electrónicas y fotónicas en materiales poliméricos. Tales investigaciones son altamente multidisciplinarias y combinan la experiencia de prácticamente cada campo tradicional del estudio tecnológico: la química y la ingeniería química, la física, la ingeniería eléctrica, la ciencia de los materiales y la biología.
Al concluir el siglo XX se calculaban en 150 millones los ordenadores conectados a Internet. La cifra impresiona y da una medida de hacia donde va el mundo en materia de globalización de la información.
Los conceptos de "superautopista de la información" que eduque sobre principios sustentables e informe con objetividad sobre los problemas planetarios, se combina con la de pulpo de la información comercial, creador de gustos insípidos, inductor a patrones de consumos y espejismos de riqueza. Tal es el desafío que deben aceptar los que creen en la virtud y el perfeccionamiento humano. Se conoce ya de la intervención de Internet para diseminar rápidamente la verdad y aplastar la mentira. Contribuyamos al ejercicio de esta función. No olvidemos que ni la microlectrónica ni la informatización han llegado a las mayorias del planeta que aspira sólo a la globalización del pan, la cultura y la salud...
Así, en el siglo XX el planeta navegó entre las brumas o al filo de las guerras. Los hombres de ciencia y su actividad de investigación no escaparon de estas dramáticas realidades. Fueron marcados como científicos por la interrupción de sus planes durante uno o dos intervalos productivos de sus vidas profesionales, y lo que es más importante, como seres humanos conocieron y sufrieron los horrores de la guerra. Embarcados en la espiral armamentista y en un estrecho chovinismo algunos representantes como individuos e instituciones contribuyeron al desarrollo de armas horribles. La empresa atómica llamó a las puertas en uno de los momentos más oscuros de la historia de la humanidad y los físicos jugaron un importante rol en esta tarea. Pero la mayoría, y algunos aún antes del lanzamiento de la bomba atómica, comprendieron los desafíos impuestos a la humanidad por la era nuclear y lucharon decididamente por detener el desarrollo de tales armas.
En el ámbito gnoseológico, se abrió paso en el siglo XX una Revolución en la Física que supuso la superación de profundas crisis en el campo de las ideas, y el advenimiento de lo que se ha dado en llamar un cambio de paradigma.
En el progreso científico técnico, la fusión de la Física con la Técnica como expresión concreta de las necesidades y posibilidades que se dieron en este siglo resonó sobre el resto de las Ciencias y fue responsable del repertorio de realizaciones materiales alcanzado en todas las esferas de la sociedad contemporánea.
La irracionalidad del orden mundial establecido es la causa principal de que coexistan al lado de los colosales avances impulsados por el desarrollo de las ciencias el dramático panorama que exhibe aún el planeta.
Asimov I. (1987): Enciclopedia biográfica de ciencia y tecnología. Editorial Alianza.
A Science Odyssey (1998): People and discoveries: Discoveries. Public Broadcasting Service. Virginia. USA. 1945 ENIAC is built http://www.pbs.org/wgbh/aso/databank/entries/dt45en.html 1947 The transistor is invented http://www.pbs.org/wgbh/aso/databank/entries/dt47tr.html 1971 First commercial microprocessor is introduced http://www.pbs.org/wgbh/aso/databank/entries/dt71mi.html 1975 Personal computer industry is launched http://www.pbs.org/wgbh/aso/databank/entries/dt75co.html 1992 The Internet gives rise to the World Wide Web http://www.pbs.org/wgbh/aso/databank/entries/dt92ww.html Erwin Schrödinger 1887 –1961. http://www.pbs.org/wgbh/aso/databank/entries/bpschr.html Idem (2005): People & Events. Enrico Fermi, (1901 - 1954). The American experience.
Race for the superbomb.
Avendaño Bárbara (2006): Un chico de papá Ioffe. Zores I. Alferov conversa con Bohemia. Bohemia Digital. 18 de mayo, 2006. La Habana. Cuba. http://www.bohemia.cubasi.cu/2006/05/18/nacionales/premio-novel.html
Ausejo E., Hormigón M (2002): Historia de las Ciencias y las Técnicas. Cronología. Universidad de Zaragoza. http://www.campus-oei.org/salactsi/historia.htm
Bashevaya Ludmila (2003): Flerov Laboratory of Nuclear Reactions (FLNR). Joint Institute for Nuclear Research, 141980 Dubna, Moscow region, Russian Federation. http://flerovlab.jinr.ru/flnr/index.html
Bethe. H. A. (1997): J. Robert Oppenheimer. Biographical Memoirs. National Academy of Sciences. http://www.nap.edu/html/biomems/joppenheimer.html
Biblioteca Digital Universidad Nacional de San Marcos (2002): Santiago Antúnez de Mayolo. Revista Editor. Año 2, no 4, 2002. Universidad Nacional de San Marcos (UNMSM). http://sisbib.unmsm.edu.pe/bibvirtual/publicaciones/editor/ano2_N4_marzo/santiago.htm
Bird Kai, Sherwin Martin J. (2005): Los mitos de Hiroshima. Angeles Times. Publicado en Trabajadores Digital. La Habana. Cuba. http://www.trabajadores.cubaweb.cu/SUPLEMENTO-HISTORIA/historia-universal/los-mitos.htm
Braun Eliezer (1997): Capítulo XII. Las siguientes etapas de la Historia. Una faceta desconocida de Einstein.. Fondo de Cultura Económica. Impreso en México. http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/faceta.htm
Braun Eliézer (1992): XX Desarrollo de la radio. Electromagnetismo: de la ciencia a la Tecnología. Fondo de Cultura Económica. Impreso en México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_23.htm
Bosch Pedro y otros (1994): Pioneros de las Ciencias Nucleares. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/pioneros.htm
Bulbulian S. (1996): El descubrimiento de la radiactividad. La Radiactividad. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.htm
Campbell John (2001): Rutherford - A Brief Biography. Material basado en el libro "Rutheford Scientist Supreme". Rutherford.org.nz. http://www.rutherford.org.nz/biography.htm Chodos Alan, Ouellette Jennifer (2006): February 1968: The Discovery of Pulsars Announced. APS News Online. American Physical Society.
Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm
Curiel Ballesteros A. (1999): Guillermo González Camarena (1917-1965). Jalisco en el siglo 20: Perfiles. Guadalajara: Universidad de Guadalajara, 1999, pp. 247-256. http://www.jalisco.gob.mx/nuestroedo/muro/glzcamarena.html
De la Peña, L. (1995): Albert Einstein: Navegante Solitario. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/31/htm/albertei.htm
Dismukes Kim (2005): Biographical Data. Astronaut Biographies. Johnson Space Center. NASA. http://www.jsc.nasa.gov/Bios/ John H. Glenn. http://www.jsc.nasa.gov/Bios/htmlbios/glenn-j.html Rodolfo Neri Vela http://www.jsc.nasa.gov/Bios/htmlbios/nerivela-r.html Franklin Chang-Díaz http://www.jsc.nasa.gov/Bios/htmlbios/chang.html
Duff Michael J (1998): The theory formerly know as string. Scientific American.Feb , 1998. pag 12 -17
Eklof Anders (2003): Rolf Sievert, the man and the unit. Karolinska Institute. Medical Radiation Physics History. Stockholm. Sweden. http://radfys.ki.se/sievert/Sievert.html
Enciclopedia Encarta (2006): 4. La Física Moderna 5. Avances de la Física desde 1930. Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
Enciclopedia Encarta (2006): 2. Física del Espacio. Astronaútica ." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
Einstein, Albert; Russell Bertrand (1955): The Russell-Einstein Manifesto. London http://www.pugwash.org/about/manifesto.htm
Franck James et al (1945): The Franck Report . Memorandum on Political and Social Problems of the Bomb by scientists at the Metallurgical Laboratory- Univ. of Chicago. J. Franck (Chairman), D. J. Hughes, J. J. Nickson, E. Rabinowitch, G.T. Seaborg, J. C. Stearns, L. Szilard. www.nuclearfiles.org/redocuments/ 1945/450611-franck-report.html
Fitzgerald Richard (2001): Physics Nobel Prize Honors Roots of Information Age. Physics Today Online. American Institute of Physics. http://www.aip.org/pt/vol-53/iss-12/p17.html
Fleischer Lisa (2005): Juan M. Maldacena. Institute for Advanced Study School of Natural Sciences. http://www.sns.ias.edu/~malda/
Fleming James R. (2002): What Role Did G.S. Callendar Play in Reviving the CO2 Theory of Global Climate Change? Presidential Symposium on the History of the Atmospheric Sciences: People, Discoveries, and Technologies. http://ams.confex.com/ams/annual2003/techprogram/paper_58908.htm
Galai Mark (1977): S. Koroliov. Constructor jefe. Fragmentos del libro "Con el Hombre a bordo", publicado en la Revista Sputnik, 10, 1977. Traducción: Mariza Viniars. http://www.russia-hc.ru/spn/history/persons/korol.cfm
García-Colin L., Mazari M., Moshnsky M. et al (1997): Niels Bohr: científico, filósofo, humanista. Fondo de Cultura Económica. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/14/htm/bohr.htm
Geoscience Australia (2005): Query Nuclear Explosions Database. Australian Government. http://www.ga.gov.au/oracle/nukexp_form.jsp
Gest Howard (2004): Samuel Ruben’s contributions to research on photosynthesis and bacterial metabolism with radioactive carbon. Photosynthesis Research 80: 77–83, 2004. Kluwer Academic Publishers. Printed in the Netherlands.
Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial Progreso. Moscú. Landau, p. 207 – 215; Kurchatov, p.155- 160; Koroliov 143 – 149.
Greene Brian (2004): Personal Page Web. Columbia University Department of Physics. http://phys.columbia.edu/faculty/greene.htm
Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones Pueblos Unidos S.A. Montevideo.
Griffin Scott (2006): Marc Andreessen. Internet Pioneers. http://www.ibiblio.org/pioneers/andreesen.html
Groom Charles (1996): La línea del tiempo de la física de partículas. Contemporary Physics Education Project. http://particleadventure.org/particleadventure/spanish/history/mains.html
Hacyan S. (1994): Del Mundo Cuántico al Universo en Expansión. Fondo de Cultura Económica. México. http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/129/htm/delmundo.htm
Histoire de la Chimie (2005): Moseley Henry Gwyn-Jeffreys. Biographies. Galerie. Resumen de los cursos ofrecidos por el profesor Georges Bram de la Facultad de Ciencias de París Sud - Orsay. http://histoirechimie.free.fr/Lien/MOSELEY.htm
Holden, N. E. (1990): The delayed discovery of nuclear fission. Chemistry International, Vol. 12, no.5, 177-185.
Hunter David (1983): Tim Paterson. http://www.1000bit.net/storia/perso/tim_paterson_e.asp
IEEE Virtual Museum (2006): Institute of Electrical and Electronics Engineers, Inc. Edwin H. Armstrong. http://www.ieee-virtual-museum.org/collection/people.php?id=1234606&lid=1 J. Presper Eckert http://www.ieee-virtual-museum.org/collection/people.php?id=1234636&lid=1 John W. Mauchly http://www.ieee-virtual-museum.org/collection/people.php?id=1234639&lid=1 Federico Faggin http://www.ieee-virtual-museum.org/collection/people.php?id=1234777&lid=1 Ted Hoff http://www.ieee-virtual-museum.org/collection/people.php?id=1234774&lid=1 Stanley Mazor http://www.ieee-virtual-museum.org/collection/people.php?id=1234773&lid=1
Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the Scientific Assessment of Climate Change. Report to IPCC from Working Group 1, June 1990.
Kapitsa Piotr (1985): Lev Davidovich Landau. Experimento, teoría, intelecto. Editorial MIR. Moscú.
Katz Eugenii (2003): Famous Electrochemists. Department of Chemistry. The Hebrew University of Jerusalem Givat Ram. Jerusalem. Sir John Ambrose Fleming. http://chem.ch.huji.ac.il/~eugeniik/history/fleming.htm Lee De Forest http://chem.ch.huji.ac.il/~eugeniik/history/deforest.htm Vladimir Kosma Zworykin http://chem.ch.huji.ac.il/~eugeniik/history/zworykin.htm
Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de Cultura Económica. México.
Lemelson MIT Program (1999): Inventor of the week archive. Computing & Telecommunications. Massachusetts Institute of Technology. MIT School of Engineering. Tim Berners – Lee. The World Wide Web. http://web.mit.edu/invent/iow/berners-lee.html Jack St. Clair Kilby. The Microchip http://web.mit.edu/invent/iow/kilby.html
Menchaca Rocha A. (1996): El discreto encanto de las partículas elementales. V Reimpresión. Fondo de la Cultura Económica. Mexico. D.F. http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/068/htm/discreto.htm VII El positrón: Dirac y Anderson VIII. El neutrino: Pauli, Fermi, Reines y Cowan. XII. Unificación Electrodébil: Salam, Weinberg, Van deer Meer y Rubbia.
MSFC History Office (2003): Biography of Wernher Von Braun. Marshall Space Flight Center. Huntsville, Alabama. http://history.msfc.nasa.gov/vonbraun/bio.html
Nobel e-Museum (2002): The Nobel Prizes in Physics. http://www.nobel.se/physics/index.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1901-1921, Elsevier Publishing Company, Amsterdam, 1965. Max von Laue http://nobelprize.org/physics/laureates/1914/bragg-bio.html William Henry Bragg William Lawrence Bragg http://nobelprize.org/physics/laureates/1915/bragg-bio.html Max Planck. http://nobelprize.org/physics/laureates/1918/planck-bio.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1922-1941, Elsevier Publishing Company, Amsterdam, 1965. Manne Georg Siegbahn http://nobelprize.org/nobel_prizes/physics/laureates/1925/ siegbahn -bio.html Arthur Holly Compton http://nobelprize.org/nobel_prizes/physics/laureates/1927/compton-bio.html Erwin Schrodinger http://nobelprize.org/nobel_prizes/physics/laureates/1933/schrodinger-bio.html Paul Dirac http://nobelprize.org/nobel_prizes/physics/laureates/1933/dirac-bio.html James Chadwick http://nobelprize.org/nobel_prizes/physics/laureates/1935/chadwick-bio.html Ernest Orlando Lawrence. http://nobelprize.org/physics/laureates/1939/lawrence-bio.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1942-1962, Elsevier Publishing Company, Amsterdam, 1965. Cecil Powell http://nobelprize.org/physics/laureates/1950/powell-bio.html Igor E. Tamm http://nobelprize.org/nobel_prizes/physics/laureates/1950/tamm-bio.html John Bardeen http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen-bio.html Walter Houser Brattain http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen-bio.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1963-1970, Elsevier Publishing Company, Amsterdam, 1970. Nikolai G. Basov http://nobelprize.org/nobel_prizes/physics/laureates/1964basov-bio.html Alexander M. Projorov http://nobelprize.org/nobel_prizes/physics/laureates/1964/projorov-bio.html Charles H. Townes http://nobelprize.org/nobel_prizes/physics/laureates/1964/townes-bio.html Murray Gell-Mann (1929- ) http://nobelprize.org/nobel_prizes/physics/laureates/1969/gell-mann-bio.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics 1971-1980. Elsevier Publishing Company, Amsterdam, 1980. Leo Esaki http://nobelprize.org/nobel_prizes/physics/laureates/1973/esaki-bio.html Brian Josephson http://nobelprize.org/nobel_prizes/physics/laureates/1973/josephson-cv.html Robert Wilson http://nobelprize.org/nobel_prizes/physics/laureates/1978/wilson-autobio.html Arno Penzias http://nobelprize.org/nobel_prizes/physics/laureates/1978/penzias-autobio.html Abdus Salam. http://nobelprize.org/physics/laureates/1979/salam-bio.html Steven Weinberg http://nobelprize.org/physics/laureates/1979/weinberg-bio.html
Nobel e-Museum (2004): The Nobel Prize in Physics. From Nobel Lectures. Johannes G. Bednorz http://nobelprize.org/physics/laureates/1987/bednorz-bio.html Karl A. Müller http://nobelprize.org/physics/laureates/1987/müller-bio.html Georges Charpak http://nobelprize.org/physics/laureates/1992/charpak-autobio.html Henry W. Kendall http://nobelprize.org/physics/laureates/1990/kendall-autobio.html Richard E. Taylor http://nobelprize.org/physics/laureates/1990/taylor-autobio.html Jerome I. Friedman http://nobelprize.org/physics/laureates/1990/friedman-autobio.html Hebert Kroemer http://nobelprize.org/physics/laureates/2000/ kroemer -autobio.html Masatoshi Koshiba http://nobelprize.org/physics/laureates/2002/koshiba-autobio.html
Nobel e-Museum (2004): From Nobel Lectures, Chemistry 1942-1962, Elsevier Publishing Company, Amsterdam, 1964. Glenn Theodore Seaborg. http://nobelprize.org/chemistry/laureates/1951/seaborg-bio.html Willard F. Libby. http://nobelprize.org/chemistry/laureates/1960/libby-bio.html
Nobel e-Museum (2004): From Nobel Lectures, Physiology or Medicine . Elsevier Publishing Company, Amsterdam, 1972. Maurice Wilkins. nobelprize.org/medicine/laureates/1962/wilkins-bio.html Alfred D. Hershey. http://nobelprize.org/medicine/laureates/1969/hershey-bio.html
NuclearFiles.Org (2006): Nuclear Files resources and history of the nuclear age. Library. Project of the Nuclear Age Peace Foundation.Frederic Joliot. http://www.nuclearfiles.org/rebios/joliot.htm Irene Joliot-Curie http://www.nuclearfiles.org/rebios/curie.htm Julius R. Oppenheimer http://www.nuclearfiles.org/menu/library/biographies/bio_oppenheimer-julius.htm James Franck http://www.nuclearfiles.org/menu/library/biographies/bio_franck-james.htm Lise Meitner http://www.nuclearfiles.org/menu/library/biographies/bio_meitner-lise.htm
Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la educación científica no debe olvidar. La Habana. http://www.campus-oei.org/salactsi/nunez00.htm#9
O'Connor J. J., Robertson E. F. (2000): School of Mathematics and Statistics. University of St Andrew. Scotland. John George Kemeny http://www-groups.dcs.st-and.ac.uk/~history/Biographies/Kemeny.html George Dantzig http://www-history.mcs.st-and.ac.uk/Biographies/Dantzig_George.html Werner Karl Heisenberg. http://www-groups.dcs.st-and.ac.uk/~history/Mathematicians/Heisenberg.html Karl Schwarzschild http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Schwarzschild.html Mitchell Feigenbaum http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Feigenbaum.html Edwin P. Hubble http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Hubble.html Alexander A. Friedmann http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Friedmann.html
Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation history. Michigan State University http://www.orcbs.msu.edu/radiation/radhistory/
Online Ethics Center (2005): Roger Boisjoly y el Desastre del Challenger. Online Ethics Center for Engineering and Science. La versión original en inglés fue creada por Jagruti S. Patel y Phil. Traducción: Francy Acosta. Asesor: Ingeniero Antonio Alba. http://onlineethics.org/spanish/boisjoly/RB-intro-span.html
Pasachoff Naomi (2006): Marie Curie and the Science of the Radioactivity. The Center for History of Physics. The American Institute of Physics. http://www.aip.org/history/curie/contents.htm
Pauling Linus (1963): Harper's Magazine, 226 (May, 1963) 6, citada en Nobel e-Museum (2004): Linus Pauling. From Nobel Lectures, Peace 1942 – 1962. Elsevier Publishing Company, Amsterdam, 1967. http://nobelprize.org/peace/laureates/1962/pauling-bio.html
Peralta y Fabi Ricardo (1995): Del Espacio al Subsuelo. Fondo de Cultura Económica. Impreso en México. I. El Reto Espacial http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/086/htm/sec_4.htm VII. Hacia el Futuro
Pugwash On Line (2004): The origins of Pugwash. Conferences of Science and World Affairs. http://www.pugwash.org/origins.htm
Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario Granma. 30 de marzo de 2005. La Habana. http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html
Selleri F. (1990): Chapter 1. Quantum theorists and the physical world. Quantum paradoxes and physical reality. Kluwer Academic Press. The Netherlands.
Szilard Leo (1945): A petition to the President of The United States. July 17, 1945. (Drafted by Leo Szilard and signed by 68 members of the Metallurgical Laboratory in Chicago).http://www.atomicarchive.com/Docs/ManhattanProject/Petition.shtml
The Chemical Heritage Foundation (2000): Otto Hahn, Lise Meitner and Fritz Strassmann. Chemical Achievers. http://www.chemheritage.org/EducationalServices/chemach/ans/hms.html
The Manhattan Project Heritage Preservation Association, Inc. (2004): JAMES FRANCK. Director - Chemistry División. Metallurgical Laboratory - Univ. of Chicago.
The Nobel Laureates of LMB (2004): Laboratory of Molecular Biology. Cambridge. Francis H. Crick http://www2.mrc-lmb.cam.ac.uk/archive/Crick62.html James Watson. http://www2.mrc-lmb.cam.ac.uk/archive/ Watson62.html
The Russian Women Network (2006): Svetlana Savitskaya - Second woman in space. First woman to walk in space. Great Russian Women. http://great.russian-women.net/Svetlana_Savitskaya.shtml
The Voice of Russia (2001): Estación Espacial "MIR": 15 Años de Vuelo. 115326 Russia, Moscow, st. Pyatnitskaya 25, bld. 1, Voice of Russia. http://www.vor.ru/Spanish/Cosmos/cosmos_sp_23.html Constructor Jefe: Serguei Koroliov. htpp://www.vor.ru/Spanish/Cosmos/cosmos_sp_04.html Gagarin en Cuba http://www.vor.ru/Spanish/Cosmos/cosmos_sp_34.html
Thompson G. Viruleg A.R. (1992): Linus Pauling. A Biography. History of Chemistry. The Woodrow Wilson National Fellowship Foundation. www.woodrow.org/teachers/chemistry/institutes/1992/Pauling.html
UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html
Union of Concerned Scientists (2004): Scientific Integrity in Policymaking. http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642
Universidad de California, San Diego (1997): Martin David Kamen. Papers. Background. http://orpheus.ucsd.edu/speccoll/testing/html/mss0098a.html
Weart Spencer (2005): The Discovery of Global Warming. Center for the History of Physics. American Institute of Physics. http://www.aip.org/history/climate/index.html
Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of Research Plans. Historical Studies in the Physical and Biological Sciences 27(2): 319-56. En "Roger Revelle’s Discovery". American Institute of Physics. http://www.aip.org/history/climate/Revelle.htm
Wright Pearce (2002): Martin Kamen. Scientist, co-discoverer of the isotope that gave archaeology carbon-dating, and innocent victim of America's Communist witchhunts. Monday September 9, 2002. The Guardian. London. http://education.guardian.co.uk/obituary/story/0,,788663,00.html
|