Copyright © 1995 Depósito legal pp.76-0010 ISSN 0378-1844. INTERCIENCIA 20(5): 283-288

ENSAYOS
ESSAYS
ENSAIOS


REFLEXIONES SOBRE LA MECÁNICA CUÁNTICA

CARLOS ALBERTO HERAS

 

Carlos Alberto Heras, doctorado en Física en la Universidad Nacional de La Plata, es Profesor Titular jubilado de la Universidad de Oriente, Cumaná, Venezuela. Ha publicado una veintena de trabajos de comunicaciones a congresos nacionales e internacionales sobre temas de física nuclear. Es co-autor de un libro publicado por la Comisión de Energía Atómica de EE.UU. Ha colaborado con el CONICIT de Venezuela. Dirección: Calle 12 N' 56, 1896 City Bell, Argentina.

Introducción

El propósito de este ensayo es dar una breve exposición de la mecánica cuántica, en primer lugar por su importancia en el desarrollo de la filosofía de la ciencia y, en segundo, para tratar de aclarar algunos puntos que han dado lugar a interpretaciones erróneas que aún se exponen en ramas ajenas a la física.

Breve historia

La mecánica cuántica es la última de las grandes ramas de la física en aparecer. Lo extraordinario es que se desarrolla en unos 30 años adquiriendo prácticamente su forma actual en la segunda mitad de la década del 20. Esto contrasta con la mecánica que puede decirse se inició con Arquímedes doscientos años antes de nuestra era, se desarrolló lentamente durante la Edad Media, nace realmente en el siglo XVII con los trabajos de Galileo Galilei e Isaac Newton, y alcanza su esplendor en los primeros años del siglo XIX, dominando la filosofía como sólo Aristóteles lo había logrado en los casi veinte siglos que precedieron a Galileo. Tiene la importancia de que en su seno nace el método científico. La segunda rama a desarrollarse fue el electromagnetismo en el siglo XIX, aunque ya en el siglo XIII Petrus Peregrinus, un precursor de la investigación experimental, se había ocupado de los imanes, dando origen a los experimentos y teoría desarrollados por William Gilbert en 1600. En la primera mitad del siglo XIX, Faraday unificó electricidad y magnetismo y James Clerk Maxwell logró en 1873 la formulación actual del electromagnetismo. Albert Einstein la completó en 1905 con las correspondientes leyes de movimiento en lo que se conoce como teoría especial de la relatividad, demostrando además que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, no cuántica. Merece mencionarse un capítulo especial desarrollado en la segunda mitad del siglo XIX: la mecánica estadística; con ella se logró explicar, mediante el uso de métodos estadísticos en conjunción con las leyes de la mecánica, las leyes esencialmente descriptivas de la termodinámica y dar cuenta de numerosos hechos asociados con sistemas de muchos componentes. Ninguno de estos desarrollos es una simple "abstracción" de los datos, aunque Newton, influido de Francis Bacon, lo creyera así.

Fue precisamente en el seno de la mecánica estadística donde nacen las ideas cuánticas. En 1900, Max Planck, para poder explicar la distribución estadística de frecuencias de la radiación emitida por un cuerpo negro, enuncia la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de cuantos de energía definida proporcional a su frecuencia; la constante de proporcionalidad se denomina constante de Planck y es de fundamental importancia en la mecánica cuántica. Es probable que la idea de Planck hubiera quedado muchos años como hipótesis ad hoc si Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se debe tratar como un conjunto de partículas independientes de energía (los cuantos de luz o fotones) que se comportan como las partículas de un gas. Usó este punto de vista heurístico (como él mismo lo llamó) para desarrollar su teoría del efecto fotoeléctrico (emisión de cargas por efecto de la radiación, tan usada actualmente en dispositivos de control). Publicó esta teoría en 1905 y le valió el Premio Nobel en 1921. La aplicó también para dar una teoría del calor específico (la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo). Con ella no sólo resolvió problemas que se habían presentado durante el siglo XIX sino que predijo nuevos hechos que se verificaron experimentalmente entre 1910 y 1911.

En 1913, Lord Ernest Rutherford descubre experimentalmente que la carga del átomo está concentrada en un núcleo cuyo tamaño es miles de veces menor que el del átomo. El mismo año Niels Bohr propone su modelo planetario cuántico del átomo: los electrones describen alrededor del núcleo órbitas determinadas, es decir cuantizadas, con la hipótesis ad hoc de que en las mismas no emiten radiación tal como se esperaría de la teoría electromagnética. La teoría tuvo gran éxito para explicar las frecuencias de radiación características de cada elemento, que hoy se usan para determinar con extraordinaria precisión la composición química de materiales. Pero no era una teoría fundamental y se le tuvieron que agregar hipótesis ad hoc para acomodar nuevos datos experimentales.

Mientras tanto, Einstein se había dedicado a su famosa teoría general de la relatividad y retoma sus estudios cuánticos a principio de la década del 20, proveyendo una demostración correcta de la ley de Planck. En 1924 apoyó decididamente un nuevo método estadístico propuesto por el joven físico hindú S.N. Bose y lo aplicó a un gas de partícula materiales, conocido hoy como gas de Bose-Einstein, con nuevas e interesantes propiedades que muchos años después se encontraron experimentalmente en el helio a bajísimas temperaturas (del orden de –270ºC). Por esa época conoce la tesis doctoral de Louis de Broglie en la cual se propone que cada partícula material tiene una longitud de onda asociada inversamente proporcional a su momentum (su masa por su velocidad, concepto introducido por Newton y fundamental en la mecánica). Einstein se sintió atrapado por esa idea porque transportaba al campo de la materia su idea de la dualidad onda-partícula y llegó a sugerir diversas posibilidades experimentales para demostrar la existencia de estas ondas materiales. De hecho, la confirmación vino exactamente de los mismos experimentos diseñados para demostrar la naturaleza ondulatoria de los rayos X. Y misteriosa y trágicamente, éste es el último apoyo que las ideas cuánticas recibieron de uno de los más grandes genios de la humanidad. El oponerse a la nueva mecánica cuántica le granjeó la total soledad científica hasta su muerte en 1955. Sin embargo sus ideas gobernaron, consciente o inconscientemente, desarrollos de la mecánica cuántica en las décadas de los 40 y 50, y perduran hasta el presente en las teorías de la gran unificación de las fuerzas fundamentales de la naturaleza que están actualmente en desarrollo, aunque, curiosamente, es la gravitación que tanto ocupó a Einstein la que se "resiste" a ser unificada.

Resumiendo la situación hasta 1925, Einstein había demostrado con su teoría especial de la relatividad que el electromagnetismo no podía tener una interpretación mecánica como se había creído, lo cual implicaba una dualidad en la naturaleza: por un lado lo mecánico y por otro lo electromagnético. El mismo apoyó la dualidad inversa: partículas que se comportan como ondas. Opinaba que la solución estaba en una teoría de campos que lo abarcaba todo. Esencialmente un campo es un ente que asigna a cada punto del espacio (más correctamente del espacio-tiempo) un número tal como la temperatura o la presión, o un número y una dirección (vector) como pueden serio la fuerza gravitacional o la electromagnética. Einstein trabajó infructuosamente en esta idea hasta su muerte, encarándola desde un punto de vista clásico.

Pero hay que volver a esta breve historia. En 1925 los físicos alemanes Werner Heisenberg y Max Born, junto con el matemático Pascual Jordan proponen la primera formulación de la mecánica cuántica usando métodos algebraicos. Poco después, en 1926, el físico austríaco Erwin Schrödinger propone una formulación en términos del más tradicional cálculo infinitesimal (iniciado por Newton) y él mismo demuestra pocos meses después la equivalencia matemática de las dos formulaciones. En 1928 el veinteañero británico Paul Adrian Maurice Dirac hace una formulación abstracta desde el punto de vista matemático teniendo en cuenta la teoría de la relatividad de Einstein. Esta formulación no sólo contiene como casos particulares los dos desarrollos anteriores, sino que incluye automáticamente una nueva propiedad de las partículas descubierta por esos años, el espín, y que se puede interpretar como un giro de la partícula sobre sí misma como la tierra, aunque este concepto no tiene significado en la mecánica cuántica; se trata de una propiedad estrictamente cuántica que, entre otras cosas, completa la descripción fundamental del magnetismo iniciada por Einstein con su teoría de la relatividad. Aún más, predice la existencia de un electrón positivo, el positrón, que se descubrió experimentalmente pocos años después. Así, con 25 años de tradición y menos de tres años de desarrollo nace una nueva ciencia la mecánica cuántica con su formulación definitiva. Fue un proceso demasiado rápido como para que pudiera ser asimilado, incluso por sus propios creadores, como se verá a continuación.

Problemas en la nueva ciencia

Los dos primeros problemas que se presentaron fueron: uno, el descubrimiento por Born de que la mecánica cuántica era esencialmente probabilística y el otro, las relaciones de incerteza de Heisenberg. Ambos están relacionados con la idea que se tenía entonces sobre la causalidad en los fenómenos naturales. Baste recordar que la característica más importante de la causalidad es que nada surge de la nada o desaparece en la nada o, equivalentemente, todo acontecimiento es producido por otros acontecimientos anteriores. Esto es muy razonable y cualquier científico estaría dispuesto a aceptarlo. Sin embargo, el éxito clamoroso de la mecánica clásica, y del electromagnetismo después, hicieron surgir la idea de que el concepto de causalidad se hace preciso en un dado contexto únicamente en términos del determinismo físico (Bernays, 1979). Este estaba conectado con la forma matemática de las leyes físicas entonces conocidas. De acuerdo con ellas los valores de las cantidades que caracterizan el estado del sistema están determinadas exactamente para todo tiempo si se las especifica para un dado tiempo inicial. Esto se extrapoló en lo que se podría llamar doctrina determinista, según la cual la evolución de todo el universo estaría determinado en la forma que prescriben las leyes de la mecánica clásica y el electromagnetismo. Incluso se llegó a decir que un ser especialmente dotado (que se llamó demonio de Maxwell) si conociera la posición y el momentum de todas las partículas del universo en un instante dado, podría predecir el comportamiento futuro de todo, incluyendo el ser humano. Pero la nueva teoría decía, esencialmente, que dada una causa, el efecto sólo se puede predecir con cierta probabilidad calculada con las ecuaciones fundamentales de la teoría. Sin embargo, el hecho no era nuevo. En la mecánica estadística, iniciada en la segunda mitad del siglo XIX y continuada por Einstein y Enrico Fermi para incluir las nuevas ideas cuánticas, también había este tipo de causalidad probable. Pero los físicos decían que esto se debía a la imposibilidad práctica de conocer la posición y el momentum de todas las partículas que componen un sistema porque son billones de billones; por eso había que contentarse con usar métodos estadísticos como lo hacen las compañías de seguros.

Es natural, entonces, que el hecho de que la teoría, por sus postulados, fuera esencialmente probabilística, escandalizara a las mentes deterministas de la época. Einstein llegó a decir "estoy convencido de que El no está jugando a los dados" (Einstein, 1926), Las discusiones continuaron por medio siglo. Algunas han servido para aclarar conceptos de la filosofía de la ciencia (p. ej. Yourgrau, 1979), otras han dado lugar a intentos de corregir la mecánica cuántica, como la introducción de "variables ocultas" que restituirían el determinismo clásico a la teoría.

Para discutir mejor las relaciones de Heisenberg y para otras consideraciones posteriores, es conveniente dar una idea de la estructura matemática de la mecánica cuántica. El estado de un microsistema (átomo, electrón, molécula, cte.) se representa mediante un vector en un espacio vectorial cuyas propiedades son una generalización de las del espacio ordinario que conocemos El número de dimensiones de dicho espacio (que puede ser infinito) depende del microsistema en crudo. Las variables dinámicas (posición, momentum, energía, etc.) se representan por operadores especiales que actúan en ese espacio. Un operador es esencialmente una operación, por ejemplo, "sumar 3" o "dividir por 3". El álgebra de operadores es casi igual al álgebra elemental con una importante diferencia: el producto puede no ser conmutativo de modo que operar en un cierto orden puede no ser lo mismo que operar en sentido inverso, como en los ejemplos citados. Cuando un operador actúa sobe un vector de estado se obtiene otro vector de estado en el mismo espacio. Si ocurre que ese otro estado es proporcional a aquél sobre el cual se operó, se dice que es un autoestado del operador y que la constante de proporcionalidad es el autovalor correspondiente del operador. El valor numérico de los autovalores de un operador es lo que eventualmente se comparará con los datos experimentales. El cálculo de los autovalores del operador energía para el átomo de hidrógeno fue el primer éxito resonante de la mecánica cuántica pues dieron cuenta de las frecuencias de radiación emitidas por dicho átomo que entonces estaban medidas con gran precisión. Se encontró que bastaba un número finito de operadores que conmutan entre sí para caracterizar un microsistema. Este conjunto es completo en el sentido de que un operador adicional no conmuta con los anteriores.

Se considerarán ahora las relaciones de Heisenberg. Existe un teorema matemático general que dice que el producto de las dispersiones estadísticas de dos operadores que no conmutan es mayor que cierto número que depende de los operadores en cuestión. Las dispersiones se calculan conforme a la definición elemental; la forma de calcularlas depende del campo de aplicación. Hay que insistir que se trata de un teorema matemático que nada tiene que ver con la mecánica cuántica. Heisenberg demostró este teorema para el caso de dos operadores importantes: el momentum y la posición, los cuales no conmutan. La importancia de estas variables dinámicas es que en mecánica clásica su conocimiento preciso permite determinar exactamente el estado de un sistema (basta conocerlos en un instante inicial). Es imaginable el asombro que provocó en los físicos de entonces el hecho de que el momentum y la posición no se pudieran determinar simultáneamente con toda la precisión que se quisiera. Para los físicos contemporáneos, quienes en su mayoría saben más mecánica cuántica que mecánica clásica, el hecho sólo significa que como los operadores momentum y posición no conmutan, no se pueden usar simultáneamente para describir un microsistema. Y esto es lo que dicen los postulados fundamentales de la mecánica cuántica, que sólo se aplica a electrones, núcleos y cosas parecidas y no a planetas, ladrillos y cosas parecidas. Lamentablemente las relaciones de Heisenberg recibieron el nombre de "relaciones de incerteza", el cual es de contenido netamente sicológico. Algunos las elevaron de categoría llamándolas "principio de indeterminación" y de ahí que ciertos comentadores (deterministas por supuesto) llegaron a la conclusión de que la mecánica cuántica contradice el principio de causalidad. Otros la llevaron a campos de la ciencia distintos de la física desprovistas de su contexto, dando lugar a opiniones como "Pero las ciencias duras del siglo XX ya no son tan duras: desde el principio de incertidumbre de Heisenberg las ex leyes físicas son unas constataciones estadísticas de repeticiones de frecuencia" (Imaz, 1988). De todas maneras, las discusiones sobre las relaciones de Heisenberg y la no conmutación de operadores en la física cuántica continuaron y sirvieron para aclarar la filosofía de la nueva ciencia. Baste mencionar que en 1977 se realizó en Munich un congreso en homenaje a Heisenberg que se denominó "Pensamiento y despensamiento en la obra de Heisenberg", y también un trabajo de James L. Park y Henry Margenau (Park, 1979) el cual tiene el defecto que usa una terminología tradicional que llevó a confusiones, de la cual se hablará a continuación.

El tercer problema que ha confrontado la mecánica cuántica es el uso de la interpretación de su formulismo matemático. La primera que apareció y que aún figura en la mayoría de los textos se conoce con el nombre de doctrina de Copenhagen y fue elaborada por los grandes que construyeron la teoría: Bohr, Heisenberg, Born, Dirac y el matemático John von Neumann, quien elaboró un formalismo alternativo al de Dirac por razones que se mencionan más adelante. El nombre proviene de la vinculación de todos ellos con el Instituto de Física de esa ciudad que el gobierno danés había ofrecido a Bohr con motivo de su Premio Nobel en 1922. Mario Bunge ha hecho una excelente crítica a dicha doctrina (v. p. ej. Bunge, 1967a, b) como preparación a su formulación de la mecánica cuántica conforme a los rasgos generales de la ciencia (Bunge, 1967b, pp. 235-306).

Con referencia a la breve descripción matemática dada más arriba, considérese el siguiente postulado: "Si el sistema se encuentra en un estado que es autoestado del operador que representa una de sus propiedades, entonces el valor numérico de esa propiedad es el autovalor correspondiente a ese autoestado". En la doctrina de Copenhagen el mismo postulado aparece en la forma: "Si el sistema se encuentra en un estado que es autoestado de uno de sus observables correspondiente al autovalor a, entonces cuando el observador mide dicho observable obtiene con certeza el valor a". Como se ve, en dicha doctrina se llama "observable" al operador que representa una propiedad o variable dinámica de un sistema. Se dice que es medible, implicando observable directamente lo cual es falso, y se habla de que un observador obtiene con certeza el valor teórico, que también es falso. En primer lugar, la certeza (de neto contenido sicológico) no es importante en ciencia. En segundo lugar, la observación está totalmente separada de la teoría. En tener lugar, todo resultado experimental está afectado de error y por lo tanto no puede ser igual a un resultado teórico. Finalmente, la aplicación de la mecánica cuántica a sistemas complejos requiere introducir modelos de los mismos cuya validez es limitada, llegando a resultados teóricos que pueden ser bien diferentes de los experimentales, pudiéndose hacer únicamente una confrontación global (conjunto de autovalores) y no de detalle (autovalor por autovalor) como pretende la doctrina de Copenhagen.

La razón de esta terminología de la interpretación de Copenhagen hay que buscarla en la filosofía positivista-subjetivista en boga en la década del 20 que dogmatizaba que la ciencia no se refiere a la realidad sino a la experiencia humana. Dicha interpretación sostiene entonces que no hay entes cuánticos autónomos sino que dependen del observador. Esto contradice la tradición de la ciencia moderna y es contradictorio en sí: "Si cada uno de los átomos de mi cuerpo existe sólo en la medida en que puedo observarlo, entonces yo - un sistema de átomos - no existo, puesto que tengo otras cosas que hacer que observar de continuo a mis constituyentes" (Bunge, 1967a). Esta introducción del observador en la teoría ha sido funesta. En primer lugar porque si bien fue hecho sólo para la mecánica cuántica, la trascendió a través de comentadores dando lugar a expresiones tales como "Por fin ( ... ) se nos ha demostrado que también en los fenómenos físicos la actitud del observador condiciona al objeto observado. Nada más y nada menos - salvadas las distancias - que lo sostenido por ese axioma que creíamos privativo de las ciencias sociales" (Imaz, 1988). Lo que el autor llama axioma es una simple recomendación en toda ciencia: como el observador puede perturbar al objeto observado hay que esforzarse para que ello no ocurra. En segundo lugar porque retrasó la enseñanza de la mecánica cuántica en cursos normales. En la Unión Soviética fue prohibida durante muchos años por subjetiva. En Francia se comenzó a enseñar a nivel básico en todo el país por disposición del gobierno en 1967 (Levy, 1967). De todas maneras llevó a la desesperación a mucho aprendiz de físico que después de aprender la física clásica objetiva tenía que aprender la cuántica subjetiva; y para peor con todo el andamiaje histórico-filosófico-sicológico que se utilizó para construirla. Hermann Bondi (1979) sostiene que clarificando los conceptos básicos se los podría enseñar a niños de nueve años. Quizás sea un poco exagerado pero lo cierto es que la clarificación de las ciencias ha permitido presentarlas cada vez a un nivel más elemental de la enseñanza.

Muchas otras cosas se escribieron, algunas de las cuales aún persisten en los textos. Por ejemplo, se diseñaron "experimentos pensados" semiclásicos para probar la inconsistencia de la mecánica cuántica o su validez. Bohr formuló en 1925 un principio de correspondencia de alto valor heurístico que establecía ciertas condiciones para las cuales los resultados cuánticos pasarían a los correspondientes clásicos. Posteriormente se lo generalizó incluyendo la inversa en la forma de que a toda cosa clásica correspondería una cuántica. Se llegó a hablar de "reglas canónicas de cuantización" de resultados clásicos (Dirac, 1962, p. 11; Dirac, 1964; Lurié, 1968, pp. 45, 87, 125). Es curioso que en la última referencia, para el caso del electrón libre, se gastan varías páginas para desarrollar las fórmulas a cuantizar y otras varias para verificar el fracaso de la regla de cuantización. En realidad, la única regla conocida para construir cualquier teoría (no sólo la mecánica cuántica) es: "No hay rejas para construir teorías". De todas maneras, las analogías clásicas han tenido un gran valor heurístico en el desarrollo de la mecánica cuántica. Es un hecho conocido que la analogía es una fuente de generación de hipótesis.

Puede parecer extraño que los grandes físicos escribieran tantas cosas inútiles o erróneas. Para explicado, en primer lugar hay que recordar que un físico es un hombre y como tal, según dijera José Ortega y Gasset, es él y su contexto. En la década del 20 el contexto era un positivismo subjetivista y un alto desarrollo de la física clásica. En segundo lugar, había que demostrar que se trataba de algo totalmente nuevo y la doctrina de Copenhagen lo consiguió. Lo malo es que los que siguieron adoptaron inconscientemente la actitud acientífica de tomarla como dogma. Pareciera que esto es una actitud de los que siguen a los genios, pues ya Galileo se quejaba del dogmatismo de los peripatéticos, los seguidores de Aristóteles (Paschini 1965 P. 70).

Sobre la matemática que usa la mecánica cuántica

Es conveniente hacer algunas consideraciones sobre la matemática que utiliza la mecánica cuántica. La formulación más fructífera ha sido la abstracta de Dirac. Según dice en el prólogo a la primera edición de 1930 de su ya clásico texto (Dirac, 1962), esto permite expresar la teoría en una forma clara y precisa, y por consiguiente más profunda. Sin embargo, fue ignorada durante muchos años, incluyendo su elegante notación (la notación de Dirac) que actualmente usan todos los físicos aunque todavía no goza del favor de los matemáticos. El argumento es que la matemática involucrada es difícil.

Esto no es cierto; es sólo diferente de la utilizada en la física clásica desde Newton (su creador). Es esencialmente algebraica. A juicio del autor, es muy fácil llegar a ella como generalización intuitiva de conceptos elementales. Es una matemática que se había desarrollado en el siglo XIX y en el XX, y lo único que hizo Dirac fue sistematizarla, lo que se conoce como delta de Dirac. Esta fue resistida por los matemáticos y por ello von Neumann (Neumann, 1949) hizo su propia formulación sin usar la delta. Sin embargo, varios años después un matemático francés y otros rusos independientemente 6 justificaron iniciando así una nueva rama de la matemática.

Dos aplicaciones de la mecánica cuántica

La mecánica cuántica levantó la dualidad onda-partícula, mostrando que las partículas microscópicas (electrones, átomos, etc.) no son bolas de billar muy pequeñas sino otra cosa gobernada por otras ecuaciones. La dualidad onda-partícula en el campo electromagnético desaparece al hacer una teoría cuántica del mismo. Es de hacer notar que el comportamiento ondulatorio de los electrones contenido en la mecánica cuántica dio origen al microscopio electrónico construido por primera vez por Ernst Ruska en Berlín en la primera mitad de la década del 30. Otro hecho típicamente cuántico también merece mención por sus aplicaciones científico-tecnológicas: el efecto túnel. El nombre proviene de lo siguiente. Si se suelta una bolilla junto a la pared interna de un recipiente semiesférico, la misma sube del lado opuesto hasta aproximadamente la misma altura desde la que se la soltó; por razones de conservación de energía, la bolilla no puede escapar del recipiente. Pero cuando se trata de una partícula gobernada por las leyes de la mecánica cuántica, la misma tiene una probabilidad no nula de estar fuera del recipiente. Hablando clásicamente es como si hubiera cavado un túnel a través de la pared del recipiente. La primera aplicación práctica de esto fue el diodo de efecto túnel, uno de los dispositivos que revolucionó la electrónica. Más recientemente, en la primera mitad de la década del 80, los científicos Gerd Birnning y Heinrich Roher, del Laboratorio de Investigación de la IBM en Zurich, inventaron el microscopio de efecto túnel, un ultramicroscopio que casi permite "ver" los átomos. Recibieron el Premio Nobel por ello en 1986, compartiéndolo con Ruska por su invento del microscopio electrónico medio siglo antes (Robinson, 1986).

La teoría cuántica de campos

Sin embargo, quedaba la dualidad campo-partícula, equivalente a la dualidad mecánica-electromagnetismo clásicos que tanto preocupó a Einstein hasta su muerte. Dicha dualidad se levantó a partir de la segunda mitad de la década del 40. Se postuló que las partículas también son campos, naciendo así la teoría cuántica de campos. El primer éxito fue la electrodinámica cuántica, que pudo describir un pequeñísimo efecto medido por esos años con una precisión muy grande. Sin embargo, el problema es difícil y hay que proceder por aproximaciones sucesivas basadas en el hecho de que la interacción electromagnética es suficientemente débil, pero todavía quedan problemas matemáticos graves. Mientras tanto se habían descubierto otras dos interacciones además de las conocidas gravitatoria y electromagnética: la fuerte entre los nucleones componentes del núcleo atómico (protones y neutrones) y la débil asociada con la desintegración de núcleos con emisión de electrones o positrones. Estas también se tratan con la teoría cuántica de campos aunque todavía no con tanto éxito como la electromagnética debido a problemas matemáticos y al poco conocimiento que aún se tiene de ellas (no hay una ley como la de Newton para la gravitación o la de Coulomb para la electricidad). Mientras tanto se fueron descubriendo numerosas partículas elementales, algunas de masas intermedia ente la del electrón y la del protón (que fueron llamadas genéricamente mesones) y otras de masas mayores que la del protón. También se fueron descubriendo las correspondientes antipartículas. Una antipartícula tiene la propiedad de que al encontrarse con su partícula se aniquilan ambas con producción de energía radiante. Así, el positrón predicho por Dirac es el antielectrón. Estas partículas nuevas se crean en colisiones de muy alta energía; de hecho, para crear una partícula se requiere una energía igual al producto de su masa por el cuadrado de la velocidad de la luz de acuerdo con la equivalencia masa-energía descubierta por Einstein. Esta es la razón de que se hayan desarrollado los grandes aceleradores. Por ahora se está buscando un tratamiento unificado de todas esas partículas. Para ello se han introducido nuevas propiedades fundamentales además de la masa, la carga y el espín, las cuales han recibido curiosos nombres como "color" o "encanto". La única partícula que aún se resiste a ser descubierta es el gravitón, es decir, el cuanto del campo gravitatorio. Cuando se lo descubra quedará abierto el camino para la Gran Teoría Unificada, el gran sueño que Einstein no pudo cumplir porque se apartó del camino correcto: el cuántico

Simetrías

Otro campo de trabajo moderno en la mecánica cuántica es el estudio de las simetrías. La simetría ha preocupado al hombre desde tiempos lejanos. Prueba de ello son los motivos repetitivos en antiguos templos chinos o aztecas, en las vasijas de muchos indios de América y aún en los dibujos del pintor contemporáneo M.C. Escher y de los papeles para cubrir paredes. Los cristales están caracterizados por sus simetrías: se transforman en sí mismos (permanecen invariables) si se realizan ciertas traslaciones a rotaciones. Las moléculas tienen también simetrías, hecho que se viene* estudiando desde que Louis Pasteur (que era cristalógrafo) descubrió que los ácidos tartárico y racémico diferían únicamente en la simetría. En la física se estudian simetrías más profundas que las simplemente espaciales que se han mencionado. Están relacionadas con la invariancia de las leyes fundamentales frente a ciertas operaciones. Así, el principio de relatividad de Galileo y el de Einstein, son principios de simetría. Hasta Einstein, primero se construían las teorías y luego se estudiaban las simetrías y las correspondientes leyes de conservación. Es realmente afortunado que el principio de conservación de la energía, tan caro a toda la ciencia, se verificara en las teorías sin haberlo impuesto explícitamente de antemano. Einstein inaugura una nueva forma de trabajo: partir de postulados de simetría. Este es el enfoque que se ha utilizado sistemáticamente en la teoría cuántica de campos. Es un enfoque profundo y además necesario por cuanto las analogías clásicas ya no sirven para construir los operadores que representan propiedades o variables dinámicas de las partículas.

REFERENCIAS

Bernays, Paul (1979): Causality Determinism, and Probability, in Yourgrau (1979) pp. 260-269.

Bondy, Hermann (1979): Logical Foundations in Physics, in Yourgrau (1979) pp. 236-243.

Bunge, Mario ( 1967a): Quanta y Filosofía. Crítica, I (3) pp. 41-64.

Bunge, Mario (1967b): Foundations of Physics. Berlin, Heidelberg: Springer-Verlag, xii + 311 pp.

Dirac, Paul A.M. (1962): The Principles of Quantum Mechanics. Oxford: Clarendon Press, 4ta. edición, 2da. reimpresión, xii + 312 pp.

Dirac, Paul A.M. (1964): Lectures on Quantum Mechanics. Belfer Graduate School of Science, Nueva York: Yeshiva University, 87 pp.

Einstein, Albert (1926): Carta a Max Born del 4 de diciembre. Citado en French (1979).

French, AR (ed.) (1979): Einstein - Centennary volume. Cambridge, MA: Harvard University Press, xx + 332 pp.

Imaz, José Luís (1988): Ciencia y Fe, desde las ciencias sociales. Criterio, Año LXI, Nº2002, pp. 55-56.

Levy, Maurice (1967): Prefacio en Leite Lopes, José. Fondements de la physique atomique. Paris: Hermann, 372 pp.

Lurié, David (1968): Particles and Fields. Nueva York: Interscience, 506 pp.

Neumann, John von (1949): Fundamentos matemáticos de la mecánica cuántica. Madrid: Publicaciones del Instituto de Matemática Jorge Juan", vi + 351 pp. Tr. del alemán por R. Ortiz. Matematische Grundlagen der Quanten Mekanik. Berlín: Springer, 1932.

Park, James L. y Margenau, Henry (1979): The Logic of Noncommutability of Quantum-Mechanical Operators - and its Empirical Consecuences, in Yourgrau 1979, pp. 37-70.

Paschini, Pio (1965): Vita e opere de Galileo Galilei, 2da, edición, Roma: Casa Editrice Herder, 710 pp.

Robinson, Arthur L. (1986): Electron Microscope Inventors Share Nobel Physics Prize. Science 234, 821-822,

Yourgrau, W. y Merwe, A. vander (eds.) (1979): Perspectives in Quantum Mechanics. Nueva York: Dover. Los trabajos 15-18 tratan sobre la causalidad.


Atrás / Back / Voltar