Las ondas, su clasificación y sus características

Es importante este tema de las ondas, porque veremos que conceptos de la mecánica ondulatoria están íntimamente ligados a la física cuántica. Un autor señala que usar a las ondas ordinarias en formas o maneras inusuales es el secreto de la teoría cuántica.  Todas las ondas, no importa cuan exóticas sean, están construidas con un mismo plan y toman sus órdenes del mismo libro, de allí que las ondas cuánticas seguirán las mismas reglas que las ondas en general. Ahora bien, ¿que conocemos de  las ondas ordinarias?

La mayoría de las personas ha tenido experiencia con las ondas, por ejemplo al arrojar una piedra en un estanque de agua se forman ondas; si ponemos un corcho veremos que el mismo se mueve hacia arriba y hacia abajo pero que no se traslada en la dirección que vemos se trasladan las ondas, como círculos que se abren desde el centro donde cayó la piedra. Estas ondas acuáticas constituyen un ejemplo de una amplia variedad de fenómenos físicos que presentan características análogas a las ondas. El mundo está lleno de ondas: ondas sonoras, mecánicas, tales como la onda que se propaga en una cuerda de una guitarra, ondas sísmicas que pueden transformarse en terremotos, ondas de choque que se producen cuando por ejemplo un avión supera la velocidad del sonido, y otras ondas más particulares porque no son tan fácilmente captadas con los sentidos o no es tan sencillo interpretar su origen; son las ondas electromagnéticas. Entre estas están la luz visible, las ondas de radio, las señales de TV, los rayos X; muchas de  las cuales permiten el funcionamiento de algunos aparatos por todos conocidos: el control de canales de TV para hacer zapping, los teléfonos móviles, Direct TV, internet por aire, etc.

El concepto de onda es abstracto. Las ondas que viajan en un medio material se denominan ondas mecánicas. Cuando se observa lo que denominamos una onda en el agua, lo que en realidad se contempla es una nueva disposición de la superficie del agua; sin la presencia del agua no existiría onda alguna. Si fijamos el extremo de una cuerda y movemos el otro extremo hacia arriba y hacia abajo, vemos como a lo largo de la cuerda se mueve una onda. Si no existiera la cuerda no existiría la onda. Las ondas sonoras viajan por el aire como un resultado de las variaciones de presión en el aire de punto a punto. En todos los casos, lo que se interpreta como una onda corresponde a la perturbación de un cuerpo o un medio. En consecuencia, una onda puede considerarse como el movimiento de una perturbación. El movimiento de la perturbación- el estado del medio o la onda en sí misma- no debe confundirse con el movimiento de las partículas. En el caso particular de las ondas mecánicas, estas requieren para su existencia de una fuente de perturbación (la piedra que se tira al agua), un medio que pueda ser perturbado (agua, aire) y alguna conexión física o mecanismo mediante el cual las porciones adyacentes del medio – las que están en contacto- ejerzan influencia entre sí. En el caso de las ondas electromagnéticas, durante muchos años, no se tenía claro cual era el medio que se perturbaba; se hablaba del éter como medio de transferencia de estas ondas. Hoy en día se sabe que las ondas llamadas electromagnéticas no necesitan de ningún medio, es decir, se pueden propagar a través del espacio vacío.

El estudio de las ondas se hace sobre una representación gráfica de la misma que es la forma de la función senoidal o seno: y= f(x)= Asen(x+j). Si bien no todas las ondas siguen esta función, el teorema de Fourier demostró que: cualquier onda puede ser descompuesta como una suma única de  ondas componentes senoidales. Este teorema además de facilitar el estudio profundo de la mecánica ondulatoria, permite también representar gráficamente con facilidad lo que es una onda, dado que la función seno o senoidal es la que se forma en una cuerda cuando movemos sus extremos hacia arriba y abajo repetidamente.

Veamos ahora algunos conceptos físicos que se utilizan para caracterizar a las ondas: 

La longitud de onda (l) es la distancia entre dos puntos idénticos de la onda, por ejemplo entre dos crestas consecutivas en el agua (tiene unidades de distancia: mm, cm, m, etc.)

La máxima altura de la onda se denomina amplitud y también se mide en unidades de distancia.

El período es el tiempo T que tarda la onda en recorrer un ciclo, es decir en volver a la posición inicial, por ejemplo de una cresta a la cresta siguiente.

La frecuencia es lo que mide el número de veces / ciclos que un punto de la superficie sube y baja en un segundo (unidades de ciclos o veces por segundo, es decir unidades de la inversa del tiempo); en otras palabras, la frecuencia es la rapidez con la cual la perturbación se repite por sí misma. La frecuencia es la inversa del período T; f= 1 / T.

La velocidad de propagación  de la onda. Dado que velocidad es espacio dividido el tiempo en que se recorrió dicho espacio, en nuestro caso podemos expresarlo como Longitud de onda / Período, y como la inversa del período (1/T) es la frecuencia, entonces tenemos que: v = l.f. Esta dependerá de las propiedades del medio que experimenta la perturbación. Por ejemplo las ondas sonoras se propagan en el aire a una velocidad menor que a través de los sólidos. Las ondas electromagnéticas que se propagan en el vacío, es decir, que no requieren medio que se perturbe para propagarse, lo hacen a una velocidad de 300.000 Km. / seg (la velocidad de la luz que se la denomina c).

El ángulo de fase j, si bien es más complejo decir qué es, es sencillo entender su significado. Cada punto de una onda posee una fase definida que indica cuanto ha progresado o avanzado dicho punto a través del ciclo básico de la onda. Escuchamos la idea de fases de la luna, que indica justamente dónde está la luna respecto a su ciclo el cual se repite siempre (por eso es ciclo). Las fases de las ondas son las que gobiernan lo que ocurre cuando dos o mas ondas se encuentran. Si dos ondas en el agua se cruzan, puede ocurrir que cuando una este en la cresta máxima, la otra este en la mínima, y como consecuencia de esto se aplaca el movimiento en el lugar de cruce de ambas, es decir el máximo cancela al mínimo. Esta superposición de ondas se da así porque ambas ondas que se encontraron estaban fuera de fase, es decir tenían diferentes ángulos de fase, estaban desfasadas. Es la diferencia de fase entre ondas que se superponen lo que produce el fenómeno de interferencia, que posteriormente veremos como uno de los primeros problemas extraños  de la física clásica: la doble naturaleza de la luz onda-partícula.

La polarización. Este concepto explica en qué dirección se desplaza el medio. Así decimos que si el medio se desplaza perpendicularmente a la dirección de la onda, tenemos una onda polarizada transversalmente. Tal como se explica en el caso de ondas transversales, una onda puede tener infinitas polarizaciones, dado que son infinitos los planos que contienen a la recta que marca la dirección del movimiento de la onda. El fenómeno de la polarización es el que comprobamos cuando usamos anteojos negros. Estos contienen alguna sustancia que actúa como filtro, no dejando pasar determinadas direcciones de propagación, eliminando así los reflejos.

Como decíamos, una de las formas más simples de demostrar el movimiento ondulatorio es al sacudir uno de los extremos de una cuerda larga que está sujeta en el otro extremo y en tensión. Al hacer esto se observará una protuberancia en la cuerda, llamada pulso, que viaja hacia el otro extremo con una rapidez definida; ésta se denomina onda viajera, la cuerda es el medio por donde viaja la onda y se supone que el pulso ondulatorio no cambiará cuando viaja a lo largo de la cuerda. A medida que el pulso avanza, cada parte de la cuerda que es perturbada se mueve hacia arriba y hacia abajo, es decir en dirección perpendicular a la dirección del movimiento de la onda. Esta característica es lo que define a las ondas llamadas transversales: el medio se mueve perpendicularmente a la dirección de propagación de la onda. Cuando el medio se mueve en dirección paralela a la de propagación de la onda, estas se denominan ondas longitudinales, es el caso de las ondas sonoras. Algunas ondas en la naturaleza son una combinación de ambos tipos.

Todas las ondas transportan energía consigo misma en la dirección de su movimiento, pero no transportan materia. Es decir, la propagación de las ondas es un mecanismo que permite transportar energía entre dos puntos separados en el espacio- que es la capacidad de realizar un trabajo, por ejemplo cambiar de canal en la TV – sin alterar físicamente el material a través del cual se hace el transporte o transmisión. Es esta característica notable pero poco conocida o bien a la que no se da importancia, lo que le da a las ondas tanta importancia dentro de nuestras vidas. Se demuestra matemáticamente que la potencia transmitida por las ondas, esto es la energía o capacidad de realizar trabajo por unidad de tiempo, es proporcional a la velocidad de propagación de la onda, al cuadrado de la amplitud y al cuadrado de la frecuencia.

Las ondas electromagnéticas

Hasta aquí describíamos las ondas mecánicas, las cuáles corresponden a la perturbación de un medio. Las ondas electromagnéticas a diferencia de las mecánicas, no necesitan de un medio para sus existencia.

Las ondas electromagnéticas ocurren como consecuencia de dos efectos:

Un campo magnético variable genera un campo eléctrico.

Un campo eléctrico variable produce un campo magnético.

Las fuentes de radiación electromagnética son cargas eléctricas aceleradas, es decir, que cambian con el tiempo su velocidad de movimiento. Las ondas radiadas consisten en campos eléctricos y magnéticos oscilatorios que están en ángulo recto (perpendiculares) entre sí y también son perpendiculares (ángulo recto) a la dirección de propagación de la onda; esto significa que las ondas electromagnéticas son por naturaleza transversales.

Ahora bien ¿qué son esos campos que mencionamos?. Los físicos crearon un concepto para explicar la acción o influencia que se puede ejercer a distancia sobre alguna partícula de referencia, sin que exista contacto real. Por ejemplo todos sabemos que cualquier cuerpo que esté en el aire sufre una atracción hacia la tierra que lo hace caer si no está sujeto a algo, ¿por qué cae?  Decimos que por la acción de una fuerza. Esa fuerza la produce algo externo al cuerpo en cuestión, se dice entonces que en el punto o posición o lugar en el espacio donde el cuerpo se encuentra, existe un campo gravitatorio y a este se lo define como la relación entre la fuerza que se ejerce sobre una partícula de referencia y su masa. G= F/m

De la misma forma se dice que una partícula de referencia- en este caso es una partícula que tiene una carga eléctrica “q” -  se encuentra influenciada por un campo eléctrico cuando sobre ella se ejerce una fuerza; el campo eléctrico está dado como en el caso anterior por la relación entre la fuerza que dicha carga de referencia experimenta y el valor de la carga. E= F/ q. Este campo, como en el caso anterior,  también esta originado externamente a la carga de referencia. Siguiendo con una explicación análoga, un campo magnético en un punto del espacio, es una zona donde  una partícula de referencia, en este caso una carga “q” que se mueve a una cierta velocidad “v” experimenta sobre ella una fuerza, tal que el campo magnético quedara definido así: B = F/ q.v

Vemos entonces que en todos los casos un campo es algo que existe por definición para explicar la fuerza que actúa sobre una partícula de referencia cuando está situada en un punto del espacio. En todos los casos la intensidad del campo disminuye a medida que aumenta la distancia entre la partícula de referencia y la fuente que origina el campo. James Clerk Maxwell demostró que las amplitudes de los campos eléctricos y magnéticos de una onda electromagnética están relacionados.

Las ondas electromagnéticas cubren un amplio espectro de frecuencias. Dado que todas las ondas electromagnéticas tienen igual velocidad c (velocidad de la luz) que es una constante, la relación c= f* l (recordemos que la explicación de velocidad de la onda era el espacio recorrido dividido el tiempo para recorrerlo. Cuando el espacio es una longitud de onda, el tiempo se llama período “T” y la inversa del período es lo que denominábamos frecuencia de la onda; de allí surge la igualdad anterior, dándole a la velocidad la notación que corresponde por ser la velocidad de la luz) define todo el espectro posible, abarcando desde las ondas de radio de baja frecuencia y gran longitud de onda, las cuales son ondas electromagnéticas producidas por cargas que oscilan en una antena transmisora, las ondas de luz con frecuencias mayores (cada color de la luz blanca corresponde a una longitud de onda determinada) se producen cuando determinados electrones oscilan dentro de los sistemas atómicos. Las ondas electromagnéticas fuera del campo visible como las ultravioletas, los rayos x, los rayos g, rayos cósmicos, que son vibraciones de otros electrones, o desaceleraciones de los mismos.

Veamos cada una las diferentes ondas en orden decreciente de su longitud de onda y por lo tanto, orden creciente  de su frecuencia, y como se producen:

Ondas de radio, son el resultado de la aceleración de cargas a través de alambres conductores. Son generados por dispositivos electrónicos.

Microondas que son ondas de radio de longitud corta también generadas por dispositivos electrónicos, se utilizan en sistemas de radar y para hornos a microondas.

Ondas infrarrojas llamadas también térmicas, llegan hasta la luz visible (el rojo del espectro), se producen por la vibración de los electrones de las capas superiores de ciertos elementos, estas ondas son absorbidas fácilmente por la mayoría de los materiales. La energía infrarroja que absorbe una sustancia aparece como calor, ya que la energía agita los átomos del cuerpo, e incrementa su movimiento de vibración o translación, lo cual da por resultado un aumento de la temperatura.

Ondas visibles, son la parte del espectro electro-magnético que puede percibir el ojo humano. La luz se produce por la disposición que guardan los electrones en los átomos y moléculas. Las diferentes longitudes de onda se clasifican en colores que varían desde el violeta el de menor longitud de onda hasta el rojo el de mayor longitud de onda (de 4 a 7x10-7). La máxima percepción del ojo humano se produce en la longitud de onda del amarillo-verdoso.

Ondas ultravioletas, que se producen por vibraciones de mayor frecuencia, producidas por ejemplo en el sol.

Rayos X cuya fuente más común es la desaceleración de electrones que viajan a altas velocidades (alta energía) al chocar en un bombardeo de un blanco metálico.

Rayos  g que son ondas electromagnéticas emitidas por núcleos radioactivos durante ciertas reacciones nucleares.

Un recorrido histórico

El mundo cuántico es el mundo de las partes más pequeñas que constituyen la materia, el micromundo, el mundo de las partículas subatómicas. La primer partícula subatómica fue el electrón, descubierta en el año 1897. Los físicos de partículas han desarrollado modelos para comprender de qué están hechas las cosas y cómo las diferentes partes componentes interactúan entre sí. El modelo estándar de la física de las partículas, basado en las reglas de la mecánica cuántica, nos dice que el mundo está construido por pequeñísimos bloques fundamentales de quarks y leptones que se mantienen juntos por el intercambio de partículas denominadas gluones y bosones. Lamentablemente este modelo no incluye todo, no incluye el campo gravitatorio.

La estructura de la física teórica en el siglo XX fue construida sobre dos grandes teorías, la Teoría general de la Relatividad, la cual describe la gravedad y el universo macroscópico, y la Mecánica Cuántica que describe el micromundo. La unificación de ambas será una teoría que abarque todo es lo que los científicos en el siglo XXI están buscando, aún sin conseguirlo. No obstante esta búsqueda, cualquier teoría física mejorada incluirá la teoría cuántica, y ninguna de estas teorías podrá tal vez explicar la incomprensión del mundo cuántico para los estándares utilizados en la vida diaria y el sentido común de las personas. La cuántica desafía al sentido común, o mejor dicho no tiene sentido a pesar de que explica con precisión insólita todos los fenómenos que ocurren en el mundo de las partículas subatómicas. Uno de los ejemplos clásicos es el fenómeno de la doble identidad de la luz, y de todas las partículas conocidas. Doble identidad dada por la identidad onda y la identidad partícula.

J.J. Thompson abrió el micromundo a la investigación cuando descubrió el electrón como partícula. Tres décadas mas tarde, su hijo George Thompson probó que los electrones eran ondas. Ambos estaban en lo cierto y ambos ganaron el premio Nobel por sus investigaciones. Un electrón entonces es una partícula y también es una onda, o mejor dicho, no es ni una cosa ni la otra sino que es una entidad cuántica que responde a determinados experimentos comportándose como una onda y a otros experimentos de otras características comportándose como una partícula. Lo mismo pasa con la luz, que se puede comportar como un haz de partículas denominadas fotones o como un conjunto de ondas de diferentes longitudes de onda, según sean las circunstancias. La luz es ambas cosas, a pesar de que no se manifiesta claramente así en nuestra vida diaria, razón por la cual no consideramos las consecuencias de esta doble identidad como algo claro para nuestro sentido común.

Todo esto está también relacionado con el fenómeno de la incertidumbre cuántica: una entidad cuántica, por ejemplo un electrón en movimiento, no tiene un conjunto de propiedades bien determinadas o definidas tales como las que podríamos encontrar en una bola de billar al rodar por una mesa donde claramente tiene una velocidad y una posición determinada en cada instante. La entidad cuántica, en nuestro caso el electrón en movimiento, u órbita alrededor de un núcleo, o moviéndose a través de un hilo conductor de corriente eléctrica, no puede saber en forma precisa dónde está ni a donde se dirige. Esto puede parecer un fenómeno totalmente irrelevante, algo sin importancia para nuestra vida de todos los días (a quien le puede importar, lo que hace un electrón). Pero en realidad es esta incertidumbre cuántica la que permite que un núcleo de una molécula de hidrógeno se una a otro en un proceso denominado fusión nuclear, que es la fuente básica de la energía solar. Esto significa ni más ni menos que si este concepto de incertidumbre cuántica no existiera, el sol no sería lo que es, y por lo tanto nunca nos preguntaríamos acerca de estas cosas “triviales” y “sin sentido” porque sencillamente no existiríamos.

La física cuántica no es un ejercicio académico e intelectual sin sentido para la vida. Es necesario saber esta rama de la física para construir una planta nuclear como también una bomba nuclear, para diseñar mecanismos láser, los cuales  permiten desde escuchar música en un CD hasta leer información almacenada en el disco rígido de un PC o mecanismos similares al láser utilizados para amplificar señales satelitales que alimentan lo que vemos en TV.

La física cuántica es importante en el diseño y la operación de todo aquello que contiene semiconductores – chips para PC, TV, equipos de audio, máquinas de lavar, automóviles, teléfonos móviles... -. Los semiconductores son materiales que tienen propiedades intermedias entre los aislantes (aquellos en que los electrones de los átomos del elemento que compone el material aislante, están firmemente ligados al núcleo de dichos átomos) y los materiales conductores (en los cuales los electrones están libres de ataduras y se mueven libremente a través del material conductor). En un semiconductor, algunos electrones están apenas ligados a sus núcleos y pueden saltar hacia otros núcleos y así moverse de una manera específica siguiendo ciertas reglas cuánticas conocidas como estadística de Fermi-Dirac.

Los electrones que se encuentran en la parte más externa de los átomos de los elementos, son los que forman las interfaces entre los diferentes átomos y moléculas que así forman todos los compuestos químicos conocidos. La conducta de los electrones en los átomos y moléculas, solo puede ser explicada a través de la física cuántica, es decir toda la química es explicada a través de la física cuántica.  La vida misma está basada en interacciones químicas complejas, siendo la más notable de todas el arquetipo de la molécula de la vida, el ADN. Esta molécula tiene la habilidad de desdoblarse y producir una copia similar de sí misma. Ciertas ligaduras que mantienen unidas a estas moléculas de ADN  y que permiten este proceso de desdoblamiento, son una clase de ligadura o unión química denominada unión hidrógeno, en la cual el núcleo de un átomo de hidrógeno es compartido entre dos átomos o entre dos moléculas formando la unión entre ellas. La manera fundamental en que los procesos de la vida operan solo se puede explicar a través de procesos cuánticos que operan en estos sistemas de unión hidrógeno.

En genética, para poder separar genes, a los efectos de agregarles nueva información genética e integrarlos a su estado original, es necesario entender cómo y porqué los átomos se unen entre ellos y en una cierta secuencia pero no en otras posibles, por qué ciertas uniones son más poderosas que otras, y por qué ciertas uniones mantienen a los átomos y a las moléculas separados a ciertas distancias fijas. Se puede conocer todo esto por prueba y error, sin entender las leyes de la física cuántica que gobiernan estos procesos, pero llevaría un tiempo cuasi- infinito antes de llegar a conclusiones válidas (en efecto la evolución opera dentro de esta forma de prueba y error).

Cuando hablamos aquí en estos ejemplos de entender o describir los fenómenos, no nos referimos a una descripción en términos generales en una forma cualitativa. Por el contrario, la física cuántica permite realizar cálculos con una precisión asombrosa. El triunfo más grande de la física cuántica teórica es la teoría que describe la interacción entre la luz (cualquier radiación electromagnética) y la materia (materia representada por los electrones, que son uno de los componentes básicos de la misma). Esta teoría se llama Electrodinámica Cuántica (QED) y fue desarrollada por el físico Richard Feynman y explica cualquier tipo de interacción que pueda ocurrir entre ondas electromagnéticas y electrones de la materia con una precisión de cuatro partes en 100.000 millones. Es la teoría científica más precisa jamás desarrollada, juzgando la misma por un criterio acerca de cuan certeramente la teoría permite predecir los resultados experimentales. Para darnos una idea de qué estamos hablando, es tan precisa como  si calculáramos la distancia entre Madrid y París con un error máximo igual al diámetro de un pelo.

Utilizando el mismo esquema de razonamiento de esta teoría de tanto éxito, se construyó otra similar, intentando explicar lo que ocurre dentro de los protones y neutrones. Esta nueva teoría fue denominada Cromodinámica Cuántica (QCD). Actualmente ambas teorías son las componentes de un modelo estándar que permite explicar la composición básica de la materia, es decir de todo lo que existe.

J.J.Thompson nunca hubiera imaginado el camino que seguiría la ciencia después de su descubrimiento del electrón, aunque en realidad los primeros pasos hacia el desarrollo de la física cuántica no se dieron a partir de las investigaciones sobre el electrón, sino sobre el otro componente de la interacción fundamental desarrollada en la QED: la luz en su acepción corpuscular, los fotones.

Al final del siglo XIX, nadie pensaba que la luz podía comportarse como partículas denominadas fotones. Las observaciones de muchos fenómenos mostraban que la luz se comportaba como una onda, las ecuaciones del electromagnetismo descubiertas por James Clerk Maxwell describían a la luz como una onda. Pero fue Max Planck quien descubrió que ciertas características de la forma en que la luz es emitida y absorbida por un cuerpo sólo se podrían explicar si la radiación producida por el cuerpo emisor ocurriera en paquetes de cierto tamaño fijo, a los que el denominó cuantos de luz.

Su teoría en un primer momento fue considerada como un artificio matemático, pero que en realidad la luz era una onda. Ni siquiera Planck consideraba que la misma tuviera algún significado real. El primero en tener en cuenta esta idea de la luz como partícula fue Einstein: utilizó este concepto para explicar un fenómeno conocido como Efecto Fotoeléctrico, en un artículo escrito en 1905. Pasaron muchos años, incluso con científicos intentando demostrar que este concepto era erróneo (Robert Millikan), para que finalmente fuera aceptado como válido y así Einstein recibió por su trabajo el premio Nobel en 1921.

Durante la misma época otros científicos, liderados por Niels Bohr, aplicaban los conceptos de la física cuántica para entender y desarrollar nuevos modelos de la estructura de los átomos. El modelo así desarrollado permitió explicar ciertos fenómenos que hasta ese momento parecían mágicos, tales como la forma en que los átomos de diferentes elementos producían líneas claras y oscuras en longitudes de onda precisamente definidas según fuera cada elemento utilizado, en los experimentos de espectros de refracción de la luz emitida por estos elementos. Tal vez aquí valga alguna aclaración acerca de este concepto de espectros. Cada elemento químico, por ejemplo el hidrógeno, o el níquel, o la plata, o el carbono, o el cloro, para mencionar algunos y saber que queremos decir al pronunciar la palabra elemento químico, está asociado a un único espectro óptico, el cual se obtiene de la luz emitida cuando dicho elemento es calentado hasta su incandescencia.

No solamente los átomos poseen espectros característicos, sino que las moléculas formadas por diferentes átomos también lo tienen, y también lo tienen los núcleos de los átomos. Este espectro significa que estos objetos (núcleos, átomos, moléculas) cuando reciben energía de alguna forma (calentamiento) emiten (también absorben) radiación electromagnética a ciertas frecuencias definidas que van desde la región de las frecuencias de radio para las moléculas, hasta la región de los rayos X de longitud de onda muy corta o los rayos g para los núcleos. Con estas radiaciones se pueden hacer experimentos de refracción cuyo resultado es lo que se denomina un espectro electromagnético, aquellas bandas o líneas de claridad y oscuridad que mencionábamos. Los espectros ópticos, es decir los que están dentro del rango correspondiente a la radiación visible (la luz) fueron descubiertos en el siglo XIX aunque no tenían una explicación científica, al menos dentro de lo que la física clásica permitía.

 Para clarificar aun mas este fenómeno, se debe tener en cuenta que en el estudio denominado espectroscopia, existen tres experimentos diferentes:

Sólido incandescente; que consiste en calentar un sólido hasta que produce una luz blanca: esta luz contiene todas las frecuencias del espectro visible. Cuando a dicho haz de luz se lo hace pasar por una ranura y luego incidir sobre la parte angosta de un prisma, pueden observarse en una pantalla, al otro lado del prisma, el llamado espectro continuo de colores (el arco iris).

Gas monoatómico (un elemento) caliente; si utilizamos el mismo dispositivo de la ranura y el prisma, pero el haz de luz proviene ahora desde una cámara con un gas a una temperatura tal que emite luz, el espectro que veremos en la pantalla deja de ser continuo. Ahora se verán líneas brillantes con la forma de la ranura sobre la pantalla y cada línea con el color correspondiente al espectro continuo que mencionamos en el caso anterior. Diferentes tipos de gases producen diferentes espectros de líneas. Las propiedades integradoras del ojo humano impiden que veamos las líneas, es así que se percibe los colores fundidos como una sola cosa, por ejemplo vemos rojiza la luz del gas peón incandescente, amarilla la luz del sodio gasificado. A estos espectros de líneas producidos por el calentamiento de gases, de los denomina espectros de emisión.

Gas monoatómico frío ( a temperatura ambiente): combinamos los dos experimentos anteriores. Calentamos el sólido hasta su incandescencia, se hace pasar la luz que este emite por una cámara donde se encuentra alojado un gas frío, el haz de luz que sigue su camino luego de pasar por el gas frío, se  hace pasar por la ranura y el prisma ¿Qué resulta? En la pantalla ahora veremos un espectro de líneas oscuras, ubicadas en las mismas posiciones que estaban las líneas brillantes en el caso anterior. Esto indica que el gas frío esta absorbiendo energía en la misma frecuencia que emite cuando esta caliente. A este espectro se lo denomina de absorción

Actualmente, la explicación a estos fenómenos lo describe la física cuántica, estableciendo que los espectros se interpretan en términos  de niveles de energía de los átomos, moléculas y núcleos. El estudio de los espectros nos lleva a conocer que, asociado con cada sistema compuesto (núcleos = protones + neutrones; átomos = núcleos + electrones; moléculas = átomo + átomo), existe un conjunto de niveles energéticos o estados estacionarios que son una característica del sistema al que nos referimos. Estos niveles se manifiestan de manera muy directa e invariable en los espectros que observamos ¿Qué quiere decir esto? : hasta tanto no se conocía la existencia del electrón, esto era un total misterio. Con la llegada del electrón y el ingenio de Bohr se comenzó a tejer una teoría acerca del modelo atómico que tenía cierta congruencia con los fenómenos observados a partir de la espectroscopia. Así se plantearon los siguientes principios:

a) Los electrones que forman parte de un átomo pueden existir solamente en ciertos estados estacionarios de movimiento interno; estos estados forman un conjunto discreto (no continuo), y cada estado viene caracterizado por un determinado valor de la energía total. Son como los peldaños en una escalera.

b) Cuando un átomo emite o absorbe energía, este fenómeno se manifiesta por la radiación o absorción de  lo que llamamos un fotón u onda electromagnética. Lo que está ocurriendo es que los electrones del átomo saltan de un estado estacionario a otro, pasan de un escalón a otro. Si este salto es desde un nivel superior de energía a un nivel inferior, la diferencia de energía se debe emitir. Esto es lo que ocurre, se emite una partícula de energía llamada fotón que es igual a la diferencia de energía entre los dos niveles. Este fotón, estará dentro del espectro de radiación electromagnética según sea su frecuencia. La relación entre energía y frecuencia está dada por la ecuación de Planck E = h.n, donde h es una constante universal (la constante de Planck que ya mencionamos) y n es la frecuencia del fotón. Según es el valor de n, la radiación será visible o no.

La realidad es que los estados de energía superiores no son totalmente estacionarios ya que de estos los electrones caerían espontáneamente hacia los de menor energía permitida, emitiendo así fotones. Para llegar a estos estados superiores  se debe entregar energía al sistema (átomo, núcleo o molécula) mediante algún mecanismo por ejemplo el calentamiento, descarga eléctrica, que luego perderá en la emisión tal como se describió antes.

Cada raya espectral que vemos corresponderá entonces a una frecuencia determinada que estará relacionada con los estados de energía permitidos según la ecuación de Planck:

E(1)- E(0) = h.n, donde E(1) y E(0) son estados de energía, y h = 6,63x10-34 j.s. La idea extraña que hay detrás de esta explicación desarrollada por Bohr, es que al producirse el salto entre un nivel de energía y otro – entre los escalones de la escalera – los electrones no ocupan ningún nivel intermedio; esto es lo que se denominó un salto cuántico, es decir un electrón primero está en un cierto lugar y luego desaparece y aparece en forma instantánea en otro.

Si bien Bohr consideraba en su desarrollo a los electrones como partículas y a la luz como onda, ya se había aceptado el concepto de Einstein acerca de la existencia de dos teorías de la luz (ondas y partículas) las cuales no estaban conectadas en una forma lógica. Aparece entonces otro científico de renombre: Louis de Broglie, quien sugirió para los electrones un tratamiento similar, es decir estos no son solo partículas sino también ondas y que en realidad lo que viaja está en órbita alrededor del núcleo de un átomo no es una partícula sino una onda  estacionaria, como la de la cuerda de un violín que está fija en sus dos extremos. Esta idea si bien rara, permitía explicar mejor el denominado salto cuántico de los electrones cuando transitaban desde un nivel de energía a otro. Ahora el mismo se podía explicar en términos de vibración de la onda, al cambiar de una armónica a otra. Posteriormente otro científico de renombre Erwin Schrödinger, desarrolló una descripción matemática completa de la conducta de los electrones en los átomos, basado en la idea de onda.

Otras descripciones matemáticas explicando las conductas de los electrones fueron apareciendo de la mano de Heisenberg, Dirac y otros, todas ellas equivalentes pero con visiones diferentes acerca del significado de un mismo mundo cuántico, así fueron emergiendo las diferentes realidades cuánticas. No importaba qué ecuaciones se utilizaran, todas describían los mismos fenómenos dando los mismos resultados. De todas maneras, dado que los científicos estaban mas familiarizados en el trabajo con ecuaciones de ondas (mecánica ondulatoria), fueron las desarrolladas por Schrödinger, basadas en la función de onda del electrón, las que se transformaron en convencionales para desarrollar cálculos en lo que se denominó la mecánica cuántica. Ya a fines de 1920 los físicos contaban con diferentes menús matemáticos para describir el micromundo, todos estos funcionando perfectamente bien con un alto grado de precisión en todas las predicciones acerca de experimentos reales que se realizaban; lo malo era que todos incluían algunos de los conceptos que resultaban extraños para el sentido común, tales como el salto cuántico, la dualidad onda-partícula o el principio de incertidumbre.

Bohr fue el primero que desarrolló una idea acerca de la realidad del mundo cuántico, denominada la interpretación de Copenhague. Esta dice que los electrones o cualquier entidad cuántica no existen en tanto y en cuanto no sean observados, sino que lo que existe es una nube de probabilidades que mide cual es la probabilidad de que la entidad se encuentre en un determinado lugar en un determinado momento. Cuando nos decidimos a observar a dicha entidad cuántica (el electrón por ejemplo), se produce lo que se denomina un “colapso” de la función de onda, en el cual la entidad elige al azar una posición donde ubicarse: esa es la posición que el observador detectará. Una vez que cesa la observación, de nuevo la entidad se disuelve en una nube probabilidades descripta por la función de onda que se esparce desde el último sitio en donde se realizó la observación.

Aquí es necesario volver sobre las ondas. Max Born, otro de los físicos de la época, conectó las ondas cuánticas con los hechos reales en una forma innovadora. Las ondas cuánticas, es decir, aquellas que describen a las entidades cuánticas como los electrones, siguen las mismas reglas que cualquiera de las ondas físicas mencionadas: el agua en la pila, el sonido, las ondas electromagnéticas... Es decir se pueden sumar, superponer, interferir. Habíamos dicho que las ondas se caracterizan por el medio que vibra para producir las ondas que transmiten la energía; así el agua en el caso de las ondas acuáticas, el aire para las ondas sonoras, los campos eléctricos y magnéticos para el caso de las ondas electromagnéticas. En el caso de las ondas cuánticas, que son un tipo de onda especial, son oscilaciones de probabilidades. Las ondas cuánticas, a diferencia de las ondas comunes, no trasladan energía, por eso se las denomina ondas vacías. La amplitud de la onda cuántica elevada al cuadrado, lo que se conoce como la intensidad en el movimiento ondulatorio, es una medida de probabilidad. ¿Probabilidad de qué? De que una entidad cuántica, el electrón por ejemplo, se encuentre en una posición determinada. Recordemos que para las ondas comunes la amplitud al cuadrado daba una medida de la energía que transportaba la onda en cuestión.

Llegando ya al final de esta historia, es importante mencionar que dos monstruos de la ciencia, Einstein y Bohr, mantenían posiciones opuestas; Bohr defendiendo los fundamentos de la cuántica por medio de explicaciones que no encajaban con el sentido común. Einstein, todo lo contrario, diciendo que no podía aceptar la ruptura implícita en todas las explicaciones de la física cuántica. Para él todos los fenómenos de la naturaleza, debían estar basados en lo que se denominaba “realidad local”; ¿cuál es el significado de esta expresión?

Realidad significa que todas las entidades cuánticas son reales incluso cuando no se las observa, y no como se argumentaba que estas entidades cuánticas (el electrón) solo existían como nubes de probabilidades mientras no son observadas, para concretarse en una partícula concreta al observarlas.

Local significa que nada puede transmitirse a una velocidad superior a la de la luz, ni siquiera la información, dado que ésta viajará en ondas electromagnéticas a dicha velocidad. Estos conceptos, que contaban con la aprobación de los científicos defensores del sentido común, no eran aceptados por los cuánticos (Bohr), quienes mantenían que en el mundo cuántico no pueden darse ambos, o bien las entidades son reales y entonces existe transmisión de información a una velocidad superior a la de la luz, o bien si esto no es posible, entonces las entidades cuánticas no son reales y solo existen en el momento en que son observadas.

A pesar de lo extraño de estas ideas, en un experimento llevado a cabo en París en 1982 por el científico Alain Aspect, utilizando como entidades cuánticas fotones, se demostró que las predicciones de la física cuántica eran correctas: el mundo cuántico no puede estar compuesto a la vez de entidades reales y ser local (la luz como velocidad máxima de transmisión). Esto significa que el micromundo no funciona conforme a las reglas del sentido común determinadas por nuestras experiencias cotidianas. Pero como dijo Feynman hace ya mas de treinta años: “nadie entiende los fenómenos cuánticos; pero no nos preocupemos por preguntarnos por qué la naturaleza se comporta así, sino maravillémonos admirando al conocer cómo la naturaleza se comporta”.

El carácter ondulatorio de la materia

Einstein había dado a la luz su condición de partícula a través de su trabajo sobre el efecto fotoeléctrico con el cual fuera premiado con el Nobel, Compton también aporto lo suyo. Pero Einstein, que sin duda era genial, también presentía que la teoría de la luz podría llegar a interpretarse como una fusión entre las teorías ondulatoria y corpuscular. Hasta ese momento nadie prácticamente creía en los fotones. ¿Como creer en la existencia de una partícula de masa cero?, ¿cuál es el significado de algo que no tiene masa?. Louis de Broglie, influido por Einstein, que de alguna manera hablaba de la posibilidad de una dualidad para entender la luz, extrapoló este concepto a la materia diciendo que ésta también tendría un carácter dual, es decir, la materia en ciertas circunstancias tendrá un comportamiento ondulatorio. Esta hipótesis produciría otra gran unificación en el mundo de la física. Lo que de Broglie imaginó fue una onda asociada a las partículas y que las acompaña a través del espacio y el tiempo de manera que siempre sincroniza el proceso interno: a estas ondas el las denominó ondas guía u ondas piloto. Dijo también que estas ondas no eran meras abstracciones sino que están asociadas con el movimiento real de la partícula y que se pueden medir.

Basado en la analogía de los fotones, de Broglie desarrolló un álgebra sencilla para expresar sus ideas:

Partiendo de la ecuación de Einstein              E =mc2=(mc).(c)

 (mc)=p el impulso de un fotón

 c = l.f (la longitud de onda por la frecuencia da la velocidad de la onda)

E=(p).(l.f), como también sabemos que para los fotones E = h.f  (Planck/Einstein),  E = p.l.f  

De Broglie aplicó la misma formula para las partículas materiales, por ejemplo los electrones, diciendo que los mismos tienen una onda asociada de longitud de onda l= h / p, donde p es el impulso del electrón en cuestión. Si quisiéramos calcular la longitud de onda de una onda asociada a una partícula de  10 microgramos, que se mueve a 1 cm/seg, aplicando la fórmula de de Broglie, llegaríamos a un valor de l = 6,6 • 10-22, medida muy pequeña para que pueda ser percibida en el mundo cotidiano. Esta es la razón por la que el comportamiento ondulatorio de la materia no es detectable a nivel macroscópico.

Esta tesis parecía, a ojos de todos los físicos, absurda. Más tarde y en forma experimental la tesis fue corroborada para los electrones en los experimentos de difracción e interferencia de las dos ranuras. Paradójicamente, esta comprobación la hizo G. Thompson, hijo de J.J.Thompson, quien fuera el que demostró la propiedad corpuscular de los electrones.

De Broglie tenia una idea particular respecto al comportamiento ondulatorio de los electrones alrededor del núcleo. La onda asociada al electrón es una onda estacionaria, es decir una onda con sus extremos fijos formando un círculo. Todas las ondas estacionarias formadas y superpuestas, eran: la llamada fundamental y los armónicos de dicha fundamental, apareciendo estos con la presencia de nodos que son aquellos puntos que no se apartan de su condición de reposo. Así dentro del perímetro de la circunferencia orbital del electrón en cuestión para el que asociamos una onda, podrán ubicarse un  numero entero de longitudes de onda, según el concepto anterior de la fundamental y los armónicos. Matemáticamente esto se expresa como:

2p.r=n.l     [1]

donde r es el radio de la circunferencia orbital del electrón, n es un numero entero y l, la longitud de onda de la onda asociada al electrón. En el perímetro de la circunferencia orbital, entran números enteros de longitudes de onda.

Como sabemos que:    l= h / p= h / mv,

reemplazando este valor de l en la ecuación [1], llegamos a:    mv.r=n.(h/2p)  [2]

esta igualdad, si bien no lo habíamos establecido anteriormente, es el primer postulado de Bohr cuando explicaba la existencia de órbitas estables o estados estacionarios del electrón en la composición de la estructura del átomo. Este postulado se había establecido a los efectos de poder explicar por qué un electrón, que es una carga en movimiento, no pierde su energía emitiendo radiación electromagnética como postulaban las ecuaciones de Maxwell. Bohr dijo que el impulso angular L de un electrón no puede tomar cualquier valor arbitrario, sino determinados valores exclusivos según en la orbita que estuviera girando. Existían ciertos estados permitidos para que el electrón se estableciera, caracterizados por valores del impulso angular L=mv.r múltiplos de un impulso angular mínimo correspondiente a la primera orbita, que era igual a h / 2p;

es decir mv.r = n.(h/2p). Ecuación que surge del razonamiento de de Broglie [2].

Lo que había sido un postulado sin demostración (algo que Bohr sacó de su intuición) ahora quedaba matemáticamente demostrado.

Intentemos ahora imaginarnos qué significado tiene la onda asociada a un electrón que se mueve en línea recta. La mejor forma de entender esto es pensar a la partícula como un pequeño cuerpo que se mueve igual que un cuerpo clásico (como una bola de billar), salvo cuando sobre ella actúa alguna fuerza; cuando esto ocurre, se moverá de acuerdo con las ecuaciones resultantes de su carácter ondulatorio. La onda no es una entidad física tangible (en realidad es un  numero complejo matemáticamente hablando, de la forma a+bi), sin embargo controla el movimiento del electrón – la partícula en este caso-, haciendo que éste no se mueva como un cuerpo clásico. La terminología de “ondas guía” u “ondas piloto” es incorrecta, porque las ondas de de Broglie no son ondas que viajan junto con y “guiando” un corpúsculo clásico. La onda de de Broglie y la partícula son la misma cosa , tal vez al principio de la elaboración de este concepto se pensó en entidades diferentes, pero ahora se sabe que esto no es así.

La onda es simplemente una representación matemática de la partícula en el espacio-tiempo, la intensidad de dicha onda, que según la mecánica ondulatoria se calcula como el cuadrado de la amplitud de la onda, mide la probabilidad de encontrar al electrón en una posición determinada, en un momento determinado. Imaginemos un paquete de ondas  de amplitud  A, aproximadamente localizados en una cierta región del espacio en un instante dado. La propiedad de esta onda es que solo será apreciable en cierta región limitada del espacio, pero su amplitud decrece rápidamente tendiendo a cero. Un paquete de ondas de este tipo representa a una partícula que se encuentra aproximadamente confinada en una región finita del espacio. Naturalmente suponemos que donde será más probable encontrar la partícula experimentalmente es en aquellas regiones del espacio en la que la función de onda es grande

El nacimiento de la cuántica como teoría

Entre 1925 y 1926 se publicaron tres trabajos independientes que resultaron ser desarrollos equivalentes de una teoría cuántica completa:

  •  Mecánica matricial de Werner Heisenberg.
  •  Mecánica ondulatoria de Erwin Schrodinger.
  •  Álgebra cuántica de Paul Dirac.

Heisenberg, un físico de 20 años, expresó que su carrera comenzó en un encuentro con Bohr donde éste le dijo que los átomos no eran cosas. Entonces Heisenberg  se preguntaba ¿de qué sirve hablar de trayectorias invisibles para electrones que se desplazan dentro de átomos también invisibles?

Así intentó diseñar una suerte de código que relacionara los números cuánticos de Bohr y los estados de energía de un átomo, con las frecuencias y los brillos de los espectros de luz que se determinaban experimentalmente. Al igual que Planck, Heisenberg consideró al átomo como un oscilador (un resorte) virtual capaz de producir a través de las oscilaciones, todas las frecuencias del espectro. Desechó así la imagen del átomo como un pequeño sistema solar. A partir de un desarrollo de álgebra matricial bastante complejo, Heisenberg desarrolló una teoría cuántica completa, incorporando también su famoso principio de incertidumbre. Como ya mencionamos, este principio establece que para pares de valores denominados conjugados, tales como el momento (m.v) y la posición, las entidades cuánticas (electrón, fotón, átomos) no pueden tener valores determinados precisos de dichas variables conjugadas simultáneamente. Es decir, cuando se puede detectar con precisión la ubicación de un electrón, en ese instante este (electrón) no tiene una velocidad determinada. Esto no es un resultado de deficiencias o errores en las mediciones, sino una característica intrínseca, una imposibilidad propia de las denominadas entidades cuánticas. De su desarrollo matricial, Heisenberg determinó un valor numérico para su principio de incertidumbre, diciendo que la incertidumbre de una variable conjugada, por ejemplo, la posición, multiplicada por la incertidumbre en la otra variable conjugada, el momento, será siempre mayor que una constante: Dx.Dp>h/2p. Físicamente esto lo podemos entender como que a medida que se reduce la incertidumbre en la determinación de la posición (se reduce Dx), el momento de la entidad cuántica será más incierto(aumenta Dp), de manera tal que la desigualdad que expresa el principio de incertidumbre se mantenga.

Paralelamente a los desarrollos de Heisenberg, otro físico, Erwin Schrodinger, prefería basar sus investigaciones a partir de las conclusiones de de Broglie, sobre todo por que la teoría de Heisenberg le resultaba extremadamente compleja, carente de figuras y con muchas complicaciones matemáticas. Así y todo su concepción –tampoco sencilla- fue una ecuación diferencial (cuya solución es una función y no un valor numérico), denominada ecuación de Schrodinger. La solución de esta ecuación resulta ser una onda que describe “mágicamente” los aspectos cuánticos del sistema. La interpretación física de esta onda fue uno de los grandes problemas filosóficos de la mecánica cuántica.

 d2y/dx2 +8p2m/h2.(E-V).y= 0

Donde y es la solución de la ecuación de Schrodinger. Fue Max Born quien finalmente le dio a la función de onda el concepto de probabilidad estableciendo que la intensidad de la función de onda, es decir el cuadrado de la amplitud, mide la probabilidad de encontrar a la entidad cuántica descrita por la onda en una posición determinada del espacio. La onda determina la factibilidad de que el electrón esté en una posición determinada y a diferencia del campo electromagnético, no se corresponde con una realidad física. Este concepto es realmente complejo, dado que establece que una entidad cuántica tal como un electrón existe en una superposición de estados cuánticos, cada uno de ellos con una probabilidad de ocurrencia determinada a través de la función de onda correspondiente. Esta idea de la superposición es la que Schrodinger no aceptaría por parecerle absurda y trató de rebatirla  con su famoso experimento de pensamiento conocido como el gato de Schrodinger.

En 1925 Heisenberg dio una conferencia en Cambridge donde mencionó sus trabajos acerca de la teoría cuántica. Una copia de sus borradores acerca de la mecánica matricial llegó a manos del joven Paul Dirac. Este, a partir de los mismos, desarrolló su propia versión de la teoría cuántica, que resultó ser mas amplia que las versiones de Heisenberg y Schrodinger: en realidad éstas resultaban casos particulares incorporados en el desarrollo de Dirac, conocido como Teoría del Operador o Álgebra Cuántica. Los tres desarrollos considerados como una teoría cuántica completa producían los mismos resultados, por caminos diferentes. Más adelante, Dirac logra incorporar a los conceptos de la teoría cuántica los requerimientos de la teoría especial de la relatividad para así llegar a dar una descripción completa del electrón. En estos trabajos, la solución matemática de sus ecuaciones llevaba a la conclusión de la necesidad de la existencia de una nueva  partícula, de iguales características que el electrón, pero con carga positiva. Fue así como Dirac predijo así la existencia de la antimateria  a pesar de que no tenia claro su significado físico. Finalmente en 1932 Carl Anderson descubre el positrón o anti-electrón confirmando los resultados teóricos de Dirac.

Paul Dirac también trabajó en las reglas estadísticas que describen los comportamientos de grandes números de partículas cuyos valores de spin son valores medios de números enteros (el electrón tiene s=1/2). Investigaciones similares fueron llevadas a cabo en forma independiente por el físico Enrico Fermi, de allí que estas reglas estadísticas que explican el comportamiento de cierto tipo de partículas se denomina estadísticas de Fermi-Dirac, y a las partículas se las denomina genéricamente fermiones, concepto este que se desarrollará mas adelante.

Estos desarrollos teóricos de Heisenberg, Schrodinger y Dirac, si bien proporcionaron una perfecta descripción matemática de los fenómenos atómicos, no iluminaban el cuadro físico. ¿Cuál era el significado de las ondas y las matrices? ¿Cómo están estas relacionadas con nuestras nociones de sentido común acerca de la materia y el mundo en el cual vivimos? Heisenberg nos proporciona ciertas respuestas. En un trabajo publicado en 1927, comienza su argumentación haciendo referencia a la teoría de la relatividad de Einstein, la cual cuando fue publicada, era considerada como contradictoria para el sentido común por muchos físicos. Luego, en un dialogo imaginario con Kant, Heisenberg continua diciendo: "¿qué es el sentido común?, sentido común para Kant es la manera en que las cosas tienen que ser. Pero entonces ¿qué significa esta manera de ser de las cosas?, sencillamente, como siempre fueron".

Einstein fue probablemente el primero en darse cuenta de la importancia de saber que las nociones básicas y las leyes de la naturaleza, a pesar de estar bien establecidas, eran válidas solo dentro de los límites de la observación, y que no necesariamente seguirían siendo válidas fuera de estos límites. Para las personas de la antigüedad, la tierra era plana, pero no para Magallanes o para los astronautas. Las nociones físicas básicas de espacio, tiempo y movimiento, estaban bien establecidas y sujetas al sentido común hasta que la ciencia avanzó mas allá de los confines en los que trabajaron los científicos del pasado. Entonces surgió una contradicción drástica que forzó a Einstein a abandonar las ideas del “viejo sentido común” respecto al tiempo, la medida de las distancias y la mecánica y dirigirse hacia la creación de la teoría de la relatividad fuera del “sentido común”. Resultó entonces que para muy altas velocidades, distancias muy grandes y largos periodos de tiempo, las cosas no eran lo que “deberían ser” porque “siempre habían sido así”.

Heisenberg dice que la misma situación es la que existe en el campo de la teoría cuántica: procedió a averiguar que era lo que fallaba con la mecánica clásica de las partículas materiales cuando la introducimos en el campo de los fenómenos atómicos. Así como Einstein comenzó el análisis critico del fracaso de la física clásica en el campo relativista, Heisenberg hizo lo propio con la mecánica clásica atacando la noción básica de la trayectoria de un cuerpo en movimiento. Durante tiempos inmemoriales, la trayectoria había sido definida como el camino a lo largo del cual un cuerpo se mueve a través del espacio. En el caso limite, el cuerpo era un punto matemático sin dimensión de acuerdo a la definición Euclidiana, mientras que el camino o trayectoria era una línea matemática , también sin dimensión. Nadie dudaba que esta era la mejor descripción de movimiento y que mediante la reducción de los errores experimentales de medición de las coordenadas y la velocidad de la partícula que se mueve, podríamos llegar a una descripción exacta del movimiento. Heisenberg dijo que esto solo es cierto en un mundo donde gobiernan las leyes de la física clásica, pero no en un mundo cuántico.

Es por esta razón que en el mundo cuántico es necesario desarrollar otro método para describir el movimiento de las partículas diferente a la trayectoria que utilizamos en la física clásica. Aquí es donde la función de onda y viene en nuestra ayuda. Esta función de onda no representa una realidad física y no es mas material que las trayectorias lineales de la mecánica clásica. La función de onda puede ser descrita como una línea matemática ampliada. Ella guía el movimiento de las partículas en mecánica cuántica, en el mismo sentido que las trayectorias lineales guían el movimiento de las partículas en la mecánica clásica. Así como no consideramos que las orbitas de los planetas son como rieles que obligan a los mismos a seguir trayectorias elípticas, no debemos considerar a las funciones de ondas como un campo de fuerza que influencia el movimiento de los electrones. La función de onda de de Broglie-Schrodinger o mejor dicho el cuadrado de su valor absoluto, solo determina la probabilidad de que la partícula sea encontrada en uno u otro lugar del espacio y que se moverá con una u otra velocidad.

Física clásica contra Física cuántica

Durante mas de 200 años, desde los días de Newton hasta el final de del siglo XIX, los físicos habían construido una visión del mundo increíblemente elaborada y básicamente mecánica. El universo entero se suponía que trabajaba como un gigantesco reloj, en cuyo interior se podía conocer y predecir hasta el mas mínimo detalle de funcionamiento. Por medio de las leyes de la gravedad, del calor, de la luz y el magnetismo, de los gases, los fluidos y los sólidos, cada aspecto del mundo material podía ser en principio parte de un vasto mecanismo lógico. Cada causa física generaba algún efecto predecible, cada efecto observado podía ser rastreado a una única y precisa causa. La tarea de los físicos era justamente rastrear esas articulaciones entre causa y efecto, de manera de poder hacer que el pasado fuera entendible y el futuro predecible; la acumulación del conocimiento teórico-experimental se tomaba sin discusión para brindar una visión coherente del universo  aun con un enfoque más agudo y preciso. Cada nueva pieza de conocimiento agregaba otro engranaje al reloj del universo. Esta era la situación a final del siglo XIX, los físicos clásicos aspiraban a explicar con una claridad cada vez mas precisa hasta el ultimo confín de este universo mecánico.

A pesar de todo había algunas nubes oscuras que aun no podían explicarse desde la visión clásica, y sobre todo cuando se quiso extrapolar los conceptos clásicos al interior del átomo, allí el fracaso fue total.  Dentro de la física clásica, estamos acostumbrados a pensar acerca de las propiedades físicas de las cosas como algo intrínseco de ellas y con valores definidos, a los cuales tratamos de medir. Pero en esta nueva rama de la física, nos encontramos con que es el proceso de medición utilizado el que  dará un valor determinado para una cantidad física. Para ponerlo en una forma mas clara: en física clásica, convencionalmente pensamos a un  sistema físico como poseedor de ciertas propiedades y así, imaginamos y llevamos a cabo experimentos que nos proveen información acerca de ese sistema pre-existente. En física cuántica, solo la conjunción de un sistema con un mecanismo de medición especifico nos dará un resultado definido, y dado que diferentes mecanismos de medición producirán resultados que tomados en conjunto son incompatibles con la pre-existencia de algunos estados definidos, no podemos definir o establecer ninguna clase de realidad física a menos que describamos no solamente el sistema físico bajo estudio, sino también y con igual importancia, el tipo de medición que intentamos realizar. Esto es lo que vimos cuando decíamos que la luz se comporta como onda y como partícula según que tipo de medición hagamos. Esta conclusión o diferencia entre la física clásica y la cuántica, es realmente difícil de aceptar y comprender.

Durante siglos nuestro conocimiento adquirido se fundamentaba en la premisa básica que nos habla de la existencia de una realidad externa objetiva y definida, independientemente de cuan poco o mucho conozcamos de ella. Es difícil encontrar el lenguaje o los conceptos para manejar una idea de realidad que solo llega a materializarse en algo real (valga la redundancia) cuando es medida, es decir cuando es observada. La luz es una partícula cuando colocamos detectores para medir la llegada de partículas, de lo contrario, la luz sufre interferencias, refracción y difracción como su comportamiento ondulatorio así lo determina.

Notemos otra diferencia crucial entre ambas físicas, el principio de incertidumbre, que solo existe en la cuántica. Este principio dice que no podemos conocer simultáneamente  dos variables complementarias como la velocidad y la posición de una partícula. Para los clásicos, si medimos una propiedad intrínseca de una partícula, una vez realizada dicha medición, sabremos con exactitud  el estado de dicha partícula y podríamos predecir el resultado de cualquier medición futura. Para los cuánticos, el acto de medición es un evento donde interactúan el que mide/observador y lo que es medido/observado para conjuntamente producir un resultado. El proceso de medición no significa determinar el valor de una propiedad física pre-existente. El principio de incertidumbre esta íntimamente ligado a la naturaleza probabilística de las mediciones cuánticas, esto significa que la mecánica cuántica predice acerca de la probabilidad de obtener tal o cual resultado, pero nunca puede con certeza decir en un caso individual que es lo que va a ocurrir.

Avancemos un poco más en este tema de los comportamientos probabilísticos. Si arrojamos una moneda al aire diremos que las probabilidades de obtener cara o cruz serán de un 50 %. Si tuviéramos un mecanismo perfecto de observación, podríamos predecir cada vez que arrojamos las moneda cual será el resultado ( si cara o cruz).

Podemos decir entonces que el concepto de probabilidad aquí esta cubriendo nuestra ignorancia en la medición por no contar con un mecanismo perfecto. En física cuántica el concepto probabilístico es diferente. La probabilidad no cubre falta de información sino que es una característica intrínseca de la naturaleza. Veremos más adelante cuando hablemos de Electrodinámica Cuántica (QED), que un fotón dentro de un haz de luz tiene cierta probabilidad de pasar el vidrio o de reflejarse en él, sin ninguna explicación racional de por qué algunos pasan y otros se reflejan, cuando todos provienen de la misma fuente y forman parte del mismo haz en las mismas condiciones. Einstein nunca lo aceptó: la Naturaleza se comporta de esta forma a nivel microscópico, sin que la importe si podemos entenderlo o no.

Realidad Local y no local

La mayoría de los físicos en la actualidad, utilizan los conceptos de la teoría cuántica, como una receta, sin importarles mayormente cual es la “realidad” física que esta representa. Sin embargo es difícil aceptar esta posición, dado que si esta teoría es tan exacta en sus predicciones, tiene que tener una base muy firme en el comportamiento real de la naturaleza. Por este motivo es que la disputa entre dos hombres como Bohr y Einstein acerca del significado de esta teoría es de suma importancia. Su discusión se basaba fundamentalmente en los conceptos de realidad local y no-local.

 

Imaginemos el siguiente experimento: supongamos que tenemos dos cajas y en cada una de ellas colocamos un guante del mismo par, en una el derecho y en otra el izquierdo. Supongamos ahora que le entregamos las cajas a dos individuos, Pepe y Juan, que viajan en avión a las antípodas uno del otro, sin que ninguno sepa qué guante tiene su caja. Se le instruye también a uno de ellos, Pepe, que si al llegar a su primer destino y abrir la caja encuentra un guante derecho se dirija a la ciudad A, y si por el contrario contiene un guante izquierdo se dirija a B. Esta instrucción es también conocida por el otro viajero, Juan. Una vez que llegan a su destino, Pepe abre su caja y sigue las instrucciones. Inmediatamente después Juan abre la caja e instantáneamente sabe hacia dónde esta viajando Pepe. ¿Cómo es que lo sabe? ¿quién le proporcionó esta información? Al ver un guante, supo en el acto que en la caja de Pepe estaba el opuesto y por lo tanto hacia donde debía viajar. Nada hay de extraño en esta situación pues lo que Juan hizo fue deducir a partir de la información que ya tenía. No hubo ninguna transferencia de información entre el y Pepe.

 

Cambiemos un poco la historia. Supongamos que los guantes son mágicos. Estos si bien se presentaran como miembros de un par, derecho e izquierdo, cuando sean observados, mientras están encerrados en las cajas, no tendrán una forma determinada. Solo cuando la caja se abre y alguien mira serán forzados a tomar la naturaleza de guante derecho o izquierdo, con una probabilidad de que esto ocurra del 50 % para cada forma.  La naturaleza mágica de estos guantes impide también que podamos observar su estado indeterminado, dado que al mirarlos, adoptan una forma. Si esto fuera así, cuando Juan abre la caja (antes que Pepe) y ve un guante derecho, sabe que en ese mismo momento el guante de Pepe adoptó la forma de izquierdo, dado que ambos son miembros del mismo par. Paralelamente, Juan no puede determinar si es que él fue el primero en abrir la caja o no. Siendo así, dado el carácter recíproco de conexión, podría haber ocurrido que Pepe abrió primero su caja y su guante se materializo izquierdo, dando así la forma al guante de Juan. Si bien esto es posible ni Juan ni Pepe pueden decir que ocurrió primero sin comunicarse entre ellos a una velocidad que no supera la velocidad de la luz.

¿Qué tiene que ver esta historia? Los guantes no tienen esta característica, pero las entidades cuánticas como los electrones, los fotones y otras particulas elementales, sí las tienen. Estas partículas tienen ciertas propiedades que se mantienen en un estado indeterminado sin manifestarse hasta tanto sean forzadas a manifestarse debido a una medición /observación que se realiza sobre ellas. No se puede saber de antemano con seguridad cual será el resultado de dicha medición. La mecánica cuántica solo predice las probabilidades de ocurrencia de determinados resultados. Antes de la existencia de la cuántica, se daba por garantizado que cuando un científico observaba y media algo, lo que estaba haciendo era ganar conocimiento acerca de un estado pre-existente y determinado; esto es que los guantes son o derechos o  izquierdos independientemente de que los observemos o no, y cuando los observamos, y conocemos su forma, lo que estamos haciendo es tomando nota de un dato independiente acerca del mundo. La mecánica cuántica sin embargo dice otra cosa. Algunas cosas no están determinadas salvo cuando son observadas/medidas, y solamente en ese momento es cuando toman un valor definido y concreto.

Esta historia de los guantes, aunque planteada con un par de entidades cuánticas correlacionadas, sea un par de electrones para medir su spin, o un par de fotones para medir sus polarizaciones, fue planteada por Einstein, Podolsky y Rosen en la denominada Paradoja EPR, donde Einstein discutía con Bohr la irracionalidad de lo que los cuánticos afirmaban. Para Einstein no podía existir este mecanismo de transferencia instantánea de información (el guante de Pepe adopta su forma cuando Juan abre la caja de su guante a pesar de estar en las antípoda uno de otro) dado que esto significaría que la información viaja a mayor velocidad que la de la luz. Tampoco aceptaba la posibilidad de que una acción a distancia sin ningún mecanismo de mediación.

Y aquí podemos introducir el concepto de realidad local. Einstein y el sentido común, es decir a lo que estamos acostumbrados, defienden el concepto de realidad local:

Realidad significa que las cosas tienen características intrínsecas propias, las cuales no dependen de que sean observadas/medidas; es decir los guantes en nuestro ejemplo, son derecho e izquierdo por más que estén en cajas cerradas.

Local significa que ninguna transferencia de información entre dos puntos puede hacerse a una velocidad superior a la de la luz. Este concepto también se conoce como la no acción a distancia, la no existencia de conexiones ocultas entre las cosas, las entidades cuánticas en nuestro caso (fotones, electrones o partículas subatómicas).

Ahora bien experimentos realizados (Aspect, Bell) con entidades cuánticas (fotones) demostraron que el concepto de realidad local no es válido para dichas partículas, o sea, o no son reales, no tienen ninguna característica intrínseca hasta tanto se las observe (esto afirmaba Bohr), o entre ellas existe transferencia de información a una velocidad superior a la de la luz, violando los postulados de la teoría de la relatividad, o tienen algún tipo de conexión entre ellas desconocida, que les permite interactuar en forma instantánea. La aceptación de la no realidad o mejor dicho de que ciertas entidades se mantienen en un estado indeterminado, está vinculado con el asociar a dichas entidades una función de onda (Schrödinger) que indica cuál es la probabilidad de que dicha entidad cuando sea observada adopte una característica concreta. Para los guantes mágicos, la función de onda diría 50 % que sea guante derecho y 50% que sea guante izquierdo. Al abrir la caja- lo que significa observar o realizar una medición- se dice que la función de onda colapsa dando una de las características posibles en forma concreta. La función de onda de los guantes mágicos colapsa por ejemplo, en el guante derecho.

Estos conceptos de colapso de la función de onda son propios de la mecánica cuántica y de la interpretación que hace de la misma Bohr, denominada interpretación de Copenhague: La realidad es indeterminada, la velocidad máxima de transmisión de información es la de la luz. Fíjense que decimos interpretación, porque también podríamos interpretar que la realidad existe objetivamente pero que la información se transmite entre estas partículas o entidades correlacionadas a una velocidad superior a la de la luz. O bien que existe alguna conexión misteriosa entre ambas partículas.

En resumen, lo que la teoría cuántica parece mostrar es que el concepto de realidad local es erróneo para el mundo cuántico, contra lo que Einstein discutió hasta su muerte con Bohr, diciendo que esta situación solo se debía a la existencia de las denominadas variables desconocidas.

El teorema o la Inecuación de Bell, es una demostración de que Einstein estaba equivocado y que por extraño que resulte, algo debe abandonarse, o el concepto de realidad objetiva o el de la velocidad de la luz como limite superior a cualquier transferencia de información.   

 

Lo que miro es lo que mido. La influencia del observador

Si afirmamos que la mecánica cuántica establece que el acto de medir no brinda información acerca de un estado pre-existente de la variable medida, sino que por el contrario, fuerza a un sistema indeterminado a tomar una apariencia definitiva, entonces debe haber razones empíricas para que esta afirmación sea valedera. Aun en el campo de la física teórica, no se podría lanzar una idea tan extraña y  contraria a la intuición y sentido común, si no hubiera algo muy fuerte que la demostrara.

Una de estas primeras demostraciones y tal vez la más sencilla de comprender, fue llevada a cabo en Alemania en 1921 por Otto Stern y Walter Gerlach. Para el propósito de esta explicación, imaginemos a los átomos como pequeños imanes en forma de barritas. Lo que S&G hicieron fue enviar un chorro de átomos a través de un campo magnético, para luego registrar en qué dirección estos átomos salían de dicho campo. Si dicho campo magnético fuera uniforme, es decir con la misma intensidad en toda la región por donde pasan los átomos, a estos nada les ocurriría, dado que la fuerza magnética de atracción ejercida por el campo sobre un polo del imancito se equilibraría con la de repulsión ejercida sobre el otro polo. Por eso S&G regularon la intensidad de su campo magnético, digamos que desde arriba hacia abajo. De esta manera, según como entran los imancitos al campo magnético, la fuerza hacia arriba será la de mayor intensidad; entonces algunos átomos (imancitos) saldrán hacia arriba, otros hacia abajo, y aquellos que entraron verticalmente no serán afectados. Para conocer como salen ,se coloca una pantalla de TV o una placa fotográfica para detectar dónde los átomos impactan. Cuando realizamos este experimento vemos que lo pronosticado no ocurre. Lo que se observa es que los átomos son desviados en dos direcciones, de igual magnitud respecto del centro del campo magnético. Es como si los átomos fueran forzados a alinearse en paralelo o en antiparalelo con el campo magnético.

Además si el campo magnético se rota 90º de manera que ahora sus líneas de fuerza sean horizontales en lugar de verticales, los átomos se marcarán en la pantalla en dos posiciones a la izquierda y a la derecha de la línea central del campo. Lo que S&G descubrieron fue que no importa cómo estaban alineados los átomos a la entrada: a la salida siempre adoptaban dos posiciones equidistantes a ambos lados de la línea central del campo. Este resultado, que no puede explicarse con los conceptos clásicos, se explica en física cuántica de la siguiente manera: al pasar un átomo por este mecanismo ideado por S&G, lo que estamos haciendo es medir el alineamiento magnético de los átomos con el campo; hasta ese momento de la medición o paso a través del campo, no tiene sentido hablar del alineamiento o hacia dónde apunta el campo magnético de nuestro imancito (átomo) porque no existe. Los clásicos dicen que los átomos en este experimento tienen una alineación o dirección determinada de su campo magnético aunque es desconocida, y que estas orientaciones de todos los átomos se distribuyen al azar, algunos hacia arriba, otros hacia abajo, otros intermedios, etc y que entre todas estas orientaciones de la alineación de los átomos, encontramos la totalidad posible de alineamiento o dirección magnética, que es la propiedad que estamos midiendo.

Por eso nos resulta inexplicable ver que los átomos al salir después de traspasar un campo magnético, no tengan todos orientaciones diferentes. Lo que los cuánticos afirman es que las orientaciones magnéticas de los átomos no son desconocidas y azarosas, sino que son indeterminadas, es más, no existen hasta tanto se realice una medición de las mismas. Aun mas, algunos dicen que el termino orientación magnética no tiene sentido hasta tanto no realicemos la medición. Así debemos definir la orientación magnética no como una propiedad del átomo indeterminada o desconocida, sino que es el resultado que obtenemos cuando realizamos una medición que , valga la redundancia, intenta medir la orientación magnética del átomo. Si bien esto resulta como un circulo vicioso o una tautología, en mecánica cuántica una medición significa solamente el resultado del acto de medir.

Este es el corazón del asunto. En física clásica estamos acostumbrados a pensar que las propiedades físicas tienen valores definidos, los cuales intentamos conocer a través del proceso de medición. Mientras que en física cuántica, solo el proceso de medición puede rendir un resultado o número definido para una cantidad física, y la naturaleza de la medición cuántica es tal que no es posible pensar que una propiedad física definida, tal como la orientación magnética de los átomos, pueda tener una realidad definitiva y comprobable antes de realizar el proceso de medición correspondiente.

Para exponerlo de otra forma, en física clásica pensamos en forma convencional que los sistemas físicos tienen ciertas propiedades, y así imaginamos y llevamos a cabo experimentos que nos brindan información acerca de dicho sistema físico pre-existente. Pero en física cuántica, es solo la conjunción de dos cosas de igual importancia: un sistema físico, y un mecanismo de medición, lo que nos brindara un resultado definitivo. Debido a que diferentes mediciones brindan resultados que son incompatibles con la existencia de un estado o características del sistema que sean pre-existentes, no podemos entonces definir ninguna clase de realidad física a menos que describamos el sistema físico que estamos investigando (átomos en este caso) y el tipo de medición que estamos llevando a cabo sobre dicho sistema. Esta conclusión es realmente asombrosa, dado que nuestro intelecto ha sido educado a basarse en la premisa de la existencia de una realidad externa, objetiva y definitiva, sin importar cuanto o cuan poco conociéramos de ella. Es difícil entender el concepto de que la realidad de algo solo llega a ser real cuandose materializa en el acto de medir/observar: hasta que eso no ocurre no existe esa realidad. Cuando miro, lo que veo es lo que mido. Mas adelante veremos que esta es una de las interpretaciones de la realidad cuántica, y que tiene mucho peso dado que estos conceptos fueron defendidos por algunos de los mas notables personajes de esta nueva rama de la ciencia, tales como Bohr, Heisenberg y Born.   

El gato de Schrödinger

Cuando Schrodinger estableció su función de onda para las entidades cuánticas, esperaba dar una explicación mas racional o con mayor sentido común a la teoría cuántica. En particular no aceptaba lo que se mencionaba como superposición de estados, donde se decía que en realidad las entidades cuánticas solo existían en una superposición de estados con una probabilidad de ocurrencia para cada uno y que solamente se materializaban en algo real cuando se realizaba –por medio de un observador inteligente- una observación de la entidad cuántica; en ese preciso momento y no antes, se afirmaba que la función de onda colapsaba en un valor determinado, el cual tenia una cierta probabilidad de ocurrencia. Esta probabilidad podía calcularse a partir de la propia función de onda.

Imaginemos, dijo Schrodinger, un sistema que tiene solo dos eventos posibles, ambos con la misma probabilidad (50%) de ocurrencia. Por ejemplo el decaimiento de un núcleo radioactivo. ¿Qué es esto?. Cuando un núcleo radioactivo decae, se liberan partículas u ondas electromagnéticas , pasando o transmutándose a otro elemento diferente. Es decir, el elemento cuyo núcleo radioactivo decae, cambia su naturaleza debido al cambio en su estructura atómica (en el núcleo). Las partículas u ondas electromagnéticas pueden fácilmente detectarse, es decir se sabe cuando se produjo el llamado decaimiento por la aparición o detección de dichas partículas u ondas.

El razonamiento con el cual Schrodinger no estaba de acuerdo era el que decía que en realidad dicho núcleo se encuentra en los dos estados posibles, la mitad que decayó y la mitad que no, hasta tanto alguien mida si el núcleo decayó o no. Esta sustancia radioactiva podría encerrarse en una cámara hermética y sin ventanas (una caja) con un detector que permite observar si el núcleo decae o no. Este monitor a su vez se encuentra conectado a un recipiente que contiene gas venenoso y que se abrirá cuando se detecte la presencia del decaimiento del núcleo radioactivo. En dicha cámara hermética con todos esos mecanismos de detección y conexión con el recipiente que contiene el gas venenoso, vive el famoso gato de Schrodinger. Mientras nadie mire en la cámara, Schrodinger dice que de acuerdo a la interpretación que daban acerca de los estados superpuestos, el núcleo decayó y no decayó, con una probabilidad del 50% para cada uno de los estados, y por ende el gas venenoso salió y no salió, y finalmente el gato murió y no murió, es decir, está en un cierto limbo coexistiendo el gato vivo y el gato muerto hasta que alguien abra la cámara.

Lo que a Schrodinger le resultaba absurdo es la proposición de Bohr diciendo que la función de onda no colapsa en un estado determinado hasta tanto un observador inteligente hiciera una medición u observara lo que pasa. Por eso ideó esta historia preguntándose si el gato es o no es un observador inteligente, porque entonces es necesario mantener la afirmación que el gato es mitad muerto y mitad vivo hasta que alguien abra la cámara, cosa que suena realmente descabellada. Esto es aun mas descabellado cuando se agrega a un observador que a su vez esta solo o no es observado. Entonces al mirar el experimento del gato, ¿provocará el colapso de la función de onda o debe aparecer otro observador? ¿dónde termina todo? ¿ donde ponemos el limite entre estados superpuestos y realidad concreta?.   

Los ladrillos que componen la materia, los ladrillos de los ladrillos

En la época de Aristóteles, los científicos consideraban que los cuatro elementos constituyentes de la materia eran: agua, tierra, aire y fuego. Durante esa misma época, se decía también que todas las cosas estaban constituidas por unidades indivisibles denominadas átomos. Con el correr del tiempo y de las investigaciones, se llegó a saber mas acerca de los diferentes elementos, de los átomos y de cómo estos estaban compuestos. Hoy en día, la física tiene un modelo estándar de las partículas fundamentales y de la interacción entre ellas. Suponíamos que los electrones, protones y neutrones eran estos mínimos componentes, pero se ha avanzado un paso más. La situación actual es la siguiente:

1.     Existe materia y antimateria (Dirac-Anderson), es decir para cada partícula existe una equivalente con propiedades opuestas en la región de la antimateria. Si una partícula se encuentra con su antipartícula, se produce la desaparición de ambas, transformándose sus masas en reposo en energía según la ecuación de Einstein E = mc2. Nuestro universo visible está compuesto casi totalmente por materia.

2.     Clasificamos a las partículas (todas tienen sus correspondientes antipartículas) en dos grandes grupos:

a)    Fermiones:  

a su vez clasificados en:

·     Quarks: son seis a saber: up(U), down (D), charm (C), strange (S), top (T), bottom (B). Tienen carga eléctrica fraccionaria. En 1964 Gell-Mann denominó a los tripletes que componían lo que hasta ese momento eran partículas elementales del núcleo atómico, como “quarks” palabra sacada de un pasaje de la obra Finnegan’s Wake de James Joyce:

“ Three quarks for Muster Mark!...”

·     Leptones: son seis a saber: electrón (e), neutrino del electrón (ne), muon (m), neutrino del muon (nm), tauon (t), y neutrino de tau (nt). Tienen carga eléctrica nula o dada por un numero entero.

b)    Bosones:

Que de acuerdo a nuestro sentido común, diríamos que no son partículas (algo que tiene masa), sino que son entes, que ahora reconocemos que pueden comportarse como partículas y están asociados con la transmisión de las fuerzas de interacción entre los fermiones, son los portadores de las fuerzas. Existen bosones para cada una de las fuerzas existentes en la naturaleza, y ellos son:

·     Fotón: que transmite la fuerza electromagnética la cual es la interacción entre partículas cargadas (recordemos QED).

·     Gluon: que transmite la fuerza nuclear fuerte , cromodinámica, la cual es la interacción entre partículas con carga de color (recordemos  QCD)

·     Bosones W y Z: que transmiten la fuerza débil que aun no hemos descrito pero que está relacionada con la desintegración y emisión de partículas desde núcleos de átomos.

·     Gravitón: que transmite la fuerza de gravedad que tampoco se ha aislado u observado sino a través de sus efectos. Es un concepto similar al de campo gravitacional.

¿Dónde están los protones y los neutrones?  La realidad es que estas partículas componentes del núcleo en los átomos y por muchos años consideradas como elementales, no son elementales ya que están compuestas por otras. Por eso hablamos acerca de los ladrillos de los ladrillos. Los quarks no pueden existir en forma aislada sino que se mantienen unidos según las reglas dadas por la QCD.

De los quarks surgen por combinación los Hadrones según la siguiente regla:

·        Mesón: esta formado por un par quark-antiquark (color+anti-color).

·        Barión: esta formado por tres quarks o tres anti-quarks. Los bariones más conocidos son los    protones y los neutrones

Todas las partículas estables de la naturaleza están compuestas por quarks up y down y por el electrón y el neutrino del electrón. Los otros quarks forman partículas que  tienen ciclos de vida mucho mas cortos que los del protón y el neutron, a pesar de que dicho ciclo es lo suficientemente largo como para que puedan ser detectadas mediante equipos especiales. Lo que se denomina el gusto o sabor de los quarks (flavor) que es una manera de diferenciarlos, está determinado por su carga, su masa y la presencia o ausencia de ciertas propiedades que si bien no están completamente entendidas, se las ha identificado con los siguientes nombres:

extrañeza, encanto, belleza, verdad y color (QCD).

Variables no conocidas

La lucha por parte de Einstein de mantener una idea de realidad objetiva, llevó a él y alguno de sus discípulos, como David Bohm, a explicar lo inexplicable de la física cuántica: la existencia de variables desconocidas que agregarían conocimiento para poder dar una explicación lógica a los comportamientos y resultados de los experimentos cuánticos. Si se conocieran estas variables escondidas, los físicos podrían dar resultados precisos y no probabilísticos como hasta ahora. En realidad esta interpretación de la cuántica a través de las variables ocultas, está mucho mas de acuerdo con nuestro sentido común que todas las otras interpretaciones que se desarrollaron con mayor extensión. Siendo así ¿por qué no se desarrolló mas esta idea para explicar la cuántica, en lugar de utilizar otras explicaciones tan contrarias al sentido común? Esto se debe a que durante mucho tiempo se demostraba matemáticamente que esta explicación no era correcta dentro del mundo cuántico (von Neumann). Cuando Bohm retoma esta explicación, su fundamento principal era que el mundo es no-local, esto significa que lo que ocurre en un lugar del universo a una partícula afecta instantáneamente al resto de las partículas del universo. Es decir todo forma parte de un único sistema interconectado.

La hipótesis de Bohm era entonces que las variables ocultas eran las que explicaban las misteriosas conexiones que se detectaban entre las partículas subatómicas. Para Bohm lo que percibimos como partículas separadas, en un sistema subatómico, no lo están, sino que  en un nivel mas profundo de la realidad son meramente extensiones del mismo algo fundamental. El nivel de la realidad en que las partículas parecen estar separadas, es decir el nivel en el cual  vivimos, Bohm lo denominó el nivel explicado o explicitado. El sustrato mas profundo de la realidad, aquel en el que la separación desaparece y todas las cosas parecen convertirse en parte de una totalidad sin discontinuidades, Bohm lo llamo el orden implicado. Para ilustrar como un nivel de totalidad continua puede aclarar esas correlaciones sin apelar a transmisiones de señales mas veloces que la luz, Bohm ofreció el siguiente ejemplo. Imaginemos una pecera donde nada un pez. El mismo es filmado por dos cámaras de TV una enfocada hacia el frente y la otra hacia el costado de la pecera. Cada una de estas, esta conectada a un televisor. Imaginemos también que nosotros no vemos las cámaras dado que están detrás de unas mamparas, y solo tenemos conocimiento de la pecera por lo que vemos proyectado en los dos televisores. Es así que podemos suponer que estamos mirando dos peces diferentes, y que cuando uno de ellos realiza un movimiento el otro también realiza otro movimiento. Si el pez A esta de frente, el pez B estará de costado, y si de repente el pez A se pone de costado, el pez B se pondrá de frente. Si seguimos suponiendo que son dos peces diferentes, podríamos deducir que entre ambos existe una correlación que se manifiesta en forma instantánea, o también que uno, mediante algún mecanismo oculto, le informa al otro instantáneamente cuando realizara un cambio de posición. Esto, conociendo como está establecido el experimento, sabemos que no es correcto, no hay tal transmisión de información, ni un grado de correlación perfecta; ocurre que a un nivel profundo y desconocido para nosotros (detrás de las mamparas), ambos peces son la misma cosa, es decir están interconectados como parte de un todo.

Esto que dice Bohm es aproximadamente análogo a lo que nos ocurre cuando medimos las correlaciones de dos partículas subatómicas separadas entre sí por una distancia tal que solo transmitiendo la información a una velocidad superior a la de la luz, o mediante alguna conexión misteriosa entre ambas, podrían darse los resultados de los experimentos tal como se dan. Las dos pantallas corresponden al mundo tal como lo conocemos, es el orden explicado. La pecera donde esta el pez tal como es, es el orden implicado. Las imágenes que ofrecen las pantallas de TV son proyecciones bidimensionales de una realidad tridimensional. Según Bohm, nuestro mundo tridimensional es la proyección de una realidad multidimensional aun mas alta.   

Inecuación de Bell y la paradoja de EPR

Einstein junto con otros dos científicos (Podolsky y Rosen) idearon un llamado experimento de pensamiento, conocido como la paradoja de EPR, para explicar la imposibilidad de las acciones a distancia o también para demostrar que el concepto de realidad local era correcto incluso dentro del mundo cuántico. Este experimento se logró desarrollar experimentalmente en Paris en 1980 por el científico Alain Aspect, y a través de ciertos cálculos llevados a cabo por John Bell, se llegó a la conclusión, contra lo que el sentido común indica, que a nivel cuántico la realidad es no local, esto es que existen conexiones misteriosas entre las partículas, o bien que entre ellas intercambian información a velocidades superiores a la de la luz. Estos tres puntos, la Paradoja EPR, el experimento de Aspect y la inecuación de Bell es lo que se desarrolla a continuación.

En el experimento de Aspect se mide una propiedad con la que cuentan los fotones de luz, denominada polarización. La polarización, para cada fotón, se la representa, y así debemos imaginarla, como una pequeña flecha que, saliendo del fotón, apunta en una dirección determinada (arriba, abajo, o en diagonal). La polarización de dos fotones emitidos desde el mismo átomo esta correlacionada en sentido cuántico, de manera tal que si por ejemplo en uno apunta hacia arriba, en el otro apuntara en diagonal, pero no hay nada que nos permita decir que fotón tendrá  polarización en uno u otro sentido. Cuando dos fotones son emitidos desde un átomo, existen como el gato de Schrodinger en estados superpuestos hasta que alguien mida la polarización de alguno de ellos. En ese momento, la función de onda del fotón medido colapsa en uno de los estados de polarización posible; digamos para nuestro caso hacia arriba. En dicho momento, la función de onda del otro fotón también colapsa en el otro estado de polarización, en diagonal. Nadie ha mirado a este segundo fotón, y en realidad en el momento que se realiza la medición sobre el primero, podría ser que ambos fotones estén en los extremos opuestos del universo,  así cuando la función de onda de uno colapsa, la del otro hace lo mismo en el mismo momento; esto es lo que se denomina acción a distancia y contra la cual Einstein se oponía. Es como si las dos entidades cuánticas, los fotones, permanecieran en un estado de conexión misteriosa, para siempre. La pregunta era ¿cómo se podía observar esta conexión a distancia? Era evidente que a través de la medición simultanea de ambos fotones esto no se lograría por que siempre observaríamos las polarizaciones tal como tienen  que ser, hacia arriba en uno y en diagonal en el otro, pero no podríamos distinguir el instante de la conexión entre ambos. Quedaría siempre la duda si realmente existe esa conexión o acción a distancia; o por el contrario, que la polarización de cada fotón queda determinada en el preciso momento que son emitidos desde el átomo, siendo así que cada fotón nace con una polarización determinada careciendo de sentido el concepto de estados superpuestos.

El truco para captar sea el fenómeno de la acción a distancia, o el fenómeno no-local, es trabajar con tres  medidas conectadas, por ejemplo tres ángulos de polarización, tal como lo pensó Aspect en su experimento, pero solo medir dos de ellos uno para cada fotón.

Para hacer un ejemplo mas simple que la polarización, llamaremos a esta color. Supongamos que un átomo en lugar de emitir fotones a pares con polarizaciones correlacionadas, emite partículas de colores a pares. Estos colores pueden ser ROJO, AMARILLO, AZUL. Ahora bien, por definición, cada par de partículas emitidas simultáneamente deben tener colores diferentes.

Expresando esto en términos cuánticos, diremos que cuando el átomo emite un par de partículas de color, la interpretación de Copenhague (Bohr) dirá que ninguna de las dos partículas tiene un color determinado sino que existen en una superposición de tres estados (colores) posibles. Cuando el que realiza el experimento mira a una partícula , allí su función de onda colapsa adoptando un color determinado entre los tres posibles. Al mismo tiempo, la función de onda de la otra partícula también colapsa adoptando esta un color determinado entre los ahora dos posibles. Este debe ser diferente al que adoptó la partícula observada, aunque no sabemos tal como realizamos el experimento cual de los dos posibles, dado que no estamos observando a esta partícula.

Veamos como proceder en nuestra investigación: Utilicemos la siguiente notación y las preguntas que siguen:

  • PO es la partícula observada.
  • PNO es la partícula no observada.
  • A = azul, AM = amarillo, R = rojo
  • NA = no azul, NAM = no amarilla, NR = no rojo

1.     ¿PO es A?

2.     SI PO es A

3.     Por lo tanto, PNO = R o AM.

4.     NO, PO es NA, aunque no sabemos aun de que color es.

5.     Por lo tanto PNO = R o AM o A, pero con mayor probabilidad de que sea A.

 Calculemos algunas probabilidades:

Si la PO es A, entonces la PNO tiene una probabilidad del 50% de ser AM y una probabilidad del 50% de ser R.

Si la PO es NA puede ser R o AM.

Si es R entonces la PNO podrá ser AM o A.

Si es AM entonces la PNO podrá ser R o A.

 Vemos entonces que si la PO es NA hay cuatro posibles resultados para la PNO, dos Azules, un Amarillo y un Rojo, por lo tanto la probabilidad de Azul será 50 % (2/4), mientras que la de Amarillo y Rojo será 25 % para cada una (1/4).

El hecho de que el estado de la primer partícula esté determinado tal como sucede cuando la observamos y decimos es AZUL, implica que para la PNO, la probabilidad de adoptar determinados resultados  R o AM, será del 50% para cada estado (color). Sin embargo, si el estado de la primer partícula no está determinado,  las probabilidades de encontrar un color particular al observar la segunda partícula varían respecto a la primer situación. Fíjense que aquí estas probabilidades serán del 50 % para un color y 25 % para cada uno de los otros dos. Para observar cómo las probabilidades van cambiando de acuerdo a la forma que realizamos la medición sobre la primer partícula, debemos realizar muchas mediciones sobre muchas partículas, tal como haríamos para calcular la probabilidad de que una moneda salga cara o cruz, repetiríamos la tirada muchas veces anotando lo que sale en cada una de ellas.

El punto crucial es que Bell mostró que el patrón estadístico que debería surgir si el fenómeno es no-local, es decir si las partículas no salen del átomo con una condición prefijada (polarización o color en nuestro ejemplo) es diferente al patrón que surge si el fenómeno es local, esto es que cada partícula adopta su color en el mismo momento que se emite desde el átomo y permanece en ese color todo el tiempo. Utilizando esta terminología de los colores, el experimento consiste en preguntar pares de preguntas acerca de ambos fotones en conjunto en la siguiente línea:

o       ¿Es el fotón 1 azul o no, y es el fotón 2 amarillo o no?

o       ¿Es el fotón 1 azul o no, y es el fotón 2 rojo o no?

Llevando a cabo este experimento con muchos pares de partículas se puede construir una lista de respuestas especificando con qué frecuencia las partículas se aparean en categorías: “ A y NAM ”, “A y NR”, “NA y NAM”, etc. Lo que Bell demostró es que si se hacen las preguntas de esta manera muchas veces, utilizando muchos pares de fotones, hay un patrón estadístico que aparece en las respuestas obtenidas. Se puede averiguar con qué frecuencia la combinación “A y NAM” apareció, comparada con la combinación “NA y NR”. Y todas las otras combinaciones posibles. Debido a que las entidades cuánticas no deciden qué color adoptar hasta tanto sean observadas, contrariamente a lo que harían las partículas comunes de adoptar un color en su origen, el patrón estadístico resultante para ambos tipos de partículas será diferente. Bell mostró que si las partículas fueran comunes, el patrón estadístico A debería prevalecer, es decir el patrón A > el patrón B. Pero en el experimento realizado en Paris por Alain Aspect, donde se trabajó con fotones de diferente polarización, se demostró que esto no ocurría; es decir que la desigualdad anterior se violaba, siendo el resultado experimental que el patrón A < el patrón B. El argumento, si bien desarrollado matemáticamente, esta basado en una lógica del sentido común. Esta lógica del sentido común, aplicada a un ejemplo trivial, nos dice lo siguiente:

Siendo TA, la cantidad total de adolescentes en todo el mundo; FA la cantidad de adolescentes mujeres en todo el mundo, MA la cantidad de adolescentes hombres en todo el mundo, Madu la cantidad de adultos hombres en todo el mundo y TM la totalidad de personas de sexo masculino; entonces se debe dar que:

TA < FA + TM, (1)

Por que TA = FA + MA (2) y TM = MA + Madu (3),

Por lo tanto al reemplazar (2) y (3) en (1) Þ FA + MA < FA + MA + Madu Þ FA< FA + Madu

Los resultados del experimento de Aspect son equivalentes en términos de la lógica del sentido común, a descubrir que en realidad la inecuación que se comprueba en nuestro ejemplo es TA > FA + TM;  es decir que en el mundo hay más adolescentes que mujeres adolescentes mas todos los hombres. Este resultado, ejemplificado aquí con personas, es lo que se conoce como la violación de la desigualdad de Bell, y es lo que confirma que para las entidades cuánticas existe una conexión misteriosa, denominada realidad no-local, a pesar de que aun no entendemos cual es el significado de todo esto. El propio Bell consideró a la teoría cuántica como temporaria, y siempre esperó que los físicos alcanzaran alguna teoría que pudiera explicar estos resultados extraños en términos del mundo real que todos conocemos, es decir en el cual las cosas tiene características objetivas y no indeterminadas.  

Electrodinámica Cuántica (QED)

Los físicos y los científicos en general, saben que no importa cuanto pueda gustar o no gustar una teoría, sino que lo que distingue a una buena teoría de una mala , es si puede predecir con cierta exactitud los resultados experimentales. Pues bien , la teoría de la electrodinámica cuántica (QED), describe a la naturaleza como absurda desde el punto de vista del sentido común, y sin embargo, predice con una exactitud asombrosa todos los experimentos para los cuales fue utilizada. Por eso y en palabras de Richard Feynman, debemos aceptar a la naturaleza tal como es: absurda.

Comenzando por la luz, Newton descubrió que la luz blanca es una mezcla de luces de diferentes colores puros, en el sentido de que los mismos no pueden descomponerse en otros. Cuando en esta teoría decimos luz, nos referimos a todo tipo de ondas electromagnéticas, de las cuales la luz visible es una porción dentro de un rango determinado de frecuencias. Newton también dijo que la luz estaba compuesta por partículas, a pesar de que el razonamiento que usó para deducir esto era equivocado. Actualmente sabemos que la luz está compuesta por partículas porque podemos utilizar un instrumento muy sensible que hace click cada vez que la luz le llega; cuando se reduce a un mínimo la intensidad de la luz que irradiamos sobre este instrumento, escuchamos el click con la misma intensidad aunque ahora mucho mas espaciados en el tiempo porque son menos las partículas que están llegando al mismo. La luz es como gotas de lluvia y a cada una de estas gotas de luz se la denomina fotón. Cuando la luz es del mismo color (misma frecuencia) es como si las gotas fueran todas del mismo tamaño.

El ojo humano es un instrumento que solo necesita cinco o seis fotones para activar una célula  nerviosa y enviar un mensaje al cerebro. Si hubiéramos evolucionado algo mas y pudiésemos tener una visión diez veces mas sensitiva, no sería necesario explicar todo esto dado que lo veríamos con nuestros propios ojos. El instrumento utilizado para detectar un solo fotón se denomina foto multiplicador. Valga toda esta explicación para reafirmar nuevamente que la luz esta hecha, se comporta, como un haz de partículas.

Existen una serie de fenómenos que muestran las propiedades de la luz, que son conocidos por todos, tales como que la luz se mueve en línea recta, que cuando entra en el agua se dobla, que se refleja en ciertas superficies como el espejo, que en el caso de la luz blanca se puede descomponer en diferentes colores (arco iris), que al pasar a través de un lente se puede focalizar en un punto. Conociendo estos fenómenos veremos el comportamiento verdaderamente extraño de la luz.

  • Reflexión parcial: Cuando la luz se refleja en un bloque de vidrio, vemos como una parte atraviesa el vidrio y otra se refleja como si fuera un espejo. Cuando los fotones chocan contra el vidrio, interactúan con los electrones del vidrio, no solo de la superficie sino también del interior, aunque el resultado neto es como si solo interactuaran en la superficie. Si hacemos un experimento poniendo foto multiplicadores para detectar los fotones que se reflejan y los que traspasan el vidrio, comprobaremos que por cada 100 fotones que lanzamos contra el vidrio, 96 pasan y 4 se reflejan (rebotan). Aquí viene la primera duda: si todos los fotones son iguales, y todos fueron lanzados desde el mismo lugar y en la misma forma, ¿cómo sabe un fotón que tiene que pasar o rebotar?.
  •  
  • Esto fue un gran misterio para Newton. Cuando el experimento se realiza con láminas de vidrio de diferentes espesores, la primera idea o hipótesis sería que un 8 % de los fotones se deberían reflejar, 4 % en la primera superficie, y 4 % en la segunda. Lo que comprobamos es que según sea el espesor de la lámina de vidrio, la cantidad de fotones que se reflejan, es decir rebotan, fluctúa entre un mínimo de cero y un máximo de 16, y que si seguimos aumentando los espesores lo que ocurre es que los fotones reflejados siguen un ciclo, a medida que aumenta el espesor. Ese ciclo esta entre el 0 y el 16 % de los fotones lanzados que se reflejan. Así, el promedio de fotones reflejados es de un 8 %. La situación hoy en día es que no tenemos un buen modelo para explicar la reflexión parcial en láminas de dos superficies, simplemente podemos calcular la probabilidad de que un fotón pase o se refleje. Podemos explicar cómo hacer para calcular estas probabilidades, lo que no podemos hacer es deducir como los fotones “deciden” si pasar o rebotar. Esta forma de calcular en forma exacta los resultados es lo que permite la teoría de electrodinámica quántica (QED), pero no esperemos que la misma nos explique por qué esto ocurre.
  •  
  • Reflexión total: En este caso sabemos que la luz se refleja en un espejo en su punto medio y que el ángulo de incidencia es igual al de salida. La QED nos permite hacer el mismo tipo de cálculos que en el caso anterior, estableciendo como premisa que en realidad los fotones pueden seguir cualquier camino hacia el espejo y desde allí reflejarse hacia un mecanismo detector también por cualquier camino. Las probabilidades de que cada fotón siga un camino definido son todas iguales, aunque aquellos caminos que, con igual probabilidad de ocurrencia, se refuerzan entre sí (se suman las probabilidades de ocurrencia) son los de recorrido mas corto. Estos están situados en la región central del espejo, de allí que la realidad de la reflexión total está dada porque los fotones , si bien pueden recorrer el camino que les plazca con igual probabilidad, el resultado final será que para el conjunto de todos los fotones que componen el haz de luz, el camino más probable será aquel que impacta y refleja con el mismo ángulo sobre el espejo.
  •  
  • Otros fenómenos luminosos: Tales como la refracción, la difracción, la interferencia, también fueron explicados por Feynman de la misma manera, es decir teniendo en cuenta que podemos conocer lo que hará un numero grande de fotones (entidades cuánticas) probabilisticamente, pero que es un misterio cual es el comportamiento individual de cada uno de ellos.

Cromodinámica cuántica (QCD)

Así como esta teoría de la electrodinámica cuántica (QED) describe cómo las partículas cargadas interactúan a través del intercambio de fotones, al desarrollar el estudio de los Quarks , uno de los tipos de partículas componentes de la materia conocida (protones y neutrones), se creó por analogía, la teoría de la Cromodinámica cuántica (QCD). Esta teoría describe cómo los quarks interactúan entre ellos a través del intercambio de gluones. El nombre cromo surge de una propiedad particular que los quarks y los gluones tienen la cual es análoga a la carga eléctrica, y a la que se le da el nombre de carga de color. No significa que tengan color sino que se utiliza esta nomenclatura como una forma de distinguir una propiedad característica de estas partículas al estudiar el tipo de fuerzas por las que se unen o se rechazan. Los tres colores que se usan para denominar o distinguir a los quarks son rojo, azul y verde; algunos físicos cambian este ultimo por el amarillo.

El fundamento de esta teoría, soportado por un desarrollo matemático complejo y avanzado, es que solamente pueden existir combinaciones de quarks que sean incoloras. Esto se logra de dos formas diferentes:

·        Tres quarks de diferentes colores dan una unión posible al ser incolora, tal como la combinación de un electrón (-) y un protón (+) da una combinación estable de carga neutra.

·        Una combinación de un par quark-antiquark también es incolora y por lo tanto posible.

Estas reglas de combinación se aplican a la conformación de todas las partículas: es así como veremos en la conformación de los protones y los neutrones mediante quarks, que el tema del color de los mismos debe tenerse en cuenta.

A comienzos de 1970, Murray Gell-Mann y Harald Fritzsch desarrollaron una aproximación a través de  la teoría de los campos para describir las diferentes interacciones que pueden existir entre estas partículas (quarks). Así se estableció que los quarks coloreados interactúan entre si mediante el intercambio de gluones. El color juega el papel de la carga eléctrica en la QED, aunque en forma más compleja, dado que mientras que en la QED existe solo una carga (+) y su anti-carga (-); en la QCD existen tres colores con sus respectivos anti-colores, donde se da la siguiente regla de atracción-repulsión:

 Dos colores o anti-colores iguales se repelen, un color y su correspondiente anti-color experimentan la máxima atracción, colores diferentes también experimentan atracción aunque de menor grado que la anterior.

 Mientras que en la QED solo una partícula es necesaria para mediar en la transmisión de la fuerza electromagnética, el fotón, en la QCD son necesarias 8 partículas denominadas gluones para mediar en la transmisión de la denominada fuerza cromodinámica, que es la que mantiene unidos a los quarks. El tema es aun mas complicado, porque los quarks pueden cambiar de color, por lo que los gluones deben también tener la característica del color para así poder llevar color de un quark hasta otro. Por lo tanto los gluones también son afectados por la fuerza cromodinámica, aquella cuyas reglas de interacción describimos antes.

Diferentes realidades, ¿diferentes universos?

 ¿Cómo funciona el mundo? ¿Existe alguna metáfora que de significado a esta pregunta?. La vieja metáfora de la física clásica era “el mundo es como un reloj gigantesco”. Los físicos modernos hoy en día no poseen una sino varias imágenes posibles que les permiten dar una explicación con sentido a los fenómenos que ocurren en el mundo de la física cuántica. Hoy sabemos que nuestro mundo no es determinístico como el funcionamiento del reloj donde causa-efecto se suceden en ese orden. Las diferentes realidades que aquí se mencionaran son diferentes modelos del mundo consistentes con la  teoría cuántica. Vale aquí algunas aclaraciones acerca del significado de lo que es un modelo. Los físicos al estudiar el mundo cuántico en particular, no pueden hacer réplicas de cartón o madera de aquellas cosas que están estudiando tales como un fotón, por lo tanto sus modelos son una combinación de ecuaciones matemáticas y discernimientos físicos, los que les permiten tener cierta imagen de lo que pasa en ese mundo cuántico.

Algunos de esos modelos son representaciones muy precisas de los fenómenos en cuestión, descritos en términos de ecuaciones que pueden ser procesadas en un ordenador para simular cómo un sistema o una entidad cuántica responderá a un determinado estímulo. Otros son mucho más vagos, menos precisos, en el sentido que solo intentan ayudar a la limitada imaginación humana a describir lo que está sucediendo. Uno de los puntos  más importantes que se debe apreciar acerca de los modelos, es que ninguno de ellos es “la verdad”. Por eso, a pesar de que un determinado modelo sea muy preciso en describir y explicar lo que está ocurriendo en un contexto, otro modelo, completamente diferente al anterior, puede ser igualmente preciso en describir el comportamiento de la misma entidad o sistema cuántico bajo diferentes circunstancias, es decir en otro contexto. ¿Cuál de los dos representa a la realidad? ¿Cuál es la verdad? Ambos modelos son igualmente válidos.

Un ejemplo clásico de esta situación es la dualidad de la luz onda-partícula. A veces la luz debe describirse como una onda porque así es como se comporta, y en otras ocasiones como una partícula. No significa esto que la luz es realmente una onda o una partícula, sino que es algo para lo cual no hay una analogía en el mundo cotidiano de nuestros sentidos; es algo que bajo ciertas circunstancias parece comportarse como una onda, y bajo ciertas otras circunstancias, parece comportarse como una partícula.

Otro ejemplo ocurre con el modelo del átomo. Históricamente la idea de átomo se desarrolló pensando primero a los mismos como pequeñas esferas indivisibles,  luego se avanzó en la idea de un átomo compuesto por diferentes partículas. Usando el modelo de los átomos como “bolas de billar”, se pudieron hacer descripciones matemáticas muy precisas acerca del comportamiento de los gases, por ejemplo la relación entre presión y temperatura en un recipiente lleno de gas. Mas tarde, cuando se desarrolló el modelo de átomo de Bohr con electrones considerados como pequeñas “ bolitas de billar” en órbita alrededor de un núcleo que es como una “bola de billar” más grande, sirvió muy bien para poder explicar el origen de las líneas espectrales que producen los elementos. Mas adelante en el tiempo, la naturaleza de los enlaces o uniones químicas necesarios para formar diferentes compuestos se pudo explicar utilizando el modelo de los electrones como “nubes” (distribución de probabilidades) alrededor del núcleo. A pesar de que hay una línea histórica en el desarrollo de los modelos, esto no significa que los últimos son correctos y los otros no. Los físicos, aún hoy en día, utilizan el modelo de las “bolas de billar” para calcular la presión de los gases, y los químicos utilizan el modelo de Bohr para estudiar el espectro producido por diferentes elementos. Cada modelo es correcto en su propia área de aplicación, a pesar de que los diferentes modelos parecen ser incompatibles entre ellos.

Por eso, la mejor manera de pensar en los diferentes modelos que se presentan en la física (¿y en la vida cotidiana?), es considerarlos como diferentes herramientas para diferentes trabajos a realizar. Cuando utilizamos herramientas equivocadas, es imposible realizar el trabajo; de la misma forma si pretendemos explicar ciertos fenómenos con el modelo inapropiado, poco será lo que podamos explicar, o bien las conclusiones serán erróneas.

Esta explicación es muy válida en términos de la física cuántica, porque en realidad todas las diferentes interpretaciones que dan lugar a diferentes realidades cuánticas, son modelos. Ninguno de ellos representa la verdad última acerca del mundo cuántico, y muy probablemente no hay manera de que el cerebro humano pueda alguna vez comprender las verdades últimas del mundo cuántico. Todas las interpretaciones son simples ayudas para percibir lo que pasa realmente. Nadie sabe lo que el mundo cuántico realmente es, todo lo que podemos saber es cómo es.

Ya Kant creía que la apariencia del mundo estaba fuertemente condicionada por los sentidos humanos y por el aparato intelectual. Otros seres diferentes a nosotros los humanos, experimentarían el mismo mundo en una forma radicalmente diferente. Los hechos que llamamos científicos son tanto producto de la naturaleza humana del observador como de la realidad intrínseca del hecho o fenómeno. Vemos al mundo a través de unos  anteojos humanos. El hombre está destinado, según Kant, a conocer, ya sea directamente o a través de la creación de conceptos, solo las apariencias del mundo, y de ellas solo aquella parte que tiene origen humano. Kant es un ejemplo del pesimismo en la investigación de la realidad.

La teoría cuántica ha sido universalmente aceptada al describir fenómenos a todo nivel accesibles mediante experimentos: la teoría cuántica funciona como un libro perfecto para cualquier cosa que queramos realizar dentro del mundo físico; sin embargo, acompañando a esta precisión, existe un total desacuerdo acerca de lo que significa y de qué clase  de realidad está sustentando. Existen varias “realidades” cuánticas que diferentes físicos defienden como “La realidad real o verdadera” que sustenta la apariencia externa. Algunas de estas “realidades” son además contradictorias entre sí, pero todas producen los mismos resultados ante los mismos experimentos. Veamos cuales son y qué dice cada una de ellas; son las visiones  de algunos físicos de renombre que se expresan en la forma de ocho realidades distintas, las cuales representan ocho aproximaciones importantes a lo que realmente ocurre detrás de la escena, ocho modelos diferentes:

Realidad Cuántica # 1: La interpretación de Copenhague parte 1. Representada por Niels Bohr, que dice:

En el mundo físico, no existe una realidad profunda

Bohr no niega la evidencia de nuestros sentidos, el mundo que nos rodea es real, pero flota en un mundo mas profundo que no es real. Algunos físicos que se oponían a esta interpretación, por ejemplo Einstein, decían que seguramente Bohr quería significar no extender las especulaciones por fuera del rango de los experimentos que se realizan, sino que existirían ciertas realidades escondidas y no conocidas por el momento con la tecnología existente. Pero Bohr no aceptaba esta interpretación, sino que insistía diciendo: “ no hay un mundo cuántico, solo existe una descripción cuántica abstracta”. Heinserberg, el Cristóbal Colón de la teoría cuántica escribió:

la esperanza de que nuevos experimentos nos guiarán hacia hechos objetivos en el tiempo y el espacio tiene tanto fundamento como esperar descubrir el final del mundo conocido en las zonas inexploradas de la Antártida.

Para dar una metáfora de la postura de esta realidad 1, muchos utilizaron las siguientes preguntas ¿La luna existe si no la observamos? O mejor, si una rama de un árbol cae en el bosque ¿hace ruido si nadie está escuchando?. Es decir ¿existen realidades físicas objetivas o éstas dependen de la existencia de un observador externo?. Los defensores de esta  realidad cuántica # 1 responden que no, no existen realidades objetivas en el mundo cuántico.

Realidad Cuántica # 2:  La interpretación de Copenhague, parte 2.

La realidad es creada por el acto de observar

Algo así como decir  las cosas existen solo cuando son observadas (recordemos las metáforas de la luna y la rama que cae en el bosque)

Es así que la interpretación de la escuela de Copenhague consiste en dos partes:

1.     No existe la realidad en ausencia de observación.

2.     La observación crea la realidad.

Pero surge la pregunta: ¿qué es una observación? O ¿cuáles son las características que una observación debe tener para poder crear la realidad?. La respuesta surge con la máxima del físico John Wheeler, que separa lo real de lo no real diciendo: Ningún fenómeno es un fenómeno real hasta que el mismo es observado. Esta creencia de que la realidad es creada por el observador si bien puede ser común en el campo de la filosofía, no lo es en el campo de la física, por lo menos no lo era hasta la aparición de la física cuántica.

Realidad Cuántica # 3: Que dice

La realidad es un todo indivisible

El mundo físico, a pesar de mostrarse como un conjunto de partes con límites entre dichas partes constitutivas, es un todo inseparable e indivisible, todo afecta a todo. Es así que si bien el observador puede crear la realidad, el observador es parte del todo y no algo separado. No se puede mantener, según dicen los partidarios de este concepto de realidad, una separación en el mundo entre una realidad objetiva y nosotros observadores conscientes; objetos y sujetos se han convertido en inseparables unos de otros. Esta no separabilidad del mundo cuántico no tiene nada que ver con la idea sistémica de los clásicos donde todo estaba interconectado. Por ejemplo a través de las teorías de los campos; aunque dichas interconexiones decaían y finalmente desaparecían con la distancia entre las partes. Las conexiones distantes eran irrelevantes, ¿cuánto afecta el campo gravitatorio de la tierra si estoy en la luna? ¿y si estoy fuera de la galaxia?

Esta realidad de un todo indivisible es diferente, de manera tal que no estará relacionada ni espacial ni temporalmente. Es como si armáramos un cubo de resortes, donde no importa donde toquemos, repercute en toda la estructura así armada instantánea o cuasi instantáneamente.

Esta idea de realidad está en línea con una visión holística propia de los orientales.

Realidad Cuántica # 4: Muchos mundos, muchos universos que coexisten.

La realidad consiste en una gran cantidad de universos paralelos.

Para cualquier situación en la cual existen diferentes resultados posibles (por ejemplo lanzar una moneda al aire), algunos físicos defensores de esta idea dicen que todos los resultados ocurren pero en diferentes universos: cada universo es igual al anterior salvo en lo que respecta al resultado de la situación analizada en cuestión.

Realidad Cuántica # 5:  La lógica diferente.

El mundo obedece a una clase de razonamiento diferente al que estamos acostumbrados los seres humanos y que definimos como lógico. La lógica es el esqueleto de nuestro cuerpo de conocimientos. Desde hace mas de dos mil años la lógica  está basada en el molde de los silogismos de Aristóteles.

Si cambiamos las reglas de dicha lógica podremos entonces ver la nueva física o los hechos que ésta describe como lógicos dentro de esta nueva lógica. Es difícil de entender pero pensemos en algo similar que ya ocurrió con la geometría. Durante dos mil años la geometría que existía era la euclidiana, la ciencia de los puntos y las líneas. Hubo algunos matemáticos "locos" como Nicolai Lobachevski, Gauss y Riemann que crearon una nueva geometría, que fue considerada como un juego de altas matemáticas, pero fuera de la realidad (de nuevo observemos el concepto realidad). La geometría verdadera  era la euclidiana que, después de todo no es mas que el sentido común aplicado a las figuras geométricas.

Sin embargo, en 1916, Einstein propuso una nueva teoría de la gravedad que demolió el monopolio euclidiano. Einstein declaró que la gravedad no es una fuerza sino una curvatura en el espacio-tiempo; un objeto cuando cae no lo hace por ser atraído por una fuerza (la gravedad), sino que se mueve por una  línea recta según los estándares de estas nuevas geometrías. Esta apreciación de Einstein pudo ser comprobada por vía experimental al medir la deflexión de un rayo de luz de una estrella al pasar cerca de la deformación del espacio-tiempo provocada por el Sol. La lección de los partidarios de la nueva lógica cuántica es la siguiente: la cuestión de la verdadera geometría, o la verdadera lógica que gobierna al mundo,  no está fijada por el sentido común de los seres humanos, sino por las experiencias reales que se pueden observar y medir. Para determinar las reglas de la correcta razón, no hay que buscar en el interior de nuestra propia cabeza, sino en el laboratorio.

Realidad cuántica # 6: Neorrealismo

El mundo esta compuesto por objetos ordinarios, los cuales poseen atributos propios independientemente de que sean observados o no.

Einstein es el representante por excelencia de esta realidad, sus disputas con Bohr duraron hasta su muerte. Según escribió:

“Todavía creo en la posibilidad de un modelo de la realidad; esto es, de una teoría que represente los fenómenos en sí mismos y no meramente la probabilidad de su ocurrencia”.

Realidad cuántica # 7:

La conciencia crea la realidad.

Los partidarios de este modelo dicen que solamente algo dotado de conciencia tiene le privilegio de crear la realidad. El único observador que cuenta es el observador consciente.

Realidad cuántica # 8: El mundo dúplex de Heisenberg.

El mundo tiene dos partes, la de los potenciales ( lo que está en potencia, lo que puede ser) y la de las realidades de las cosas que pasan.

La mayoría de los físicos defienden una de las dos primeras realidades cuánticas: la realidad cuánticas 1 (no hay realidades profundas) y  la 2 (la observación crea la realidad). Lo que ambas tienen en común es que solo los fenómenos son reales, pero debajo de esos fenómenos no hay realidad.

Ahora bien si la observación crea la realidad, ¿en qué se basa dicha observación para crear la realidad? ¿Desde donde la crea?. Dado que la teoría cuántica describe  la realidad que s mide/observa con una exactitud perfecta, debe contener (la teoría cuántica) algunas claves desde donde surgen o en que se basan los fenómenos observados. Tal vez usando la imaginación podemos intuir los cimientos en que se sustenta  nuestro mundo real, el que vemos todos los días.

De acuerdo a Heisenberg no existía una realidad profunda, el mundo no medido es semirreal y solo alcanza realidad total durante el acto de observación:

"En los experimentos acerca de eventos atómicos debemos tratar con cosas y hechos concretos, con fenómenos que son tan reales como cualquier fenómeno en la vida diaria. Pero los átomos y las partículas elementales no son reales, forman un mundo de posibilidades, de cosas en potencia, mas que uno de cosas o hechos... La onda de probabilidades significa una tendencia por algo. Es la versión cuantitativa del viejo concepto Aristotélico de potencia. Introduce algo en el medio entre la idea de un evento y la realización de dicho evento, una clase extraña de realidad física justo en el medio entre la posibilidad y la realidad".

El mundo de todos los días en el cual vivimos tiene un aspecto bien concreto del cual carece el mundo cuántico, solo ocurren eventos uno por vez. Por el contrario,  el mundo cuántico no es un mundo de eventos reales sino un mundo lleno de tendencias de acción que no se concretan, que no ocurren; estas tendencias están constantemente en “movimiento” de las posibilidades. Los dos mundos, el dúplex, que menciona Heisenberg, se unen a través de un puente que denominamos medición. Durante este acto “mágico”, una de las posibilidades, entre todas las existentes, es la que se concreta y así aparece en el mundo de acuerdo a exactas leyes de movimiento. Nada ocurre sino que todo permanece en el ámbito de realidades como un evento concreto. Todo lo que ocurre en nuestro mundo de realidades surge de las posibilidades preexistentes en el mundo cuántico de las potencias. El mundo no observado consiste en un racimo de posibilidades cada una con su valor probabilístico de ocurrencia.

Una característica asombrosa de estas ocho realidades cuánticas es que para cualquier tipo de experimento que se pueda concebir, cada una de ellas predice exactamente los mismos resultados observables. En la actualidad, cada una de estas realidades cuánticas puede ser considerada como la que explica con certeza cómo es el mundo realmente.

Galería de monstruos

El desarrollo de la física cuántica fue el esfuerzo de muchos hombres de ciencia que en el transcurso de 25 años revolucionaron un campo que se creía acabado para nuevos avances, y que continúa hasta nuestros días. Recordemos a esos monstruos de la ciencia, con algunos datos personales y menciones acerca de cuales fueron sus logros, algunos de los cuales se han desarrollado a lo largo de este ensayo.

     Albert Einstein (1879-1955): Lo más notable de este genio fue que con sus trabajos acerca del efecto fotoeléctrico, confirmó de alguna manera los avances de Planck acerca de la existencia d e los cuantos de energía. No obstante luchó hasta el fin de su vida contra la interpretación que se le daba a esta física que él ayudo a nacer. Sin duda el mundo lo conoce a Einstein por su Teoría de la relatividad, en sus versiones especial y general. Esta teoría junto con la cuántica fueron las que le quitaron el sueño a los clásicos. Einstein nació en la ciudad de Ulm, ganó el premio Nobel no por sus dos teorías de la relatividad sino por el mencionado efecto fotoeléctrico. Cuando quiso entrar en la escuela técnica de Zurich, fracaso en el ingreso por lo que tuvo que pasar un año reforzando sus conocimientos de matemáticas antes de poder ingresar. No fue un alumno brillante, no consiguió un trabajo fácilmente al graduarse y tuvo que contentarse con un empleo menor en una oficina de patentes en Berna. Allí en sus ratos libres fue desarrollando trabajos científicos que finalmente le permitieron alcanzar su doctorado. Fue a partir de 1909, que logro ingresar como profesor en la Universidad de Zurich. Con la llegada de Hitler a Alemania, Einstein se mudo a Princeton USA donde permaneció desde 1933 hasta su muerte. Nunca como dijimos acepto la interpretación de Copenhague de Niels Bohr, con su famosos dicho que “Dios no juega a los dados”, por lo que, a su criterio, debería existir algún mecanismo o variables ocultas que hicieran que el Universo fuera explicable dentro de la lógica humana, y con un carácter mas determinístico y no tan probabilístico en sus comportamientos, como surgía en todos los sistemas cuánticos estudiados.

      Niels Bohr (1885-1962) : Físico danés quien obtuvo el premio Nobel por sus trabajos acerca d la estructura del átomo basada en la espectroscopia y la física cuántica. Inicio sus trabajos con J.J.Thomson pero no tuvo éxito en sus relación personal con este físico. Se traslado entonces a Manchester para trabajar con Ernest Rutherford quien recientemente  había descubierto la estructura atómica constituida por un núcleo en el centro y partículas cargadas (los electrones) como en orbitas alrededor del núcleo. En 1916, las autoridades de Dinamarca, le ofrecieron una cátedra y la promesa de armar su propio Instituto. Así en 1918, el Instituto de Física Teórica se estableció con donaciones , principalmente de la cervecería Carlsberg, siendo Bohr nombrado Director,  cargo que retuvo hasta su muerte. Dentro de ese Instituto, Bohr atrajo para trabajar durante periodos mas cortos o largos a los mejores físicos teóricos del momento, brindándoles estímulos para el desarrollo de ideas acerca de la teoría cuántica. La interpretación que surgió de este Instituto, se transformo en una de las clásicas para la física cuántica, se la conoce como la interpretación de Copenhague. Si bien muchos fueron los que aportaron para fortalecer esta interpretación de la física quántica, la fuerte personalidad de Bohr y su prestigio personal fueron factores decisivos para que la interpretación de Copenhague  fuera “la interpretación aceptada de la mecánica cuántica”, a pesar de sus falencias, hasta las décadas del 80 y 90. Bohr siempre tuvo una preocupación relacionada con la posibilidad de construir armamento nuclear a partir del desarrollo de sus teorías. Después de la guerra, trabajo activamente para el control de las armas nucleares y organizo la primera conferencia denominada Átomos para la Paz, en Ginebra en 1955.

 El principal aporte de Bohr como dijimos fue su desarrollo del modelos atómico. En este , Bohr decía que los electrones que están en orbita alrededor del  núcleo, no caen en espiral como predecía la teoría electromagnética, sino que los mismos se encuentran en orbitas estables, correspondientes a ciertos niveles fijos de energía, en donde pueden mantenerse sin perder energía. Estos niveles fijos no adoptan cualquier valor, sino que son múltiplos enteros de una cantidad mínima: el cuanto de energía. De esta forma solo existen estas orbitas permitidas y entre ellas nada, es decir no hay orbitas intermedias. Este cuanto de energía es medido en términos de la constante de Planck h. Un electrón según explicaba Bohr, puede saltar de una orbita permitida a otra, ya sea emitiendo la energía sobrante, si es que pasa de una orbita de mayor energía a una de menor (proceso de acercamiento al núcleo), o absorbiendo energía en el caso contrario. Este cuanto de energía que emite o absorbe, lo hace en la forma de un fotón cuya energía es la que resulta de la formula de Planck DE = h.n, donde n es la frecuencia del fotón sea emitido o absorbido. Además Bohr agrego el concepto de que las orbitas permitidas no pueden albergar a un numero ilimitado de electrones sino que pueden completarse.

La representación grafica o visual de este modelo es la de los electrones que como bolitas están ubicados en los escalones de una escalera cuya capacidad es limitada. Cuando un escalón tiene lugar libre, otro electrón situado en un peldaño superior puede caer hacia ese lugar libre, perdiendo la energía correspondiente al salto o diferencia de altura entre ambos escalones. Estas caídas y subidas explicaban las líneas de emisión y absorción en los espectros de la luz emitida por los átomos de gases monoatómicos. El genio de Bohr consistió en que no pretendió ni se preocupo por armar una teoría completa y consistente del mundo atómico, sino que tomo parte de la teoría cuántica (el cuanto de energía), parte de la clásica ( las orbitas) y las combino para intentar explicar fenómenos hasta ese momento inexplicables. Bohr explico este modelo en Inglaterra durante 1913 con diferente suerte, algunos lo aceptaron y continuaron avanzando sobre el mismo, otros lo desecharon. Finalmente en 1922 Bohr recibe el premio Nobel debido a este trabajo. Los avances fueron lentos, el modelo de Bohr permitía muchas mas líneas en los espectros de las que en realidad se veían. La limitación de la cantidad de electrones en cada orbita permitida, también era una idea arbitraria y sin comprobación aparente.

Estas propiedades, se organizaron mediante la asignación de números, llamados números cuánticos, que servían para describir el estado del átomo y hacer que su comportamiento fuera convalidado por las observaciones. Bohr no dio en ese momento, ninguna explicación teórica de donde provenían estos números cuánticos o porque algunas transiciones no eran permitidas. A pesar de todas estos puntos débiles,  el modelo funciono. Predijo la existencia de líneas en el espectro que hasta el momento no  habían sido detectadas pero que fueron luego detectadas experimentalmente en los lugares exactos donde el modelo las pronosticaba.

      Max Planck (1858-1947) : Físico alemán quien fue el primero en darse cuenta a fines del siglo XIX que la radiación de un cuerpo negro (un radiador perfecto) podría explicarse si se consideraba que la energía electromagnética absorbida o irradiada, solo lo hacia en forma discreta y no continua, en cuantos o paquetes de energía. Planck no pensaba en la existencia de los después llamados fotones, sino que simplemente era su forma para explicar la interacción entre los átomos que oscilaban al ser calentados y las radiaciones que se generaban en el interior de este cuerpo radiante, interacción esta que debía mantenerse en equilibrio. Planck era un eximio pianista, tocando a veces junto con Einstein quien lo acompañaba con el violín. Fue profesor de física en la Universidad de Berlín desde 1892 hasta su retiro en 1926 cuando fue sucedido por Erwin Schrodinger, otro de los hacedores de la cuántica. Planck fue un físico de la vieja escuela que trabajaba muy duro y era sumamente conservador en sus ideas; su gran interés era la termodinámica, de allí su interés en intentar resolver lo que se conocía como la catástrofe ultravioleta mediante la aplicación de conceptos de termodinámica. Si bien se sintió frustrado por no lograr una solución aceptable y una correcta explicación de los espectros de radiación, publico varios trabajos que establecieron una conexión entre la termodinámica y la electrodinámica. Su logro al inventar su famosa constante h, no fue algo frío y meditado sino que resultó de un estado prácticamente desesperado en el que se encontraba para poder hallar una solución satisfactoria al dilema que surgía entre dos propuestas incompletas y aparentemente contradictorias acerca de la radiación electromagnética (las leyes de Rayleigh-Jeans y la de Wien). En este proceso ideó algún artificio matemático para que ambas pudieran compatibilizarse. Planck consiguió la curva correcta con una afortunada intuición, sin entender a fondo el fenómeno que estaba explicando. En el orden familiar vale recordar que el hijo menor de Planck fue brutalmente asesinado por la Gestapo por haber tomado parte en un complot para asesinar a Hitler durante 1944.

      Erwin Schrodinger (1887-1961): Físico austriaco que desarrolló la formulación de la física cuántica conocida como la mecánica ondulatoria, recibiendo como resultado de estos trabajos el premio Nobel en 1933. Es reconocido como un científico de la vieja escuela, cuyos trabajos acerca de la mecánica ondulatoria apuntaban a rescatar el sentido común según las ideas clásicas para la física cuántica. La idea que está detrás de la mecánica ondulatoria surge del trabajo realizado por Louis de Broglie que consideraba a los electrones en su comportamiento ondulatorio. Respecto a los conceptos extraños que suponía la cuántica tales como el salto cuántico o el papel del observador en la determinación de la realidad, Schrödinger decía: “esto me disgusta y hubiera querido no tener nada que ver con el desarrollo de esta disciplina”. Con la llegada de los nazis al poder, Schrodinger se traslado a Oxford donde no permaneció mucho tiempo. Regresó a Austria, posteriormente pasó a Italia, USA y finalmente a Irlanda. Durante su estancia en este país, escribió un libro denominado “¿Qué es la vida?” que alentó a un gran numero de físicos a orientarse al estudio de la biología molecular después de finalizada la guerra. Su desarrollo fundamental fue la llamada ecuación de onda, que se utilizó en una de las versiones de la física cuántica para describir el comportamiento de una entidad cuántica tal como un electrón o un fotón. Este fue el inicio de lo que se conoce como mecánica ondulatoria que fue el marco preferido por los científicos para resolver los problemas implícitos en las interacciones cuánticas. Esta preferencia se debió a que los físicos estaban familiarizados con el lenguaje de las ecuaciones de ondas. Esta también es la razón por la que todavía hoy se utiliza esta aproximación al tema , cuando se ha demostrado que otras son mas potentes para proveer un mejor discernimiento acerca de este submundo atómico y posibilita realizar trabajos mas avanzados en el tema.

      Louis de Broglie (1892-1987): Era un príncipe de la nobleza francesa, que inicialmente estudio Historia en La Sorbona, y se inicio en las ciencias por la influencia de su hermano mayor. La genialidad de de Broglie esta en que extrapolo lo que surgía del trabajo de Einstein acerca del efecto fotoeléctrico, donde algo como la luz que era considerada una onda, tenia también comportamientos de partícula, al mundo de lo material. Fue así que se pregunto si esto pasa con lo que considerábamos ondas, podría  ser lo mismo con lo que consideramos partículas. Su inquietud resulto cierta, y solo pudo llegar a tesis de doctorado, gracias al apoyo intelectual brindado por Einstein quien fuera consultado acerca de si esto que este alumno intentaba discutir, no era una burrada. Einstein fue conciso pero contundente, y dijo a Paul Langevin, tutor de de Broglie, “creo que esto es mas que una mera analogía”, y así de Broglie recibió su doctorado en física. Tanto Louis como su hermano se involucraron en el desarrollo pacifico de la energía atómica.   

     Werner Heisenberg (1901-1976): Nació en Alemania y es uno de los padres fundadores de la física cuántica. Su mayor descubrimiento es el denominado Principio de Incertidumbre. La expresión formal de este principio dice que la cantidad de incertidumbre cuántica en la determinación simultanea de ambos miembros de un par de variables conjugadas, nunca es cero. En física cuántica, el concepto incertidumbre es algo preciso y definido. Existen pares de parámetros denominadas variables conjugadas, para las que es imposible conocer el valor que adquieren en el mismo momento. Las mas conocidas de estas variables conjugadas son la posición y el momento ( velocidad, cantidad de movimiento), como también la energía y el tiempo. La incertidumbre posición/momento es la típica que explico Heisenberg en 1927, diciendo que ninguna entidad cuántica puede tener una velocidad precisa y determinada, y una posición también precisa y determinada al mismo tiempo, es decir simultáneamente. Esto no era el resultado de deficiencias en los sistemas o aparatos, o dificultades en el proceso de medición; es decir que no pudiéramos físicamente realizar esta medición. La realidad es que las entidades cuánticas- el electrón por ejemplo- no tienen una posición y una velocidad precisa al mismo tiempo. Esta incertidumbre, como ya se había mencionado es la que explica el fenómeno denominado efecto túnel. La incertidumbre de las variables conjugadas energía /tiempo, es la que nos permite identificar la existencia de las llamadas partículas virtuales. La incertidumbre cuántica, no obstante, no se manifiesta sensiblemente en los grandes objetos, es decir objetos mas grandes que una molécula, esto se debe a la dimensión de la constante de Planck “h” del orden de 10-34. Heisenberg trabajó con Born y con Bohr antes de convertirse en profesor en la Universidad de Leipzig.

     Dado que permaneció en Alemania durante la segunda guerra mundial, se sospechaba de el que tenia simpatía para con el régimen nazi. Los aliados temían que fuera unos de los científicos que pudiera facilitar el desarrollo de la bomba atómica para los alemanes. En realidad dada la limitada investigación en esta materia, llevada a cabo en Alemania durante la época, solo le permitió concentrarse en el desarrollo de medios para la obtención de energía y no en armamentos. Heisenberg siempre dijo que esto fue gracias a que el mantuvo el interés enfocado hacia este tema. Aunque algunos dudan de esta afirmación. Durante un periodo de recuperación de una enfermedad en las montañas de Heligoland, fue cuando Heisenberg formulo lo que luego se reconoció como mecánica matricial, la primera teoría cuántica completa y consistente con los resultados experimentales. Posteriormente Born y Jordan ayudaron a completar la misma dándole una significación física mas perceptible. Una copia del trabajo de estos tres científicos antes de que fuera publicado, fue la inspiración para que Paul Dirac elaborara su propia versión de la teoría cuántica. Todo esto ocurría un año antes que Schrodinger publicara su versión de la mecánica ondulatoria como otro enfoque de la misma teoría cuántica. En tan solo un par de años, se revolucionaron trescientos años de la física clásica.

     Mas adelante Heisenberg desarrollo el concepto de incertidumbre. Luego de la guerra, Heisenberg tuvo un papel importante en el establecimiento dl Instituto Max Planck para la física. Sus últimos trabajos científicos intentaron en vano desarrollar una teoría unificada de los campos. El fue un proponente de la idea de “todo indivisible” en la que todo en el mundo y especialmente en el mundo cuántico, es parte de un sistema único, que por ejemplo permitiera explicar en el experimento de la doble ranura, porque los electrones tiene comportamientos diferentes según se este observando o no por que ranura están pasando. Estas ideas aunque no tenidas muy en cuenta, fueron posteriormente desarrolladas por David Bohm.

      Max Born (1882-1970): Físico alemán que introdujo la idea de que los resultados de los experimentos o interacciones en las cuales participan entidades cuánticas, no son directamente deterministicos, sino que son intrínsecamente probabilísticos. Después de la guerra en 1920 se estableció Gottingen donde desde la cátedra de física teórica desarrollo un centro de excelencia en dicha disciplina, algo menos reconocido que el Instituto Niels Bohr de Copenhague. Durante los años 20 Born contaba en dicho centro con la participación de físicos de renombre tales como Heisenberg, Jordan y Pauli. Cuando Heisenberg desarrollo su descripción matemática de la física cuántica, fue Born quien reconoció su intima conexión con la teoría matricial. Trabajando en conjunto con Heisenberg y Jordan, concluyeron en la primera versión consistente y completa de la mecánica cuántica. Algo mas tarde Schrodinger concluyo la versión ondulatoria de la mecánica cuántica, basada en tratar a las entidades cuánticas (electrones, fotones, partículas subatómicas), como si fueran ondas. Born fue el que mostró que las ondas en la mecánica cuántica de Schrodinger, podrían ser consideradas no como una realidad física, sino como representaciones de probabilidades. Así llego a ser el mas firme proponente de la idea que el resultado de cualquier interacción dentro del mundo cuántico, estará determinado, en un sentido estrictamente matemático, por la probabilidad de ocurrencia de dicho resultado entre muchos de los posibles permitidos por las leyes físicas. Era de familia judía por lo que fue obligado a dejar Alemania durante el régimen nazi, emigrando hacia Inglaterra primero y finalmente Escocia, regresando a Alemania con nacionalidad británica luego de finalizada la guerra. Fue un gran pacifista, formando parte de activos oponentes al desarrollo de las armas nucleares. Murió a los 87 años de edad.  

     Paul Dirac (1902-1984): Físico ingles nacido en Bristol. Luego de graduarse como ingeniero electricista y en matemáticas, ingreso en Cambridge bajo la supervisión de Ralph Fowler, recién aquí en Cambridge es cuando entra en contacto con la teoría cuántica. En 1925, Heisenberg dio una exposición en Cambridge, donde Dirac era parte de la audiencia. Si bien no discutió sus ideas en esa charla, si lo hizo en privado con Fowler y le envió una copia de su trabajo aun no publicado acerca del enfoque de la teoría cuántica a través es de los conceptos de la mecánica matricial. Fowler le mostró el trabajo a Dirac y le pidió una opinión según sus conocimientos matemáticos. Así Dirac utilizando lo que ya sabia hizo su propio desarrollo de esta teoría, conocido como Teoría del Operador o Álgebra Cuántica. Después de obtener su doctorado en 1926, Dirac visito el Instituto Niels Bohr en Copenhague, donde mostró que tanto la mecánica matricial de Heisenberg como la mecánica ondulatoria de Schrodinger, eran casos especiales de su propia teoría del operador o álgebra cuántica, y que a demás eran totalmente equivalentes. En 1927, Dirac introdujo la idea de segunda cuantizacion a la física cuántica, abriendo el camino hacia el desarrollo de la teoría del campo cuántico. Sin embargo su mayor contribución al campo de la ciencia , se debe a la ecuación que desarrollo incorporando los conceptos de la física cuántica y los requerimientos de la teoría especial de la relatividad, para así dar una explicación completa del electrón. Uno de los puntos sobresalientes de esta ecuación, fue que tenia dos soluciones, correspondiente a electrones con energías positivas y con energías negativas. Estos últimos son denominados positrones. Dirac así había pronosticado la existencia de la antimateria, hasta que Carl Anderson experimentalmente detecto la existencia de positrones en 1932. Dirac también desarrollo las reglas estadísticas que gobiernan el comportamiento de gran cantidad de partículas cuyo spin es la mitad de un numero entero, tales como los electrones. Las mismas reglas estadísticas fueron desarrolladas por Enrico Fermi, de allí que son conocidas como estadística de Fermi-Dirac; a las partículas que obedecen estas reglas cuando se hayan en grandes cantidades se las denomina fermiones. Después de su retiro en Cambridge, se instalo en Florida USA como profesor de la Florida State University hasta su muerte.

     Wolfgang Pauli (1900-1958): Físico austriaco cuyo principal aporte a la teoría cuántica, es el denominado principio de exclusión, por el cual recibió su Premio Nobel. Su talento fue demostrado cuando en un trabajo de 200 paginas presento una comprensiva revisión de las teorías de la relatividad de Einstein en sus versiones especial y general. Su famoso Principio de Exclusión se publico en 1925. Explicaba porque cada orbital en un átomo ( en ese tiempo aun se pensaba a los electrones en orbitas, aunque el principio vale también ahora) podía ser ocupado como máximo por dos electrones. El principio establece que dos fermiones no pueden ocupar el mismo estado cuántico, es decir no pueden tener los mismos números cuánticos. Este principio es el que requiere que los electrones en el átomo ocupen diferentes niveles de energía en lugar de agruparse todos en el nivel mas bajo de energía. Sin la existencia de esta exclusión cuántica no existiría la química. Los denominados niveles de energía son los permitidos para un sistema cuántico como un átomo, y corresponden a las diferentes cantidades de energía almacenadas. En el átomo, un  electrón tiene una bien definida cantidad de energía correspondiente a su lugar en la estructura atómica. Otros sistemas cuánticos como las moléculas o los núcleos atómicos también tienen niveles de energía bien definidos. En el mundo cuántico una característica fundamental es que los sistemas cuánticos pasan directamente desde un nivel de energía a otro sin estadios intermedios, este es el conocido salto cuántico. Se decía que Pauli era tan malo como físico experimental que con solo acercarse a un laboratorio de experimentación, los aparatos se descomponían.

     David Bohm (1917-1992) : Físico y filósofo de la ciencia americano, que realizó contribuciones importantes a la interpretación de la mecánica cuántica. Se acercó a la ciencia a través de lecturas de ciencia ficción y posteriormente de astronomía. En tiempos de Mc Carthy fue expulsado de la Universidad de Princeton por haberse negado a implicar a ciertos compañeros de trabajo como miembros del partido comunista. Se trasladó a Brasil donde trabajó en la Universidad de San Pablo, para luego ir a Israel y finalmente a Inglaterra. Su libro de Teoría Cuántica es considerado como uno de los más accesibles para entender la interpretación de Copenhague. En el proceso de clarificar esta interpretación, Bohm se convenció de que la misma tenia errores, y así dedicó el resto de su carrera a desarrollar y promover una versión alternativa de las interpretaciones de la teoría cuántica, conocida como la de las variables ocultas o la de la onda piloto o el todo indivisible. Bohm se refirió a esta, como la interpretación ontológica. Uno de los principales aspectos incorporados en la interpretación de Bohm, es el fenómeno denominado no-local o de la acción instantánea a distancia que tiene lugar entre dos entidades cuánticas; fenómeno que fue comprobado con el experimento de Alain Aspect en los años ochenta. Bohm también trabajó en varios problemas filosóficos ligados a las ideas modernas de la física y en la naturaleza de la conciencia humana. 

     Richard Feynman (1918-1988) : Fue el físico mas grande de su generación. Feynman reformuló la mecánica cuántica poniéndola en una fundamentacion lógica incorporando los conceptos de la mecánica clásica. Desarrollo el enfoque de la integral de campo para la física cuántica desde donde surgió la más clara y completa versión de la electrodinámica cuántica (QED), la cual, junto con la teoría general de la relatividad, es una de las más consistentes y bien establecidas, en términos de dar explicación a todos los fenómenos experimentales donde se la ha aplicado. Fue un excelente maestro, que supo popularizar la ciencia. Feynman estudio en el MIT donde comenzó en Matemáticas para luego pasarse a la Física. En Princeton, bajo la supervisión de John Wheeler, desarrolló su trabajo para el doctorado. Trabajó en Los Álamos en el proyecto para el desarrollo de la bomba atómica. Terminada la guerra fue contratado por la Universidad de Cornell para trabajar como profesor de física teórica. Es allí donde completó su trabajo en electrodinámica cuántica por el cual recibió el premio Nobel de Física en 1965. En 1950 se trasladó a Caltech permaneciendo en dicha Universidad hasta el fin de su carrera. En 1950 desarrolló la teoría de los superfluidos y descubrió una ley fundamental que describía el comportamiento de la fuerza débil.

      Al comienzo de 1960, Feynman dictó sus famosas clases que luego se editaron en tres tomos como “Las clases de Física de Feynman” que tuvieron impacto en la enseñanza de esta disciplina en todo el mundo. Desarrolló también la teoría de los "partones" para describir lo que ocurre cuando electrones surgen de colisiones inelásticas entre protones. Esta teoría fue un comienzo importante para el desarrollo posterior de la teoría de los quarks, los gluones y la fuerza fuerte. Casi como un hobby, Feynman también investigó acerca de la teoría de la gravedad y sentó las bases para el desarrollo de una teoría cuántica de la gravedad.

            Murray Gell-Mann (1929- ) : Físico americano que obtuvo el premio Nobel en 1969 por sus trabajos sobre la clasificación de las partículas fundamentales. Fue quien introdujo el concepto de los quarks. Fue un niño prodigio recibiendo su doctorado en física a los 22 años en el MIT. Trabajó desde 1956 hasta el fin de su carrera en Caltech junto con Richard Feynman, de quien siempre sintió su sombra intelectual.. En 1953, Gell-Mann y un físico japonés, Nishijima, trabajando independientemente, explicaron ciertas propiedades de las partículas fundamentales, asignando a las mismas una propiedad denominada extrañeza. Esta propiedad fue llamada así simplemente porque estas partículas eran extrañas debido a la duración de su vida, excesivamente larga en comparación con la de otras partículas similares. En 1962 Gell-Mann simultáneamente con Zweig descubrió que muchas de las propiedades de las partículas fundamentales, como los protones y los neutrones, podrían explicarse si se asumía a los mismos compuestos por tres partículas mas pequeñas que posteriormente denominó Quarks.  

                 © 1998 GRUPO RCUNED y Javier de Lucas