PARTICULAS ELEMENTALES

1.- PARTICULAS SUBATOMICAS Y PARTICULAS ELEMENTALES

                Una definición de objeto elemental es la de ser el último constituyente indivisible de la materia. La respuesta a la pregunta: ¿cuál es ese objeto?, ha variado históricamente.

                En los siglos IV y V a.C., la teoría griega del atomismo, cuyos máximos exponentes fueron Leucipo y su discípulo Demócrito, introducía, sin base experimental, objetos idénticos e indivisibles llamados átomos. En los siglos XVIII y XIX, con el desarrollo de la Química, tenemos que para John Dalton existen 20 elementos formados por átomos. En 1897, J.J.Thomson (Universidad de Cambridge, Inglaterra), encuentra experimentalmente el electrón. En 1911, E.Rutherford (Universidad de Manchester, Inglaterra), en un experimento crucial, descubre que la carga positiva del átomo está concentrada en el núcleo, en torno al cual se mueven los electrones. En 1932 queda establecido que el núcleo está constituido por protones y neutrones. En la década de los sesenta se acepta que estos protones y neutrones dejen de ser elementales y estén constituidos por quarks.

                 Hoy en día ya han sido detectadas una gran cantidad de partículas de tamaño inferior al átomo, constituyendo lo que se ha denominado "un zoo de partículas". ¿Pero cuáles son las elementales?

                 Es muy importante que quede claro este concepto. Llamaremos partículas elementales a aquellas que no poseen estructura interna y, por lo tanto, no "albergan" dentro de ellas otras partículas "aún más elementales". Todas aquellas partículas de tamaño inferior al átomo, pero no elementales, las llamaremos subatómicas. Así, por ejemplo, el protón es una partícula subatómica, pero no elemental, ya que está constituida por tres quarks, como veremos más adelante. El hecho de llamarlas subatómicas no significa que formen parte del átomo: simplemente, que su tamaño es inferior al "diámetro" de un átomo "medio", es decir, un angström, 10 -8 cm.

                Así, a una distancia de un angström, "vemos" que el átomo está constituido por los electrones y el núcleo, en el que no distinguimos sus constituyentes; a una distancia de 10 -13 (unidad denominada fermi, 1 fm = 10 -13 cm), reconocemos en el núcleo protones y neutrones; a una distancia de 10 -17 cm, discernimos los quarks como sus constituyentes elementales.

                 En general, podemos clasificar el "zoo de las partículas subatómicas" en cuatro grandes grupos:

a) Hadrones, que son aquellas que sufren las interacciones fuertes, como los protones y los neutrones. A su vez, los hadrones se dividen en bariones y mesones.

b) Leptones, que son aquellas que no intervienen en las interacciones fuertes, como el electrón. Son partículas elementales.

c) Cuantos mediadores de interacciones, como el fotón. Son partículas elementales.

d) Quarks, como el up. Son partículas elementales y hadrónicas.

                Todas las partículas subatómicas conocidas poseen una propiedad nueva y fundamental que se conoce como su estadística, la cual es consecuencia directa del hecho de que son microscópicas. La propiedad de la estadística únicamente se manifiesta cuando se consideran sistemas de dos o más partículas, las cuales no están muy alejadas unas de otras y, además, son idénticas entre sí, es decir, tienen todas sus propiedades iguales (masa, spin, carga eléctrica, etc.). Atendiendo a su estadística, las que obedecen a la llamada estadística de Fermi, se les llama fermiones, y satisfacen el Principio de Exclusión de Pauli. A todas las demás, es decir, las que no son fermiones, se les denomina bosones, y se dice que verifican la estadística de Bose.

                Si una partícula tiene spin semientero (s = 1/2, 3/2, 5/2, ....), se comporta como un fermión. Si una partícula posee spin entero (s = 0, 1, 2, ...), se comporta como un bosón.

                 Por otro lado, en 1930, Paul A. Dirac hizo, y justificó teóricamente, la hipótesis de que si existe una partícula elemental con masa "m", spin "s" y carga eléctrica "q", debe de existir necesariamente otra partícula, llamada antipartícula de la primera, con la misma masa y spin y carga eléctrica opuesta "-q". Esta hipótesis recibió su primera y rotunda confirmación experimental con el descubrimiento del positrón, que fue inmediatamente identificado como la antipartícula del electrón. Los muones + y - fueron identificados como antipartículas el uno del otro. Análogamente, los piones + y - constituyen un par partícula-antipartícula.

                 Si la partícula tiene carga eléctrica nula, coincidirá en algunos casos su antipartícula, como por ejemplo el fotón y el pión neutro, que tienen spin 1 y 0 respectivamente. En otros casos, la partícula y la antipartícula, siendo ambas eléctricamente neutras, son distintas entre sí, debido a la existencia de, al menos, una propiedad física nueva que las diferencia. Por ejemplo, este es el caso del neutrón y del antineutrón debido al número bariónico.

                Según el Modelo Estándar, que como veremos más adelante es un modelo bastante aceptado por la comunidad de físicos teóricos, existirían 62 partículas elementales, suponiendo que el modelo no fuese "quiral", es decir, que no distinguiese entre partículas levógiras y dextrógiras. Estas 62 partículas serían las siguientes:

a) 18 quarks más 18 antiquarks (contando "sabores" y "colores"), spin igual a 1/2.

b) 6 leptones más 6 antileptones, spin igual a 1/2.

c) 13 cuantos o partículas mediadoras de interacciones: W+, W-, Zº, fotón, 8 gluones y gravitón.

d) partícula de Higgs.

                 Si se acepta el modelo "quiral", las tres familias o generaciones de leptones y quarks contendrían 30 partículas en cada generación. Las interacciones fuertes y electromagnéticas no distinguen entre levógiras y dextrógiras. Por lo tanto, el total de partículas elementales en este caso se elevaría a 104, siempre suponiendo que la hipotética partícula de Higgs fuese de un solo tipo. Obsérvese que los cuantos o partículas mediadoras de interacciones no tienen antipartículas.

2.- MASA Y CARGA ELECTRICA

                La primera propiedad de las partículas subatómicas es la masa, más precisamente la masa en reposo. Debido a la pequeñez de estos objetos físicos, habitualmente del orden de 10 -13 a 10 -17 cm, sus masas son también extraordinariamente pequeñas: por ejemplo, la masa del electrón es igual a 9,1091•10 -31 kg, y es necesario introducir otras unidades de masa distintas a las de gramos o kilogramos.

                 La energía en reposo es igual al producto de la masa en reposo por la velocidad de la luz (en el vacío), al cuadrado, según la ecuación relativista E = m•c 2. La masa puede medirse, por tanto, en unidades de energía. La masa es como una "energía comprimida", o la energía es una "masa expandida". Un electrón-voltio (1 eV), es la energía adquirida por un electrón sometido a una diferencia de potencial de 1 voltio. Su valor en julios es 1,6• 10 -19. Al ser una cantidad muy pequeña, se suelen utilizar sus múltiplos: el megaelectronvoltio (1 MeV), igual a un millón de eV y el gigaelectronvoltio (1 GeV), igual a 10 9 eV.

                Así, la energía de un electrón en reposo es igual a 0,512 MeV, por lo que la masa del electrón es igual a 0,512 MeV/c2, siendo c la velocidad de la luz en el vacío.

                 Las partículas subatómicas poseen cargas eléctricas de magnitud igual a la del electrón, con igual signo o con el opuesto, o bien son eléctricamente neutras. Las partículas elementales llamadas quarks poseen cargas eléctricas fraccionarias, como veremos más adelante.

                 Las partículas subatómicas más conocidas, el electrón, el protón y el neutrón, fueron descubiertas en los últimos años del siglo XIX y primeros del XX. Investigaciones debidas a J.J.Thomson, en 1897, probaron la existencia del electrón, y le llevaron a determinar el cociente de su carga y su masa: e/m = 1,76• 10 11 C/kg. La magnitud de la carga eléctrica del electrón fue determinada experimentalmente por R. Millikan entre 1909 y 1913, hallando un valor igual a 1,6• 10 -19 C.

                 Los experimentos realizados en tubos de rayos catódicos condujeron a nuevos y fructíferos descubrimientos. Se estableció que las nuevas radiaciones halladas estaban constituidas por un gran número de minúsculas partículas, con carga eléctrica e+ y masa 1,67 •10 -27 kg (938,3 MeV/c2. Estas partículas reciben el nombre de protones (p). Otros experimentos realizados en Alemania y Francia en torno a 1930, llevaron a J.Chadwick, en 1932, en Inglaterra, a interpretar los resultados de la experimentación en el sentido de introducir, dentro del núcleo atómico, partículas eléctricamente neutras, con masa aproximadamente igual, pero algo superior, a la del protón. Estas nuevas partículas recibieron el nombre de neutrones (n), y correspondían, por sus propiedades, a las conjeturadas por E.Rutherford en 1920.

3.- LOS RAYOS COSMICOS

                 Existe una radiación, llamada rayos cósmicos primarios, formada por partículas de alta energía, que llegan a la parte más alta de la atmósfera terrestre, procedentes del espacio exterior, y desde todas las direcciones. Nuevas radiaciones (rayos cósmicos secundarios), se generan en la atmósfera, debidas a la interacción entre los núcleos atómicos de ésta y los rayos cósmicos primarios. La radiación de rayos cósmicos secundarios se hace máxima en una zona intermedia de la atmósfera.

                 Los rayos cósmicos primarios no son de naturaleza electromagnética, es decir, no están formados por fotones energéticos predominantemente, sino por partículas cargadas positivas: el 77% protones, el 21% partículas alfa y el 2% núcleos atómicos de masa intermedia o alta. Los rayos cósmicos primarios de energía más baja proceden básicamente del Sol, y los de energías más altas, del espacio exterior, aunque no está lo suficientemente claro. Su energía media es del orden de 20 10 3 MeV.

                 Los rayos cósmicos secundarios, producidos por los choques de los primarios con núcleos de oxígeno y nitrógeno de la atmósfera, contienen fotones de alta energía, neutrones, electrones y nuevas partículas, que han sido descubiertas a partir de 1932: el positrón, los muones y los piones.

                 El positrón (e+), descubierto por C.D.Anderson en 1932, posee la misma masa que el electrón y carga idéntica, pero positiva. Los muones mu+ y mu-, fueron identificados en 1937 por C.D.Anderson y S.H.Neddenmeyer, con masas iguales a 105,6 MeV/c2 y cargas eléctricas +e y -e.

                 En 1947, C.G.Lattes, H.Muirhead, G.Occhialini y C.F.Powell, analizando placas de emulsión nuclear que habían sido expuestas a gran altura a los rayos cósmicos, encontraron nuevas partículas, con cargas eléctricas +e y -e y masas iguales entre sí, igual a 139,6 MeV/c2, a las que llamaron piones (pi+ y pi-). Los piones cargados, una vez producidos, viajan como rayos cósmicos secundarios un cierto trayecto, hasta que se desintegran espontáneamente en muones más nuevas partículas llamadas muones neutrino, o en electrones más nuevas partículas llamadas electrones neutrino. Estas nuevas partículas, los neutrinos, pertenecen a tres clases: los vistos anteriormente, y a los que se les puede llamar también neutrinos asociados al pión y neutrinos asociados al electrón, y un nuevo tipo de neutrinos, que veremos más adelante, que son los neutrinos asociados al tauón, o tauones neutrino.

                 El antiprotón fue descubierto en el Sincrotón de protones denominado "Bevatrón", en la Universidad de Berkeley, California, en 1955, por un grupo dirigido por O.Chamberlain y E.Segré. Protones procedentes del Bevatrón bombardearon un blanco de cobre, y los antiprotones fueron detectados, con las características previstas, entre los productos finales. Poco más tarde, la creación de pares neutrón-antineutrón fue establecida experimentalmente.

4.- EL ZOO DE LAS PARTICULAS

                Antes de continuar con la descripción pormenorizada y cronológica de los descubrimientos de nuevas partículas, así como de sus interacciones, es conveniente tener una perspectiva amplia de las partículas que contempla el llamado "Modelo Estándar", ya que más allá de dicho Modelo, existen nuevas partículas y teorías de enorme interés, pero que no han encontrado aún el respaldo experimental suficiente. Incluso algunas partículas que veremos ahora, como el gravitón, no han sido aún descubiertas.

1.- HADRONES ("hadros": fuerte). Se dividen en Bariones ("baryos": pesado) y Mesones ("meso": medio).

a) Bariones estables. Sus propiedades son la masa (en MeV/c2), el spin, la vida media (en segundos), la composición en quarks, la carga eléctrica y la paridad intrínseca. Su número bariónico es igual a 1.

  1. protón p: 938,28-1/2-3 •10 12 años-uud-1-1
  1. neutrón n: 939,57-1/2-898-udd-0-1
  1. lambda0: 1115-1/2-2,63 •10 -10-uds-0-1
  1. sigma+: 1189-1/2-0,8 •10 -10-uus-1-1
  1. sigma-: 1197-1/2-1,48 •10 -10-dds-(-1)-1
  1. sigma0: 1192-1/2-5,8 •10 -20-uds-0-1
  1. cascada0: 1314-1/2-2,9 •10 -10-uss-0-1
  1. cascada-: 1321-1/2-1,64 •10 -10-dss-(-1)-1
  1. omega+: 1672-3/2-0,82• 10 -10-sss-(-1)-1
  1. lambdac+: 2282-1/2-2,3 •10 -13-udc-1-1

b) Mesones estables. Su número bariónico es igual a 0. El asterisco tras la letra del quark (sólo del quark) significa que se trata de un antiquark. Todos tienen paridad intrínseca igual a -1.

  1. pi+: 139,57-0-d*u-2,6 •10 -8-1
  1. pi-: 139,57-0-u*d-2,6 •10 -8-(-1)
  1. pi0: 134,96-0-u*u-0,87 •10 -16-0
  1. K-/K+: 493,67-0-u*s/us*-1,24 •10 -8-(-1)/1
  1. K*0/K0: 497,72-0-d*s/ds*-0,89 •10 -10-0
  1. eta: 548,8-0-u*u/d*d/s*s-0,7 •10 -18-0

c) Resonancias bariónicas: su número bariónico es igual a 1, al igual que su paridad intrínseca. Su spin es 3/2. Su vida media es del orden de 10 -23 segundos. Las principales: delta++, delta+, delta0, delta-, sigma*+, sigma*0, sigma*-, cascada*0 y cascada*-.

d) Resonancias mesónicas: su número bariónico es nulo y su paridad intrínseca es igual a -1. Las principales: ro-, roº, ro+, omega minúscula, eta prima y fi.

e) Mesones en cuya composición en quarks intervienen el quark y antiquark "charm". Su número bariónico es nulo y su paridad intrínseca es -1. Partículas: D°, D*°, D-, D+, J/Ÿ.

f) Mesones en cuya composición en quarks intervienen el quark y antiquark "bottom". Su número bariónico es nulo y su paridad intrínseca es igual a -1. Partículas: B°, B*°, B-, B+, g.

2.- LEPTONES ("leptos": ligero). Su número bariónico es nulo. Sus propiedades son la carga eléctrica, la masa, el spin, la vida media y el número leptónico. Los valores de la masa, el spin y la vida media son iguales para partículas y antipartículas, pero la carga eléctrica y el número leptónico tendrán valores opuestos.

  1. electrón (e-): descubierto en 1897. (-1)-0,51-1/2-estable-1
  1. electrón neutrino: descubierto en 1953. 0-4,6• 10 -5-1/2-estable-1
  1. muón-: descubierto en 1936. (-1)-105,7-1/2-2,2• 10 -6-1
  1. muón neutrino: descubierto en 1961. 0-0,25-1/2-estable-1
  1. tauón-: descubierto en 1975. (-1)-1807-1/2-3 •10 -13-1
  1. tauón neutrino: descubierto en 1986. 0-70-1/2-?-1

3.- QUARKS: up, down, strange, charm, bottom y top: u-d-s-c-b-t. Sus propiedades son la masa, el spin, el isospin, la tercera componente del isospin, la carga, el número bariónico, la extrañeza, el encanto, la belleza y la verdad. La tabla para los antiquarks es análoga, salvo que los valores de I3, Q, B, S, C, B, y T son opuestos. Los valores de la masa, spin e isospin son iguales a los de los quarks correspondientes.

  1. u: 5-1/2-1/2-1/2-2/3-1/3-0-0-0-0
  1. d: 10-1/2- 1/2-(-1/2)-(-1/3)-1/3-0-0-0-0
  1. s: 150-1/2-0-0-(-1/3)-1/3-(-1)-0-0-0
  1. c: 1500-1/2-0-0-2/3-1/3-0-1-0-0
  1. b: 5000-1/2-0-0-(-1/3)-1/3-0-0-(-1)-0
  1. t: ?-1/2-0-0-2/3-1/3-0-0-0-1.

5.- INTERACCIONES ENTRE PARTICULAS

5.-1.- Interacciones electromagnéticas

                Cuando un electrón (procedente de un Sincrotón, por ejemplo), incide sobre un protón, ambos internacional entre sí por estar cargados eléctricamente. En el Electromagnetismo "clásico" de Maxwell, la interacción de ambos está mediada por el campo Electromagnético: el campo electromagnético creado por el electrón al moverse, actúa sobre el protón, acelerándole, y recíprocamente.

                Este proceso no puede estudiarse dentro de este marco clásico, ya que la pequeñez de las partículas nos obliga a utilizar la teoría Cuántica: al aproximarse ambas partículas, cada una de ellas emite un fotón que se propaga y es absorbido por la otra partícula, separándose tras ello. El campo Electromagnético está constituido por fotones: así aparece el cuanto de radiación electromagnética que llamamos fotón, y que tiene energía y momento como el electrón, pero carece de masa y se mueve a la velocidad de la luz.

                Como consecuencia de la emisión y absorción del cuanto de radiación, o partícula mediadora de la interacción, , que transporta energía y momento de una partícula a la otra, tanto el protón como el electrón se desvían. El alcance de a interacción electromagnética es teóricamente infinito (en la práctica, muy largo) debido a que el fotón tiene masa nula.

                Actualmente, existen modelos que incorporan principios de la Relatividad Especial con los de la Mecánica Cuántica, los TCC (Teoría Cuántica de Campos relativistas), proporcionando una descripción teórica en las que las partículas elementales son consideradas como objetos puntuales. Uno de ellos es la Electrodinámica Cuántica (QED), que estudia las interacciones electromagnéticas de objetos puntuales, tales como electrones, positrones y quarks. Como ejemplo de su bondad, baste decir que las predicciones teóricas y los valores medidos experimentalmente, coinciden en las ocho primeras cifras decimales.

                Consideremos la interacción de dos electrones: la repulsión que sufren será mediada de la manera más simple por el intercambio de un fotón. Este proceso, como cualquier otro en TCC, puede representarse gráficamente mediante un diagrama llamado de Feynman, en honor a su autor. El cálculo de muchos de estos diagramas da valores infinitos, aunque las magnitudes físicas sean finitas. En esta teoría, se redefinen los parámetros físicos carga y masa en un proceso que se denomina "renormalización", para obviar los infinitos. Una teoría a la que no pueda aplicarse este procedimiento, tiene un poder predictivo nulo, y hay que desecharla. De aquí el éxito de la Electrodinámica Cuántica, que es renormalizable y que, una vez renormalizada, concuerda con la experiencia.

                 La Electrodinámica Cuántica es la Teoría Cuántica de Campos relativistas más sencilla que es invariante "gauge". Veamos lo que se entiende por invariancia o simetría "gauge". La QED es relativista, luego el tiempo se considera como la cuarta dimensión. La estructura de la QED, y por tanto sus ecuaciones, es invariante, es decir, las ecuaciones mantienen su forma si en cada punto del espacio-tiempo exterior efectuamos una rotación arbitraria alrededor de un círculo. Matemáticamente, estas rotaciones alrededor de un círculo, forman lo que se llama grupo U(1), y se dice entonces que la Electrodinámica Cuántica es una teoría de campos invariante gauge, con simetría U(1). Es también gracias a esta invariancia que la teoría es renormalizable, y que la masa del fotón es nula.

5-2.- Interacciones Débiles

                 El neutrón aislado no es una partícula estable, como lo es el protón, sino que se desintegra en un proceso que llamaremos desintegración beta, al cabo de unos 20 minutos. Esta desintegración es debida a una nueva interacción que llamaremos débil. W. Pauli, en 1930, hizo la hipótesis que el proceso real de desintegración beta del neutrón es:

n = p + e- + antielectrón neutrino.

                 Otros procesos de desintegración están mediados por interacción débil. Los piones, como ya vimos anteriormente. Los muones, en electrones + muones neutrino+antimuones neutrino. Las llamadas partículas extrañas K o kaones, en muones + muones neutrino o pi+

+pi°, y otras como lambda°, sigma+, sigma-, sigma°, cascada- y cascada°.

                 Siguiendo los pasos de la Electrodinámica Cuántica, llamaremos partículas W+ y W- a los cuantos (cargados) mediadores de la interacción débil. También, apoyándonos en la QED, podemos concluir que las interacciones débiles están descritas por una teoría gauge con una invariancia formal SU(2), y por analogía con la teoría de Yukawa, añadir un tercer cuanto de interacción de carga eléctrica nula, la partícula Zº. Los tres cuantos mediadores tendrían spin igual a 1, y por tanto serían bosones.

                 En la década de los 60, se desarrolló un Modelo, llamado de Weinberg y Salam, que describe conjuntamente las interacciones electromagnéticas y débiles. El modelo es una teoría gauge en la que ambas interacciones participan cada una con su propia intensidad, medida por la constante de acoplamiento. En 1973, en el CERN (Suiza), se puso de manifiesto, indirectamente, la existencia de Zº. En 1983, en el SPS del CERN, dos grupos experimentales hicieron colisionar haces de protones y antiprotones, con energías de 270 GeV cada uno. El resultado fue espectacular: los bosones W+, W- y Zº fueron hallados experimentalmente de forma concluyente, y se midieron sus masas: 81 y 93 GeV/c2. C.Rubbia, director de uno de los grupos, fue galardonado con el premio Nobel en 1984.

                 A pesar del éxito de la Teoría Weinberg-Salam, no todo estaba resuelto satisfactoriamente, pues en sus términos iniciales corría el peligro de ser no renormalizable, y por lo tanto, perder su poder predictivo. El problema se resuelve modificando adecuadamente la Teoría, de forma que las ecuaciones sigan siendo invariantes, pero las soluciones a ellas no lo sean. A este procedimiento se le llama "rotura espontánea de la simetría". Ello se consigue introduciendo teóricamente unas nuevas partículas de spin igual a cero, conocidas como bosones de Higgs; mediante este procedimiento se consigue, simultáneamente, que la Teoría sea renormalizable y que las masas de W+, W- y Zº sean distintas de cero, manteniendo la masa del fotón nula.

                Las partículas de Higgs no han sido detectadas aún experimentalmente, siendo su eventual descubrimiento, si es que existen, uno de los grandes retos para los futuros aceleradores.

5.-3.- Interacciones Fuertes

                 La existencia de núcleos atómicos, teniendo en cuenta que los protones son positivos, sería imposible si no existieran unas fuerzas que impidiesen las repulsiones eléctricas.

                Ha de existir, necesariamente, una fuerza que mantenga protones y neutrones unidos cuando se mueven dentro del volumen nuclear, es decir, a cortas distancia del orden de un fermi. Esta fuerza es debida a una nueva interacción llamada interacción fuerte, de carácter esencialmente diferente a la electromagnética.

                 En 1935, H.Yukawa formuló una interesante analogía entre las interacciones electromagnética y fuerte, conjeturando que la interacción fuerte era debida al intercambio de una nueva partícula entre nucleones (protones y neutrones). Esta nueva partícula portadora de la interacción fuerte recibió el nombre de mesón de Yukawa. Estimaciones teóricas de las masas de los mesones de Yukawa, así como de la intensidad de la interacción entre piones y nucleones, condujeron a la identificación de los mesones de Yukawa con los piones pi+ y pi-.

                 ¿Hay también mesones de Yukawa eléctricamente neutros?. La respuesta es afirmativa. Hacia 1950 ya estaba confirmada la existencia de una nueva partícula con masa 135 MeV/c2: el pión neutro piº. Por lo tanto, según la Teoría de Yukawa, los tres piones eran los portadores de la interacción fuerte. El piº es inestable y se desintegra en dos fotones.

                 Hoy en día se acepta que la hipótesis de Yukawa, aunque correcta en muchos aspectos, tiene limitaciones, y se conoce otra teoría más fundamental de la interacciones fuertes: la Cromodinámica Cuántica. En ella, los mediadores elementales de la interacción fuerte ya no son los piones, aunque en Física de bajas energías, inferiores a 1000 MeV, gran número de situaciones físicas se pueden aproximar, en términos de estos últimos, al estudio anterior.

                 Siguiendo el ejemplo de la Electrodinámica Cuántica, se acepta que las interacciones fuertes vienen descritas por una teoría invariante gauge bajo el grupo de simetría SU(3), a la que se le da el nombre de Cromodinámica Cuántica (1973). Los quarks, componentes de protones y neutrones, interaccionan entre sí mediante el intercambio de unas nuevas partículas mediadoras llamadas gluones, siendo por lo tanto éstos los cuantos mediadores de la interacción fuerte. La teoría es renormalizable y tiene, por tanto, poder predictivo.

                Los gluones son partículas con masa y carga eléctricas nulas y con spin igual a uno. ¿Cuántos gluones hay? En total tenemos ocho gluones en Cromodinámica Cuántica, frente a un solo fotón en Electrodinámica Cuántica. La QED es una Teoría relativamente sencilla porque el fotón no interacciona consigo mismo al no tener carga eléctrica; pro en el caso de la Cromodinámica Cuántica y los gluones es diferente, tal que éstos interaccionan entre ellos debido al "color". Se especula con la existencia de estados ligados formados sólo por gluones, los llamados glueball o bolas de gluones, que no han sido detectados experimentalmente.

                 Indicación indirecta de la existencia de los gluones ha sido proporcionada por la desintegración de la partícula J/Ÿ, dando tres "chorros"de hadrones a altas energías: un gluón da lugar a un chorro intermedio de quarks y antiquarks que se mueven en la misma dirección, y que, al recombinarse, originan el chorro final de hadrones observados.

6.- El Modelo Estándar

                 Como hemos visto anteriormente, tenemos una Teoría para la interacciones electromagnéticas y débiles (electrodébiles), el Modelo de Weinberg-Salam, y otra para la interacciones fuertes, la Cromodinámica Cuántica, que están de acuerdo con la experiencia, por lo menos hasta las energías de los aceleradores actuales, del orden de los 100 GeV. Dejando a un lado la Gravitación, en los procesos entre partículas subatómicas se dan generalmente los tres tipos de interacciones, y por tanto sería de desear que hubiera un Modelo que tratase las tres conjuntamente.

                 El Modelo más sencillo que podemos postular para las tres interacciones conjuntamente, y que esté de acuerdo con la experiencia, es aquel que reúna simplemente los modelos anteriores, es decir, la Cromodinámica Cuántica y la Teoría Weinberg-Salam, y que sería, por tanto, invariante bajo las simetrías gauge que tienen separadamente éstos: SU(3) en Cromodinámica Cuántica y SU(2) y U(1) en interacciones electrodébiles. Matemáticamente, la simetría es SU(3)xSU(2)x(U1).

                Nótese que cada interacción interviene con su propia intensidad. A este modelo se le conoce con el nombre de Modelo Estándar (norma), y es renormalizable. Es consistente con los resultados experimentales conocidos hasta ahora, energías del orden de 100 GeV, y tiene poder predictivo, aún no contrastado, para energías superiores. El Modelo Estándar es consistente con las leyes de conservación, pero no es, ni mucho menos, un modelo "definitivo".

                Quedan aún muchos cabos sueltos extremadamente importantes, como:

a) ¿Cuál es el origen de la simetría conjunta del Modelo Estándar ((SU(3),SU(2),U(1))?

b) ¿Por qué existen tres familias de quarks y de leptones?

c) El Modelo tiene 20 parámetros (constantes de acoplamiento, masas, ángulo de Weinberg, etc.), que no son predichos por la Teoría, sino que han de ser fijados al comparar las predicciones con los datos experimentales.

d) Considerando, por ejemplo, la carga del electrón como unidad de carga eléctrica, ¿se puede predecir las cargas fraccionarias de los quarks a partir de esta unidad?

7.- Teorías de Gran Unificación (G.U.T.)

                Si bien en el Modelo Estándar se reunían tres de las interacciones fundamentales, no por eso quedaban unificadas, pues cada una de ellas aparecía con su intensidad propia y, por tanto, con su constante de acoplamiento característica. Podría ocurrir que a una determinada energía muy superior a los 100 GeV, las tres constantes tuviesen un mismo valor. Físicamente, esto significaría que a esta determinada energía, las tres interacciones tendrían la misma intensidad, es decir, que tendríamos una única interacción.

                 Las Teorías de Gran Unificación o G.U.T. son aquellas que estudian las interacciones fundamentales en el rango de energías en que las tres llegan a ser una misma. Tendríamos entonces una única interacción, y, por tanto, una única intensidad. En 1974, H.Geogi y S.Glashow (Harvard, E.E.U.U.), propusieron el grupo SU(5) como el más sencillo de todos los posibles. Si en dicho modelo SU(5) se estudia la evolución con la energía de las tres constantes de acoplamiento, se comprueba el hecho sorprendente de que éstas se unifican a una energía del orden de 10 15 GeV.

                 Una energía tan enorme no será alcanzada por las generaciones futuras de aceleradores. Entonces, ¿por qué no conformarnos con el Modelo Estándar, aunque sea renunciando al placer estético de unificar las interacciones fundamentales?.

                 En respuesta a esto se pueden dar, al menos, dos razones que hacen relevantes las Teorías de Gran Unificación. Primera: estas energías se alcanzaron en el Universo cuando, después del Big Bang, su diámetro y su temperatura eran, respectivamente, del orden de 10 -29 cm y 10 28 ºC (esto convierte al Universo en el laboratorio ideal). Segunda: la posibilidad de formular una Teoría a 10 15 GeV, con un número de parámetros inferior a los que aparecen en el Modelo Estándar. Por supuesto, luego tendríamos que "descender" de 10 15 GeV a 100 GeV, es decir, hacer predicciones a las energías ordinarias.

                Si en una teoría con una invariancia gauge SU(3), como la Cromodinámica Cuántica, teníamos ocho partículas mediadoras de la interacción fuerte (los gluones), en el caso SU(5) tendríamos 24. De estas 24 conocemos, hasta ahora, sólo 12: 1 fotón, 8 gluones y los bosones W+, W- y Zº, que son los mediadores de las interacciones electromagnética, fuerte y débil, respectivamente, que pasaban de un quark a otro quark y de un leptón a otro leptón. pero ahora, las 12 partículas mediadoras restantes (que se denominan bosones X e Y), permitirán el paso de quark a leptón y viceversa. Este hecho tiene una consecuencia física relevante e inédita: el protón, que hasta ahora se consideraba una partícula estable, ¡se desintegraría!

                 Entre otras predicciones del modelo SU(5), están el ángulo de Weinberg y la cuantificación de la carga eléctrica. A pesar de su éxito, este modelo deja muchas cuestiones sin resolver como la existencia, al menos, de tres familias, el elevado número de parámetros (21), la llamada "jerarquía de roturas", y además, ¿por qué no incluir, a esas enormes energías, la interacción gravitatoria?

                 El elevado número de parámetros y la jerarquía de roturas requieren la introducción de un nuevo concepto: la "Supersimetría". En cuanto a la introducción de la interacción gravitatoria, este tema dará lugar a la teoría conocida con el nombre de "Supergravedad".

8.- Supersimetría

                 Los bosones, partículas con spin entero, y los fermiones, partículas con spin semientero. obedecen a estadísticas diferentes. En términos simples, dos fermiones no pueden estar en el mismo estado (caracterizado por valores determinados de los diferentes números cuánticos), y en cambio, para los bosones no existe tal restricción. Supongamos que existe una transformación, que llamaremos "Supersimetría", que pasa de un fermión a un bosón (y viceversa) con espines adyacentes. Así, a una partícula cualquiera le correspondería otra, que llamaremos su compañera supersimétrica.

                 A principios de la década de los setenta, esta transformación fue construida por diversos autores (Y.Golfand y E.Likhtman en 1971; P.Volkov y V.Akulov en 1973; J.Wess y B.Zumino en 1973), que propusieron Teorías Cuánticas de Campos que eran invariantes bajo dicha transformación. La Supersimetría se imponía como una simetría global, es decir, la misma transformación actúa en todo punto del espacio-tiempo. Los primeros cálculos en las teorías supersimétricas mostraron que gozaban de una gran virtud: no necesitaban sucesivos ajustes de los parámetros, es decir, resolvían el problema de la "jerarquía de roturas".

                 Así pues, lo que se hizo fue unir las ideas de Gran Unificación y Supersimetría, originando las teorías llamadas SUSY GUT. Uno de los primeros ejemplos que se construyeron fue el de un modelo invariante gauge bajo SU(5) y además, supersimétrico. Sin embargo, hay que añadir nuevas partículas para que hagan de "compañeras" de los bosones de Higgs, quarks, etc. Así, para el fotón se introducía el fotino, para la W+ el wino, para la Zº el zino, para los gluones los gluinos, para los quarks los squarks y para los leptones los sleptones.

                 El contenido de partículas ha aumentado en relación al SU(5) no supersimétrico, pero ¿seguirán haciéndose iguales las constantes de acoplamiento a una energía dada?. La respuesta es afirmativa, por lo que seguimos teniendo un modelo unificado y además supersimétrico. Las constantes de acoplamiento coinciden a una energía de 10 16 GeV, es decir, a una energía superior a la del caso no supersimétrico. Este modelo también predice de forma natural la desintegración del protón.

                 Sin embargo, las compañeras supersimétricas no han sido detectadas hasta ahora. El siguiente paso tendrá que ser, entonces, el de romper la Supersimetría, o sea, el permitir que una partícula y su compañera supersimétrica tengan diferente masa. La rotura, naturalmente, ha de ser realizada de forma tal que no se "estropeen" las virtudes de las Teorías Supersimétricas, como la que conducía a la resolución del problema de las jerarquías. Esta cuestión, unida a la mayor proximidad a 10 19 GeV de la escala de unificación de los modelos supersimétricos, hará que se incluya finalmente la gravitación, como veremos más adelante.

                     Aunque hasta la fecha las compañeras supersimétricas no han sido detectadas, se espera encontrar señales de ellas en los futuros aceleradores; de no ser así, todo el esquema basado en la Supersimetría estaría en serias dificultades. Se conjetura que las partículas compañeras estables podrían formar parte de la materia "oscura" del Universo.

9.- Supergravedad

                 En 1915, Albert Einstein propuso su Teoría de la Relatividad General, una de las mayores aportaciones a la Física. Se puede considerar que es una Teoría geométrica del campo gravitatorio clásico, sin efectos cuánticos. En ella, la geometría del espacio-tiempo (tres dimensiones espaciales y una temporal), está determinada dinámicamente por los cuerpos que se encuentran en él; el espacio se curva, y el efecto neto de dicha curvatura es la atracción entre las masas.

                 Si partiendo de la Teoría de Einstein pretendemos desarrollar una Teoría Cuántica de la Gravitación, habrá que considerar, además de la constante de Newton "G" y la velocidad de la luz "c", la constante de Planck "h", que caracteriza los fenómenos cuánticos. Estas tres constantes permiten definir una masa (o energía) y una longitud, características de la interacción gravitatoria, que se llaman masa y longitud de Planck. En la Teoría Cuántica de la Gravitación, dos partículas subatómicas se atraerían mutuamente mediante el intercambio de un nuevo cuanto llamado "gravitón". Esta partícula mediadora de la interacción tendría un spin igual a 2, (es un bosón), y su masa sería nula. El gravitón no ha sido detectado experimentalmente. Cuando se llevan a cabo cálculos en dicha Teoría, los infinitos que aparecen no pueden ser eliminados mediante el proceso de renormalización, y la Teoría no es consistente.

                 Retomemos el camino desde otra perspectiva. Hemos visto que las G.U.T. pretenden la unificación de las tres interacciones fundamentales, excluida la gravedad. Si incluimos ésta, llegamos a las Teorías de Gran Unificación Supersimétricas. La incorporación de la gravitación a una teoría que unifique las tres interacciones fundamentales, se lleva a cabo haciendo que dicha teoría sea invariante bajo Supersimetría "local" (es decir, una transformación supersimétrica distinta en cada punto del espacio-tiempo). A la teoría invariante bajo Supersimetría local así resultante, y que unifique las cuatro interacciones fundamentales, se le llama "Supergravedad" (1976). Al gravitón le corresponderá un compañero supersimétrico llamado "gravitino", y cuyo spin será igual a 3/2. El gravitino, al igual que el gravitón, no ha sido detectado.

                 Desgraciadamente, y tras mucho trabajo, no se ha conseguido un Modelo de Supergravedad que sea renormalizable, es decir, consistente, y que pueda presentar un espectro realista de partículas a bajas energías. Por tanto, el problema de formular una Teoría Cuántica de la Gravitación que sea consistente, persiste. Más aún, no tiene visos de solución dentro de la Teoría Cuántica de Campos. Se necesita, pues, algo nuevo. El intento más reciente lo constituyen las Teorías de Cuerdas y Supercuerdas.

10.- Teoría de Cuerdas

                 El problema de la incorporación, de manera consistente, de la Gravitación Cuántica, quedaba sin resolver dentro del marco de la Teoría Cuántica de Campos, que describe objetos puntuales; abandonemos entonces los objetos puntuales e introduzcamos un nuevo objeto elemental que no sea puntual: la Cuerda, un objeto unidimensional. Mientras que en Teoría Cuántica de Campos el objeto elemental era puntual e indivisible, en Teoría de Cuerdas (TC´s) el objeto elemental es extenso y divisible.

                La Teoría de Cuerdas se originó al final de la década de los 60, pero en su representación actual pertenece a los 80. En ella se introduce un único parámetro: la tensión de la cuerda "T", que está relacionada con la masa de Planck. La longitud de la cuerda será, por tanto, del orden de 10 -33 cm. Se necesitan 10 33 cuerdas, colocadas una a continuación de otra, para tener 1 cm de longitud. Si las distancias que consideramos son grandes comparadas con la longitud de Planck, veríamos las cuerdas como objetos puntuales: la Teoría de Cuerdas, entonces, a bajas energías se reducirá a una Teoría de Campos.

                 Las cuerdas pueden ser abiertas y cerradas (con los extremos unidos). ¿Cómo aparecen las partículas en este contexto? Las partículas son como los "sonidos" (o modos de vibración) que producen las cuerdas al vibrar. Una cuerda tiene un número infinito de modos de vibración y, por tanto, generaría una secuencia infinita de partículas de masas crecientes. Los estados fundamentales de vibración, es decir, los de mínima energía, se interpretan como los quarks, leptones y partículas mediadoras de interacción. El gravitón aparece como un estado fundamental de la cuerda cerrada. Como toda cuerda abierta puede convertirse en cerrada, uniendo sus extremos, la gravitación queda siempre automáticamente incorporada. A fin de no tener estados falsos o no físicos (partículas con masa imaginaria, llamadas taquiones), se tiene que introducir la Supersimetría en la Teoría; el objeto elemental se denomina, ahora, la supercuerda, y la teoría pasa a llamarse Teoría de Supercuerdas.

                 Los restantes modos de vibración, distintos de los fundamentales, corresponderían a partículas con masas iguales o mayores que la masa de Planck. Las cuerdas, al desplazarse en el espacio, describen una superficie; razones de consistencia de la Teoría exigen que esta superficie se encuentre en un espacio-tiempo de 10 dimensiones, nueve espaciales y una temporal. También por razones de consistencia, los grupos de simetría que aparecen han de ser unos muy determinados. Estos grupos contienen las simetrías del Modelo Estándar.

                 En 1984, este hecho, junto con las buenas propiedades de renormalizabilidad, impulsó la Teoría de Cuerdas de manera extraordinaria, de la mano (el talento) de M.Green y J.Schwarz. Sin embargo, si queremos que la Teoría tenga predicciones físicas a bajas energías, necesitamos: a) reducir el número de dimensiones del espacio-tiempo de diez a cuatro, en las que "parece" que vivimos, y b) desembarazarse de la excesiva simetría de los grupos privilegiados. Por otra parte, no existe una prueba definida de la renormalizabilidad de la Teoría de Cuerdas.

                 La complejidad matemática de las Teorías de Cuerdas reclama el concurso de conocimientos matemáticos muy especializados, como superficies de Riemann, geometría algebraica, teoría de números, etc. Las soluciones concretas son arduas de alcanzar. No existe, además, un principio fundamental que guíe la elección de una única Teoría de Cuerdas. A pesar de ello, las Cuerdas son una opción válida para la resolución del problema fundamental de la Gravitación Cuántica, que definitivamente carecía de solución en la Teoría Cuántica de Campos. Recordemos que una Teoría de Gravitación Cuántica debería satisfacer:

a) Incorporar de una manera consistente las cuatro interacciones fundamentales.

b) Depender de una única constante de acoplamiento.

c) Explicar los valores de las masas, constantes de acoplamiento (de las cuatro interacciones fundamentales a bajas energías), número de leptones y quarks, etc.

d) Explicar el origen de las simetrías observadas experimentalmente, reproduciendo así la Física de partículas elementales a bajas energías.

e) Predecir una constante cosmológica prácticamente nula. Dicha constante, introducida primero por Einstein para obtener un Universo estático y finito, describe la parte de la curvatura del Universo que no es causada por la materia. La constante cosmológica es menor o del orden de 10 -120.

                 La Teoría, y este es un punto esencial, debería estar formulada a partir de primeros principios. Un ejemplo clave, en el que esto ocurre, es el de la Relatividad General. En ella, Einstein partió de los principios de equivalencia (localmente, el efecto de la gravedad no se distingue del de la aceleración), y de covarianza general (invariancia bajo transformaciones generales de coordenadas). Ambos encontraron su expresión matemática en el lenguaje de la Geometría de Riemann, generalización de la euclídea de los espacios planos a los curvos, dando lugar a ecuaciones dinámicas.

11.- Teoría de Supercuerdas

                 Einstein, como otros físicos teóricos, pasaron y pasan gran parte de su vida, intentando alcanzar un prodigio científico que tal vez era y/o es imposible: unir la Teoría de la Relatividad con la la Mecánica Cuántica que describe el Universo a escala atómica. No logró Einstein su sueño de enlazar las leyes físicas del macrocosmos con las del microcosmos, ni tampoco, hasta ahora, lo han logrado otros muchos estudiosos, lo que se ha venido a convertir en una aspiración generalizada del estudio sobre el funcionamiento del Universo. La generalidad de los físicos teóricos buscan estructurar una gran unificación entre la Teoría de la Relatividad General y la Mecánica Cuántica. La primera, comporta toda la capacidad necesaria para explicar los efectos de la fuerza gravitatoria sobre un espacio-tiempo curvo. Sin embargo, no se ha podido distinguir consecuencias precisas de las posibles fuerzas que actúen sobre una partícula, ya que ésta sigue, normalmente, una trayectoria inercial o toma el camino más corto posible, describiendo como una geodésica sobre el espacio-tiempo curvo. Por ello, explicar todas las fuerzas conocidas bajo el alero de una misma idea, un concepto, una sola teoría, representa la máxima aspiración que embarga a los científicos centrados en entender el total comportamiento de la Naturaleza. Muchos de ellos piensan que si ello se logra, también se habría dado término al camino que ha seguido, dentro de la humanidad, el desarrollo de la Física.

                Dentro de los esfuerzos que se hacen para alcanzar esa tan anhelada unificación, aparecen nuevos intentos dentro del ámbito de las TC's, explorando sus posibilidades con vaivenes, avances y atolladeros, en medio de fuertes críticas de sus detractores. En los más de treinta años transcurridos desde su aparición, la teoría ha experimentado diferentes grados de apogeo, reconociéndose a dos de ellos como los de mayor relevancia: el que se dio en los años 1984-1985 y, el último, en 1994. A estos altos de actividad se les ha reconocido como períodos de primera y segunda revolución y, también a la teoría se le ha empezado a reconocer como Teoría de las Supercuerdas (TSC's). Pero en los últimos tiempos, se ha llegado a contar con nuevos instrumentos de ideas físico-matemáticas, que podrían otorgar un arrinconamiento definitivo de esta teoría o dar la clave para avanzar un paso decisivo en la unificación teórica de la Relatividad y la Mecánica Cuántica.

                Las conclusiones a las que periódicamente llegan los adeptos a la TSC, se centran en el entusiasmo de proclamar que ésta otorga la única forma, hasta ahora, de poder contar en un futuro con una Teoría Cuántica consistente con la Gravedad. Como prácticamente todas las teorías de cuerdas, la TSC's comienza con el concepto de dimensiones adicionales de Kaluza-Klein y comporta una enorme complejidad muy difícil de comprender para los que no están directamente involucrados en sus modelos. Con ella se aspira a resolver el más enigmático problema matemático que comporta la Física teórica en los finales del siglo veinte: la incompatibilidad matemática de los pilares fundamentales de la Mecánica Cuántica con la Teoría de la Relatividad General.

                Para comprender los fundamentos que conlleva la aspiración de resolver los aspectos incompatibles que nos presentan la Relatividad General y la Mecánica Cuántica, podemos recurrir a un ejemplo que aclarará qué clase de dificultades plantea la combinación de ambas. El punto de partida de la Relatividad General es el "principio de equivalencia": un campo gravitatorio local es indiferenciable de un movimiento acelerado. Si estuviéramos en el espacio exterior en un cohete en aceleración uniforme, nos veríamos atraídos hacia el suelo como si en el cohete existiese un verdadero campo gravitatorio (como si el cohete se hallase en la superficie de un planeta).

                 Einstein reconocía, en este principio de equivalencia, que la presencia de un campo gravitatorio local es sólo un símil de si un observador está acelerando o no; es decir, depende del sistema de coordenadas con que decida medir su movimiento. Por ejemplo, si eligiéramos para el sistema de coordenadas el cohete en aceleración, es factible considerar que habría un campo gravitatorio, pero en un sistema de coordenadas que no esté en aceleración no habrá ninguno. Pero las leyes matemáticas fundamentales de la Física deberían ser iguales para todos los observadores, independiente de que el observador esté acelerando o no con respecto a otro. Si no, las leyes fundamentales dependerían de la elección arbitraria por un observador de un sistema de coordenadas determinante, y ese tipo de arbitrariedad no debería darse en las leyes fundamentales.

                 Este principio de "invariancia coordinada general" se halla incorporado a la Teoría de la Relatividad General. A este respecto, va más lejos de la primera Teoría de la Relatividad Especial de Einstein que sólo exigía que las leyes matemáticas de la Física tuviesen la misma forma para observadores que estuvieran moviéndose de manera uniforme en relación los unos con los otros: un movimiento a una velocidad constante.

                Según la teoría relativista del campo cuántico, un campo de gravedad constante crea un baño radiante de partículas cuánticas, como los fotones, a una temperatura determinada. Sería como estar dentro de un horno (por suerte, esta temperatura es muy baja en la fuerza de gravedad de la Tierra). Pero el principio de equivalencia entraña que un campo gravitatorio es lo mismo que una aceleración. En consecuencia, un observador en aceleración ve un baño de partículas cuánticas creadas por el campo gravitatorio, mientras que el que está inmóvil no lo ve. Se altera, por tanto, la idea misma de creación y destrucción de partículas cuánticas. No está claro lo que quedará del concepto "partícula cuántica" en la Relatividad General, pero en la actualidad este concepto es esencial para la visión que tienen los físicos del micromundo.

                Los dominios usuales de la Relatividad General y de la Mecánica Cuántica son diferentes. La Relatividad General comporta la capacidad de describir la gravedad aplicada para objetos grandes, masivos, como estrellas, galaxias, agujeros negros, estructuras cosmológicas, y el propio Universo. Con respecto a la Mecánica Cuántica, ésta se centra en describir lo minúsculo, las estructuras pequeñas del Universo, tales como electrones quarks, etc. Por lo tanto, cuando requerimos de la Física conocer los diferentes aspectos relacionados con la Naturaleza, recurrimos indistintamente a la Relatividad General o a la Mecánica Cuántica para una comprensión teórica, claro que, de forma independiente. Sin embargo, cuando queremos conocer razones de comportamiento de aspectos naturales que demandan explicaciones más rigurosas y profundas, hasta ahí llegamos, ya que normalmente se requiere la participación de ambas para lograr un tratamiento teórico apropiado; se nos acaba la gasolina intelectual y se estrangula la capacidad computacional preexistente.

                Comprender los escenarios del espacio-tiempo, las singularidades de los agujeros negros, o simplemente, el estado del Universo primario antes de la gran explosión, corresponde a una muestra concreta de lo anteriormente descrito. Son estructuras físicas exóticas que requieren, por un lado, involucrar escalas masivas enormes (Relatividad General) y, por otro, escalas de distancias diminutas (Mecánica Cuántica). Desafortunadamente, la Relatividad General y la Mecánica Cuántica son, en alguna medida, incompatibles: cualquier cálculo que se intente realizar usando simultáneamente ambas herramientas genera respuestas absurdas. Esta situación queda en clara evidencia cuando se intenta estimar matemáticamente la interacción de partículas en trazados cortos, como los que se dan en lo que se llama la escala de Planck, 10-33cm. Con la Teoría de las Supercuerdas se pretende resolver el profundo problema que acarrea la incompatibilidad descrita de estas dos teorías a través de la modificación de propiedades de la Relatividad General cuando es aplicada en escalas superiores a la de Planck.

                La TSC's levanta su tesis sosteniendo la premisa de que los elementos fundamentales de la materia no son correctamente descritos cuando sólo determinamos configuraciones de objetos puntuales, ya que si se llevaran a distancias de un radio aproximado a la escala de Planck, entonces parecerían como minúsculos apiñamientos de bucles de pequeñas cuerdas. Los aceleradores de partículas modernos están lejos de poder probar eso. Sin embargo, la hipótesis de la TSC's sostiene que la configuración que adquiriría la materia de pequeñísimos rizos o bucles cuando interactúan en cortísimas escalas de distancia, haría que ésta presentase un comportamiento drásticamente distinto al que hasta ahora hemos logrado observar. Ello sería lo que permitiría a la Gravedad y a la Mecánica Cuántica constituir una unión armónica.

                En la TSC's se propugna que las sesenta y dos partículas elementales, que muchos de nosotros tradicionalmente consideramos, indivisibles y que vienen a ser como puntos en el espacio, se transforman en la TSC's en objetos extensos, pero no como esferitas, sino más bien como cuerdas. Se consideran como restos en forma de rizo o bucle del Cosmos primitivo, tan masivas que un trocito de un centímetro de largo y una trillonésima del grueso de un protón pesarían tanto como una cordillera. Se cree que estos hipotéticos objetos se crearon durante las llamadas transiciones de fases, períodos críticos en los cuales el Universo sufrió un cambio análogo a la forma en que el agua se convierte en hielo o vapor. La primera transición de fase ocurrió una minúscula fracción de segundo después del Big Bang. Cuando el Universo primitivo se enfrió, pasó de un estado de pura energía a uno de energía y materia. La materia se condensó y nació a la existencia y, durante otras transiciones posteriores, procesos similares separaron fuerzas como la nuclear fuerte y la nuclear débil una de otra. A cada estadio, transiciones irregulares pudieron haber creado fallas en el espaciotiempo. Dentro de estos defectos, el espacio-tiempo retuvo las fuerzas y la materia de la fase anterior.

                La premisa básica de la Teoría de las Supercuerdas es aquella que considera la descripción de la materia y el espacio-tiempo, a escala de Planck, un profundo entretejido. Una descripción sucinta de ello es aquella que contempla un objeto extendido igual que una cuerda (cuerda abierta) u otro que puede cerrarse (cuerda cerrada). Son objetos que se propagan por el espacio de fondo y al hacerlo generan una superficie llamada "hoja de mundo". Los objetos básicos son las cuerdas y la teoría para ellos introduce una constante (de acoplamiento) fundamental, la cual es proporcional al inverso de la tensión de la cuerda. En general, las TC's han vivido muchos altibajos y, se puede decir que, a principios de la década de los setenta, éstas, prácticamente, se encontraban casi en el olvido.

                 En 1974, J.H. Schwarz y J. Scherk, por casualidad, observaron que las teorías proveían un estado de la cuerda con un acoplamiento tal, que el límite puntual correspondía precisamente con el de la Relatividad General de Einstein. Ello fue lo que sugirió a muchos físicos que las Teorías de Cuerdas podrían comportar las cualidades esenciales para transformarse en una teoría de unificación de las cuatro fuerzas de interacción que conocemos hasta ahora de la Naturaleza, incluyendo a la gravedad.

                La síntesis de todos estos resultados se realizó en 1983, quedando finalmente estructurados en la formulación de lo que hoy se conoce como Teoría de las Supercuerdas (TSC's). Lo sintetizado en ello no tuvo nada de trivial, ya que corresponde a aproximadamente quince años de trabajo. Una teoría de la Naturaleza que contenga el requisito de fundamental, debe estar correlacionada con ambos tipos de partículas, fermiones y bosones. Cuando se incluyen fermiones en la Teoría de Cuerdas como la llamada "hoja del mundo", aparece siempre la necesidad de tener que llegar, en los distintos trabajos de cálculos, a determinar la posible existencia de un nuevo tipo de simetría llamada Supersimetría para poder relacionar los bosones y fermiones. En ese proceso de teorización, ambos tipos de partículas son agrupados en supermúltiplos que se relacionan bajo una simetría. Esto es lo que determina la razón del uso del superlativo "súper" para denominar a las nuevas TC's como Teoría de las Supercuerdas.

                 Ahora bien, para que una Teoría de Supercuerdas pueda ser consistente con la Teoría del Campo Cuántico, requiere que el espacio-tiempo esté constituido por diez dimensiones; de no ser así, la teoría resulta inconsistente o anómala. Con diez dimensiones espacio-temporales, las anomalías son anuladas con precisión, liberando a la teoría para su consistencia. Claro está que el hecho de considerar a un espacio-tiempo con diez dimensiones, aparece como una contradicción con las observaciones de un espacio temporal de cuatro, pero no deja de ser interesante para la investigación sobre la naturaleza de nuestro Universo el indagar sobre la posibilidad de la viabilidad de una Física de diez dimensiones.

                Ya en 1984, existían varias teorías de supercuerdas en 10 dimensiones. Pero todas estas teorías comportaban una serie de irregularidades anómalas. En ese mismo año 84, M.B. Green y J. Schwarz descubrieron un método para anular las anomalías de Yang-Mills, las gravitacionales y los infinitos, al que se le llamó mecanismo de Green-Schwarz, liberando con ello a tres teorías que mostraban inconsistencia. Estas fueron la Tipo I (con grupo de norma SO(32)), Tipo IIA, y Tipo IIB.

                Por otra parte, en 1984, se presentaron dos nuevas teorías a las que se les llamó heteróticas y que satisfacían el mecanismo de Green-Schwarz, con grupo de norma SO(32), y E8 x E8. Fueron propuestas por J. Gross, J.A. Harvey, E. Martinec y R. Rhom. Luego se logró identificar a la heterótica E8 x E8, gracias a los aportes de P. Candelas, G.T. Horowitz y A. Strominger, como la candidata más prometedora para constituirse en una teoría que unificara a las interacciones fundamentales, incorporando en forma natural a la gravedad de la Relatividad General. En este procesos, se logró diseñar, dentro de los límites de baja energía, una teoría que se asemeja bastante a las GUT's, pero con la ventaja de que, muchas de las propiedades, tales como el número de generaciones de leptones y quarks, el origen del "sabor", etc. son deducidos por la teoría en diez dimensiones a través de un mecanismo de compactificación de seis de las diez dimensiones. Resumiendo, podemos señalar que es posible contabilizar la existencia de cinco Teorías de Supercuerdas que serían consistentes conteniendo la gravedad: I, IIA, IIB, Het (SO(32)), y Het (E8 x E8) y que a partir de éstas se llegaría a la obtención de una gran teoría unificada.

  1. Tipo I SO(32):
    Se trata de uno de los modelos teóricos de las Supercuerdas estructurado con cuerdas abiertas. Tiene una Supersimetría uno ( N = 1) con diez dimensiones. Las cuerdas abiertas transportan grados gauges libres en su puntas comas o finales. Esta teoría está compelida a correlacionarse, exclusivamente, con el tipo SO(32) de la teoría gauge para anular las perturbaciones o anomalías. Contiene D-comas o D-branes con 1, 5 y 9 dimensiones espaciales.
    Tipo IIA:
    Esta es una Teoría de Supercuerdas desarrollada con cuerdas cerradas y que tiene dos (N = 2) supersimetrías en diez dimensiones. Inserta dos gravitinos (teóricas partículas supercompañeras del gravitón) que se mueven en sentido opuesto en las cuerdas cerradas de la hoja del mundo, con oposiciones a las chirales (no es una teoría chiral) bajo diez dimensiones del grupo de Lorentz. No se inserta en el grupo de las gauges. Tiene D-comas con 0, 2, 4, 6, y ocho dimensiones espaciales.
    Tipo IIB:
    Esta se trata de una teoría semejante a la descrita anteriormente, o sea, con cuerdas cerradas e idéntica Supersimetría. Sin embargo, en este caso, los dos gravitinos tienen los mismos chirales bajo diez dimensiones del grupo de Lorentz, o sea, es una teoría chiral. También no es gauge, pero contiene D-comas con -1, 1, 3, 5, y 7 dimensiones espaciales.
  2. SO(32) Heterótica:
    Se trata de un modelo teórico fundamentado con cuerdas cerradas, en que los campos de la hoja del mundo se mueven en una dirección con Supersimetría y, en la dirección opuesta, sin ese tipo de simetría. El resultado es una supersimetría N = 1 en diez dimensiones. Los campos sin Supersimetría, constituyen los vectores sin masa de los bosones; en consecuencia, se trata de una teoría que requiere de una simetría gauge SO(32) para anular las perturbaciones.
    E8 x E8 Heterótica:
    Esta teoría es idéntica a la descrita precedentemente, excepto que corresponde al grupo E8 x E8 de las gauges que, junto con el SO(32), son los únicos permitidos para anular las perturbaciones o anomalías.

                Vemos que ambas teorías heteróticas no contienen D-comas. Sin embargo, contienen un solitón 5-comas o "fivebrane" que no corresponde a un D-comas. Este 5-comas generalmente se le llama el fivebrane de Neveu-Schwarz o del NS.

                De las cinco Teorías de Supercuerdas que hemos descrito, hasta el año 1995 la heterótica E8 x E8 fue considerada la más prometedora para describir la Física más allá del Modelo Estándar. Descubierta en 1987 por Gross, Harvey, Martinec, y Rohm, fue considerada, por mucho tiempo, como la única Teoría de Cuerdas que podría llegar a describir nuestro Universo. Se pensaba así debido a que el grupo gauge del Modelo Estándar SU(3) x SU(2) x U(1) se puede insertar con facilidad dentro del grupo gauge E8. La materia bajo el otro E8 no podría interaccionar sin la participación de la gravedad, lo que abría la posibilidad de encontrar una mejor explicación en Astrofísica sobre el fenómeno de la materia oscura. Por otra parte, las cinco Teorías de Supercuerdas estaban definidas perturbativamente, esto es, válidas sólo para diminutos valores de una constante fundamental llamada "e". Problemas propiamente endógenos de la Teoría dificultaban sustancialmente cualquier tipo de predicciones de cantidades físicas que pudieran ser contrastadas con experimentos en aceleradores.

                 Sin embargo, tal como ya lo hemos reconocido, se trata de una teoría que provee un marco conceptual rico para predecir la estructura matemática del Modelo Estándar, una simetría llamada "supersimetría" y la Teoría Cuántica de la Gravedad. Recordemos que la Supersimetría es una simetría entre partículas cuánticas que surge como la materia y las partículas que transportan la interacción. Se espera buscarla con nuevos aceleradores que recientemente han empezado a operar o que se tiene proyectado hacerlo en el futuro, y su descubrimiento es de importancia medular para la solución de algunos problemas teóricos presentes en el Modelo Estándar.

                 En la TSC's se sostiene que las cuerdas son objetos unidimensionales extendidos que evolucionan en el espacio-tiempo. Pero esta evolución sólo se hace consistente en 10 dimensiones o más, apuntando uno de los aspectos más sorprendentes de la teoría. Las cuerdas forman rizos o bucles y/o se extienden hasta el infinito, vibrando con un ritmo que envía olas ondulantes de gravedad a través del espacio. Puesto que las cuerdas cortas oscilan rápidamente, disipando su energía en unos cuantos millones de años, sólo las cuerdas más largas, con poderosos índices de oscilación, serían los fósiles que todavía seguirían a nuestro alrededor. Pero serían las ya hace tiempo desaparecidas cuerdas cortas las causantes primarias de la creación de los cúmulos de galaxias que hoy observamos.

                El inconveniente más serio que se presentaba permanentemente en las Teorías de Cuerdas y también en la TSC's, era la dificultad que se tenía, y que aún persiste, para hacer cálculos más precisos. Pero ello, en los últimos años, han venido siendo abordadas con la creación de un conjunto de nuevas herramientas que han permitido soslayar, en alguna medida, las limitaciones matemáticas de la teoría. Estas herramientas son las que se conocen como "dualidad", que se trata de la inserción en las ecuaciones de la Teoría de las Supercuerdas de un cierto tipo de simetría.

                Hasta ahora, sólo queda esperar para ver si los nuevos modelos matemáticos cumplen un papel semejante al que sucedió con el que, finalmente, se aplicó para desarrollar antimateria y, con ello, hacer posible predicciones verificables en forma experimental para la Teoría de las Supercuerdas. Podemos concebir que algunos aspectos de la teoría no se encuentran alejados de los ya experimentados, ya que hay que tener presente que en las observaciones astrofísicas es posible comprobar teorías de partículas. Para ello, basta recordar que lo que hoy día se ve del Universo es el la radiografía del pasado y aquí se nos da una forma de poder abordar la TSC, ya que si pensamos en el Universo retrospectivamente hacia el estado en que las densidades y las energías son cada vez mayores, se llega a un momento en que todas las predicciones de la Teoría de las Supercuerdas se convierten en importantes. En este sentido, el Universo es un laboratorio de una gran eficiencia experimental para comprobar teorías.

                Se supone que el Big Bang, que dio origen al Universo, distribuyó la materia regularmente a través del espacio. De lo anterior tenemos pruebas en la radiación cósmica de fondo que nos llega con igual intensidad desde todas direcciones. Pero el quid de la cuestión es que las evidencias observacionales también revelan una gran grumosidad del Universo: galaxias y cúmulos de galaxias parecen producirse en la superficie de interconectados vacíos parecidos a burbujas. ¿Cómo es que las Supercuerdas fueron, entonces, capaces de generar esas estructuras observadas a gran escala?. Una hipótesis propugna que la materia en el Universo primitivo, sin rasgos distintivos, se coaguló alrededor de las Supercuerdas, atraída por su poderosa gravedad. Otra idea opuesta a esa hipótesis es de que la presión de la radiación electromagnética de las Cuerdas empujó lejos a la materia. Si las Cuerdas fueron el andamiaje subyacente sobre el que se construyó el Universo, podrían hallarse pruebas indirectas de su existencia en las observaciones de tipos específicos de lentes gravitacionales. Otra prueba, menos fácil de encontrar, sería el susurro que dejan atrás las ondas de gravedad junto a esos hoy desaparecidos perfiles cósmicos.

                 Aunque muchos de los físicos que han trabajado con las Supercuerdas subrayan que con ellas se podría llegar a alcanzar una descripción completa de las fuerzas fundamentales de la Naturaleza, no obstante señalan que quedarían muchísimas preguntas científicas sin contestar. En principio, una teoría del Universo microscópico es responsable de las propiedades físicas de otros aspectos observables, pero en la práctica, y tan sólo hablando de funciones del pensamiento experimental, es imposible matemáticamente pasar de una a otra, ya que se requeriría un poder de computación inimaginable, incluso con ordenadores de dentro de cien años.

                 Sin embargo, existen otros teóricos que han visto en ella la posibilidad de contar con una herramienta que les permita, ahora, conseguir avanzar hacia una descripción unificada de todas las fuerzas del Universo y de todas las partículas elementales que dan forma a la materia, de manera que se pudiera formular una "Teoría del Todo". Unificación ésta que, en el mundo de la Física, es la máxima aspiración de la generalidad de los científicos. Creemos que tiene que existir esta unificación porque se ha unificado la Radiactividad con el Electromagnetismo en la Teoría Electrodébil dentro del marco de una confirmación experimental. Pero está por ver si son las Supercuerdas el camino correcto o seguirá siendo necesario seguir desarrollando otros campos de investigación o, por último, asumir la decisión de reformular teorías que por sus aciertos generales, especialmente en lo macrocósmico, han sido ritualizadas y, quizás también, causantes de un encapsulamiento en la evolución de la Física teórica.

                Para poder explicarnos el Universo observable, además de las ecuaciones que describen el Universo microscópico, se requieren conocer las condiciones iniciales y, tan solo entonces, podríamos empezar a entender cuáles han sido los pasos de su evolución. ¿Serán las Supercuerdas las que logren ese objetivo? Por ahora, no se ve nada claro que se pueda estructurar una teoría de las condiciones iniciales. No se observa que podamos tener la capacidad como para explicar todo lo sucedido o deducir matemáticamente todo lo acontecido. La Tierra existe y nosotros estamos en ella, pero ello no lo podemos explicar a partir de un principio, ya que para ello solamente contamos con herramientas probabilísticas, como es el caso de la Mecánica Cuántica.

                                                                                                        

                                                                                                                                                       © 2002 Javier de Lucas