Las teorías que
describen el estado actual de conocimientos [ya comprobados
experimentalmente] sobre las interacciones fundamentales son:
MODELO ESTÁNDARD de
FÍSICA de PARTÍCULAS [MEFP]
Grupo de simetrías
GMEFP = SU(3)cxSU(2)xU(1)Y
| ||||
describe las interacciones fuertes
(responsables de que el núcleo atómico no se desintegre debido a la
repulsión eléctrica entre protones, y de otros fenómenos observados en los
aceleradores de partículas). Los entes físicos fundamentales de
esta teoría son los quarks (que forman a la materia y que poseen
carga eléctrica y carga de color) y los gluones (que son las
partículas transmisoras de la fuerza, y también poseen carga de color, por
lo que pueden interactuar entre ellos). Grupo local de simetrías SU(3)c. La QCD tiene problemas en describir la interacción fuerte a bajas energías [ = grandes distancias], ya que la carga de color es muy intensa a éstas energías [regimen de acoplamiento fuerte] y no se pueden usar métodos perturbativos de aproximación en la teoría, lo cual complica mucho tratar de obtener información de la misma; no es posible entonces estudiar fenómenos como el confinamiento [la unión de quarks y gluones para formar a los neutrones, protones, etc]. Pero en el rango de altas energías [ = pequeñas distancias] que existe en los aceleradores de partículas la interacción se hace "menos fuerte" [regimen de acoplamiento débil; la carga de color, que depende de la energía, se hace más débil y se dice entonces que la teoría es "asintóticamente libre"] y ahora si es posible usar en la QCD métodos aproximativos. En estas escalas de energía las partículas formadas por quarks y gluones [mesones y bariones] casi no interactúan a través de la carga de color, y las interacciones electromagnéticas son las que dominan, aunque aun asi se comportan como partículas libres, lo cual no ayuda mucho a la comprensión del fenómeno del confinamiento, que es lo que realmente interesa. | ||||
TEORÍA de
GRAVITACIÓN | ||||
RELATIVIDAD
GENERAL de Einstein [GR= General Relativity] describe a la gravedad en términos
geométricos, como una consecuencia de la curvatura del espacio-tiempo, la
cual es a su vez producida por la sola existencia de los entes físicos
(campos, partículas) cuya materia/energía juega el papel de la "carga"
gravitacional. Se cree que la RG deja de ser válida a escalas de
energía del orden de 1019GeV [energía de Planck],
debido a que a dichas escalas los efectos cuánticos empiezan a tomar
relevancia. En la versión cuántica "lineal" de la GR,
donde se ignora el comportamiento no-lineal de la teoría, se postula que
las partículas transmisoras de la interacción (lineal) son los
gravitones. Su grupo de simetrías es Diff[M] = grupo de Difeomorfismos (reparametrizaciones) del espacio base "M", y se dice que la teoría es generalmente covariante, lo cual significa que es independiente de la geometría del espacio de fondo, o sea, del espacio base (i.e., el espacio físico) sobre el cual se construye su formulación matemática (es decir, el espacio en el cual los fenómenos físicos se desarrollan, desenvuelven, toman lugar, ocurren); en lenguaje técnico se dice que es invariante ante el grupo Diff[M]. La invariancia ante el grupo Diff[M] es de extrema importancia, por lo que se debe hacer énfasis en este punto. Las transformaciones (o difeomorfismos) de Diff[M] pueden ser vistas como transformaciones pasivas y activas: a) transf. pasivas: son sólo transformaciones de coordenadas. Supongamos que estamos situados en una región del espacio físico en la cual hemos definido un marco de refencia, "K", y un punto 'p' cualquiera del espacio tendrá unas coordenadas (p1, p2, p3) respecto a "K" ; una transformación pasiva consiste en realizar una simple "transformación de coordenadas", lo cual nos llevará a otro sistema de coordenadas " K' " con respecto al cual el mismo punto 'p' tendrá unas coordenadas (p'1, p'2, p'3), y la invariancia ante este tipo de transformación (invariancia ante difeomorfismos pasivos) significa que existe la libertad de elegir cualquier conjunto de coordenadas de referencia y que las ecuaciones de la dinámica (ecuaciones de movimiento = EDM) de la teoría son las mismas en cualquiera de los sistemas de referencia relacionados mediante este tipo de transformaciones. Ningún marco de referencia es especial (p.ej., las coordenadas cartesianas no son más importantes que las coord. esféricas). Un punto del espacio-tiempo se define solo por lo que físicamente ocurre ahi, y no por su localización con respecto a algún sistema de coordenadas especial. b) transf. activas: la invariancia ante una transformación activa es algo un poco más sutil. Esta vez el marco de referencia "K" permanece fijo; la transf. activa consiste en realizar un cambio de un punto cualquiera del espacio 'p', con coordenadas (p1, p2, p3) respecto a este marco de referencia, a otro punto cualquiera 'q', con coordenadas (q1, q2, q3) respecto al mismo marco de referencia. Supongamos ahora que, antes del cambio activo, teníamos una solución (o configuración) de las EDM de la teoría, F(p) = F(p1, p2, p3), y que luego del cambio tenemos F(q) = F(q1, q2, q3). La invariancia ante este cambio (invariancia ante difeomorfismos activos) se basa en lo sig.: se hace la identificación F'(p1, p2, p3) = F(q1, q2, q3) y se interpreta como si no se hubiese realizado el cambio de puntos, y lo que realmente ha sucedido es que ha surgido una "nueva" solución (configuración), F'(p) de las EDM en el mismo punto. La invariancia aparece entonces si, aun cuando F(p) y F'(p) sean matemáticamente diferentes, ambas representan la misma situación física, y por lo tanto, F'(p) es físicamente equivalente a F(p). Asi, es posible formar el conjunto todas las configuraciones equivalentes a F(p) que pueden ser obtenidas mediante una transformación activa, las cuales representarán la misma situación física. Se ha
tratado de construir una versión cuántica consistente de la
GR [Canonical Quantum Gravity, Euclidean Quantum Gravity,
Simplicial Quantum Gravity, etc.], pero aquellos intentos
resultaron en teorías que no eran satisfactorias ya que poseían muchas
incoherencias matemáticas. En años recientes han surgido nuevas
ideas más prometedoras [Quantum Loop Gravity, String theories,
Non-Commutative theories, etc.] que al parecer han logrado ir más
allá que los modelos anteriores en lo referente a la unión entre la física
cuántica y la GR, pero tales intentos están en su etapa de desarrollo
y aún falta mucho por investigar.
|
Las QFT convencionales poseen
limitaciones Es necesario conocer cuáles son las
limitaciones y el rango de validéz de estas teorías para así evitar (hasta
donde sea posible) caer en errores en sus posibles aplicaciones, por lo
que se citarán algunos ejemplos de tales limitaciones:
|
TEORIA
PERTURBATIVA Es un método que consiste en describir a un sistema físico [SF] dado mediante un modelo ideal ó un modelo cuya física ya es satisfactoriamente conocida. Aun cuando dicho modelo no describa satisfactoriamente al sistema físico que se quiere estudiar, el modelo representará la aproximación de orden cero de dicho sistema. Luego, se "mejora" dicho modelo introduciendo/añadiendo poco a poco "perturbaciones", o sea, los efectos que van haciendo que el modelo en cuestion se parezca cada vez más y más al sistema físico real que se quiere estudiar. Por ejemplo: para estudiar la rotación y forma de la Tierra, se puede usar el modelo ideal de una esfera en rotación; pero la Tierra no es una esfera, sino un geoide, por lo que dicha forma se puede introducir en el modelo a través de perturbaciones tales que hagan que la esfera cambie a la forma deseada, y asi estudiar la física de la rotación terrestre a través de dicho modelo. Supongamos ahora que el SF real está descrito matemáticamente por una función H. Supongamos que el modelo está descrito por H0. Entonces, en la aproximación de orden cero tendremos que H ~ H0. Las perturbaciones se describirán por H1, H2, H3, etc. Asi, la aproximación de 1er orden se representa añadiendo la 1ra perturbación a H0 , es decir, el SF, en la aproximación de orden 1, estará ahora representado por H ~ H0 + H1. En la aproximación de orden 2 (o de 2do orden), el SF será H ~ H0+ H1 + H2, y asi sucesivamente. Para que esta técnica de aproximación funcione es ABSOLUTAMENTE NECESARIO que tales perturbaciones sean cada vez más y más pequeñas, es decir que H1 > H2 > H3 >..., de lo contrario la técnica no funciona! Por ejemplo, cuando los astrónomos y matemáticos de siglos pasados estudiaban las órbitas de los planetas utilizando la física de Newton se dieron cuenta de que algo perturbaba dichas trayectorias y que las mismas no eran círculos o elipses perfectas (modelos ideales cuyo comportamiento se conoce de forma exacta), y por eso descubrieron la existencia de otros planetas, los cuales ejercen "perturbaciones pequeñas" sobre las órbitas de los planetas conocidos! Otro ejemplo: en QED es posible hacer aproximaciones para estudiar ciertos fenómenos físicos, ya que H1, H2, H3, etc., dependen de potencias de la constante de acoplamiento, la cual es menor que 1, por lo cual se cumple que H1 > H2 > H3 >..., etc., ya que una cantidad menor que 1, elevada a cualquier potencia seguirá siendo menor que 1, y a medida que la potencia aumenta dicha cantidad se irá haciendo cada vez menor. Pero no todo en el Universo es tan fácil. No todo cuanto hay en el Universo puede estudiarse utilizando la teoría de perturbaciones, ya que no siempre es posible agregar perturbaciones pequeñas a un modelo ideal. Todo lo contrario. La mayor parte de los fenómenos del Universo no pueden estudiarse usando esta técnica. Por ejemplo, la QCD posee una constante de acople mayor que 1, por lo que si se intenta usar aproximaciones en las que H1, H2, H3, etc., dependen de potencias de la constante de acoplamiento, las mismas irán creciendo cada vez más y no se cumplirá la condición H1 > H2 > H3 >..., etc. ¿Qué pasa cuando no es posible agregar perturbaciones pequeñas a un modelo dado? No queda otro remedio que tratar de usar métodos NO-PERTURBATIVOS [MNP], es decir, métodos / técnicas que no utilicen la teoría de perturbaciones antes mencionada. Existen algunos que se basan en el uso de simetrías, otros se basan en utilizar equivalencias duales entre diferentes formulaciones de una misma teoría, etc. Sin embargo, los MNP no son fáciles de inventar ni de implementar. |
Algunos problemas del
MODELO ESTANDAR
Es muy importante enfatizar y dejar muy claro que el MEFP
ha tenido mucho éxito en lo que se refiere a la
descripción-explicación de los datos experimentales y en lo que se
refiere a ciertas predicciones que ya han sido espectacularmente
confirmadas (descubrimiento de la partícula J/Psi --1976--, el descubrimiento de los bosones
intermedios de la interacción débil --1983--, descubrimiento del quark top --1994--, etc.); sin embargo, la filosofía
que se sigue es que al conocer las limitaciones de todas las teorías se llega a
la conclusión de que las mismas están incompletas, y uno de los trabajos de la
física teórica es completar, o al menos tratar de mejorar, lo que ya se tiene.
Tanto el MEFP como la RG son teorías efectivas, es decir, no se las considera
como teorías básicas fundamentales válidas en todos los
rangos de energía posibles; se las considera como teorías
aproximadas (descriptivas, fenomenológicas) válidas sólo en un rango
de energía determinado. Este hecho no les resta mérito en ninguna forma
posible. Es necesario entonces conocer los problemas de estas teorías
para asi luego abordar los caminos que se han seguido para tratar de
mejorarlas:
La estructura interna del MEFP no parece ser la más simple
Existe un número muy grande de
parámetros [19 = la masa de 6 quarks + la masa de 3 leptones + 3 cargas
+ la masa de los bosones W y Z + la masa del Higgs + 4 elementos de
la matriz de mezcla de Cabibbo-Kobayashi-Masakawa (la cual da la
"probabilidad" de que los quarks se transformen entre si), y este número aumenta
si se toma en cuenta la reciente conirmación de que los 3 neutrinos deben tener
masa, junto con otros 6 parámetros de la matriz
de mezcla de Maki-Nakagawa-Sakata] que no pueden ser predichos
por el modelo, y que deben ser obtenidos como datos experimentales, lo cual
sugiere que el MEFP es incompleto, ya que se espera que una teoría
realmente "fundamental" tenga un número muy reducido de parámetros
libres (cero, si fuese posible!) y que pueda predecir el valor de cualquier otra
cantidad. Cualquier teoría que pretenda generalizar al MEFP
debería, por lo tanto, tener menos parámetros libres. Hasta
ahora, dado el estado actual de conocimientos, la única teoría candidata a
generalizar al MEFP que cumple con dicho requisito es la Teoría de
SuperCuerdas/Branas (con 1 solo parámetro libre, por
ahora).
Posible Unificación de las cargas
Familia |
Leptons |
Quarks |
I |
(e, ve) |
(u, d) |
II |
(mu, vmu) |
(c,s) |
III |
(tau, vtau) |
(t,b) |
En la tabla
anterior, las 3 familias de fermiones (cada una compuesta por 2 leptones y 2
quarks) son idénticas en cada propiedad, excepto en su masa. Esto sugiere que
podrían existir más simetrías de las que se postulan en el MEFP, o que
todos los fermiones están a su vez compuestos por entes más
fundamentales.
El problema de la Constante Cosmológica
La existencia del vacío cuántico = vc (i.e., es el estado
de menor energía de un sistema físico descrito por la física cuántica) se
considera como un hecho bien establecido. Cálculos realizados usando el
MEFP predicen que la energía del vc (al tomar en cuenta la existencia de todos
los sistemas físicos --campos y partículas-- descritas por el MEFP) es
inmensamente grande (~ 10120). Si tales cálculos fuesen
correctos, existirían efectos observables a simple vista: por ejemplo,
la densidad de energía del vc sería tal grande que produciría en todos
lados una curvatura del espacio-tiempo tan grande que el Universo tal y como lo
conocemos no existiría. Sin embargo, observaciones astrofísicas indican
que la curvatura promedio del Universo es casi plana (i.e., el Universo es
plano), lo cual indica que la constante debe ser cero o casi cero!
Esto sugiere fuertemente que el MEFP no puede estar completo; algo
debe faltar, tal que la solución de esta incógnita sea totalmente natural.
Viendo las cosas desde otra perspectiva, la teoría correcta que
generalice al MEFP debe ser tal que, mediante algún mecanismo conveniente,
cancele el valor de ~ 10120 para que la constante
sea cero o casi cero, lo cual constituiría un logro realmente espectacular!
Una de las posibles soluciones es la posible existencia de
super-simetría, sin embargo, como se verá más adelante, tampoco parece
ser la solución perfecta.
No se pueden explicar las
oscilaciones (y masa) de los neutrinos ["problema de Mezcla de
sabores" = "Flavor-mixing problem"]
La transformación de una
especie de neutrino en otra fue recientemente confirmada en los experimentos de
Super-Kamiokande y
de SNO. Este fenómeno se
conoce como "mezcla de sabores" y consiste en que las partículas de un
tipo se pueden transformar (oscilar), bajo ciertas condiciones, en partículas de
la misma especie, pero con propiedades diferentes (por ejemplo, un
neutrino-electrón se puede transformar en un neutrino-mu, y se argumenta que
debido a esto se resuelve el problema de los neutrinos perdidos del
Sol, problema que duró unos 50 años!), lo cual ocurre si y sólo si las
partículas involucradas tienen masa, no importa si ésta es o no muy
pequeña. Y el MEFP no contempla tal mezcla, ya que se postula
desde el principio que los neutrinos no tienen masa. Se cree que
se requiere nueva física para poder explicar esto, por lo que se han propuesto
experimentos para verificar estas creencias [Omar Miranda Romagnoli, Juan
Barranco].
Origen del rompimiento (espontáneo ó dinámico) de
simetría Electrodébil y "origen" de la masa
Por conveniencia teórica, las teorías que describen a la física de
partículas fundamentales se construyen tal que ningún campo/partícula posea
masa. En esta forma las teorías poseen varias simetrías, las cuales no
existirían si las partículas/campos tuviesen masa. Sin embargo, en
el mundo real las partículas (libres) si poseen la propiedad llamada
"masa". Cómo reconciliar entonces las construcciones
teóricas con lo observado? Cómo darle masa a las partículas/campos sin
estropear toda la construcción teórica? Al introducir masa,
instantáneamente se está rompiendo determinada simetría de la teoría, por lo que
se debe buscar la forma de que tal rompimiento de simetrías ocasione el menor
daño posible a la teoría. Una forma de hacerlo es mediante el
Mecanismo de Higgs (por Peter Higgs,
1966, F. Englert y Robert H.
Brout): se postula la existencia de una partícula/campo
escalar fundamental (i.e., una partícula que no está compuesta por otras
más fundamentales) omnipresente en el Universo, la cual bajo ciertas condiciones
interactúa con las demás partículas/campos originando, a través de dicha
interacción, a la masa de cada una de ellas, y rompiendo
espontáneamente ciertas simetrías (SSB). La
unificación del Electromagnetismo y de las interacciones débiles en la
Teoría Electrodébil utiliza este mecanismo, y dicha teoría ya fue confirmada en
1983, con el descubrimiento de los bosones W+- y Zo.
Sin embargo, aun no se ha
encontrado al bosón de Higgs. Se cree que su masa (la cual
surge debido a que auto-interacciona) debe ser mayor que los 114 GeV (ya
que valores menores han sido descartados por experimentos en el CERN); se
cree que podría ser un poco más pesado/masivo que el quark top (masa = 174.3 ±
5.1 GeV) [Piotr Kielanowski
& Rebeca Juárez]. El problema es que aun no se ha
detectado ninguna partícula escalar, ni mucho menos el bosón escalar de
Higgs. Por otro lado, introducir un campo escalar fundamental en las QFT
convencionales es problemático ya que su masa es afectada por fenómenos
cuánticos de tal forma que su masa aumenta de una forma descontrolada;
esto a su vez se traduce en que debe poseer una constante de acople muy
fuerte a bajas energías, lo cual produciría efectos observables y por ende ya se
hubiese detectado, sin embargo, es claro que esto no concuerda con la realidad.
Surgen entonces posibles alternativas al mecanismo de Higgs: podría ser entonces
que el rompimiento de simetría sea producido por nuevas simetrías
aun no descubiertas [si existen simetrías como la super-simetría (ver más
adelante), el problema originado al introducir campos escalares fundamentales
desaparece ya que se introducen nuevas partículas/campos y nuevas formas de
interactuar, tal que cancelan el efecto producido por los procesos cuánticos que
modifican la masa del Higgs], o por campos escalares compuestos
[los "condensados fermiónicos = sistema compuesto por un par
fermión-antifermión, el cual visto como un todo es igual a una partícula
escalar"] postulados por las teorías de Tecnicolor y Tecnicolor
Extendido [Rodrigo Pelayo, Arnulfo
Zepeda], aunque las predicciones de algunos de estos modelos no
concuerdan con los datos observados, o que el rompimiento de
simetrías no sea espontáneo , sino que se origine
por la misma dinámica no-lineal de la teoría [Dynamical symmetry
breaking], etc. Por otro lado, resulta interesante el hecho de que
los datos recopilados hasta la fecha parecen favorecer la posible existencia de
un escalar fundamental, de masa no muy grande.
Origen de la violación de la simetría CP
Este problema está intimamente relacionado con el bosón
escalar de Higgs. Como se mencionó anteriormente, según las QFT
convencionales, fenómenos cuánticos ocasionan que la masa de un campo escalar
fundamental crezca sin control; si tal masa, mH, es tan grande como la escala de
energías donde ocurre la unificación de la QED con la teoría de interacciones
débiles (lo cual origina a la teoría ElectroDébil = EW), o sea,
mH ~ mEW ~ 102 GeV, debido a tales correcciones
cuánticas, podría crecer hasta la escala de Gran Unificación (1016
GeV) o hasta la escala de Planck (1019 GeV), mH ~ mEW ~ mPlanck. Sin embargo, las
teorías que tratan de unificar a las fuerzas fundamentales preveen que la masa
del Higgs no debe ser mayor a unos cuantos cientos de GeV [recuérdese que la
masa se puede medir en unidades de energía gracias a m = E / c2], de manera que mH << mPlanck.
Para mantener la masa del Higgs dentro de una escala de energías conveniente es
necesario "ajustar las cosas artificialmente", ya que no se conoce un
mecanismo natural que impida que el Higgs adquiera una masa
tan grande. Si tales correcciones cuánticas a la masa del Higgs
ocasionan tal problema y el Higgs es el responsable de darle masa a las demás
partículas, entonces sería natural esperar que las masas de todas las partículas
también sean grandes, tanto como la energía Planck. Sin embargo,
tal inconsistencia no es observada: la masa de las partículas es muy
pequeña en comparación con la escala de energía de la Gran Unificación
(GU) o con la escala de Planck. Existe entonces una jerarquía
de escalas de energías (E),
dada por EEW <<
EGU << EPlanck, que
no puede explicarse usando al MEFP (el cual es una QFT convencional), ya que las
correcciones cuánticas mezclan tales escalas haciéndolas indistinguibles y tal
jerarquía no debería existir, o sea, EEW ~ EGU
~ EPlanck . A este dilema se le
llama "problema de las jerarquías". Además, las masas están
relacionadas con ciertas constantes de acoplamiento: (mEW)2 ~ 1/
GF y (mPlanck)2 ~ 1/
GN, donde GF = constante de acoplamiento de la
teoría EW (la cual refleja la intensidad con que ocurre la interacción EW),
y GN = constante de Newton
(la cual refleja la intensidad de la interacción gravitatoria), por lo que
la jerarquía mH <<
mPlanck se traduce en una jerarquía entre
las constantes de acoplamiento, GN
<< GF,
lo cual origina la pregunta de por qué la constante de Newton es mucho
menor que la EW?, o equivalentemente, por qué la interacción
gravitacional es más débil que la interacción EW?. Debido a las correcciones
cuánticas, ambas interacciones deberían ser casi iguales, GN ~
GF , lo cual es
contrario a los datos observados. Los intentos para solucionar este
problema sugieren que debería exisitr nueva física a escalas de energías
del orden 1000 GeV ( = 1 TeV), las cuales se podrán alcanzar en los
aceleradores Tevatron (Fermilab), RHIC (Brookhaven),
LHC (CERN).
NUEVAS
TEORÍAS
TEORIAS DE
GRAN UNIFICACION [GUT's = Grand
Unified Theories]
Son las teorías que tratan de unificar la QCD con la Electrodébil, sin incluir a la GR, bajo la filosofía de que sólo es necesario postular nuevas simetrías, utilizando principalmente el formalismo de los Grupos de Simetrías. Se postula, como se mencionó anteriormente, que tal unificación (1016 GeV = 1.16 x 1029 Kelvin) ocurre a una escala de energía del Universo (o en su defecto, en un acelerador de partículas que pueda alcanzar tal escala) más alta que la actual de 2.79 Kelvin = 0.24 meV. Estas teorías también están basadas en las QFT convencionales, y por lo tanto, han heredado los mismos problemas inherentes a tal estructura fisico-matemática, de manera que las primeras GUT's ya fueron abandonadas [por ejemplo: la GUT basada en el grupo SU(5) , el Modelo de Georgi-Glashow, el cual predecía que el protón puede decaer o desintegrarse en un tiempo que es posible observar en un laboratorio, lo cual contradice a los datos experimentales recopilados hasta ahora] o modificadas de acuerdo a las exigencias de nuevos problemas; algunos introducen más parámetros que los del MEFP, con varias constantes de acoplamiento y, por ende, no son realmente una unificación (una unificación real postularía 1 constante de acople, o sea, 1 sola fuerza), etc. Han surgido otros intentos basados en simetrías más complicadas. Ejemplos: i) el Modelo de Pati-Salam basado en el grupo de simetrías SU(4) x SU(2)L x SU(2)R, ii) otros modelos con simetrías del grupo E6, iii) del grupo E8, iv) Modelo de Georgi-Fritzsch-Minkowski con grupo de simetrías SO(10), v) otros con simetrías del SO(32), vi) o simetrías del grupo SU(3)q x SU(3)L x SU(2) x SU(2) x U(1), sugerido por Ernest Ma, en el cual los leptones también poseen carga de color, igual que los quarks! , vii) otro modelo de Ma basado en SU(3)4 x SU(3)6 en el cual logra unificar las constantes de acoplamiento, viii) otros basados en el grupo SU(6)4 x Z4. No es claro aun si la sola idea de buscar las "simetrías adecuadas" basta para encontrar la elusiva unificación, aunque aun hoy dia se sigue explorando esta posibilidad; por otro lado, algunos de los problemas que tienen las GUT's se han podido resolver solo gracias a la introducción de un nuevo tipo de simetría: la Supersimetría.
TEORIAS SUPERSIMETRICAS DE GRAN
UNIFICACION [SUSY-GUT's =
SUperSYmmetric GUT's]
[SS] SUPERSIMETRIA [SUSY = SUperSYmmetry]
Descubierta en 1971; re-descubierta nuevamente, de forma independiente en 1972, 1973 y 1974) se basan en una extensión no-trivial de las simetrías del grupo de Poincarè (grupo de transformaciones de rotación y traslación del espacio-tiempo plano, 4-Dimensional), la cual agrupa simetrías "externas" (propias del espacio-tiempo que sirve de base, o fondo, estático donde ocurren los procesos físicos) y simetrías "internas" (propias de los procesos físicos en sí). El concepto de susy surgió gracias al desarrollo de las teorías de supercuerdas (ver más adelante), sin embargo, la evolución posterior del mismo ocurrió casi independiente de su origen. Según esta idea por cada partícula descrita por el MEFP existe una correspondiente "partícula compañera" (o "super-partner particle"), con las mismas propiedades pero con spín diferente. El compañero supersimétrico de un bosón "normal" del MEFP es un fermión, cuyo nombre es igual al de su bosón compañero mas el sufijo "-ino" y el compañero supersimétrico de un fermión "normal" del MEFP es un bosón , cuyo nombre es igual al de su fermión compañero mas el prefijo "s-"; por ej., los compañeros supersimétricos del electrón (fermión), muón (fermión), fotón (bosón), gravitón (bosón), del MEFP son, respectivamente, el selectrón (bosón), el smuón (bosón), el fotino (fermión), el gravitino (fermión), etc. La SS permite que los fermiones pueden transformarse en bosones y viceversa, es decir, en una teoría super-simétrica todos los bosones y los fermiones postulados pueden transformarse entre sí. En una teoría supersimétrica el número de bosones es igual al número de fermiones; esto tiene la ventaja de que permite la cancelación de muchas anomalías, liberando asi a la teoría de esta enfermedad. Esta misma propiedad permite que puedan existir bosones escalares fundamentales en la teoría que incluya esta simetría (teorías supersimétricas), ya que impide que las correcciones cuánticas, mencionadas anteriormente, mezclen las escalas de energía, y por lo tanto, en este tipo de teorías el problema de las jerarquías no existe. El grado de susy de una teoría dada se mide por un número, N , cuyo valor está entre 0 (sin susy) y 8 (máxima susy), el cual proporciona información sobre el número de estados supersimétricos (i.e., número de partículas/campos supersimétricos diferentes que pueden existir, según la teoría) que en algunas es 2N con un spin (S) máximo permitido Smax = N / 2, y en otras es 22N con Smax = Sminimo + N / 2. Entre más pequeño sea este número mejor, ya que una teoría asi caracterizada se acerca más al concepto de "teoría realista". Sin embargo, el grado de susy de una teoría está intimamente ligado a la dimensionalidad del espacio-tiempo postulada por dicha teoría, es decir, la dimensionalidad del espacio-tiempo restringe los valores que N puede tener. El Universo observable no es supersimétrico, por lo que uno de los problemas más importantes concerniente a este tipo de teorías es que (asumiendo que el Universo fue alguna vez supersimétrico) aun no se sabe cuál es el mecanismo que el Universo utiliza para romper la supersimetría. Es claro que la susy no necesariamente es la respuesta (teórica) correcta a todos los problemas del MEFP, sin embargo, también es claro que la idea de la existencia de este tipo de simetría puede (si fuese la respuesta correcta!) resolver muchos de estos problemas de un solo golpe. En cierto sentido, la susy es análoga a la idea de la Inflación en Cosmología. Otro aspecto de la susy es que, si existiese, podría resolver el problema de la constante cosmológica, ya que al existir iguales cantidades de bosones y fermiones, la energía del vacío cuántico tendría una cantidad de energía (positiva o negativa) debido a los bosones que se cancelaría con una cantidad igual de energía (negativa o positiva) debido a los fermiones, lo cual daría como resultado que dicha constante es cero! El problema radica en que, como se mencionó anteriormente, el Universo NO ES supersimétrico, y por ende la susy debe estar rota, por lo que el problema de las constante cosmológica aun persiste. Otra inconveniencia de la susy es que introduce 124 parámetros, y uno esperaría que si la susy es la respuesta correcta, cualquier extensión susy que pretenda lograr la unificación debería tener menos parámetros que el MEFP.
Nueva clase de teorías (Nima Arkani-Hamed, Andrew Cohen, Howard Georgi, 2001) basadas en una simetría no-lineal (ó "nonlinearly realized symmetry"). Este tipo de simetrías no-lineales y su uso para resolver problemas de corecciones cuánticas a la masa de campos escalares fue estudiado por anteriormente por Jeffrey Goldstone (1961). Y Arkani-Hamed, Cohen y Georgi son los 1ros en aplicar este tipo de simetrías a una extensión del MEFP y resolver el problema de las jerarquías. Es una simetría parecida a la susy entre fermiones y bosones, solo que no se introduce un fermión compañero para cada bosón "normal", ni un bosón compañero para cada fermión "normal", sino que se postula fermión compañero para cada fermión "normal", y un bosón compañero para cada bosón "normal", con propiedades diferentes a aquellas postuladas por la susy. Se les llama "pequeños Higgs" porque se generan bosones de Higgs con una masa muy pequeña. Ahora bien, la masa de estos escalares de Higgs es estable y no sufre de correcciones cuánticas ya que los "efectos nocivos" producidos por ciertas partículas son cancelados por otras, bajo la misma filosolfía que la susy, solo que la manera en que se hace es diferente: la cancelación ocurre entre partículas con el mismo spin, o sea, los efectos nocivos producidos por fermiones son canceladas por fermiones, y los producidos por bosones son cancelados por bosones. Por ende, el problema de las jerarquías no existe. Sin embargo, las LHT distan aun de ser teorías completas y las masas y propiedades de las nuevas partículas son modelo-dependientes. Aun asi, es posible realizar algunas predicciones generales: i) deben existir 1 o varios escalares de Higgs con masas cerca a los varios cientos de GeVs [ = Giga-electrón-Voltios], ii) debe existir, al menos, 1 nuevo fermión pesado con una masa menor que 2 TeV [= Tera-eV], la cual es necesaria para cancelar la corrección cuántica a la masa del Higgs causada por los quarks top (fermiones cancelando los efectos de otros fermiones), iii) debe existir nuevos bosones de norma con masas del orden de los TeV para cancelar las correcciones cuánticas a la masa del Higgs causada por las interacciones débiles y electromagnéticas (bosones cancelando los efectos de otros bosones). Debido a la proximidad de la terminación del LHC, actualmente se están haciendo estudios sobre la fenomenología de este tipo de teorías. Incluso se ha propuesto una nueva partícula (el "lpop") como un candidato para la Materia Oscura. Por otro lado, aun no es completamente claro que este tipo de teorías sea realmente una alternativa a la susy, ya que en algunas LHT se postula que la susy no es necesaria a la escala de energía de TeVs, pero quizás si se necesite a escalas de energías mayores a los 10 TeVs.
Ideas basadas en modificar al espacio físico de fondo
TEORIAS DE KALUZA-KLEIN [KK =
Kaluza-Klein]
DIMENSIONES EXTRA NO-COMPACTAS [NON-COMPACT EXTRA DIMENSIONS = NCED]
Ideas que incluyen a la gravedad
TEORIAS DE SUPERGRAVEDAD [SUGRA = SuperGravity
Theories]
TEORIAS
DE SUPERCUERDAS/TEORÍA-M [TSC/TM]
TEORÍA
de GRAVEDAD CUÁNTICA CANÓNICA (ó LOOP
QUANTUM GRAVITY) [LQG]
© 2003 Xavier Amador y Javier de Lucas