TEORIAS DEL TODO
Teorías del todo: «la amalgama virtualmente completa de Física y Matemáticas»
La llamada «teoría del todo» se refiere al intento de
describir toda la Física fundamental mediante un solo
conjunto de ecuaciones: nada más. Los físicos hace
décadas que vienen diciendo que esta «solución final»
está a la vuelta de la esquina (y recordemos que
Einstein fracasó en su búsqueda de una teoría de
campos unificada hace algo más de medio siglo).
Pero la teoría del todo sigue dándoles esquinazo.
Hasta la década de 1960 había que reconciliar cuatro
fuerzas: la gravedad, el electromagnetismo, la fuerza
nuclear fuerte y la fuerza radiactiva débil. En aquella
década, Sheldon Glashow, de Harvard, concibió un
conjunto de ecuaciones, que desarrollaron Abdus Salam
de Imperial College, en Londres, y Steven Weinberg, en
Texas, quienes describieron la fuerza débil y el
electromagnetismo y postularon tres nuevas partículas:
W+, W- y Z0. Estas se observaron experimentalmente
en 1983 en el CERN, en Ginebra. Así pues, junto a la
nueva teoría que explicaba la interacción de los quarks,
el electromagnetismo, la fuerza débil y la fuerza fuerte
se habían enlazado en un mismo conjunto de
ecuaciones.
Este es un logro muy notable, pero que todavía deja
fuera la gravedad, y es la incorporación de esta cuarta
fuerza en el esquema general lo que constituiría, a ojos
de los físicos, una teoría del todo.
Al principio probaron con una teoría cuántica de la
gravedad. Es decir, los físicos postularon teóricamente
la existencia de una o más partículas que explicasen la
fuerza y le dieron el nombre de «gravitón» a la
partícula de la gravedad, aunque las nuevas teorías
presuponen que deben existir muchas más además de
esa partícula. (Algunos físicos predicen ocho, otros 154,
lo que da una idea de la monumental tarea que
encaran). Pero entonces, a mediados de la década de
1980, los físicos fueron arrasados por una «revolución
de las cuerdas» y, en 1995, por una segunda
«revolución de las supercuerdas». En una peculiar
repetición de la excitación que conmocionó a la Física a
principios del siglo XX, toda una nueva área de
indagación se presentaba ante la vista a las puertas del
siglo XXI.
LAS CUERDAS
La revolución de las cuerdas nació de una paradoja
fundamental. Aunque cada una gozaba de méritos
propios, la teoría general de la relatividad (que explica
la estructura a gran escala del Universo) y la mecánica
cuántica (que explica la minúscula escala subatómica)
eran mutuamente incompatibles.
Los físicos no podían creer que la
naturaleza permitiese algo así. Como había dicho
Newton, «a la naturaleza le place la simplicidad».
Había también otras preguntas fundamentales que los
teóricos de las cuerdas tenían que afrontar: ¿por qué
hay cuatro fuerzas fundamentales? ¿Por qué existe el
número de partículas que existe, y por qué tienen las
propiedades que tienen? La respuesta
que proponen los teóricos de las cuerdas es que el
constituyente básico de la materia no es, en realidad,
una serie de partículas (unas entidades en forma de
punto) sino unas diminutas cuerdas unidimensionales
que a menudo forman bucles. Estas cuerdas son tan
pequeñas (alrededor de 10^-33 centímetros) que no
podemos observarlas con los actuales instrumentos de
medición y, por tanto, al menos por el momento, son
unos constructos completamente teóricos,
matemáticos.
Sea como fuere, según la teoría de las cuerdas, un
electrón es una cuerda que vibra de cierto modo, y un
quark arriba es una cuerda que vibra de otro modo, y
una partícula tau es una cuerda que vibra de un tercer
modo, y así el resto, igual que las cuerdas de un violín
vibran de distinto modo para producir notas distintas.
Como muestran los números, me ocupo aquí de
unas entidades extraordinariamente pequeñas, unos
100 trillones de veces (10^20) más pequeñas que un
núcleo atómico. Sin embargo, según los teóricos de las
cuerdas, a este nivel es posible reconciliar (unir) la
gravedad y la teoría cuántica. Como resultado derivado
y premio añadido, dicen también que de los cálculos
surge de manera natural una partícula de la gravedad
(el gravitón).
Al tratar con unas entidades tan diminutas como las
cuerdas, surgen posibilidades que los físicos nunca
habían siquiera considerado, y una de ellas es que
podría haber «dimensiones ocultas», para explicar lo
cual necesitamos una nueva analogía. Comencemos por
la idea de que las partículas se ven como tales solo
porque nuestros instrumentos carecen de la resolución
necesaria para ver algo tan pequeño. Por usar un
ejemplo de Brian Greene en "El Universo elegante":
supercuerdas, dimensiones ocultas y la búsqueda de
una teoría definitiva. Pensemos en una manguera vista
desde lejos. Parece un filamento en una dimensión,
como una línea escrita en una página. Naturalmente, al
acercarnos la vemos en dos dimensiones: siempre las
había tenido, pero no estábamos lo bastante cerca para
verlo. Los físicos dicen que ocurre (o podría ocurrir) lo
mismo al nivel de las cuerdas. Hay dimensiones ocultas
y enrolladas de las que todavía no somos conscientes.
De hecho, dicen que podría haber once dimensiones en
total, diez de espacio y una de tiempo. Esta es una idea
difícil si no imposible de imaginar o visualizar, pero los
científicos basan sus argumentaciones en
razonamientos matemáticos (y con unas Matemáticas
que incluso los matemáticos encuentran difíciles). Sin
embargo, cuando aceptan eso, muchas cosas del
Universo comienzan a encajar. Por ejemplo, los agujeros
negros se explican como algo tal vez similar a las
partículas fundamentales, y como portales a otros
Universos. Las dimensiones extra se necesitan también
porque el modo como se pliegan y enrollan podría,
según los teóricos de las cuerdas, determinar el tamaño
y frecuencia de las vibraciones de las cuerdas; dicho de
otro modo, explican por qué las «partículas» familiares
tienen la masa y la energía y se encuentran en el
número en que se encuentran. En su última
configuración, la teoría de las cuerdas implica más que
cuerdas: también hay membranas o «branas» de dos,
tres y más dimensiones, pequeños paquetes cuya
comprensión será la meta principal de la investigación
de este siglo XXI.
La teoría de las cuerdas fuerza hasta el límite la
comprensión de cualquiera. Hasta el momento es teoría
en un 99 %, es decir, esencialmente Matemáticas. Los
físicos comienzan a encontrar el modo de testar
experimentalmente las nuevas teorías, pero a día de
hoy no faltan escépticos que dudan de la existencia de
las cuerdas. Además, a estos niveles tan pequeños
podríamos entrar en «un dominio sin espacio
ni tiempo». También eso fuerza nuestra comprensión.
Greene cree que esto podría ser un gran paso adelante
filosófica y científicamente, un punto de inflexión «que
podría darnos respuesta a la pregunta de cómo se
originó el Universo y por qué existe espacio y tiempo,
un formalismo que nos acercaría un poco más a
responder la pregunta de Leibniz de por qué hay algo
en lugar de nada». Por último, en la teoría de las
supercuerdas tenemos la amalgama virtualmente
completa de Física y Matemáticas. Siempre han estado
cerca la una de la otra, pero nunca tanto como ahora,
cuando afrontamos la posibilidad de que, en cierto
sentido, y pese a lo que digan Unger y Smolin, el
fundamento último de la realidad sea matemático.
La mecánica cuántica y la teoría de la información
convergen por medio de las Matemáticas.
Si realmente es así, la resolución no será
necesariamente nítida. De hecho, podría hacer que todo
fuera más complicado, y sería erróneo eludir esa
cuestión. La mecánica cuántica y la teoría de la
información han convergido de una forma matemática
que, irónica o no, es terriblemente confusa para la
mayoría de nosotros. En 1982, el físico Alain Aspect
demostró el «entrelazamiento cuántico» por primera
vez, pero desde entonces su experimento se ha
repetido a menudo. De hecho, se realiza de
manera regular en Ginebra, donde Nicolas Gisin y sus
colegas «golpean» con un láser un cristal hecho de
potasio, niobio y oxígeno. Tal como Charles Seife cuenta
la historia, cuando un cristal absorbe un fotón del láser,
se divide en dos partículas entrelazadas que salen
disparadas en direcciones opuestas, que entonces se
llevan a cables de vidrio que discurren por varios
pueblos alrededor del lago Ginebra. En el año 2000, el
equipo de Gisin disparó fotones entrelazados a las
poblaciones de Bernex y Bellevue, separadas por más
de 9 kilómetros. Con la ayuda de un reloj
increíblemente preciso, demostraron que las partículas
«se comportaron del modo que Einstein había predicho:
ambas estuvieron superpuestas y siempre parecían
conspirar para tener propiedades iguales pero opuestas
cuando se las medía».
Con la mecánica cuántica, la extrañeza cuántica alcanza
una cima. El principio de superposición implica que una
partícula puede estar en dos estados cuánticos al
mismo tiempo. Puede tener espín arriba y abajo, o, en
términos de información, puede ser a un tiempo 1 y 0,
y estar en dos lugares al mismo tiempo. Por si eso no
fuera lo bastante misterioso, el equipo de Ginebra
determinó que si se enviase algún tipo de «mensaje»
entre las dos partículas, tendría que viajar 10 millones
de veces más deprisa que la velocidad de la luz.
Los físicos pueden explicar todo esto con la ayuda de la
matemática, con lo que denominan teoría de la
información cuántica, que, añaden, «está más
íntimamente ligada a las leyes fundamentales de la
Física». Los bits cuánticos, o qubits, ocupan estados de
superposición, e incluso pueden dividirse más de una
vez y, de hecho, encontrarse en cuatro lugares al
mismo tiempo. Y, si su entrelazamiento pudiera
capturarse (lo que no está claro), podrían hacer cálculos
mucho más deprisa. Una computadora cuántica
superaría a las actuales en un orden de magnitud.
A este nivel, la teoría cuántica, igual que las
supercuerdas, fuerzan la imaginación de cualquiera (y
especialmente de quienes carecen de la competencia
matemática necesaria para entender las ecuaciones).
Pero no está libre de problemas. Uno está relacionado
con la pregunta fundamental de por qué las entidades
microscópicas deberían comportarse de forma distinta
a como lo hacen las macroscópicas (a fin de cuentas, los
instrumentos con los que medimos las entidades
microscópicas son entidades macroscópicas). También
se da el caso de que la teoría de la información no
concuerda con la relatividad. Un tercer problema es
que el entrelazamiento implica un intercambio de
información, pero este está prohibido por la teoría. Y un
cuarto problema es que si los agujeros negros
consumen información (rayos cósmicos, por ejemplo, o
fotones), eso violaría la ley de la conservación de la
información, que es equivalente a la ley de la
conservación de la energía. Así que no podemos
decir que ya estemos a las puertas de la unificación
total de la Física por medio de la matemática].
LO MAS PROFUNDO DEL Universo
Pese a la oposición a la unidad de las Ciencias que se
desarrolló a finales del siglo XX de parte de muchos
críticos posmodernos (por lo general filósofos,
sociólogos o historiadores de la Ciencia), la mayoría de
los científicos adoptan otro punto de vista. Freeman
Dyson, profesor de Física en el IAS de Princeton, no es
un reduccionista, pero he aquí lo que dice en su libro El
infinito en todas direcciones, publicado en 1988: «En
términos generales es cierto que los más grandes
científicos de cada disciplina son unificadores. Y
especialmente en la Física. Newton y Einstein fueron
supremos unificadores. Los grandes triunfos de la Física
han sido triunfos de la unificación. Casi damos por
sentado que el camino del progreso en la Física será una
unificación cada vez más amplia que pondrá cada vez
más fenómenos en el ámbito de unos pocos principios
fundamentales».
Y esto es lo que dice Abdus Salam, quien compartió el premio
Nobel por su trabajo sobre la unificación de las interacciones
electromagnéticas y débiles, en su Conferencia 1988, pronunciada
en la Universidad de Cambridge con el título «La unificación de las fuerzas
fundamentales»:
Otra de las áreas en las que la Física de partículas ha
hecho aportaciones importantes es en la cosmología
temprana, hasta el punto de que esta se ha convertido
en sinónimo de Física de partículas. Esto se debe a que
las transiciones de fase, que separan una era de la
cosmología de otra, son también el mecanismo por
medio del cual la fuerza unificada última se convierte en
dos (gravedad más electronuclear), en tres
(electrodébil más nuclear fuerte más gravedad), y
finalmente en cuatro fuerzas (electromagnética más
débil más nuclear fuerte más gravedad), a medida que
desciende la temperatura global del Universo).
Estas no fueron las únicas figuras que hicieron hincapié
en la unificación. Pero probablemente el más destacado
defensor de una teoría del todo, desde un punto de
vista estrictamente reduccionista, fue y es Steven
Weinberg, catedrático de Física en la Universidad de
Texas en Austin, quien, recordemos una vez más,
compartió el premio Nobel de Física de 1979 con Salam
y Glashow. En 1993, Weinberg publicó "El sueño de una
teoría final", en el que defendía una visión de la Ciencia
reduccionista más o menos tradicional, que las
partículas fundamentales son fundamentales como
nada más lo es, que la Física no busca solo describir el
mundo a este nivel básico sino también explicarlo (¿por
qué hay gravedad? ¿por qué hay mecánica cuántica?).
Reconocía que, para entonces, el reduccionismo se
había convertido en «la Cosa Mala» de la Ciencia, pero
insistía en que «siguiendo las flechas de explicación
hasta su origen, hemos descubierto un sorprendente
patrón de convergencia, tal vez lo más profundo que
hayamos aprendido hasta ahora sobre el Universo».
Hoy sabemos lo bastante sobre el
«extraordinario grado de conexión» del conocimiento,
decía, para esperar que esa convergencia crezca y se
torne más precisa.
La publicación de su libro tuvo un telón de fondo muy
concreto: era el momento en que el Congreso de
Estados Unidos estaba discutiendo la financiación del
supercolisionador superconductor. El SSC era un
equipo de experimentación sin ningún fin práctico que
había de costar a los contribuyentes de Estados Unidos
alrededor de 8.000 millones de dólares. Otros físicos,
como Philip Warren Anderson, catedrático emérito en
Cambridge y Princeton, sostenían que otros aspectos
de la Física (por ejemplo, la Física de la materia
condensada) eran igual de fundamentales y, además,
potencialmente más útiles a largo plazo, de modo que
merecían tanta financiación como la Física de partículas,
o incluso más.
Aun concediendo que la Física de la materia condensada
era importante, y que estaba mal financiada, Weinberg
insistía en que la Física de partículas era más
fundamental, más que cualquier otra cosa. Al propio
tiempo, aceptaba que muchos aspectos de la Ciencia (las
teorías de la turbulencia, por ejemplo, o la consciencia, la
memoria, la conductividad a altas temperaturas) no se
verían afectadas en lo más mínimo por el
descubrimiento de una teoría del todo.
En 1929, decía, la Física se había dirigido hacia «una
visión del mundo más unificada» cuando Werner
Heisenberg y Wolfgang Pauli describieron tanto a las
partículas como a las fuerzas como manifestaciones de
una realidad más profunda, «los niveles de los campos
cuánticos». Aquella había sido una «síntesis
deslumbrante», decía, y la palabra crucial es síntesis.
Nadie entonces había podido ver hasta dónde nos
llevaría y por implicación, argumentaba, nos
encontrábamos en una situación parecida a las puertas
del siglo XXI, cuando nadie podía decir adónde nos
llevaría una teoría del todo, si llegaba a descubrirse. Le
parecía, en cualquier caso, que la teoría de las cuerdas
demostraría ser un gran paso.
Aunque aceptaba que no había garantía de que el
progreso en otros campos de la Ciencia se viera
ayudado directamente por el descubrimiento de una
teoría del todo, se mostraba convencido de que hay un
«orden lógico en el seno de la naturaleza» y que el
reduccionismo es, en realidad, una actitud hacia la
naturaleza. «No es ni más ni menos que la percepción
de que los principios científicos son como son a
consecuencia de unos principios científicos más
profundos (y, en algunos casos, accidentes históricos) y
que todos estos principios se remontan a un conjunto
único de leyes conectadas entre sí ».
Pese a las dudas expresadas por otros (algunos de los
cuales sostenían que las leyes que estudiamos son
impuestas a la naturaleza por el modo en que
realizamos las observaciones), Weinberg decía que su
propia intuición era que existía una teoría definitiva
esperando a ser descubierta, y que somos capaces de
descubrirla. Quizá su impresión más fundamental sea que la actitud
reduccionista proporciona «un filtro útil» que previene
a los científicos de cualquier campo para no malgastar
su tiempo en ideas que no merecen la pena. «En este
sentido —insistía— hoy todos somos reduccionistas ».
Cuando pronunció su Conferencia Dirac, en 1988, sobre
«La unificación de las fuerzas fundamentales», Salam
presentó dos cuadros que mostraban claramente las
partículas y las fuerzas que formaban parte del modelo
estándar de la Física. Y añadió que todas aquellas
partículas se conocían de forma directa con la excepción
del quark cima y del bosón o partícula de Higgs. El
quark cima fue identificado en 1995, y después, mucho
más tarde, comenzó a entreverse la pieza final del puzle .
EL UMBRAL DE LA NUEVA ERA
Melbourne, Australia, 4 de julio de 2012. Es el primer
día del Congreso Internacional de Física de Alta
Energía, una reunión bienal que con los años transita de
ciudad en ciudad. Hoy, sin embargo, se ha filtrado la
noticia de que se va a anunciar algo «grande» y el
auditorio principal se ha llenado mucho antes de que
comiencen las conferencias. Al otro lado del mundo, en
el CERN de Ginebra, desde donde se transmitirán en
directo las dos conferencias principales, corre el mismo
rumor y cientos de físicos se han presentado horas
antes de que comiencen.
Las dos conferencias principales serán pronunciadas
por Joe Incandela, un físico estadounidense, y Fabiola
Gianotti, una Física italiana. Son los investigadores
principales de dos equipos rivales del CERN, conocidos
como ATLAS y CMS, que, en una hábil jugada que aúna
colaboración con rivalidad, se han enfrentado desde que
el CERN estableció los dos grupos en 2009.
El núcleo de las charlas consiste en un pequeño número
de gráficos que le dirían muy poco a quien no fuera un
físico de alta energía bien informado. Sin embargo,
los gráficos muestran más eventos de los esperados de cierta
energía particular (colecciones de partículas que
emergen de una sola colisión). Todos los físicos de la
audiencia entienden al instante lo que significan: un
nueva partícula. El GCH (Gran Colisionador de
Hadrones) ha vislumbrado una parte de la naturaleza
que hasta entonces nunca se había visto.
En Melbourne, el público estalla en aplausos. En
Ginebra, incluso periodistas que se enorgullecen de
haberlo visto todo aplauden con no menos entusiasmo.
Todos están sobrecogidos por la «exquisita
concordancia» entre los dos equipos.
Lo que habían encontrado era el «bosón de Higgs». O,
al menos, algo que tenía la masa esperada, el nivel de
energía esperado y se desintegraba del modo esperado
según la teoría. Esta partícula había recibido su nombre
del físico escocés Peter Higgs, que aquel día, con
ochenta y tres años, se encontraba en el auditorio, y
nunca había imaginado que la partícula fuera a
encontrarse durante su vida. Había propuesto la
existencia de la partícula ya en 1964, junto a otros colegas.
La importancia del bosón de Higgs estriba en que no se
trata únicamente de una partícula fundamental, sino
que es una entidad muy especial.
Hay tres tipos de partículas, las que conforman la
materia (como los electrones y los quarks), las
partículas de fuerza (fotones, gluones), y luego el bosón
de Higgs. Este surge de un campo conocido como campo
de Higgs que ocupa todo el espacio y proporciona, por
así decirlo, el fondo sobre el que otras partículas
reciben su masa. Sin él, la materia no existiría.
El descubrimiento fue un triunfo para el CERN y el
Gran Colisionador de Hadrones, y para la organización
de los científicos de Ginebra y otros lugares. El GCH es
ciertamente un nombre prosaico para un increíble
centro de actividad humana, increíble en el sentido de
que hicieron falta 9.000 millones de dólares para
construirlo sin que se esperase que produjese nada útil
en los campos de la medicina o el transporte, por
ejemplo, aunque de manera casi inadvertida dio lugar a
la World Wide Web.
El colisionador tiene un perímetro de unos 27
kilómetros, y contiene potentes imanes que se
mantienen de tal modo que el interior de la máquina es
más frío que el espacio exterior, con una temperatura
inferior a la de la radiación cósmica de fondo que dejó el
Big Bang. El CERN lleva a cabo muchos experimentos
pero dos estaban dedicados a la búsqueda del bosón de
Higgs, los conocidos como ATLAS (el acrónimo en inglés
de «un aparato toroidal del GCH») y CMS (de
«solenoide compacto de muones»), que en esencia son
dos maneras de observar colisiones de protones. La
idea de tener dos experimentos que buscaban lo
mismo, aunque de forma un poco distinta, era parte de
un enfoque diseñado para lograr dos objetivos
complementarios. El primero era inyectar un poco de
rivalidad en el sistema, espoleando la actividad, y el
segundo que si los dos equipos llegaban a la misma
respuesta, la veracidad de los resultados se vería más
firmemente confirmada. Cada equipo estaba formado
por un personal de 3.000 participantes: eran
experimentos a gran escala se mire como se mire.
El hecho de que ambos experimentos obtuvieran la
misma respuesta, una partícula con una masa de 100
GeV, igual a 100.000 millones de electronvoltios, y casi
exactamente al mismo tiempo, fue uno de los grandes
logros del CERN, y parte del encanto del
descubrimiento del bosón de Higgs. Otra medida de la
magnitud del logro es que la vida media del bosón de
Higgs se estima en «algo menos» de un zeptosegundo
(10^-21 segundos), lo que significa que se desplaza
menos de una milmillonésima de centímetro antes de
desintegrarse.
Para la mayoría de nosotros es difícil concebir estas
dimensiones, pero el descubrimiento del bosón de Higgs
es importante por varias razones. En primer lugar,
completa nuestro entendimiento de la realidad
cotidiana. «Este es un imponente logro en la historia
intelectual de la humanidad», en palabras de Sean
Carroll. Por otro lado, el hecho de que el
descubrimiento se haya realizado significa que, tal vez,
la era de la Ciencia del Big Bang no se haya acabado.
Ahora que el bosón de Higgs es una pieza verificada del
esquema, y ahora que el modelo estándar de la Física
está más o menos completo, hemos llegado al fin de una
era de unificación, pero nos hallamos en el umbral de
una nueva era.
La razón de ello es que el bosón de Higgs podría ser la
puerta de entrada a la comprensión de la materia
oscura. Y la materia oscura y la energía oscura son
prueba de que el modelo estándar es insuficiente.
Cuando Max Planck comenzó a estudiar Física en 1875,
fue advertido de que ese campo del conocimiento
estaba prácticamente completo y que no podía esperar
ningún descubrimiento extraordinario. A los pocos
años, él mismo había identificado el cuanto, se había
aislado el electrón, se había descubierto la radiactividad
y se había concebido la relatividad. Aunque ninguna de
estas ideas trascendentales nacieron del interés por
explotar sus posibilidades prácticas o comerciales, no
tardaron en transformar nuestras vidas tanto como
otros descubrimientos anteriores, si no más.
Hay quienes dudan de la naturaleza de la materia
oscura, quienes dicen que podría ser como el flogisto o
como el éter luminífero de tiempos pretéritos, más
imaginado que real. Más aún son los que piensan que,
como ni siquiera el GCH ha permitido hallar indicios
que respalden esa idea, proseguir con la búsqueda sería
demasiado caro. He ahí la medida de la importancia y el
dilema que plantea el bosón de Higgs. Como ahora
creemos que en el Universo hay más materia oscura
que de cualquier otro tipo, y que el bosón de Higgs
podría ser el vehículo que nos permitiese explorar lo
que es, quizá el sueño de Weinberg de una unificación
final se encuentre mucho más cerca. Sin embargo,
¿a qué precio?
Aún más problemático, tal vez a largo plazo, sea lo que
plantean dos científicos destacados, Joseph Silk y
George Ellis. A finales de 2014, ambos argumentaron
en Nature que «algunos científicos» parecen haber
«dejado a un lado explícitamente» la necesidad de
confirmar experimentalmente nuestras teorías más
ambiciosas, «siempre que esas teorías sean lo bastante
elegantes y explicativas». Se quejan, además, de que
nos encontramos al final de una era, «rompiendo con
siglos de tradición filosófica», de definir el conocimiento
científico como empírico.
A este respecto, parte del problema radica en el propio
modelo estándar, que pese a las «glorias de su
confirmación» (en particular, el descubrimiento del
bosón del Higgs), es también un callejón sin salida. Y lo
es porque no ofrece ningún camino futuro que pueda
llevar a unir el mundo cuántico y la relatividad de
Einstein. Los físicos, como Silk, Ellis y otros han
señalado, se han esforzado por superar el modelo
estándar, muy especialmente con la idea de la
supersimetría, que postula partículas compañeras de
cada una de las partículas que conocemos. Esta teoría
es elegante matemáticamente y podría explicar la
materia oscura. El problema es que todavía no se han
hallado partículas supersimétricas. Ni siquiera una.
Esto no es un desafío directo al Gran Colisionador de
Hadrones pero, prosigue el argumento, si la falta de
éxito se prolonga durante mucho más tiempo, ¿cuál
será la respuesta? Muchos físicos llegarán a la
conclusión de que la supersimetría es una bonita idea,
pero solo eso. El riesgo, como Silk, Ellis y quienes
piensan como ellos argumentan, es que otros
simplemente «reajusten» sus modelos «para predecir
partículas supersimétricas con masa fuera del alcance
del poder de detección del GCH». Para esos teóricos, la
elegancia está por encima de la confirmación empírica.
Y también ellos se preguntan cuánto tiempo tendrían
que esperar para obtener esa confirmación empírica. Se
tardó medio siglo en detectar el bosón de Higgs. A
medida que aumentan los costes de la Física, ¿cuánto
tiempo de espera podemos permitirnos? Puede
discernirse una sensación de crisis.
LA GRAN FRUSTRACION
O tal vez dilema sea mejor palabra. El problema de un
proceso como la convergencia, que es una idea
poderosa, es que presupone un punto final definitivo.
La convergencia se está produciendo en todos los
campos, como este ensayo pretende poner de manifiesto,
pero ahora el problema de la Física es que podría
resultar demasiado caro construir los equipos que
podrían (solo podrían) producir esa convergencia
definitiva. Es eso lo que llamo «la gran frustración».
VOLVER A FISICA © 2016 Javier De Lucas