TEORIAS DEL TODO

Teorías del todo: «la amalgama virtualmente completa de Física y Matemáticas»

La llamada «teoría del todo» se refiere al intento de

describir toda la Física fundamental mediante un solo

conjunto de ecuaciones: nada más. Los físicos hace

décadas que vienen diciendo que esta «solución final»

está a la vuelta de la esquina (y recordemos que

Einstein fracasó en su búsqueda de una teoría de

campos unificada hace algo más de medio siglo).

Pero la teoría del todo sigue dándoles esquinazo.

Hasta la década de 1960 había que reconciliar cuatro

fuerzas: la gravedad, el electromagnetismo, la fuerza

nuclear fuerte y la fuerza radiactiva débil. En aquella

década, Sheldon Glashow, de Harvard, concibió un

conjunto de ecuaciones, que desarrollaron Abdus Salam

de Imperial College, en Londres, y Steven Weinberg, en

Texas, quienes describieron la fuerza débil y el

electromagnetismo y postularon tres nuevas partículas:

W+, W- y Z0. Estas se observaron experimentalmente

en 1983 en el CERN, en Ginebra. Así pues, junto a la

nueva teoría que explicaba la interacción de los quarks,

el electromagnetismo, la fuerza débil y la fuerza fuerte

se habían enlazado en un mismo conjunto de

ecuaciones.

Este es un logro muy notable, pero que todavía deja

fuera la gravedad, y es la incorporación de esta cuarta

fuerza en el esquema general lo que constituiría, a ojos

de los físicos, una teoría del todo.

 

Al principio probaron con una teoría cuántica de la

gravedad. Es decir, los físicos postularon teóricamente

la existencia de una o más partículas que explicasen la

fuerza y le dieron el nombre de «gravitón» a la

partícula de la gravedad, aunque las nuevas teorías

presuponen que deben existir muchas más además de

esa partícula. (Algunos físicos predicen ocho, otros 154,

lo que da una idea de la monumental tarea que

encaran). Pero entonces, a mediados de la década de

1980, los físicos fueron arrasados por una «revolución

de las cuerdas» y, en 1995, por una segunda

«revolución de las supercuerdas». En una peculiar

repetición de la excitación que conmocionó a la Física a

principios del siglo XX, toda una nueva área de

indagación se presentaba ante la vista a las puertas del

siglo XXI.

LAS CUERDAS

La revolución de las cuerdas nació de una paradoja

fundamental. Aunque cada una gozaba de méritos

propios, la teoría general de la relatividad (que explica

la estructura a gran escala del Universo) y la mecánica

cuántica (que explica la minúscula escala subatómica)

eran mutuamente incompatibles.

Los físicos no podían creer que la

naturaleza permitiese algo así. Como había dicho

Newton, «a la naturaleza le place la simplicidad».

Había también otras preguntas fundamentales que los

teóricos de las cuerdas tenían que afrontar: ¿por qué

hay cuatro fuerzas fundamentales? ¿Por qué existe el

número de partículas que existe, y por qué tienen las

propiedades que tienen? La respuesta

que proponen los teóricos de las cuerdas es que el

constituyente básico de la materia no es, en realidad,

una serie de partículas (unas entidades en forma de

punto) sino unas diminutas cuerdas unidimensionales

que a menudo forman bucles. Estas cuerdas son tan

pequeñas (alrededor de 10^-33 centímetros) que no

podemos observarlas con los actuales instrumentos de

medición y, por tanto, al menos por el momento, son

unos constructos completamente teóricos,

matemáticos.

Sea como fuere, según la teoría de las cuerdas, un

electrón es una cuerda que vibra de cierto modo, y un

quark arriba es una cuerda que vibra de otro modo, y

una partícula tau es una cuerda que vibra de un tercer

modo, y así el resto, igual que las cuerdas de un violín

vibran de distinto modo para producir notas distintas.

Como muestran los números, me ocupo aquí de

unas entidades extraordinariamente pequeñas, unos

100 trillones de veces (10^20) más pequeñas que un

núcleo atómico. Sin embargo, según los teóricos de las

cuerdas, a este nivel es posible reconciliar (unir) la

gravedad y la teoría cuántica. Como resultado derivado

y premio añadido, dicen también que de los cálculos

surge de manera natural una partícula de la gravedad

(el gravitón).

 

Al tratar con unas entidades tan diminutas como las

cuerdas, surgen posibilidades que los físicos nunca

habían siquiera considerado, y una de ellas es que

podría haber «dimensiones ocultas», para explicar lo

cual necesitamos una nueva analogía. Comencemos por

la idea de que las partículas se ven como tales solo

porque nuestros instrumentos carecen de la resolución

necesaria para ver algo tan pequeño. Por usar un

ejemplo de Brian Greene en "El Universo elegante":

supercuerdas, dimensiones ocultas y la búsqueda de

una teoría definitiva. Pensemos en una manguera vista

desde lejos. Parece un filamento en una dimensión,

como una línea escrita en una página. Naturalmente, al

acercarnos la vemos en dos dimensiones: siempre las

había tenido, pero no estábamos lo bastante cerca para

verlo. Los físicos dicen que ocurre (o podría ocurrir) lo

mismo al nivel de las cuerdas. Hay dimensiones ocultas

y enrolladas de las que todavía no somos conscientes.

De hecho, dicen que podría haber once dimensiones en

total, diez de espacio y una de tiempo. Esta es una idea

difícil si no imposible de imaginar o visualizar, pero los

científicos basan sus argumentaciones en

razonamientos matemáticos (y con unas Matemáticas

que incluso los matemáticos encuentran difíciles). Sin

embargo, cuando aceptan eso, muchas cosas del

Universo comienzan a encajar. Por ejemplo, los agujeros

negros se explican como algo tal vez similar a las

partículas fundamentales, y como portales a otros

Universos. Las dimensiones extra se necesitan también

porque el modo como se pliegan y enrollan podría,

según los teóricos de las cuerdas, determinar el tamaño

y frecuencia de las vibraciones de las cuerdas; dicho de

otro modo, explican por qué las «partículas» familiares

tienen la masa y la energía y se encuentran en el

número en que se encuentran. En su última

configuración, la teoría de las cuerdas implica más que

cuerdas: también hay membranas o «branas» de dos,

tres y más dimensiones, pequeños paquetes cuya

comprensión será la meta principal de la investigación

de este siglo XXI.

 

La teoría de las cuerdas fuerza hasta el límite la

comprensión de cualquiera. Hasta el momento es teoría

en un 99 %, es decir, esencialmente Matemáticas. Los

físicos comienzan a encontrar el modo de testar

experimentalmente las nuevas teorías, pero a día de

hoy no faltan escépticos que dudan de la existencia de

las cuerdas. Además, a estos niveles tan pequeños

podríamos entrar en «un dominio sin espacio

ni tiempo». También eso fuerza nuestra comprensión.

Greene cree que esto podría ser un gran paso adelante

filosófica y científicamente, un punto de inflexión «que

podría darnos respuesta a la pregunta de cómo se

originó el Universo y por qué existe espacio y tiempo,

un formalismo que nos acercaría un poco más a

responder la pregunta de Leibniz de por qué hay algo

en lugar de nada». Por último, en la teoría de las

supercuerdas tenemos la amalgama virtualmente

completa de Física y Matemáticas. Siempre han estado

cerca la una de la otra, pero nunca tanto como ahora,

cuando afrontamos la posibilidad de que, en cierto

sentido, y pese a lo que digan Unger y Smolin, el

fundamento último de la realidad sea matemático.

 

La mecánica cuántica y la teoría de la información

convergen por medio de las Matemáticas.

Si realmente es así, la resolución no será

necesariamente nítida. De hecho, podría hacer que todo

fuera más complicado, y sería erróneo eludir esa

cuestión. La mecánica cuántica y la teoría de la

información han convergido de una forma matemática

que, irónica o no, es terriblemente confusa para la

mayoría de nosotros. En 1982, el físico Alain Aspect

demostró el «entrelazamiento cuántico» por primera

vez, pero desde entonces su experimento se ha

repetido a menudo. De hecho, se realiza de

manera regular en Ginebra, donde Nicolas Gisin y sus

colegas «golpean» con un láser un cristal hecho de

potasio, niobio y oxígeno. Tal como Charles Seife cuenta

la historia, cuando un cristal absorbe un fotón del láser,

se divide en dos partículas entrelazadas que salen

disparadas en direcciones opuestas, que entonces se

llevan a cables de vidrio que discurren por varios

pueblos alrededor del lago Ginebra. En el año 2000, el

equipo de Gisin disparó fotones entrelazados a las

poblaciones de Bernex y Bellevue, separadas por más

de 9 kilómetros. Con la ayuda de un reloj

increíblemente preciso, demostraron que las partículas

«se comportaron del modo que Einstein había predicho:

ambas estuvieron superpuestas y siempre parecían

conspirar para tener propiedades iguales pero opuestas

cuando se las medía».

Con la mecánica cuántica, la extrañeza cuántica alcanza

una cima. El principio de superposición implica que una

partícula puede estar en dos estados cuánticos al

mismo tiempo. Puede tener espín arriba y abajo, o, en

términos de información, puede ser a un tiempo 1 y 0,

y estar en dos lugares al mismo tiempo. Por si eso no

fuera lo bastante misterioso, el equipo de Ginebra

determinó que si se enviase algún tipo de «mensaje»

entre las dos partículas, tendría que viajar 10 millones

de veces más deprisa que la velocidad de la luz.

Los físicos pueden explicar todo esto con la ayuda de la

matemática, con lo que denominan teoría de la

información cuántica, que, añaden, «está más

íntimamente ligada a las leyes fundamentales de la

Física». Los bits cuánticos, o qubits, ocupan estados de

superposición, e incluso pueden dividirse más de una

vez y, de hecho, encontrarse en cuatro lugares al

mismo tiempo. Y, si su entrelazamiento pudiera

capturarse (lo que no está claro), podrían hacer cálculos

mucho más deprisa. Una computadora cuántica

superaría a las actuales en un orden de magnitud.

A este nivel, la teoría cuántica, igual que las

supercuerdas, fuerzan la imaginación de cualquiera (y

especialmente de quienes carecen de la competencia

matemática necesaria para entender las ecuaciones).

Pero no está libre de problemas. Uno está relacionado

con la pregunta fundamental de por qué las entidades

microscópicas deberían comportarse de forma distinta

a como lo hacen las macroscópicas (a fin de cuentas, los

instrumentos con los que medimos las entidades

microscópicas son entidades macroscópicas). También

se da el caso de que la teoría de la información no

concuerda con la relatividad. Un tercer problema es

que el entrelazamiento implica un intercambio de

información, pero este está prohibido por la teoría. Y un

cuarto problema es que si los agujeros negros

consumen información (rayos cósmicos, por ejemplo, o

fotones), eso violaría la ley de la conservación de la

información, que es equivalente a la ley de la

conservación de la energía. Así que no podemos

decir que ya estemos a las puertas de la unificación

total de la Física por medio de la matemática].

LO MAS PROFUNDO DEL Universo

Pese a la oposición a la unidad de las Ciencias que se

desarrolló a finales del siglo XX de parte de muchos

críticos posmodernos (por lo general filósofos,

sociólogos o historiadores de la Ciencia), la mayoría de

los científicos adoptan otro punto de vista. Freeman

Dyson, profesor de Física en el IAS de Princeton, no es

un reduccionista, pero he aquí lo que dice en su libro El

infinito en todas direcciones, publicado en 1988: «En

términos generales es cierto que los más grandes

científicos de cada disciplina son unificadores. Y

especialmente en la Física. Newton y Einstein fueron

supremos unificadores. Los grandes triunfos de la Física

han sido triunfos de la unificación. Casi damos por

sentado que el camino del progreso en la Física será una

unificación cada vez más amplia que pondrá cada vez

más fenómenos en el ámbito de unos pocos principios

fundamentales».

Y esto es lo que dice Abdus Salam, quien compartió el premio

Nobel por su trabajo sobre la unificación de las interacciones

electromagnéticas y débiles, en su Conferencia 1988, pronunciada

en la Universidad de Cambridge con el título «La unificación de las fuerzas

fundamentales»:

Otra de las áreas en las que la Física de partículas ha

hecho aportaciones importantes es en la cosmología

temprana, hasta el punto de que esta se ha convertido

en sinónimo de Física de partículas. Esto se debe a que

las transiciones de fase, que separan una era de la

cosmología de otra, son también el mecanismo por

medio del cual la fuerza unificada última se convierte en

dos (gravedad más electronuclear), en tres

(electrodébil más nuclear fuerte más gravedad), y

finalmente en cuatro fuerzas (electromagnética más

débil más nuclear fuerte más gravedad), a medida que

desciende la temperatura global del Universo).

Estas no fueron las únicas figuras que hicieron hincapié

en la unificación. Pero probablemente el más destacado

defensor de una teoría del todo, desde un punto de

vista estrictamente reduccionista, fue y es Steven

Weinberg, catedrático de Física en la Universidad de

Texas en Austin, quien, recordemos una vez más,

compartió el premio Nobel de Física de 1979 con Salam

y Glashow. En 1993, Weinberg publicó "El sueño de una

teoría final", en el que defendía una visión de la Ciencia

reduccionista más o menos tradicional, que las

partículas fundamentales son fundamentales como

nada más lo es, que la Física no busca solo describir el

mundo a este nivel básico sino también explicarlo (¿por

qué hay gravedad? ¿por qué hay mecánica cuántica?).

Reconocía que, para entonces, el reduccionismo se

había convertido en «la Cosa Mala» de la Ciencia, pero

insistía en que «siguiendo las flechas de explicación

hasta su origen, hemos descubierto un sorprendente

patrón de convergencia, tal vez lo más profundo que

hayamos aprendido hasta ahora sobre el Universo».

Hoy sabemos lo bastante sobre el

«extraordinario grado de conexión» del conocimiento,

decía, para esperar que esa convergencia crezca y se

torne más precisa.

La publicación de su libro tuvo un telón de fondo muy

concreto: era el momento en que el Congreso de

Estados Unidos estaba discutiendo la financiación del

supercolisionador superconductor. El SSC era un

equipo de experimentación sin ningún fin práctico que

había de costar a los contribuyentes de Estados Unidos

alrededor de 8.000 millones de dólares. Otros físicos,

como Philip Warren Anderson, catedrático emérito en

Cambridge y Princeton, sostenían que otros aspectos

de la Física (por ejemplo, la Física de la materia

condensada) eran igual de fundamentales y, además,

potencialmente más útiles a largo plazo, de modo que

merecían tanta financiación como la Física de partículas,

o incluso más.

 

Aun concediendo que la Física de la materia condensada

era importante, y que estaba mal financiada, Weinberg

insistía en que la Física de partículas era más

fundamental, más que cualquier otra cosa. Al propio

tiempo, aceptaba que muchos aspectos de la Ciencia (las

teorías de la turbulencia, por ejemplo, o la consciencia, la

memoria, la conductividad a altas temperaturas) no se

verían afectadas en lo más mínimo por el

descubrimiento de una teoría del todo.

En 1929, decía, la Física se había dirigido hacia «una

visión del mundo más unificada» cuando Werner

Heisenberg y Wolfgang Pauli describieron tanto a las

partículas como a las fuerzas como manifestaciones de

una realidad más profunda, «los niveles de los campos

cuánticos». Aquella había sido una «síntesis

deslumbrante», decía, y la palabra crucial es síntesis.

Nadie entonces había podido ver hasta dónde nos

llevaría y por implicación, argumentaba, nos

encontrábamos en una situación parecida a las puertas

del siglo XXI, cuando nadie podía decir adónde nos

llevaría una teoría del todo, si llegaba a descubrirse. Le

parecía, en cualquier caso, que la teoría de las cuerdas

demostraría ser un gran paso.

Aunque aceptaba que no había garantía de que el

progreso en otros campos de la Ciencia se viera

ayudado directamente por el descubrimiento de una

teoría del todo, se mostraba convencido de que hay un

«orden lógico en el seno de la naturaleza» y que el

reduccionismo es, en realidad, una actitud hacia la

naturaleza. «No es ni más ni menos que la percepción

de que los principios científicos son como son a

consecuencia de unos principios científicos más

profundos (y, en algunos casos, accidentes históricos) y

que todos estos principios se remontan a un conjunto

único de leyes conectadas entre sí ».

 

Pese a las dudas expresadas por otros (algunos de los

cuales sostenían que las leyes que estudiamos son

impuestas a la naturaleza por el modo en que

realizamos las observaciones), Weinberg decía que su

propia intuición era que existía una teoría definitiva

esperando a ser descubierta, y que somos capaces de

descubrirla. Quizá su impresión más fundamental sea que la actitud

reduccionista proporciona «un filtro útil» que previene

a los científicos de cualquier campo para no malgastar

su tiempo en ideas que no merecen la pena. «En este

sentido —insistía— hoy todos somos reduccionistas ».

 

Cuando pronunció su Conferencia Dirac, en 1988, sobre

«La unificación de las fuerzas fundamentales», Salam

presentó dos cuadros que mostraban claramente las

partículas y las fuerzas que formaban parte del modelo

estándar de la Física. Y añadió que todas aquellas

partículas se conocían de forma directa con la excepción

del quark cima y del bosón o partícula de Higgs. El

quark cima fue identificado en 1995, y después, mucho

más tarde, comenzó a entreverse la pieza final del puzle .

EL UMBRAL DE LA NUEVA ERA

Melbourne, Australia, 4 de julio de 2012. Es el primer

día del Congreso Internacional de Física de Alta

Energía, una reunión bienal que con los años transita de

ciudad en ciudad. Hoy, sin embargo, se ha filtrado la

noticia de que se va a anunciar algo «grande» y el

auditorio principal se ha llenado mucho antes de que

comiencen las conferencias. Al otro lado del mundo, en

el CERN de Ginebra, desde donde se transmitirán en

directo las dos conferencias principales, corre el mismo

rumor y cientos de físicos se han presentado horas

antes de que comiencen.

Las dos conferencias principales serán pronunciadas

por Joe Incandela, un físico estadounidense, y Fabiola

Gianotti, una Física italiana. Son los investigadores

principales de dos equipos rivales del CERN, conocidos

como ATLAS y CMS, que, en una hábil jugada que aúna

colaboración con rivalidad, se han enfrentado desde que

el CERN estableció los dos grupos en 2009.

El núcleo de las charlas consiste en un pequeño número

de gráficos que le dirían muy poco a quien no fuera un

físico de alta energía bien informado. Sin embargo,

los gráficos muestran más eventos de los esperados de cierta

energía particular (colecciones de partículas que

emergen de una sola colisión). Todos los físicos de la

audiencia entienden al instante lo que significan: un

nueva partícula. El GCH (Gran Colisionador de

Hadrones) ha vislumbrado una parte de la naturaleza

que hasta entonces nunca se había visto.

En Melbourne, el público estalla en aplausos. En

Ginebra, incluso periodistas que se enorgullecen de

haberlo visto todo aplauden con no menos entusiasmo.

Todos están sobrecogidos por la «exquisita

concordancia» entre los dos equipos.

Lo que habían encontrado era el «bosón de Higgs». O,

al menos, algo que tenía la masa esperada, el nivel de

energía esperado y se desintegraba del modo esperado

según la teoría. Esta partícula había recibido su nombre

del físico escocés Peter Higgs, que aquel día, con

ochenta y tres años, se encontraba en el auditorio, y

nunca había imaginado que la partícula fuera a

encontrarse durante su vida. Había propuesto la

existencia de la partícula ya en 1964, junto a otros colegas.

 

La importancia del bosón de Higgs estriba en que no se

trata únicamente de una partícula fundamental, sino

que es una entidad muy especial.

Hay tres tipos de partículas, las que conforman la

materia (como los electrones y los quarks), las

partículas de fuerza (fotones, gluones), y luego el bosón

de Higgs. Este surge de un campo conocido como campo

de Higgs que ocupa todo el espacio y proporciona, por

así decirlo, el fondo sobre el que otras partículas

reciben su masa. Sin él, la materia no existiría.

El descubrimiento fue un triunfo para el CERN y el

Gran Colisionador de Hadrones, y para la organización

de los científicos de Ginebra y otros lugares. El GCH es

ciertamente un nombre prosaico para un increíble

centro de actividad humana, increíble en el sentido de

que hicieron falta 9.000 millones de dólares para

construirlo sin que se esperase que produjese nada útil

en los campos de la medicina o el transporte, por

ejemplo, aunque de manera casi inadvertida dio lugar a

la World Wide Web.

El colisionador tiene un perímetro de unos 27

kilómetros, y contiene potentes imanes que se

mantienen de tal modo que el interior de la máquina es

más frío que el espacio exterior, con una temperatura

inferior a la de la radiación cósmica de fondo que dejó el

Big Bang. El CERN lleva a cabo muchos experimentos

pero dos estaban dedicados a la búsqueda del bosón de

Higgs, los conocidos como ATLAS (el acrónimo en inglés

de «un aparato toroidal del GCH») y CMS (de

«solenoide compacto de muones»), que en esencia son

dos maneras de observar colisiones de protones. La

idea de tener dos experimentos que buscaban lo

mismo, aunque de forma un poco distinta, era parte de

un enfoque diseñado para lograr dos objetivos

complementarios. El primero era inyectar un poco de

rivalidad en el sistema, espoleando la actividad, y el

segundo que si los dos equipos llegaban a la misma

respuesta, la veracidad de los resultados se vería más

firmemente confirmada. Cada equipo estaba formado

por un personal de 3.000 participantes: eran

experimentos a gran escala se mire como se mire.

El hecho de que ambos experimentos obtuvieran la

misma respuesta, una partícula con una masa de 100

GeV, igual a 100.000 millones de electronvoltios, y casi

exactamente al mismo tiempo, fue uno de los grandes

logros del CERN, y parte del encanto del

descubrimiento del bosón de Higgs. Otra medida de la

magnitud del logro es que la vida media del bosón de

Higgs se estima en «algo menos» de un zeptosegundo

(10^-21 segundos), lo que significa que se desplaza

menos de una milmillonésima de centímetro antes de

desintegrarse.

Para la mayoría de nosotros es difícil concebir estas

dimensiones, pero el descubrimiento del bosón de Higgs

es importante por varias razones. En primer lugar,

completa nuestro entendimiento de la realidad

cotidiana. «Este es un imponente logro en la historia

intelectual de la humanidad», en palabras de Sean

Carroll. Por otro lado, el hecho de que el

descubrimiento se haya realizado significa que, tal vez,

la era de la Ciencia del Big Bang no se haya acabado.

Ahora que el bosón de Higgs es una pieza verificada del

esquema, y ahora que el modelo estándar de la Física

está más o menos completo, hemos llegado al fin de una

era de unificación, pero nos hallamos en el umbral de

una nueva era.

La razón de ello es que el bosón de Higgs podría ser la

puerta de entrada a la comprensión de la materia

oscura. Y la materia oscura y la energía oscura son

prueba de que el modelo estándar es insuficiente.

 

Cuando Max Planck comenzó a estudiar Física en 1875,

fue advertido de que ese campo del conocimiento

estaba prácticamente completo y que no podía esperar

ningún descubrimiento extraordinario. A los pocos

años, él mismo había identificado el cuanto, se había

aislado el electrón, se había descubierto la radiactividad

y se había concebido la relatividad. Aunque ninguna de

estas ideas trascendentales nacieron del interés por

explotar sus posibilidades prácticas o comerciales, no

tardaron en transformar nuestras vidas tanto como

otros descubrimientos anteriores, si no más.

Hay quienes dudan de la naturaleza de la materia

oscura, quienes dicen que podría ser como el flogisto o

como el éter luminífero de tiempos pretéritos, más

imaginado que real. Más aún son los que piensan que,

como ni siquiera el GCH ha permitido hallar indicios

que respalden esa idea, proseguir con la búsqueda sería

demasiado caro. He ahí la medida de la importancia y el

dilema que plantea el bosón de Higgs. Como ahora

creemos que en el Universo hay más materia oscura

que de cualquier otro tipo, y que el bosón de Higgs

podría ser el vehículo que nos permitiese explorar lo

que es, quizá el sueño de Weinberg de una unificación

final se encuentre mucho más cerca. Sin embargo,

¿a qué precio?

Aún más problemático, tal vez a largo plazo, sea lo que

plantean dos científicos destacados, Joseph Silk y

George Ellis. A finales de 2014, ambos argumentaron

en Nature que «algunos científicos» parecen haber

«dejado a un lado explícitamente» la necesidad de

confirmar experimentalmente nuestras teorías más

ambiciosas, «siempre que esas teorías sean lo bastante

elegantes y explicativas». Se quejan, además, de que

nos encontramos al final de una era, «rompiendo con

siglos de tradición filosófica», de definir el conocimiento

científico como empírico.

 

A este respecto, parte del problema radica en el propio

modelo estándar, que pese a las «glorias de su

confirmación» (en particular, el descubrimiento del

bosón del Higgs), es también un callejón sin salida. Y lo

es porque no ofrece ningún camino futuro que pueda

llevar a unir el mundo cuántico y la relatividad de

Einstein. Los físicos, como Silk, Ellis y otros han

señalado, se han esforzado por superar el modelo

estándar, muy especialmente con la idea de la

supersimetría, que postula partículas compañeras de

cada una de las partículas que conocemos. Esta teoría

es elegante matemáticamente y podría explicar la

materia oscura. El problema es que todavía no se han

hallado partículas supersimétricas. Ni siquiera una.

Esto no es un desafío directo al Gran Colisionador de

Hadrones pero, prosigue el argumento, si la falta de

éxito se prolonga durante mucho más tiempo, ¿cuál

será la respuesta? Muchos físicos llegarán a la

conclusión de que la supersimetría es una bonita idea,

pero solo eso. El riesgo, como Silk, Ellis y quienes

piensan como ellos argumentan, es que otros

simplemente «reajusten» sus modelos «para predecir

partículas supersimétricas con masa fuera del alcance

del poder de detección del GCH». Para esos teóricos, la

elegancia está por encima de la confirmación empírica.

Y también ellos se preguntan cuánto tiempo tendrían

que esperar para obtener esa confirmación empírica. Se

tardó medio siglo en detectar el bosón de Higgs. A

medida que aumentan los costes de la Física, ¿cuánto

tiempo de espera podemos permitirnos? Puede

discernirse una sensación de crisis.

LA GRAN FRUSTRACION

O tal vez dilema sea mejor palabra. El problema de un

proceso como la convergencia, que es una idea

poderosa, es que presupone un punto final definitivo.

La convergencia se está produciendo en todos los

campos, como este ensayo pretende poner de manifiesto,

pero ahora el problema de la Física es que podría

resultar demasiado caro construir los equipos que

podrían (solo podrían) producir esa convergencia

definitiva. Es eso lo que llamo «la gran frustración».

 

VOLVER A FISICA                                                                                             © 2016 Javier De Lucas