RECORDANDO A HAWKING
Stephen Hawking, físico teórico británico, es mundialmente
conocido por sus intentos de unificar la Relatividad General con la Teoría Cuántica
y por sus aportaciones relacionadas con la Cosmología y los agujeros negros.
Hawking está considerado actualmente como uno de los físicos más importantes de
la segunda mitad del siglo XX y comienxos del XXI.
Stephen William Hawking nació el 8 de enero de 1942 en Oxford, Inglaterra. La
casa de sus padres estaba en el norte de Londres, pero durante la segunda
guerra mundial se consideraba que Oxford era un lugar más seguro para tener
niños. Cuando tenía ocho años, su familia se mudó a St
Albans, un pueblo a unas 20 millas del norte de Londres.A
los once años Stephen fue a la Escuela de St Albans,
y luego al Colegio Mayor Universitario en Oxford, el antiguo colegio de su
padre. Stephen quería hacer Matemáticas, pese a que su padre habría preferido
Medicina. Como Matemáticas no podía estudiarse en el Colegio Universitario, él
optó por Física en su lugar. Después de tres años obtuvo el título de primera
clase con honores en Ciencias Naturales.Stephen fue
entonces a Cambrigde para investigar en Cosmología.
Tras obtener el Doctorado pasó a ser Investigador, y más tarde Profesor en los
Colegios Mayores de Gonville y Caius.
Después de abandonar el Instituto de Astronomía en 1973, entró en
el Departamento de Matemáticas Aplicadas y Física Teórica, y desde 1979 ocupa
el puesto de Profesor Lucasiano de Matemáticas de
Cambridge, ocupado años atrás por Isaac Newton.
Stephen Hawking ha trabajado en las leyes básicas que gobiernan el Universo.
Junto con Roger Penrose mostró que la Teoría General de la Relatividad de
Einstein implica que el espacio y el tiempo han de tener un principio en el Big
Bang y un final dentro de agujeros negros. Semejantes
resultados señalan la necesidad de unificar la Relatividad General con la
Teoría Cuántica, el otro gran desarrollo científico de la primera mitad del
siglo XX.Una consecuencia de
tal unificación era que los agujeros negros no eran totalmente negros, sino que
podían emitir radiación y eventualmente evaporarse y desaparecer. Otra
conjetura es que el Universo no tiene bordes o límites en el tiempo imaginario.
Esto implicaría que el modo en que el Universo empezó queda completamente
determinado por las leyes de la Ciencia.
Más tarde depuró este concepto considerando todas estas teorías como intentos
secundarios de describir una realidad, en la que conceptos como la singularidad
no tienen sentido y donde el espacio y el tiempo forman una superficie cerrada
sin fronteras. Ha escrito diversos libros de Física Y Astronomía, y también
libros de divulgación científica como "A hombros de gigantes",
"El Universo en una cáscara de nuez" y el famoso "Historia del
tiempo: del Big Bang a los agujeros negros"
(1988) y otras obras que se han convertido en best-sellers.
Hawking ha hecho importantes aportaciones a la Ciencia en los
campos de la Física y la Astronomía (Cosmología y Agujeros Negros, mientras
lucha contra la esclerosis lateral amiotrófica, una enfermedad incurable del
sistema nervioso. En 1989 le fue concedido el Premio Príncipe de Asturias de la
Concordia.El Profesor Hawking tiene doce doctorados
honoríficos, ha ganado el CBE en 1982 y fue designado Compañero de Honor en
1989. Ha obtenido numerosos premios, galardones y medallas y es Miembro de
Honor de la Royal Society y de la US National Academy of Sciencies.
Stephen Hawking combina la vida en familia y su investigación en
Física teórica, junto con un extenso programa de
viajes y conferencias.
He aquí algunas de sus conferencias más
interesantes
El 29 de
abril de 1980, di mi conferencia inaugural como profesor de matemáticas de la
cátedra Lucasiana en Cambridge. El título era: “¿Está
a la vista el fin de la Física Teórica? y en ella describí el progreso que ya
habíamos experimentado en el entendimiento del universo durante los últimos
siglos, al mismo tiempo que me preguntaba cuales eran
las posibilidades de encontrar finalmente una teoría completa y unificada del
todo hacia finales de siglo. Bien, el final del siglo ya está casi aquí. Aunque
hemos recorrido un largo camino, particularmente durante los últimos 3 años, no
parece que vayamos a conseguirlo.
En mi lectura de 1980 describí cómo habíamos dividido el problema
de encontrar una teoría del todo en un número de partes más manejables.
Primeramente habíamos dividido la descripción del universo que nos
rodea en dos partes. La primera de ellas es un conjunto de leyes locales que
nos dicen cómo evoluciona cada región del universo en el tiempo si sabemos su
estado inicial, y cómo es afectada por otras regiones. La otra parte consta de
un conjunto de lo que denominamos condiciones límite. Estas, especifican lo que
sucede en el borde del espacio y el tiempo. Ellas determinan cómo empezó el
universo, y quizás, cómo va a terminar.
Mucha gente, incluyendo probablemente a la mayoría de los físicos,
sienten que las tareas de la física teórica deberían estar confinadas a la
primera parte, es decir a formular leyes locales que describan cómo evoluciona
el universo a medida que el tiempo transcurre. Ellos considerarían la cuestión
del cómo se determinó el estado inicial como algo que va más allá del ámbito de
la física, perteneciendo al reino de la metafísica o la religión. Pero yo soy
un desvergonzado racionalista. En mi opinión las condiciones límite que
determinan el estado inicial del universo son una materia tan legítima y sujeta
al escrutinio de los científicos como lo son las leyes que gobiernan su
evolución posterior.
A principios de la década de los 60, las fuerzas que los físicos
conocían se clasificaron en cuatro categorías que parecerían estar separadas e
independizadas entre sí. La primera de las cuatro categorías era la de la
fuerza gravitatoria, la cual es portada por una partícula llamada gravitón.
La gravedad es, con mucho, la más débil de las cuatro fuerzas. Sin
embargo, corrige su baja potencia mediante la posesión de dos importantes
propiedades. La primera es que es universal, es decir, afecta a cada partícula
del universo en la misma forma. Todos los cuerpos se atraen entre si. Ninguno deja de sentirse afectado o repelido por la
gravedad. La segunda propiedad importante de la fuerza gravitatoria es que
puede operar a través de largas distancias. Juntas, estas dos propiedades
significan que las fuerzas gravitatorias entre las partículas de un cuerpo
grande se suman entre si, y pueden dominar por encima
de las otras fuerzas.
La segunda de las cuatro categorías en las que se dividen las
fuerzas corresponde a la fuerza electromagnética, la cual es portada por una
partícula llamada fotón. El electromagnetismo es un millón de billones de
billones de billones de billones más poderoso que la fuerza gravitatoria, y al
igual que la gravedad, puede actuar a través de grandes distancias. Sin
embargo, al contrario que la gravedad, no actúa en todas las partículas de la
misma forma. Algunas partículas son atraídas por ella, otras no son afectadas y
otras son repelidas.
La atracción y repulsión entre las partículas en dos cuerpos
grandes anulará cada una casi exactamente, al contrario que las fuerzas
gravitatorias entre las partículas, que sería atractiva con todas. Esto explica
que nos caigamos hacia el suelo, y no hacia el aparato de televisión. Por otro
lado, en la escala de las moléculas y los átomos, con solo un relativamente
pequeño número de partículas, las fuerzas electromagnéticas dominan
completamente a las gravitatorias. En la escala aún más pequeña de los núcleos
atómicos, es decir la trillonésima parte de un centímetro, la tercera y cuarta
categorías: las fuerzas nucleares débil y fuerte, dominan al resto de fuerzas.
La gravedad y el electromagnetismo se describen en función de lo
que llamamos teorías de campos, en las que hay un conjunto de números en cada
punto del espacio y tiempo que determinan las fuerzas gravitatoria y
electromagnética. Cuando yo empecé a investigar en 1962, se creía generalmente
que las fuerzas nuclear débil y fuerte no podían ser descritas por una teoría
de campo. Pero los informes de la muerte de la teoría de campos demostraron ser
una exageración. Un nuevo tipo de teoría de campos fue presentada por Chen Ning
Yang y Robert Mills. En 1967, Abdus Salam y Steven Weinberg demostraron que una teoría de este
tipo no solo describiría las fuerzas nucleares débil y fuerte sino que también
podría unificarlas con la fuerza electromagnética. Recuerdo que la mayoría de
los físicos trataron con desprecio a esta teoría de campo. Sin embargo,
concordaba tan bien con los experimentos que en 1979 se le otorgó el Premio
Nóbel a Salam, Weinberg y Glashow,
que habían propuesto teorías unificadas similares. El comité del Nóbel
realmente se arriesgó con su decisión ya que la confirmación final de la teoría
no llegaría hasta 1983, con el descubrimiento de las partículas W y Z. (Siento
la pronunciación de W y Z, sobre todo para aquellos que son británicos y no
usan un sintetizador de voz americano).
El éxito
provocó la búsqueda de una sola teoría de “gran unificación” de Yang-Mills que
describiese a los tres tipos de fuerza. Las teorías de gran unificación no son
muy satisfactorias. En realidad, su nombre es básicamente una exageración. No
son realmente grandes ya que contienen al menos 40 números que no pueden
predecirse con antelación sino que tienen que ajustarse para que casen con los
experimentos. Se podría esperar que la teoría final del universo sea única y
que no contenga cantidades ajustables. ¿Cómo va a ser que estos valores sean
elegidos?
Pero la objeción más poderosa a las grandes teorías de unificación
era que no estaban unificadas completamente. No incluían a la gravedad y no
existía ninguna forma aparente de ampliarlas de modo que lo hicieran. Pudiera
ser que no existiera una única teoría fundamental. En lugar de eso, podría
haber una colección de teorías aparentemente diferentes, cada una de las cuales
funcionaría bien en ciertas situaciones. Las teorías diferentes concordarían
entre si en aquellas regiones de validez en la que se
superpusieran. Por ello, podrían ser contempladas como aspectos diferentes de
la misma teoría. Pero tal vez no existiese una única formulación de la teoría
que pudiese aplicarse en todas las situaciones.
Podemos comparar la física teórica al hecho de cartografiar la
Tierra. Se puede representar exactamente una pequeña región de la superficie de
la tierra, en forma de mapa, en una hoja de papel. Pero si se intenta hacer un
mapa de una región más grande se obtendrían distorsiones debido a la curvatura
de la Tierra. No es posible representar cada punto de la superficie de la
Tierra en un único mapa. En lugar de ello, usamos una colección de mapas que
concuerdan en aquellas regiones donde se superponen.
Como dije, incluso si encontramos una teoría unificada completa,
tanto con una única formulación, como con una serie de teorías superpuestas,
solo habremos solucionado la mitad del problema. La teoría unificada nos dirá como evoluciona el universo en el tiempo dado un estado
inicial. Pero la teoría no especificará en si misma las condiciones límites en
el borde del espacio y el tiempo que determinan el estado inicial. Esta
cuestión es fundamental para la cosmología. Podemos observar el estado presente
del universo, y podemos usar las leyes de la física para calcular cómo pudo ser
en épocas anteriores. Pero todo lo que esto nos dice es que el universo es
ahora como es, porque entonces era como era. No podemos entender por qué el
universo tiene el aspecto que tiene a no ser que la cosmología se convierta en
una ciencia, en el sentido de que pueda hacer predicciones. Y para hacer esto
necesitamos una teoría de las condiciones límite del universo.
Ha habido
varias sugerencias para las condiciones iniciales del universo, tales como la
hipótesis del túnel y el así llamado escenario pre-big
bang. Pero en mi opinión, la más elegante, con mucho,
es la que Jim Hartle y yo llamamos la propuesta de la
ausencia de límites. Esta puede enunciarse como: la condición de límite del
universo es que no tiene límite. En otras palabras, el espacio y el tiempo
imaginario unidos se curvan hacia atrás sobre si mismos de modo que forman una
superficie cerrada como la superficie de la Tierra, pero con más dimensiones.
La superficie de la Tierra tampoco tiene límites. No existen informes fiables
de que alguien haya caído en el abismo del fin del mundo.
La condición de no-límite y las otras teorías son simplemente
proposiciones para las condiciones de límite del universo. Para probarlas
tenemos que calcular qué predicciones pueden extraerse de ellas y compararlas
con las nuevas observaciones que están empezando a hacerse. De momento, las
observaciones no son lo bastante buenas como para distinguir entre estas
diferentes clases de mapa. Pero en los próximos años, se acometerán nuevas
observaciones que podrán salvar esta cuestión. La cosmología vive un período
excitante. Apuesto mi dinero por la condición de no-límite. Se trata de una
explicación tan elegante que estoy seguro que Dios la habría elegido.
El progreso efectuado con los intentos de unificar la gravedad con
el resto de fuerzas ha sido enteramente teórico. Esto ha llevado a alguna gente
como al físico John Horgan a afirmar que la física esta muerta porque se ha convertido simplemente en un juego
matemático, no relacionado con la experimentación. Pero yo no estoy de acuerdo.
Aunque no podamos producir partículas de la energía de Planck – la energía a la
cual la gravedad se unificaría con las otras fuerzas – existen predicciones que
pueden ser verificadas a niveles más bajos de energía. El Super Colisionador
Superconductor que estaba siendo construido en Texas podría haber alcanzado
esas energías pero fue cancelado cuando los Estados Unidos iniciaron una fase
de recesión económica. De modo que tendremos que esperar a que se concluya el
Gran Colisionador de Hadrones que está siendo construido en Ginebra.
Asumiendo que los experimentos de Ginebra confirmen la teoría
actual, ¿cuáles son las perspectivas de completar una teoría unificada? En 1980
dije que pensaba que había una oportunidad del 50% de encontrar una teoría
completa de unificación durante los siguientes 20 años. Esa es aún mi
estimación, pero los próximos 20 años empiezan ahora. Volveré dentro de otros
20 años para decirles si lo hemos conseguido.
Esta
conferencia versa sobre si podemos predecir el futuro o bien éste es arbitrario
y aleatorio. En la antigüedad, el mundo debía de haber parecido bastante
arbitrario. Desastres como las inundaciones o las enfermedades debían de haber
parecido producirse sin aviso o razón aparente. La gente primitiva atribuía
esos fenómenos naturales a un panteón de dioses y diosas que se comportaban de
una forma caprichosa e impulsiva. No había forma de predecir lo que harían, y
la única esperanza era ganarse su favor mediante regalos o conductas. Mucha
gente todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto
con la fortuna. Se ofrecen para hacer ciertas cosas a cambio de un
sobresaliente en una asignatura, o de aprobar el examen de conducir.
Sin
embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades
en el comportamiento de la naturaleza. Estas regularidades eran más obvias en
el movimiento de los cuerpos celestes a través del firmamento. Por eso la
Astronomía fue la primera ciencia en desarrollarse. Fue puesta sobre una firme
base matemática por Newton hace más de 300 años, y todavía usamos su teoría de
la gravedad para predecir el movimiento de casi todos los cuerpos celestes.
Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos
naturales también obedecían leyes científicas definidas. Esto llevó a la idea
del determinismo científico, que parece haber sido expresada públicamente por
primera vez por el científico francés Laplace. Me pareció que me gustaría citar
literalmente las palabras de Laplace. y le pedí a un amigo que me las buscara.
Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera
ningún problema con esto.
El problema es que Laplace, como Prewst [N.
del T.: Hawking probablemente se refiere a Proust], escribía frases de una
longitud y complejidad exageradas. Por eso he decidido parafrasear la cita. En
efecto, lo que él dijo era que, si en un instante determinado conociéramos las
posiciones y velocidades de todas las partículas en el Universo, podríamos
calcular su comportamiento en cualquier otro momento del pasado o del futuro.
Hay una historia probablemente apócrifa según la cual Napoleón le preguntó a
Laplace sobre el lugar de Dios en este sistema, a lo que él replicó
"Caballero, yo no he necesitado esa hipótesis". No creo que Laplace
estuviera reclamando que Dios no existe. Es simplemente que El no interviene
para romper las leyes de la Ciencia. Esa debe ser la postura de todo
científico. Una ley científica no lo es si solo se cumple cuando algún ser
sobrenatural lo permite y no interviene.
La idea de que el estado del universo en un instante dado
determina el estado en cualquier otro momento ha sido uno de los dogmas centrales
de la ciencia desde los tiempos de Laplace. Eso implica que podemos predecir el
futuro, al menos en principio. Sin embargo, en la práctica nuestra capacidad
para predecir el futuro está severamente limitada por la complejidad de las
ecuaciones, y por el hecho de que a menudo exhiben una propiedad denominada
caos. Como sabrán bien todos los que han visto Parque Jurásico, esto significa
que una pequeña perturbación en un lugar puede producir un gran cambio en otro.
Una mariposa que bate sus alas puede hacer que llueva en Central Park, Nueva
York. El problema es que eso no se puede repetir. La siguiente vez que una
mariposa bata sus alas, una multitud de otras cosas serán diferentes, lo que
también tendrá influencia sobre la meteorología. Por eso las predicciones
meteorológicas son tan poco fiables.
A pesar de estas dificultades prácticas, el determinismo científico
permaneció como dogma durante el siglo 19. Sin embargo, en el siglo 20 ha
habido dos desarrollos que muestran que la visión de Laplace sobre una
predicción completa del futuro no puede ser llevada a cabo. El primero de esos
desarrollos es lo que se denomina mecánica cuántica. Fue propuesta por primera
vez en 1900, por el físico alemán Max Planck, como hipótesis ad hoc para
resolver una paradoja destacada. De acuerdo con las ideas clásicas del siglo
19, que se remontan a los tiempos de Laplace, un cuerpo caliente, como una
pieza de metal al rojo, debería emitir radiación. Perdería energía en forma de
ondas de radio, infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma,
todos a la misma tasa. Esto no sólo significaría que todos moriríamos de cáncer
de piel, sino que además todo en el universo estaría a la misma temperatura, lo
que claramente no es así.
Sin embargo, Planck mostró que se puede evitar este desastre si se
abandonara la idea de que la cantidad de radiación puede tener cualquier valor,
y se dijera en su lugar que la radiación llega únicamente en paquetes o cuantos
de un cierto tamaño. Es un poco como decir que en el supermercado no se puede
comprar azúcar a granel, sino sólo en bolsas de un kilo. La energía en los
paquetes o cuantos es mayor para los rayos x y ultravioleta, que para la luz
infrarroja o visible. Esto significa que a menos que un cuerpo esté muy
caliente, como el Sol, no tendrá suficiente energía para producir ni siquiera
un único cuanto de rayos x o ultravioleta. Por eso no nos quemamos por
insolación con una taza de café.
Para Planck los cuantos no eran más que un truco matemático que no
tenía una realidad física, lo que quiera que eso signifique. Sin embargo, los
físicos empezaron a encontrar otro comportamiento, que sólo podía ser explicado
en términos de cantidades con valores discretos o cuantizados, más que
variables continuas. Por ejemplo, se encontró que las partículas elementales se
comportaban más bien como pequeñas peonzas girando sobre un eje. Pero la
cantidad de giro no podía tener cualquier valor. Tenía que ser algún múltiplo
de una unidad básica. Debido a que esa unidad es muy pequeña, uno no se da
cuenta de que una peonza normal decelera mediante una rápida secuencia de
pequeños pasos, más que mediante un proceso continuo. Pero para peonzas tan
pequeñas como los átomos, la naturaleza discreta del giro es muy importante.
Pasó algún tiempo antes de que la gente se diera cuenta de las
implicaciones que tenía este comportamiento cuántico para el determinismo. No
sería hasta 1926, cuando Werner Heisenberg, otro físico alemán, indicó que no
podrías medir exactamente la posición y la velocidad de una partícula a la vez.
Para ver dónde está una partícula hay que iluminarla. Pero de acuerdo con el
trabajo de Planck, uno no puede usar una cantidad de luz arbitrariamente
pequeña. Uno tiene que usar al menos un cuanto. Esto
perturbará la partícula, y cambiará su velocidad de una forma que no puede ser
predicha. Para medir la posición de la partícula con exactitud, deberás usar
luz de una longitud de onda muy corta, como la ultravioleta, rayos x o rayos
gamma. Pero nuevamente, por el trabajo de Planck, los cuantos de esas formas de
luz tienen energías más altas que las de la luz visible. Por eso perturbarán
aún más la velocidad de la partícula. Es un callejón sin salida: cuanto más
exactamente quieres medir la posición de la partícula, con menos exactitud
puedes conocer la velocidad, y viceversa. Esto queda resumido en el Principio
de Incertidumbre formulado por Heisenberg; la incertidumbre en la posición de
una partícula, multiplicada por la incertidumbre en su velocidad, es siempre mayor
que una cantidad llamada la constante de Planck, dividida por la masa de la
partícula.
La visión de Laplace del determinismo científico implicaba conocer
las posiciones y velocidades de las partículas en el universo en un instante
dado del tiempo. Por lo tanto, fue seriamente socavado por el Principio de
Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no
puede medir exactamente las posiciones ni las velocidades de las partículas en
el instante actual? No importa lo potente que sea el ordenador de que
dispongas, si lo alimentas con datos deplorables, obtendrás predicciones
deplorables.
Einstein estaba muy descontento por esta aparente aleatoriedad en
la naturaleza. Su opinión se resumía en su famosa frase 'Dios no juega a los
dados'. Parecía que había presentido que la incertidumbre era sólo provisional,
y que existía una realidad subyacente en la que las partículas tendrían
posiciones y velocidades bien definidas y se comportarían de acuerdo con leyes
deterministas, en consonancia con Laplace. Esta realidad podría ser conocida
por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto
tenuemente a través de un cristal.
La visión de Einstein era lo que ahora se llamaría una teoría de
variable oculta. Las teorías de variable oculta podrían parecer ser la forma
más obvia de incorporar el Principio de Incertidumbre en la física. Forman la
base de la imagen mental del universo, sostenida por muchos científicos, y
prácticamente por todos los filósofos de la ciencia. Pero esas teorías de
variable oculta están equivocadas. El físico británico John Bell, que murió
recientemente, ideó una comprobación experimental que distinguiría teorías de
variable oculta. Cuando el experimento se llevaba a cabo cuidadosamente, los
resultados eran inconsistentes con las variables ocultas. Por lo tanto parece
que incluso Dios está limitado por el Principio de Incertidumbre y no puede
conocer la posición y la velocidad de una partícula al mismo tiempo. O sea que
Dios juega a los dados con el universo. Toda la evidencia lo señala como un
jugador empedernido, que tira los dados siempre que tiene ocasión.
Otros
científicos estaban mucho más dispuestos que Einstein a modificar la visión
clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica
cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger,
y el físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la
cátedra Lucasiana de Cambridge. Aunque la mecánica
cuántica ha estado entre nosotros durante cerca de 70 años, todavía no es
generalmente entendida o apreciada, incluso por aquellos que la usan para hacer
cálculos. Sin embargo, debería preocuparnos a todos, puesto que es una imagen
completamente diferente del universo físico y de la misma realidad.
En la mecánica cuántica, las partículas no tienen posiciones ni
velocidades bien definidas. En su lugar, son representadas por lo que se llama
una función de onda. Esta es un número en cada punto del espacio. El tamaño de
la función de onda indica la probabilidad de que la partícula sea encontrada en
esa posición. La tasa con la que la función de onda cambia de punto a punto,
proporciona la velocidad de la partícula. Uno puede tener una función de onda
con un gran pico en una región muy pequeña. Esto significará que la
incertidumbre en la posición es muy pequeña. Pero la función de onda variará
muy rápidamente cerca del pico, hacia arriba en un lado, hacia abajo en el
otro. Por lo tanto la incertidumbre en la velocidad será grande. De la misma
manera, uno puede tener funciones de onda en las que la incertidumbre en la
velocidad es pequeña, pero la incertidumbre en la posición es grande.
La función de onda contiene todo lo que uno puede saber de la
partícula, tanto su posición como su velocidad. Si sabes la función de onda en
un momento dado, entonces sus valores en otros momentos son determinados por lo
que se llama la ecuación de Schroedinger. Por lo
tanto uno tiene aún un cierto determinismo, pero no del tipo que Laplace
imaginaba. En lugar de ser capaces de predecir las posiciones y las velocidades
de las partículas, todo lo que podemos predecir es la función de onda. Esto
significa que podemos predecir sólo la mitad de lo que podríamos de acuerdo con
la visión clásica del siglo 19.
Aunque la mecánica cuántica lleva a la incertidumbre cuando
tratamos de predecir la posición y la velocidad a un mismo tiempo, todavía nos
permite predecir con certidumbre una combinación de posición y velocidad. Sin
embargo, incluso este grado de certidumbre parece estar amenazado por
desarrollos más recientes. El problema surge porque la gravedad puede torcer el
espacio-tiempo tanto que puede haber regiones que no observamos.
Curiosamente, el mismo Laplace escribió un artículo en 1799 sobre
cómo algunas estrellas pueden tener un campo gravitatorio tan fuerte que la luz
no podría escapar, siendo por tanto arrastrada de vuelta a la estrella. Incluso
calculó que una estrella de la misma densidad que el Sol, pero doscientas
cincuenta veces más pequeña, tendría esta propiedad. Pero aunque Laplace podría
no haberse dado cuenta, la misma idea había sido propuesta 16 años antes por un
hombre de Cambridge, John Mitchell, en un artículo en Phylosophical
Transactions of the Royal Society. Tanto Mitchel
como Laplace concebían a la luz como formada por partículas, más bien como
bolas de cañón, que podían ser deceleradas por la gravedad, y hechas caer de
vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos
americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a
una velocidad de ciento ochenta y seis mil millas por segundo, no importa de
dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de
nuevo.
De acuerdo con las ideas sobre el espacio y el tiempo vigentes en
aquel momento esto era imposible. Sin embargo, en 1915 Einstein presentó al
mundo su revolucionaria Teoría General de la Relatividad en la cual espacio y
tiempo dejaban de ser entidades separadas e independientes. Por el contrario,
eran meramente diferentes direcciones de una única noción llamada
espacio-tiempo. Esta noción espacio-tiempo no era uniforme sino deformada y
curvada debido a su energía inherente. Para que se entienda mejor, imagínese
que colocamos un peso (que hará las veces de estrella) sobre una lámina de
goma. El peso (estrella) formará una depresión en la goma curvándose la zona
alrededor del mismo en contraposición a la planicie anterior. Si hacemos rodar
canicas sobre la lámina de goma, sus rastros serán espirales más que líneas
rectas.
En 1919, una expedición británica en el Oeste de África observaba
la luz de estrellas lejanas que cruzaba cerca del sol durante un eclipse.
Descubrieron que las imágenes de las estrellas variaban ligeramente de sus
posiciones habituales; esto revelaba que las trayectorias de la luz de las
estrellas habían sido curvadas por el influjo del espacio-tiempo que rodea al
sol. La Relatividad General había sido confirmada.
Imagínese ahora que colocamos pesos sobre la lámina de goma cada
vez más cuantiosos y de manera más intensiva. Hundirán la plancha cada vez más.
Con el tiempo, alcanzado el peso y la masa crítica se hará un agujero en la
lámina por el que podrán caer las partículas pero del que no podrá salir nada.
Según la Teoría General de la Relatividad lo que sucede con el
espacio-tiempo es bastante similar. Cuanto más ingente y más densa sea una
estrella, tanto más se curvará y distorsionará el espacio-tiempo alrededor de
la misma. Si una estrella inmensa que ha consumido ya su energía nuclear se
enfría encogiéndose por debajo de su masa crítica, formará literalmente un
agujero sin fondo en el espacio-tiempo por el que no puede pasar la luz. El
físico americano John Wheeler llamó a estos objetos “agujeros negros” siendo el
primero en destacar su importancia y los enigmas que encierran. El término se
hizo popular rápidamente. Para los americanos sugería algo oscuro y misterioso
mientras que para los británicos existía además la amplia difusión del Agujero
Negro de Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron
algo indecente en el vocablo. Durante años se resistieron a utilizar el
término, demasiado negro, arguyendo que era obsceno; pero era parecido a
intentar luchar contra préstamos lingüísticos como “le weekend”
y otras mezcolanzas del “franglés”. Al final tuvieron
que claudicar. ¿Quién puede resistirse a una expresión así de conquistadora?
Ahora
tenemos evidencias de la existencia de agujeros negros en diferentes tipos de
entidades, desde sistemas de estrellas binarios al centro de las galaxias. Por
lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en
día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería
su relevancia para el determinismo? La respuesta reside en una pegatina de
parachoques que tenía en la puerta de mi despacho: “los agujeros negros son
invisibles”.
No sólo ocurre que las partículas y los astronautas desafortunados
que caen en un agujero negro no vuelven nunca, sino que la información que
estos portan se pierde para siempre, al menos en nuestra demarcación del
universo. Puede lanzar al agujero negro aparatos de televisión, sortijas de
diamantes e incluso a sus peores enemigos y todo lo que recordará el agujero
negro será su masa total y su estado de rotación. John Wheeler llamó a esto “un
agujero negro no tiene pelo”. Esto confirma las sospechas de los franceses.
Mientras hubo el convencimiento de que los agujeros negros
existirían siempre, esta pérdida de información pareció no importar demasiado.
Se podía pensar que la información seguía existiendo dentro de los agujeros
negros. Simplemente es que no podemos saber lo que hay desde fuera de ellos
pero la situación cambió cuando descubrí que los agujeros negros no son del
todo negros. La Mecánica Cuántica hace que estos emitan partículas y
radiaciones a un ritmo constante.
Estos hallazgos me asombraron no sólo a mí si no al resto del
mundo pero con la perspectiva del tiempo esto habría resultado obvio. Lo que se
entiende comúnmente como “el vacío” no está realmente vacío ya que está formado
por pares de partículas y antipartículas. Estas permanecen juntas en cierto
momento del espacio-tiempo, en otro se separan para después volver a unirse y
finalmente aniquilarse la una a las otra. Estas partículas y antipartículas
existen porque un campo, tal como los campos que transportan la luz y la
gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo
tendría tanto una posición exacta (en cero) como una velocidad o ritmo de
cambio exacto (también cero). Esto violaría el Principio de Incertidumbre
porque una partícula no puede tener al tiempo una posición y una velocidad
constantes. Por lo tanto, todos los campos deben tener lo que se denomina
fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se
puede interpretar estas fluctuaciones del vacío como partículas y
antipartículas como he descrito anteriormente.
Estos pares de partículas se dan en conjunción con todas las
variedades de partículas elementarias. Se denominan
partículas virtuales porque se producen incluso en el vacío y no pueden ser
mostradas directamente por los detectores de partículas. Sin embargo, los
efectos indirectos de las partículas virtuales o fluctuaciones del vacío han
sido estudiados en diferentes experimentos, siendo confirmada su existencia.
Si hay un agujero negro cerca, uno de los componentes de un par de
partículas y antipartículas podría deslizarse en dicho agujero dejando al otro
componente sin compañero. La partícula abandonada puede caerse también en el
agujero o bien desplazarse a larga distancia del mismo donde se convertirá en
una verdadera partícula que podrá ser apreciada por un detector de partículas.
A alguien muy alejado del agujero negro le parecerá que la partícula ha sido
emitida por el mismo agujero.
Esta explicación de cómo los agujeros negros no son tan negros
clarifica que la emisión dependerá de la magnitud del agujero negro y del ritmo
al que esté rotando. Sin embargo, como un agujero negro no tiene pelo, citando
a Wheeler, la radiación será por otra parte independiente de lo que se deslizó
por el agujero. No importa lo que arroje a un agujero negro: aparatos de
televisión, sortijas de diamantes o a sus peores enemigos. Lo que de allí sale
es siempre lo mismo.
Pero ¿qué tiene esto que ver con el determinismo que es sobre lo
que se supone que versa esta conferencia? Lo que esto demuestra es que hay
muchos estados iniciales (incluyendo aparatos de televisión, sortijas de
diamantes e incluso gente) que evolucionan hacia el mismo estado final, al
menos fuera del agujero negro. Sin embargo, en la visión de Laplace sobre el
determinismo había una correspondencia exacta entre los estados iniciales y los
finales. Si usted supiera el estado del universo en algún momento del pasado
podría predecirlo en el futuro. De manera similar, si lo supiera en el futuro,
podría deducir lo que habría sido en el pasado. Con el advenimiento de la
Teoría del Cuanto en los años 20 del siglo pasado se redujo a la mitad lo que
uno podía predecir pero aún dejó una correspondencia directa entre los estados
del universo en diferentes momentos. Si uno supiera la función de onda en un
momento dado, podría calcularla en cualquier otro.
Sin embargo, la situación es bastante diferente con los agujeros
negros. Uno se encontrará con el mismo estado fuera del agujero,
independientemente de lo que haya lanzado dentro, a condición de que tenga la
misma masa. Por lo tanto, no hay una correspondencia exacta entre el estado
inicial y el estado final ya fuera del agujero negro. Habrá una correspondencia
exacta entre el estado inicial y el final ambos fuera
o ambos dentro del agujero negro. Sin embargo, lo importante es que la emisión
de partículas y la radiación alrededor del agujero provocan una reducción en la
masa del mismo y se empequeñece.
Finalmente, parece que el agujero negro llega a la masa cero y
desaparece del todo. Pero, ¿qué ocurre con todos los objetos que fueron
lanzados al agujero y con toda la gente que o bien saltó o fue empujada? No
pueden volver a salir porque no existe la suficiente masa o energía sobrante en
el agujero negro para enviarlos fuera de nuevo. Puede que pasen a otro universo
pero eso nos da lo mismo a los que somos lo suficientemente prudentes como para
no saltar dentro de un agujero negro. Incluso la información de lo que cayó
dentro del agujero no podría salir de nuevo cuando el agujero desaparezca por
último. La información no se distribuye gratuitamente como bien sabrán aquellos
de ustedes que paguen facturas telefónicas. La información necesita energía
para transportarse, y no habrá suficiente energía de sobra cuando el agujero
negro desaparezca.
Lo que todo esto significa es que la información se perderá de
nuestra demarcación del universo cuando se formen los agujeros negros para
después desvanecerse. Esta pérdida de información implica que podemos predecir
incluso menos de lo pensamos, partiendo de la base de la teoría cuántica. En
esta teoría puede no ser factible predecir con certidumbre la posición y la
velocidad de una partícula al mismo tiempo. Hay sin embargo una combinación de
posición y velocidad que sí puede ser predicha. En el caso de un agujero negro,
esta predicción específica concierne a los dos miembros de un par de
partículas-antipartículas pero únicamente podemos detectar la partícula
expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto
la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos,
podría estar en cualquier estado. Esto significa que no podemos hacer ninguna
predicción concreta acerca de la partícula que expulsa el agujero.
Podemos calcular la probabilidad de que la partícula tenga esta o
aquella posición o velocidad pero no podemos predecir con precisión una
combinación de la posición y velocidad de sólo una partícula porque su
velocidad y posición van a depender de la otra partícula, la cual no está bajo
nuestra observación. Así que Einstein estaba sin lugar a dudas equivocado
cuando dijo, “Dios no juega a los dados”. No sólo Dios juega definitivamente a
los dados sino que además a veces los lanza a donde no podemos verlos.
Muchos científicos son como Einstein en el sentido de que tienen
un lazo emocional muy fuerte con el determinismo pero al contrario que Einstein
han aceptado la reducción en nuestra capacidad para predecir que nos había
traído consigo la teoría cuántica. Pero ya era mucho. A estos no les gustó la
consiguiente reducción que los agujeros negros parecían implicar. Pensar que el
universo es determinista, como creía Laplace, es simplemente inocente.
Presiento que estos científicos no se han aprendido la lección de la historia.
El universo no se comporta de acuerdo a nuestras preconcebidas ideas. Continúa
sorprendiéndonos.
Podría pensarse que no importa demasiado si el determinismo hizo
aguas cerca de los agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz de agujero negro de cualquier tamaño
pero según el Principio de Incertidumbre, cada región del espacio debería estar
llena de diminutos agujeros negros virtuales que aparecerían y desaparecerían
una y otra vez. Uno pensaría que las partículas y la información podrían
precipitarse en estos agujeros negros y perderse. Sin embargo, como estos
agujeros negros virtuales son tan pequeños (cien billones de billones más
pequeños que el núcleo de un átomo) el ritmo al cual se perdería la información
sería muy bajo. Esto es por lo que las leyes de la ciencia parecen
deterministas, observándolas con detenimiento. Sin embargo, en condiciones
extremas, tales como las del universo temprano o las de la colisión de
partículas de alta energía, podría haber una significativa pérdida de
información. Esto conduce a la imprevisibilidad en la evolución del universo.
En resumen, de lo que he estado hablando es de si el universo
evoluciona de manera arbitraria o de si es determinista. La visión clásica
propuesta por Laplace estaba fundada en la idea de que el movimiento futuro de
las partículas estaba determinado por completo, si su sabían sus posiciones y
velocidades en un momento dado. Esta hipótesis tuvo que ser modificada cuando
Heisenberg presentó su Principio de Incertidumbre el cual postulaba que no se
podía saber al mismo tiempo y con precisión la posición y la velocidad. Sin
embargo, sí que era posible predecir una combinación de posición y velocidad
pero incluso esta limitada certidumbre desapareció
cuando se tuvieron en cuenta los efectos de los agujeros negros: la pérdida de
partículas e información dentro de los agujeros negros dio a entender que las
partículas que salían eran fortuitas.
Se pueden calcular las probabilidades pero no hacer ninguna
predicción en firme. Así, el futuro del universo no está del todo determinado
por las leyes de la ciencia, ni su presente, en contra de lo que creía Laplace.
Dios todavía se guarda algunos ases en la manga.
Es todo lo que tengo que decir por el momento. Gracias por
escucharme
21
de julio, 2004
¿Pueden escucharme?
Quiero informar
que creo haber solucionado un gran problema en la física teórica que ha estado
rondando desde que descubrí que los agujeros negros radian termalmente, hace
treinta años. La pregunta es ¿Se pierde la información en la evaporación de un
agujero negro? Si es así la evolución no es unitaria y los estados cuánticos
puros, se descomponen en estados mixtos.
Le estoy agradecido a mi estudiante graduado Christophe
Galfard por su ayuda en la preparación de esta
conferencia.
La información de la paradoja sobre los agujeros negros, comenzó
en 1967, cuando Werner Israel mostró que la métrica de Schwarzschild,
era la única solución estática del vacío con agujeros negros. Esto fue
generalizado entonces por el teorema de no pelo, la única solución de las
ecuaciones de Einstein Maxwell son las métricas de Kerr Newman. El teorema de
no pelo implicaba que toda la información acerca del cuerpo en colapso, se
perdía desde la región exterior, aparte de tres cantidades conservadas, la masa,
el momento angular y la carga eléctrica.
Esta pérdida de información no era un problema en la teoría
clásica. Un agujero negro clásico duraría eternamente y la información podía
pensarse que quedaba conservada dentro de él, pero no muy asequible. Sin
embargo, la situación cambió cuando descubrí que los efectos cuánticos
ocasionarían que un agujero negro radiase a un ritmo persistente. Al menos en
la aproximación que estaba yo utilizando, la radiación del agujero negro sería
totalmente térmica y no llevaría información. Así que, qué es lo que sucedería
con toda la información encerrada en el interior de un agujero negro, que se
evaporaba y desaparecía completamente.
Parecía ser que la única manera como la información podía salir,
sería si la radiación no fuese exactamente térmica, pero que tuviera
correlaciones sutiles. Nadie ha encontrado un mecanismo para producir
correlaciones, pero la mayoría de los físicos creen que alguna debe de existir.
Si la información se perdiese en los agujeros negros, los estados puros del
cuanto se descompondrían en estados mezclados y la gravedad del cuanto no sería
unitaria.
Yo lancé primero la pregunta sobre pérdida de información en el 75
y el argumento continuo por años, sin ninguna resolución por ningún lado.
Finalmente, se reclamó que el asunto había sido resuelto en favor de la
conservación de la información por ADS, CFT. ADS, CFT, es una dualidad
conjeturada entre la súper-gravedad del espacio anti de Sitter
y una Teoría de Campo Conforme en las fronteras del espacio anti de Sitter en el infinito. Ya que la Teoría del Campo Conforme
es manifiestamente unitaria, el argumento es que la súper-gravedad debe
conservar la información. Cualquier información que cae en un agujero negro en
el espacio anti de Sitter, debe de volver a salir.
Pero aún no estaba claro como podía salir del agujero
la información.
Esta es la pregunta a la que voy a referirme.
La formación y evaporación de un agujero negro puede pensarse como
un proceso de interacción. Uno envía partículas y radiación desde el infinito y
mide que es lo que sale hacia el infinito. Todas las mediciones se realizan al
infinito, donde los campos son débiles y uno nunca sondea la región fuerte del
campo en el medio. De manera que uno nunca puede estar seguro que se forma un
agujero negro, no importa que tan cierto pueda esto ser en la teoría clásica.
Mostraré que esta posibilidad, permite que se conserve la información y que sea
regresada al infinito.
Adopto el acercamiento Euclidiano, la única manera sensata de
manejar la gravedad cuántica no perturbativa. Así, la
evolución temporal de un estado inicial está dada por una integra de caminos
sobre todas las métricas positivas que van entre dos superficies, que están
separadas una distancia T en el infinito. Entonces uno hace una rotación de
Wick del intervalo de tiempo, T, al Lorentziano.
La integral de caminos es tomada sobre métricas para todas las
topologías posibles que caben en medio de las superficies. Existe la topología
trivial, la superficie inicial por el intervalo de tiempo. Después están las
topologías no triviales que son todas las demás topologías posibles. La
topología trivial puede ser foliada por una familia de superficies de tiempo
constante. La integral de caminos de todas las mediciones con la topología
trivial, puede tratarse canónicamente con secciones temporales. En otras
palabras, la evolución temporal (incluyendo la gravedad) será generada por un
Hamiltoniano. Esto dará un mapa unitario desde la superficie inicial a la
final.
Las topologías no triviales, no pueden ser foliadas por una
familia de superficies de tiempo constante. Existirá un punto fijo en cualquier
campo vectorial de evolución temporal en una topología no trivial. Un punto
fijo en el régimen Euclidiano, se corresponde a un horizonte en el Lorentziano. Un pequeño cambio en el estado de la
superficie inicial, se propagaría como una onda lineal, sobre el fondo de cada
métrica en la integral de caminos. Si el fondo contenía un horizonte, la onda
caería a través de él y decaería exponencialmente en un tiempo posterior, fuera
del horizonte. Por ejemplo, las funciones de correlación decaen
exponencialmente en las métricas con agujeros negros. Esto significa que la
integral de caminos sobre todas las métricas topológicamente no triviales, será
independiente del estado de la superficie inicial. No se sumará a la amplitud
para ir desde el estado inicial hasta el final, que proviene de la integral de
caminos sobre todas las métricas topológicamente triviales.
De manera que el mapa desde los estados iniciales a los finales,
dado por la integral de caminos sobre todas las métricas, será unitario. Uno
podría dudar el uso de este argumento, del concepto de un estado cuántico para
el campo gravitacional, sobre una superficie spacelike
inicial o final. Esto sería un funcional de las geometrías de superficies spacelike, lo cual no es algo que pueda medirse en campos
débiles cerca del infinito. Uno puede medir los campos débiles gravitatorios,
en un tubo timelike alrededor del sistema, pero las
tapas de encima y de debajo, van a través del interior del sistema, donde los
campos pueden ser fuertes.
Una forma de deshacerse de las dificultades de las tapas, sería
unir la superficie final de regreso con la superficie inicial, e integrar todas
las geometrías espaciales de la unión. Si esta fuese una identificación bajo un
intervalo de tiempo Lorentziano, T, en el infinito,
introduciría curvas timelike cerradas. Pero si el
intervalo al infinito es la distancia Euclidiana, beta, la integral de caminos
proporciona la función de partición para la gravedad a la temperatura, uno
sobre beta.
La función de partición de un sistema, es la traza sobre todos los
estados, pesados con e a la menos beta H. Entonces se puede integrar beta a lo
largo de un contorno paralelo al eje imaginario, con el factor, e a la beta E0.
Esto proyecta los estados con energía, E0. En un colapso gravitatorio y
evaporación, uno está interesado en los estados de energía precisa, en vez de
los estados de temperatura precisa.
Existe un problema de infrarrojo con esta idea para un espacio
plano asintótico. La integral de caminos Euclidiana con período beta, es la
función de partición para espacio a temperatura, uno sobre beta. La función de
partición es infinita, porque el volumen del espacio es infinito. Este problema
de infrarrojo puede resolverse por una pequeña constante cosmológica negativa.
No afectará la evaporación de un agujero negro pequeño, pero cambiará el
infinito a espacio anti de Sitter y hará finita la
función de partición térmica.
La frontera en el infinito entonces es un toroide, S1, por S2. La
topología trivial, periódicamente identificada como espacio anti de Sitter, llena el toroide, pero también lo hacen las
topologías no-triviales, la más conocida de ellas siendo la Schwarzschild
anti de Sitter. Mientras que la temperatura sea
pequeña comparada con la temperatura de Hawking-Page, la integral de caminos
sobre todas las métricas topológicamente triviales, representa radiación auto
gravitante en el espacio asintótico de anti de Sitter.
La integral de caminos sobre todas las métricas de la topología ADS de Schwarzschild representa un agujero negro y radiación
térmica en el anti de Sitter asintótico.
La frontera en el infinito tiene topología S1 por S2. La topología
más simple que cabe dentro de estas fronteras, es la topología trivial, S1 por
D3, el tres-disco. La siguiente topología más simple y la primera topología no
trivial, es S1 por D2. Esta es la topología de la métrica de Schwarzschild anti de Sitter.
Existen otras topologías posibles que caben dentro de las fronteras, pero estas
dos son los casos importantes, métricas topológicamente triviales y el agujero
negro. El agujero negro es eterno. No puede convertirse en topológicamente
trivial más adelante.
En vista de esto, uno puede comprender porqué
la información se conserva en las métricas topológicamente triviales, pero
exponencialmente decae en métricas topológicamente no triviales. Un estado
final de espacio vacío sin un agujero negro, sería topológicamente trivial y
estaría foliado por superficies de tiempo constante. Estas formarían un
tres-ciclo módulo frontera en el infinito. Cualquier simetría global conduciría
a cargas globales conservadas en esos tres ciclos. Esto evitaría que las
funciones de correlación decayesen exponencialmente en las métricas
topológicamente triviales. En efecto, uno puede considerar la evolución
Hamiltoniana unitaria, de una métrica topológicamente trivial como la
conservación de la información a través de un tres-ciclo.
Por otra parte, una topología trivial, como un agujero negro, no
tendrá un tres-ciclo final. Por lo tanto no conservará ninguna cantidad, que
prevendría que las funciones de correlación decaigan exponencialmente. Así uno
es conducido al maravilloso resultado, que las amplitudes de tiempo posterior
de la integral de caminos sobre una métrica topológicamente no trivial, son
independientes del estado inicial. Esto fue notado por Maldacena
en el caso de anti de Sitter3 asintótico e interpretado como el hecho de
implicar que la información se pierde en la métrica BTZ de agujeros negros. Maldacena fue capaz de demostrar que las métricas
topológicamente triviales tienen funciones de correlación que no decaen y
tienen amplitudes del orden correcto para ser compatibles con una evolución
unitaria. Sin embargo Maldacena no se dio cuenta de
que desde un tratamiento canónico se sigue que la evolución de una métrica
topológicamente trivial será unitaria.
Así que al final, todos tenían razón, de alguna manera. La
información se pierde en métricas topológicamente no triviales, como el agujero
negro eterno. Por otro lado, la información se conserva en las métricas
topológicamente triviales. La confusión y paradoja vino porque la gente pensó
de manera clásica, en términos de una sola topología para el espacio-tiempo.
Era o R4 o un agujero negro. Pero la suma sobre historias de Feynman, permite
que sea ambas a la vez. Uno no puede afirmar qué topología contribuyó a la
observación más de lo que uno puede decir qué ranura atravesó el electrón en el
experimento de las dos ranuras. Todo lo que la observación en el infinito puede
determinar, es que existe un mapa desde los estados iniciales, hasta el final y
que esa información no se pierde.
Mi trabajo con Hartle, mostró que la
radiación podría ser pensada como un escape del interior de un agujero negro.
Por lo tanto era razonable suponer que podría llevar información hacia fuera
del agujero negro. Esto explica como puede formarse
un agujero negro y después ofrecer la información acerca de lo que hay adentro,
mientras se mantiene topológicamente trivial. No existe un universo bebé
ramificándose, como alguna vez pensé. La información permanece firmemente en
nuestro universo. Lo siento por desilusionar a los seguidores de la
ciencia-ficción, pero si la información se conserva, no existe la posibilidad
de utilizar a los agujeros negros para viajar a otros universos. Si usted cae
dentro de un agujero negro, su masa energía regresará a nuestro universo, pero
de una manera dañada, que contiene la información acerca de lo que era, pero en
un estado irreconocible.
Existe un problema en describir que es lo que pasa, por que estrictamente hablando, lo único observable en la
gravedad cuántica, son los valores del campo en el infinito. Uno no puede
definir el campo en un punto del medio, porque existe una incertidumbre
cuántica en relación con el lugar donde se hace la medición. Sin embargo, en
los casos en que existen un gran número, N, de campos de materia ligeros,
acoplados a la gravedad, uno puede despreciar las fluctuaciones gravitatorias,
porque sólo son una entre N lazos cuánticos. Uno puede entonces realizar la
integral de caminos sobre todos los campos de materia, en una métrica dada,
para obtener una acción efectiva que será un funcional de la métrica.
Uno puede agregar la clásica acción de Einstein Hilbert de la
métrica, a esta acción efectiva cuántica de los campos de materia. Si uno
integrase esta acción combinada sobre todas las otras métricas uno obtendría la
teoría cuántica completa. Sin embargo, la aproximación semiclásica, es la de
representar la integral sobre las métricas, por su punto de inflexión. Esto
obedecería las ecuaciones de Einstein, donde la fuente es el valor de
expectación del tensor de energía-momento, de los campos de materia en su
estado de vacío.
La única manera de calcular la acción efectiva de los campos de
materia, solía ser la teoría perturbativa. Esto no es
factible que funcione en el caso del colapso gravitatorio. Sin embargo, ahora
afortunadamente tenemos un método no-perturbativo en
ADS CFT. La conjetura de Maldacena dice que la acción
efectiva de un CFT en una métrica de fondo es igual a la acción efectiva de la
súper-gravedad del espacio anti de Sitter con esa
métrica de fondo en el infinito. En el gran límite N, la acción efectiva de
súper-gravedad es solamente la acción clásica. De ahí que el cálculo de la
acción efectiva cuántica de los campos de materia, es equivalente a resolver
las ecuaciones de Einstein clásicas.
La acción de un espacio anti de Sitter,
con una frontera al infinito, sería infinita así que hay que regularizar. Uno
introduce restas que dependen solo de la métrica de la frontera.
Ahora uno agrega la acción Einstein Hilbert de la frontera y se
busca un punto de inflexión de la acción total. Esto involucrará resolver las
ecuaciones Einstein acopladas de cuatro y cinco dimensiones. Probablemente
tenga que hacerse numéricamente.
En esta conferencia, he argumentado que la gravedad cuántica es
unitaria y la información es mantenida en la formación y evaporación de
agujeros negros. Considero que la evolución está dada por una integral de
caminos Euclidiana sobre las métricas de todas las topologías. La integral
sobre métricas topológicamente triviales puede hacerse dividiendo el intervalo
de tiempo en delgadas secciones y utilizando una interpolación linear a la
métrica de cada sección. La integral sobre cada sección, será unitaria y así
toda la integral de caminos será unitaria.
Por otro lado, la integral de caminos sobre métricas
topológicamente no triviales, perderá información y será asintóticamente
independiente de sus condiciones iniciales. Por lo tanto la integral de caminos
será unitaria y la mecánica cuántica estará a salvo.
Es grandioso resolver un problema que me ha estado preocupando por
casi treinta años, aunque la respuesta es menos apasionante que la alternativa
que sugerí. Este resultado no es todo negativo, pues indica que un agujero
negro se evapora, mientras permanece topológicamente trivial. Sin embargo, la
gran solución N es probable que sea un agujero negro que se contrae hasta cero.
Esto es lo que sugerí en 1975.
En 1997, Kip Thorne y yo, le apostamos a
John Preskill, que la información se perdía en los
agujeros negros. El perdedor o perdedores de la apuesta tienen que darle al
ganador o ganadores una enciclopedia de su elección, de la cual pueda obtenerse
información con toda facilidad. Ahora estoy listo para conceder la apuesta,
pero Kip Thorne no está convencido del todo. Yo le
daré a John Preskill la enciclopedia que pidió. John
es un “all American”, así que naturalmente quiere una
enciclopedia sobre béisbol. Tuve muchas dificultades en conseguir una por aquí,
así que le ofrecí una enciclopedia sobre críquet, como una alternativa, pero
John no se dejó convencer de la superioridad del críquet. Afortunadamente mi
asistente, Andrew Dunn, convenció a los editores de Sportclassic
Books, a enviar por avión una copia de Total
Baseball, The Ultimate Baseball Encyclopedia
a Dublín. Le daré a John la enciclopedia ahora. Si Kip
acepta reconocer la apuesta más tarde, puede devolvérmela.
En ciencia
ficción, la curvatura del espacio y del tiempo son eventos comunes. Se les
utiliza para viajes rápidos alrededor de la galaxia, o para viajes en el
tiempo. Pero a menudo, la ciencia ficción de hoy es la ciencia empírica del
mañana. De modo que ¿cuáles son las posibilidades de curvar el espacio y el tiempo?.
La idea de que el espacio y el tiempo pueden sufrir torsiones o
curvarse, es bastante reciente. Durante más de dos mil años, los axiomas de la
geometría Euclídea fueron considerados verdades evidentes. Como todos aquellos
que se han visto forzados a estudiar geometría Euclídea en el colegio
recuerdan, una de las consecuencias de estos axiomas es, que los ángulos de un
triángulo, sumados en conjunto, dan como resultado 180 grados.
Sin embargo, durante el último siglo, la gente comenzó a darse
cuenta de que existían otras formas posibles de geometría, en la que los
ángulos de un triángulo, no necesariamente suman 180 grados. Considere, por
ejemplo, la superficie de la Tierra. Lo más cercano a una línea recta en la
superficie de la Tierra es lo que llamamos, un gran círculo. Estos son los
caminos más cortos entre dos puntos, por eso las compañías aéreas los emplean
como rutas de vuelo. Considere ahora el triángulo en la superficie de la Tierra
compuesto por el ecuador, la línea de 0 grados de longitud que atraviesa
Londres, y la linea de 90 grados longitud este que
atraviesa Bangladesh. Las dos líneas de longitud cortan el ecuador formando un
ángulo de 90 grados. Las dos líneas de longitud se encuentran también en el
polo norte formando otro ángulo de 90 grados. Por ello, tenemos un triángulo
con tres ángulos rectos. Los ángulos de este triángulo sumados en conjunto dan
como resultado 270 grados. Esto supera a los 180 grados de un triángulo sobre
una superficie plana. Si dibujamos un triángulo con una superficie en forma de
silla de montar, descubriremos que la suma de sus ángulos da un resultado menor
a 180 grados.
La superficie de la Tierra, es lo que conocemos como espacio bidimensional.
Lo cual significa que puedes moverte a través de la superficie de la Tierra en
dos direcciones, las cuales forman un ángulo recto entre si:
puedes moverte norte-sur, o este-oeste. Pero por supuesto, hay una tercera
dirección que forma ángulos rectos con las otras dos, y esa dirección es
arriba-abajo. Lo que es tanto como decir que la superficie de la Tierra existe
en un espacio tridimensional. El espacio tridimensional es plano. Lo cual
significa que obedece a la geometría Euclídea. La suma de los ángulos de un
triángulo es de 180 grados. Sin embargo, podríamos imaginar una raza de
criaturas bidimensionales que pudiesen moverse sobre la superficie de la
Tierra, pero que no pudiesen experimentar la tercera dirección, es decir
arriba-abajo. Ellos no conocerían el espacio plano tridimensional sobre el que
se apoya la superficie de la Tierra. Para ellos, el espacio sería curvo, y la
geometría no sería Euclídea.
Sería muy difícil diseñar un ser viviente que pudiese existir en
solo dos dimensiones.
La comida que la criatura no podría digerir, debería escupirla por
el mismo sitio por el que entró. Si hubiese un pasaje que atravesase al animal
a lo largo, tal y como nosotros tenemos, el pobre animal acabaría deshecho en
dos partes.
De modo que tres dimensiones, parecen ser las mínimas exigibles
para la vida. Pero así como se puede pensar en seres de dos dimensiones
viviendo sobre la superficie de la Tierra, también cabria imaginar que el
espacio tridimensional en el que vivimos, era la superficie de una esfera, en
otra dimensión que nosotros no vemos. Si la esfera fuese muy grande, el espacio
parecería ser casi plano, y la geometría Euclídea sería una estupenda
aproximación sobre distancias pequeñas. Pero nos daríamos cuenta de que la
geometría Euclídea no funcionaría para grandes distancias.
Como ilustración de esto, imaginemos un equipo de pintores, dando
capas de pintura sobre la superficie de una enorme bola. A medida que el grosor
de las capas de pintura se incrementa, el área de la superficie crece. Si la
bola estuviese en un espacio plano tridimensional, se podría seguir añadiendo
pintura indefinidamente, y la bola se haría más y más grande. Sin embargo, se
el espacio tridimensional fuera realmente la superficie de una esfera en otra
dimensión, su volumen sería enorme pero finito. A medida que se añaden más
capas de pintura, la bola llegaría eventualmente a llenar la mitad de la
superficie del espacio. Después de eso, los pintores descubrirían que están
atrapados en un región cuyo tamaño siempre decrece, y
casi la totalidad del espacio, estaría ocupado por la bola, y sus capas de
pintura. De modo que descubrirían que viven en un espacio curvado, y no plano.
Este ejemplo demuestra que no se puede deducir la geometría del
mundo partiendo de sus primeros principios, tal y como los antiguos griegos
pensaban. En lugar de eso, hay que medir el espacio en el que vivimos, y
descubrir su geometría experimentalmente. Sin embargo, aunque en 1854 el alemán
George Friedrich Riemann, desarrolló un modo para describir espacios curvos,
permaneció como una parte incompleta de las matemáticas durante 60 años. Podía
describir espacios curvos que existiesen en el abstracto, pero no había razones
por las que creer que el espacio físico en el que vivimos pudiese ser curvo.
Esa idea llegó solo en 1915, cuando Einstein presentó la Teoría General de la
Relatividad.
La Relatividad General fue una revolución intelectual fundamental
que ha transformado la forma en que pensamos sobre el universo. Es una teoría
no solo sobre la curvatura del espacio, sino también sobre la curvatura del
tiempo. En 1905, Einstein había comprendido que el espacio y el tiempo están
íntimamente conectados el uno con el otro. Se puede describir la localización
de un evento con cuatro números. Tres de ellos describen la posición del mismo.
Podrían ser, por ejemplo, millas al norte y al este de Oxford, y altura sobre
el nivel del mar. En una escala mayor, podrían representar la latitud y la
longitud galácticas, y la distancia desde el centro de la galaxia. El cuarto
número, es el tiempo del evento. Así, uno puede pensar sobre el espacio y el
tiempo en forma conjunta, como una entidad tetradimensional llamada
espacio-tiempo. Cada punto del espacio tiempo está determinado por cuatro
números que especifican su posición en el espacio y en el tiempo. Combinar de
esta forma el espacio y el tiempo resultaría bastante trivial, si uno pudiera descombinarlos de una manera única, es decir, si hubiera
una única forma de definir el tiempo y la posición de cada evento.
Sin embargo, en un importantísimo artículo escrito en 1905, cuando
era un empleado de la Oficina Suiza de Patentes, Einstein demostró que el
tiempo y la posición en los cuales uno piensa que ocurrió un evento, dependían
de cómo uno se estaba moviendo. Esto significaba que el espacio y el tiempo
estaban indisolublemente ligados el uno con el otro. Los tiempos que diferentes
observadores le asignarían a los eventos estarían de acuerdo si los
observadores no se estaban moviendo en relación de unos con los otros. Pero
diferirían en forma creciente de acuerdo a cuanto mayor fueran sus velocidades
relativas. Así que uno puede preguntarse cuán rápido debe moverse para que el
tiempo de un observador pudiera marchar hacia atrás con relación al tiempo de
otro observador. La respuesta se da en la siguiente jocosa quintilla:
Había una jovencita en Granada
Que más rápido que la luz viajaba,
Un día inició su partida
De una forma relativa
Y regresó en la previa alborada.
Así que todo lo que necesitamos para viajar en el tiempo es una
astronave que vaya más rápido que la luz. Desafortunadamente, en el mismo
artículo Einstein demostró que la energía necesaria para acelerar a una
astronave crecía cada vez más y más, a medida que se acercaba a la velocidad de
la luz. Así que se necesitaría una cantidad infinita de energía para acelerar
más allá de la velocidad de la luz.
El artículo de Einstein de 1905 parecía eliminar la posibilidad de
viajar hacia el pasado. También indicaba que el viaje espacial hacia otras
estrellas sería un asunto lento y tedioso. Si uno no podía viajar más rápido
que la luz, el viaje de ida y vuelta hasta la estrella más cercana tomaría por
lo menos ocho años, y hasta el centro de la galaxia un mínimo de ochenta mil
años. Si la nave viajara muy cerca de la velocidad de la luz, podría parecerle
a la tripulación abordo de la misma que el viaje al centro galáctico hubiera
durado solamente unos pocos años. Pero eso no sería de mucho consuelo, si
cuando volvieran a casa todos los que hubieran conocido hubieran estado muertos
y olvidados hace miles de años. Eso no era muy bueno para los “westerns”
espaciales, así que los escritores de ciencia-ficción tuvieron que buscar en
otros lados para soslayar esta dificultad.
En un artículo de 1915, Einstein mostró que los efectos de la
gravedad podrían ser descritos, suponiendo que el espacio-tiempo era curvado o
distorsionado por la materia y la energía que contenía. Podemos observar
realmente esta curvatura producida por la masa del Sol, en la ligera curvatura
sufrida por la luz o las ondas de radio que pasan cerca del Sol. Esto ocasiona
que la posición aparente de la estrella o de la fuente de radio-ondas se
traslade ligeramente, cuando el Sol se encuentra entre la Tierra y el objeto
observado. El cambio de posición es muy pequeño, de alrededor de una milésima
de grado, equivalente a un desplazamiento de una pulgada a la distancia de una
milla. No obstante, puede ser medido con mucha precisión, y concuerda con las
predicciones de la Relatividad General. Tenemos evidencia experimental de que
el espacio y el tiempo están curvados. La combadura en nuestro vecindario
espacial es muy pequeña, porque todos los campos gravitacionales en el sistema
solar son débiles. Sin embargo, sabemos que pueden ocurrir campos muy fuertes,
por ejemplo durante el Big Bang, o en los agujeros
negros.
Así, el espacio y el tiempo pueden ser lo suficientemente curvados
como para satisfacer las demandas de la ciencia-ficción, en cosas tales como
impulsos hiper-espaciales, agujeros de gusano, o
viajes en el tiempo. A primera vista, todo esto parece ser posible. Por
ejemplo, en 1948, Kurt Goedel halló una solución a
las ecuaciones de campo de la Relatividad General que representa un universo en
el que toda la materia está rotando. En este universo, sería posible partir
hacia el espacio en una astronave y regresar antes del despegue. Goedel estaba en el Instituto de Estudios Avanzados en
Princeton, donde Einstein pasó también sus últimos años. Era más conocido por
probar que no se podía probar nada como verdadero, aún en un asunto
aparentemente tan simple como la aritmética. Pero lo que probó acerca de que la
Relatividad General permitía el viaje en el tiempo realmente conmovió a
Einstein, quien había pensado que eso era imposible.
Ahora sabemos que la solución de Goedel
no puede representar al universo en el cual vivimos, ya que el suyo no está en
expansión. También contiene un valor bastante alto para una cantidad llamada
constante cosmológica, el cual generalmente se cree que es de cero. Sin
embargo, desde entonces se han encontrado otras aparentemente más razonables
soluciones que permiten el viaje en el tiempo. Una que es particularmente
interesante contiene dos cuerdas cósmicas, moviéndose una con respecto a la
otra a una velocidad muy cercana, aunque ligeramente más pequeña, a la de la
luz. Las cuerdas cósmicas son una destacada idea de la física teórica, a la
cual los escritores de ciencia-ficción aparentemente no han comprendido. Como
lo sugiere su nombre, son como cuerdas, en el sentido de que tienen longitud,
pero una muy pequeña sección transversal. En realidad, son más como bandas
elásticas, porque se encuentran bajo una enorme tensión, algo así como cien mil
cuatrillones de toneladas. Una cuerda cósmica unida al sol lo aceleraría de
cero a sesenta en un trigésimo de segundo.
La teoría de las cuerdas cósmicas puede sonar como algo
descabellado, pura ciencia-ficción. Pero existen buenas razones científicas
como para creer que se pueden haber formado en el universo muy temprano, muy
poco después del Big Bang. Ya que se encuentran bajo
tan enorme tensión, uno podría suponer que acelerarían hasta casi la velocidad
de la luz. Lo que el universo de Goedel y el raudo
espacio-tiempo de las cuerdas cósmicas tienen en común, es que ambos comienzan
tan distorsionados y curvados que el viaje hacia el pasado fue siempre posible.
Dios puede haber creado un universo tan combado, pero no tenemos ninguna razón
para pensar que lo haya hecho.
Toda la evidencia apunta a que el universo comenzó con un Big Bang, sin el tipo de curvatura necesario para permitir el
viaje hacia el pasado. Ya que no podemos cambiar la forma en que comenzó el
universo, la cuestión de si el viaje en el tiempo es posible, es la de si
podemos hacer que el espacio-tiempo se curve tanto como para que podamos viajar
al pasado. Creo que esto es un importante tema de investigación, pero uno tiene
que tener cuidado de no ser etiquetado como excéntrico. Si uno solicitara una
subvención para investigar sobre el viaje en el tiempo, sería descartado
inmediatamente. Ninguna agencia gubernamental podría permitirse ser vista
dilapidando el dinero público en algo tan descabellado como el viaje en el
tiempo. En cambio, uno debería utilizar términos técnicos, como curvas cerradas
tempo-similares, que son un código para el viaje en el tiempo. Aunque esta
conferencia trata parcialmente sobre el viaje temporal, sentí que debía darle
un título científicamente más respetable, como el de “El Espacio y el Tiempo se
curvan”. Aún así, es una cuestión muy seria. Ya que
la Relatividad General permite el viaje temporal, ¿lo permite en nuestro universo?. Y en caso de que no, ¿por qué no?.
Cercanamente emparentada con el viaje en el tiempo, se encuentra
la habilidad de moverse rápidamente de una posición en el espacio hacia otra.
Como dije antes, Einstein demostró que sería necesaria una cantidad infinita de
energía para acelerar una astronave más allá de la velocidad de la luz. Así que
la única manera de llegar desde un extremo de la galaxia al otro en un tiempo
razonable, parecería ser la de que pudiéramos curvar tanto al espacio-tiempo
que pudiéramos crear un pequeño tubo o agujero de gusano. Esto podría conectar
los dos lados de la galaxia, y actuar como un atajo, para llegar del uno al
otro y volver mientras los amigos de uno todavía están vivos. Tales agujeros de
gusano han sido seriamente sugeridos como para estar dentro de las posibilidades
de una civilización futura. Pero si uno puede viajar de un extremo al otro de
la galaxia en una o dos semanas, también podría volver a través de otro agujero
y arribar antes de haber partido. Incluso se podría viajar hacia atrás en el
tiempo a través de un solo agujero de gusano, si los dos extremos del mismo
estuvieran en movimiento relativo uno con respecto al otro.
Se puede demostrar que para crear un agujero de gusano, es
necesario curvar el espacio-tiempo en la forma opuesta a la que lo hace la
materia normal. La materia ordinaria curva el espacio-tiempo alrededor de sí
mismo, tal como la superficie de la Tierra.
Sin embargo, para crear un agujero de gusano es necesario curvar
el espacio-tiempo en la dirección opuesta, como la superficie de una silla de
montar. Lo mismo es verdad sobre cualquier otra forma de curvar el
espacio-tiempo que pueda hacer posible el viaje en el tiempo, si el universo no
comenzó tan curvado como para permitirlo. Lo que uno requeriría sería materia
con masa negativa, y una densidad de energía negativa, para lograr la curvatura
espacio-temporal necesaria.
La energía es como el dinero. Si se tiene un balance bancario
positivo, uno puede distribuirlo de varias maneras. Pero de acuerdo con las
leyes clásicas en las que se creía hasta hace muy poco tiempo, no estaba
permitido tener un descubierto energético. Así, estas leyes clásicas
descartaban la posibilidad de curvar el espacio-tiempo en la forma requerida
para permitir el viaje en el tiempo. Sin embargo, estas leyes clásicas fueron
desplazadas por la Teoría Cuántica, que es la otra gran revolución en nuestra
imagen del universo, además de la Relatividad General. La Teoría Cuántica es
más relajada, y permite los números rojos en una o dos cuentas. ¡Si tan sólo
los bancos fueran tan complacientes!. En otras
palabras, la Teoría Cuántica permite que la densidad energética sea negativa en
algunos lugares, siempre y cuando sea positiva en otros
La razón por la cual la Teoría Cuántica permite que la densidad
energética sea negativa, es que está basada en el Principio de Incertidumbre.
Esto quiere decir que ciertas cantidades, como la posición y la
velocidad de una partícula, no pueden tener un valor bien definido. Cuanto más
precisamente sea definida la posición de una partícula, más grande es la
incertidumbre en la velocidad y viceversa. El principio de incertidumbre
también se aplica a los campos, como por ejemplo el campo electromagnético o el
campo gravitacional. Esto implica que estos campos no pueden anularse
exactamente, incluso en lo que pensamos que es espacio vacío. Si fuera exactamente
nulo, ambos valores tendrían una posición bien definida en cero, y una
velocidad también bien definida, que sería también cero. Esto sería una
violación del principio de incertidumbre. Sin embargo, los campos deberían
tener una cantidad mínima de fluctuaciones. Uno podría interpretar estas
fluctuaciones, que son llamadas fluctuaciones en el vacío, como parejas de
partículas y antipartículas que repentinamente aparecen juntas, se separan y
posteriormente vuelven a juntarse y aniquilarse mutuamente. Estas parejas de
partículas y antipartículas se dice que son virtuales, porque no pueden ser
medidas directamente con un detector de partículas. De cualquier modo, se
pueden observar sus efectos indirectamente.
Una manera de realizarlo es utilizando el llamado efecto Casimir.
Se tienen dos discos de metal, separados por una pequeña distancia. Los discos
actúan como espejos para las partículas y antipartículas virtuales. Esto quiere
decir que las regiones entre los discos es algo así como el tubo de un órgano,
y solo admitiría ondas de luz de ciertas frecuencias resonantes. El resultado
es que hay ligeramente menos fluctuaciones en el vacío o partículas virtuales
entre los discos que fuera de ellos, donde las fluctuaciones en el vacío pueden
tener cualquier longitud de onda. La reducción del número de partículas
virtuales entre los discos implica que no colisionarán con ellos tan a menudo,
y por lo tanto no ofrecerán tanta presión en los discos como las partículas
virtuales de fuera. Consecuentemente hay una pequeña fuerza empujando los
discos el uno contra el otro. Esta fuerza ha sido medida experimentalmente.
Así, las partículas virtuales de hecho existen, y producen efectos reales.
Ya que hay menos partículas virtuales, o fluctuaciones en el
vacío, entre los discos, estos tienen una densidad energética menor que en la
región externa. Pero la densidad energética del espacio vacío lejos de los
discos debe ser cero. De otra manera curvaría el espacio-tiempo y el universo
no sería casi plano. Por tanto la densidad energética de la región entre los
discos debe ser negativa.
También se tiene evidencia de la curvatura de la luz, de que el
espacio-tiempo es curvo y la confirmación por parte del efecto Casimiro, de que
se puede curvar en sentido negativo. Entonces parece posible, tal como se
avanza en la ciencia y tecnología, que quizás sea posible construir un agujero
de gusano, o curvar el espacio y el tiempo de alguna otra manera, tal que se
nos permita viajar a nuestro pasado. Si este fuera el caso, provocaría una
multitud de preguntas y problemas. Una de ellas es el motivo por el cual, si en
algún momento futuro aprendemos a viajar en el tiempo, no ha vuelto ya alguien
del futuro para decirnos como se hace.
Incluso si hubiera razones lógicas para mantenernos en la
ignorancia, siendo como es la naturaleza humana, es difícil de creer que nadie
se asomaría, y nos diría a nosotros ignorantes paisanos, el secreto del viaje
en el tiempo. Por supuesto, alguna gente puede afirmar que ya hemos sido
visitados desde el futuro. Podrían decir que los platillos volantes vienen del
futuro, y que los gobiernos están involucrados en una gigantesca trama para
encubrirlos, y guardarse para ellos mismos todo el conocimiento científico que
traen esos visitantes. Todo lo que puedo decir es que si los gobiernos
estuvieran escondiendo algo, están haciendo un trabajo un poco tonto extrayendo
información útil de los alienígenas.
Soy un poco escéptico con las teorías conspiratorias, creer la
teoría de que lo han arruinado todo es más probable. Los informes de
avistamientos de platillos volantes no pueden haber sido todos causados por
extraterrestres, porque son mutuamente contradictorios. Pero una vez que
admites que algunos son errores, o alucinaciones, ¿no es más probable que lo
sean todos o que se nos esté visitando por gente del futuro o del otro lado de
la galaxia?. Si realmente quieren colonizar la Tierra,
o avisarnos de algún peligro están siendo un poco ineficaces. Una vía posible
para reconciliar el viaje en el tiempo con el hecho de que no parece que
hayamos tenido ninguna visita del futuro, podría ser que dijéramos que solo
puede ocurrir en el futuro. Bajo este punto de vista se podría decir que el
espacio-tiempo en nuestro pasado era fijo, porque lo hemos observado, y parece
que no está lo suficientemente curvado como para permitir el viaje al pasado.
Pero ya que si sólo se podrá curvar el espacio-tiempo en el futuro, no seremos
capaces de viajar atrás al tiempo presente o un tiempo anterior.
Esto explicaría por qué no hemos sido invadidos por turistas del
futuro.
Aún así esto
dejaría un montón de paradojas. Supongamos que te fuera posible despegar en un
cohete espacial y volver antes del despegue. ¿Que te
impediría reventar el cohete en su plataforma de lanzamiento, o por otro lado
prevenir que partas la primera vez?. Hay otras
versiones de esta paradoja, por ejemplo ir al pasado, y matar a tus padres
antes de que nacieras, pero son esencialmente equivalentes. Parece haber dos
resoluciones posibles.
Una es la que debo llamar la aproximación de las historias
consistentes. Dice que uno debe encontrar una solución consistente en las
ecuaciones de la física, incluso si el espacio-tiempo esta tan curvado como
para hacer posible el viaje al pasado. Según esta perspectiva, no podrías hacer
que el cohete hubiera viajado al pasado a menos de que ya hubieras venido y
hubieras fallado al reventar la plataforma de despegue. Eso es un escenario
consistente, pero implicaría que estamos completamente determinados: no
podríamos cambiar nuestra opinión. Demasiado para el libre albedrío. La otra
posibilidad es lo que llamo la aproximación de las historias alternativas. Ha
sido defendida por el físico David Deutsch, y parece
que era lo que tenía en mente Stephen Spielberg cuando rodó Regreso al Futuro
(Back to the Future).
Según este punto de vista, en una historia alternativa, no habría
ninguna vuelta del futuro antes de que el cohete despegara, y por lo tanto no
habría posibilidad de reventarlo. Pero cuando el viajero vuelve del futuro,
entra en una historia alternativa distinta. En este caso, la raza humana hace
un tremendo esfuerzo para construir una nave espacial, pero justo cuando va a
ser lanzada, una nave similar aparece desde otro punto de la galaxia y la
destruye.
David Deutsch apoya la aproximación de
historias alternativas desde el concepto de "suma de historias"
introducido por el físico Richard Feinman, que murió hace unos pocos años. La
idea es que según la Teoría Cuántica, el universo no tiene una única historia.
En vez de eso, el universo tiene cada una de las historias
posibles, cada una con su propia probabilidad. Debe haber una posible historia
en la que exista una paz duradera en el Medio Oriente, aunque quizás la
probabilidad sea baja. En algunas historias, el espacio-tiempo estará tan
curvado que objetos como los cohetes serán capaces de viajar a su pasado. Pero
cada historia es completa y auto contenida, describiendo no solo el
espacio-tiempo curvado, sino también los objetos en ella. Por lo tanto un cohete
no puede transferirse a otra historia alternativa cuando vuelve de nuevo. Es
todavía la misma historia, que tiene que ser auto consistente. Por lo tanto, a
pesar de lo que afirma Deutsch, creo que la idea de
la "suma de historias" apoya la hipótesis de las historias
consistentes, más que la idea de historias alternativas.
Parece por consiguiente, que estamos encerrados en el escenario de
las historias consistentes. De cualquier manera, esta necesidad no implica que
existan problemas con el determinismo o libre albedrío si las posibilidades de
que el espacio-tiempo esté tan curvado que el viaje en el tiempo sea posible
sobre una región macroscópica son muy pequeñas. Esto es lo que llamo la
Conjetura de la Protección Cronológica: las leyes de la física conspiran para
prevenir el viaje en el tiempo a una escala macroscópica.
Parece que lo que ocurre es que cuando el espacio-tiempo se curva
casi lo suficiente para permitir el viaje al pasado, las partículas virtuales,
y su energía, se incrementan mucho. Esto quiere decir que la probabilidad de
esas historias es muy baja. Por lo tanto parece haber una Agencia de Protección
Cronológica trabajando, haciendo el mundo seguro para los historiadores. Pero
este tema de la curvatura del espacio y el tiempo está aún en su infancia.
Según la teoría de cuerdas, que es nuestra mayor esperanza para unificar la
Relatividad General y la Teoría Cuántica en la Teoría del Todo, el
espacio-tiempo debería tener diez dimensiones, no solo las cuatro que
experimentamos. La idea es que seis de esas diez dimensiones están enrolladas
en un espacio tan pequeño que no nos damos cuenta de ellas. Por otro lado las
cuatro que quedan son bastante planas, y son lo que llamamos espacio-tiempo. Si
este escenario es correcto, quizás sería posible mezclar las cuatro direcciones
planas con las otras direcciones que están altamente curvadas. A que podría
conducir esto, no lo sabemos aún. Pero abre un abanico de posibilidades
interesantes.
La conclusión de este discurso es que el viaje rápido en el
espacio, o el viaje atrás en el tiempo no tiene reglas, según nuestra
compresión actual. Ambos causarían muchos problemas lógicos, por lo que
esperemos que existe una Ley de Protección Cronológica que impida a la gente ir
atrás y que maten a nuestros padres. Pero los fans de la ciencia ficción no
pierden su entusiasmo. Hay esperanza en la teoría de cuerdas.
Y como no hemos roto aún la barrera del viaje en el tiempo, me he
quedado sin tiempo. Muchas gracias por su atención.
En esta
charla, me gustaría discutir sobre si el tiempo en si
mismo tuvo un principio, y sobre si tendrá un final. Todas las
evidencias parecen indicar que el universo no ha existido desde siempre, sino
que tuvo un principio, aproximadamente hace 15.000 millones de años.
Este es probablemente el descubrimiento más notable de la
cosmología moderna. Aún no está completamente demostrado. Todavía no sabemos
con certeza si el universo tendrá un final. Cuando yo daba una charla en Japón,
me pidieron que no mencionase el posible re-colapso
del universo, porque podría afectar al mercado de valores. Sin embargo, puedo re-asegurar a cualquiera que se sienta nervioso por sus
acciones, que es un poco pronto para vender: incluso si el universo esta destinado a finalizar, no sucederá antes de al menos
20.000 millones de años. Para ese tiempo, tal vez el acuerdo de comercio GATT
haya alcanzado sus objetivos.
N. del T.: GATT
= General Agreement on Tariffs and Trade (Acuerdo
General sobre Aranceles y Comercio) firmado en 1947, persigue la igualdad
comercial entre países.
La escala de tiempo del universo en muy grande comparada con la
vida humana. Por ello no fue ninguna sorpresa que hasta hace poco, se pensase que
el universo era esencialmente estático, e invariable a lo largo del tiempo. Por
otro lado, ha debido ser obvio que la sociedad evoluciona cultural y
tecnológicamente. Esto indica que la fase presente de la historia de la
humanidad no puede haber empezado antes de unos pocos miles de años. De otro
modo estaríamos más avanzados de lo que lo estamos. Por ello es natural que
creamos que la especie humana, y quizás el universo completo, comenzaron
justamente en un pasado reciente. Sin embargo, mucha gente estaba descontenta
con la idea de que el universo tuviera un principio, ya que esto parecía
implicar la existencia de un ser sobrenatural que lo creó. Ellos preferían
creer que el universo y la especie humana han existido desde siempre. Su
explicación sobre el progreso humano se basaba en la existencia de inundaciones
periódicas, u otro desastre natural, que devolvía repetidamente a los humanos a
un estado primitivo.
Este argumento acerca de si el universo tuvo o no un principio,
persistió durante el siglo XIX y XX. Se basó principalmente en tesis teológicas
y filosóficas, con muy pocas consideraciones sobre evidencias observables. Esto
pudo haber sido razonable, dada la notoria falta de fiabilidad de las
observaciones cosmológicas, hasta hace bien poco. El cosmólogo sir Arthur
Eddington dijo una vez, “No se preocupe si su teoría no casa bien con las
observaciones, ya que probablemente éstas son erróneas. Pero si su teoría esta en desacuerdo con la segunda ley de la Termodinámica,
entonces está usted metido en problemas". De hecho, la teoría de que el
Universo ha existido desde siempre entra en serias dificultades con la segunda
ley de la Termodinámica.
La segunda ley establece que el desorden siempre se incrementa a
medida que transcurre el tiempo. Al igual que con el argumento del progreso
humano, esto indica que debió haber existido un comienzo. De otro modo, el
Universo se hallaría hoy en día en un estado de desorden completo, y todo
estaría a la misma temperatura. En un universo infinito y eterno, cualquier
rastro visible acabaría en la superficie de las estrellas. Esto significaría
que el cielo nocturno sería tan brillante como la superficie del Sol. El único
modo de evitar este problema sería si, por alguna razón, las estrellas no
brillasen durante cierto tiempo.
En un universo que fuese esencialmente estático, no habría ninguna
razón dinámica por la que las estrellas debiesen súbitamente encenderse, en un
momento dado. Cualquiera de estos “períodos de luces encendidas” tendría que
venir impuesto por una intervención desde el exterior del universo. La
situación, sin embargo, fue diferente, cuando se comprobó que el universo no
era estático, sino que se expandía. Las galaxias se están apartando
constantemente unas respecto a las otras. Esto significa que en el pasado
estaban más juntas. Se puede representar gráficamente la distancia entre dos
galaxias en función del tiempo. Si no hubiese aceleración causada por la
gravedad, el gráfico sería una línea recta. Descendería hacia el punto de
separación cero, aproximadamente hace 20.000 millones de años. Se podría
esperar que la gravedad causase una aceleración de unas galaxias contra las
otras. Esto implicaría que el gráfico de la separación se doblaría hacia abajo,
a un nivel inferior al de la línea recta. Por lo que el momento de separación
cero, sería inferior a 20.000 millones de años.
En ese momento, el Big Bang, toda la
materia del universo, se encontraría en la superficie de si
misma. La densidad habría sido infinita. Sería lo que a menudo es nombrado como
singularidad. En una singularidad, todas las leyes de la física se rompen. Esto
significa que el estado del universo, tras el Big Bang,
no dependía de ninguna cosa que hubiese pasado con anterioridad, ya durante el
Big Bang las leyes determinísticas que gobiernan el
universo se incumplían. El universo evolucionó a partir del Big Bang, de manera completamente independientemente a como lo
hacía antes de este suceso. Hasta la cantidad de materia del universo puede ser
distinta a la existente antes del Big Bang, ya que en
ese momento la Ley de Conservación de Materia, no se cumplía.
Ya que no contamos con consecuencias observables anteriores al Big
Bang, se podrían extraer a partir de la teoría, y
decir que el tiempo comenzó con el Big Bang. Los
sucesos anteriores al Big Bang, simplemente no están
definidos, ya que no hay modo alguno de medir lo que en ellos sucedió. Este
tipo de comienzo del universo, y del tiempo en si,
difiere mucho de los anteriormente considerados. En estos el universo se veía
bajo la imposición y acción de un agente externo. No hay ninguna razón dinámica
que impida extrapolar el movimiento de los cuerpos en el sistema solar al
pasado, hasta más allá de los 4.004 años antes del nacimiento de Cristo, la
fecha de la creación del universo según el libro del Génesis. Por tanto, si el
universo comenzase en esa fecha, se requeriría la intervención directa de Dios.
Sin embargo, el Big Bang es un comienzo que viene
requerido por las leyes de la dinámica que gobiernan el universo. Es, por ello,
algo intrínseco al universo, y no viene impuesto desde el exterior.
Pese a que las leyes de la Ciencia parecían predecir que el
Universo tuvo un comienzo, también parecían predecir que no pueden determinar
cómo comenzó. Esto era obviamente muy insatisfactorio. Por lo tanto hubo una
serie de intentos de dar un rodeo a la conclusión de que hubo una singularidad
de densidad infinita en el pasado. Una propuesta fue modificar la ley de la
gravitación, de tal manera que se volviera repulsiva. Esto podía llevar a que
la gráfica de la separación entre dos galaxias sea una curva que se aproxima a
cero, pero que no pasa de hecho por él, en ningún tiempo finito del pasado. En
lugar de eso, la idea era que según las galaxias se separaban, se creaban
nuevas galaxias en medio a partir de la materia que se suponía que era creada
continuamente. Esta era la teoría del “Estado Estable” (Steady
State), propuesta por Bondi, Gold, y Hoyle.
La teoría del “Estado Estable”, era lo que Karl Popper llamaría
una buena teoría científica: hacia predicciones definidas, que se podían
comprobar mediante una observación, y era posible falsificarlas.
Desafortunadamente para la teoría, fueron falsificadas. El primer problema
apareció con las observaciones de Cambridge sobre el numero
de fuentes de ondas de radio de diferentes potencias. En media, uno esperaría
que las fuentes más débiles fueran a su vez las más distantes. Además uno
esperaría también que fueran más numerosas que las fuentes brillantes, que
tienden a estar cerca nuestra. Sin embargo, la gráfica del número de fuentes de
ondas de radio con respecto a su fuerza crecía de manera mucho más accidentada
en las fuentes de baja potencia de lo que predecía la teoría del “Estado
Estable”.
Hubo
intentos de explicar las cifras de esta gráfica, recurriendo a que algunas de
las fuentes más débiles de ondas de radio estaban en nuestra propia galaxia, y
por lo tanto no nos decían nada sobre cosmología. Este argumento no aguantó las
observaciones posteriores. Pero el golpe definitivo que envió a la teoría del
“Estado Estable” a la tumba ocurrió con el descubrimiento de la radiación de
microondas de fondo, en 1965. Esta radiación es la misma en todas las
direcciones. Ésta tiene el espectro de radiación en un equilibrio termal de 2
coma 7 grados sobre el Cero Absoluto. No hay ninguna manera de explicar esta
radiación en la teoría del “Estado Estable”.
Otro intento de evitar un comienzo del tiempo, fue la sugerencia
de que quizás todas las galaxias no se encontraban en un único punto en el
pasado. Aunque en media las galaxias se alejan unas de otras con una tasa
constante, también tienen pequeñas velocidades adicionales, relativas a la
expansión uniforme. Estas llamadas “velocidades peculiares” (peculiar velocities) de las galaxias podían direccionarse
lateralmente a la expansión principal. Se argumentó que si se dibujaba la
posición de las galaxias atrás en el tiempo, las “velocidades peculiares”
laterales habrían provocado que las galaxias no se encontraran todas juntas.
En lugar de eso, debería haber una fase previa de contracción del
universo en la cual las galaxias se moverían unas hacia las otras. Las
velocidades laterales provocarían que las galaxias no chocaran, pero que se
precipitaran a pasar unas al lado de otras y que entonces comenzaran a
separarse. Esto no habría provocado ninguna singularidad de densidad infinita,
ni ninguna rotura de las leyes de la física. Por lo tanto no habría necesidad
de que el universo tuviera un comienzo, y que el tiempo en si
mismo tuviera un principio. De hecho, uno debería suponer que el universo
habría oscilado, a pesar de que no se podría solucionar el problema de la
Segunda Ley de la Termodinámica: se esperaría que el universo se iría
desordenando cada vez más con cada oscilación. Es por consiguiente difícil ver
como el universo podría haber estado oscilando durante un tiempo infinito.
Esta posibilidad de que las galaxias se hubieran esquivado las
unas a las otras fue sostenida por dos rusos. Argumentaban que no habría
singularidades en una solución en el campo de las ecuaciones de la relatividad
general que fuera totalmente general, en el sentido de que no tuviera ninguna
simetría exacta. De cualquier manera su argumento se probó que era erróneo
utilizando unas serie de teoremas de Roger Penrose y
míos. Estos demostraban que la relatividad general predecía singularidades,
siempre que estuviera presente al menos una cantidad de masa determinada en una
región. Los primeros teoremas estaban diseñados para demostrar que el tiempo
llega a un final, dentro de un agujero negro, formado por el colapso de una
estrella. No obstante, la expansión del universo es como darle la vuelta en el
tiempo al colapso de una estrella. Por consiguiente quiero mostrarles que la
evidencia de las observaciones indica que el universo tiene suficiente materia
como para que sea como el colapso de una estrella, pero al revés, y que por
tanto contenga una singularidad.
Para discutir las observaciones en cosmología estamos mirando
atrás en el tiempo, porque la luz debió partir de los objetos lejanos hace
mucho tiempo para llegar a nosotros en el presente. Esto significa que los
eventos que observamos se encuentran en lo que se llama nuestro “cono de luz
pasada”. El vértice del cono se encuentra en nuestra posición, en el tiempo
presente. Conforme uno se desplaza hacia atrás en el diagrama temporal, el cono
de luz se expande a distancias cada vez mayores, y su área se incrementa. En
cambio, si hay suficiente materia en nuestro “cono de luz pasada”, ésta
curvaría los rayos de luz unos contra otros. Esto significaría que tal como uno
se dirige hacia atrás en el pasado, el área de nuestro “cono de luz pasada”
alcanzaría un máximo para posteriormente comenzar a disminuir.
Este enfoque de nuestro “cono de luz pasada”, provocado por el
efecto gravitatorio de la materia en el universo es la señal de que el universo
es dentro de su horizonte, como un agujero negro invertido en el tiempo. Si se
puede determinar que existe suficiente materia en el universo para enfocar
nuestro “cono de luz pasada”, entonces se pueden aplicar los teoremas de las
singularidades para demostrar que el tiempo debió tener un comienzo.
¿Cómo podemos decir a partir de las observaciones, si hay
suficiente materia en nuestro cono de luz pasado, para poder enfocarlo? Podemos
observar un cierto número de galaxias, pero no podemos medir directamente
cuánta materia contienen. Ni estamos seguro de que cualquier línea de visión
que parta de nosotros pase a través de una galaxia. Así que daré un argumento
diferente, para mostrar que el universo contiene suficiente materia para
enfocar nuestro cono de luz pasado. El argumento se basa en el espectro de la
radiación de fondo de microondas. Este es característico de una radiación que
ha estado en equilibrio térmico, con materia a igual temperatura. Para alcanzar
tal equilibrio, es necesario que la radiación sea dispersada muchas veces por
la materia. Por ejemplo, la luz que recibimos del Sol tiene un espectro térmico
característico. Este no es debido a las reacciones nucleares que tienen lugar
en el centro del Sol, que también producen radiación con espectro térmico. Más
bien, se debe a que la radiación ha sido dispersada, por la materia del Sol,
muchas veces en su camino desde el centro.
En el caso del universo, el hecho de que el fondo de microondas
tenga exactamente ese espectro térmico indica que debe de haber sido dispersada
en muchas ocasiones. El universo debe por consiguiente contener suficiente
materia para hacerlo opaco en cualquier dirección en que nosotros miremos,
puesto que el fondo de microondas es el mismo en cualquier dirección en que
miremos. Más aún, esta opacidad debe ocurrir a una gran distancia de nosotros,
dado que podemos ver galaxias y quásares a grandes distancias. Por tanto ha de
haber mucha materia a gran distancia de nosotros. La mayor opacidad sobre una
amplia banda de ondas, para una densidad dada, proviene del hidrógeno ionizado.
Se sigue por tanto que si hay suficiente materia para hacer el universo opaco,
debe ser suficiente también para enfocar nuestro cono de luz pasado. Podemos
aplicar el teorema de Penrose y mío, para mostrar que el tiempo ha de tener un
comienzo.
El enfoque de nuestro cono de luz pasado implica que el tiempo
debe de tener un inicio, siempre que la Teoría General de la Relatividad sea
correcta. Pero tenemos que plantear la cuestión de si la Teoría General de la
Relatividad es correcta. Ciertamente concuerda con todas la
pruebas observacionales que se han llevado a cabo. Sin embargo éstas
prueban la Relatividad General sólo sobre distancias suficientemente grandes.
Sabemos que la Relatividad General no es correcta para distancias muy cortas,
porque se trata de una teoría clásica. Es decir, no tiene en cuenta el
Principio de la Indeterminación de la Mecánica Cuántica, que dice que un objeto
no puede tener a la vez una posición bien definida y una velocidad bien
definida: cuanto más precisión se tenga al medir la
posición, menos precisión se tendrá al medir la velocidad, y viceversa. Por lo
tanto, para comprender el estado de muy alta densidad, cuando el universo era
muy pequeño, se necesita una teoría cuántica de la gravedad, que combine la
Relatividad General con el Principio de Incertidumbre.
Mucha gente esperaba que los efectos cuánticos pudieran de alguna
manera corregir la singularidad de la densidad infinita, y permitir que el
universo rebotara, continuando atrás hacia una fase contractiva previa. Esto
podría ser algo mejor que la idea anterior de galaxias perdiéndose entre sí,
pero el rebote ocurriría a una densidad mucho más elevada. Sin embargo, pienso
que no es esto lo que ocurre: los efectos cuánticos no eliminan la
singularidad, y permiten que el tiempo continúe hacia atrás indefinidamente.
Pero parece que los efectos cuánticos pueden eliminar la cuestión más
objetable, la de las singularidades en la clásica Relatividad General.
Esto es que la teoría clásica no nos permite calcular lo que
podría ocurrir en una singularidad, puesto que las Leyes de la Física se rompen
allí. Esto podría significar que la ciencia no es capaz de predecir cómo el
universo puede haberse iniciado. En vez de eso, debemos recurrir a un agente
externo al universo. Este puede ser el motivo por el que numerosos líderes
religiosos se apresuraron en aceptar el Big Bang y
los teoremas de las singularidades.
Parece que la Teoría Cuántica, por otro lado, permite predecir
cómo el universo puede empezar. La Teoría Cuántica introduce una nueva idea, el
tiempo imaginario. El tiempo imaginario puede sonar a ciencia ficción, y nos
recuerda al Doctor Who. Pero a pesar de ello, se trata de un genuino concepto
científico. Podemos representarlo del siguiente modo. Pensemos en el tiempo
ordinario, real, como una línea horizontal. A la izquierda tenemos el pasado, a
la derecha el futuro. Pero existe otra clase de tiempo en la dirección
vertical. Se le llama tiempo imaginario porque no es la clase de tiempo que
normalmente experimentamos. Pero en cierto sentido es tan real como el que
llamamos tiempo real.
Las tres direcciones del espacio y la dirección adicional del
tiempo imaginario forman lo que se denomina espacio-tiempo euclidiano. No creo
que haya nadie capaz de dibujar una curva espacial de cuatro dimensiones. Pero
no es demasiado difícil imaginar una superficie de dos dimensiones, como una
silla de montar o la superficie de un balón de fútbol.
De hecho, James Hartle de la Universidad
de Santa Barbara, California, y yo hemos propuesto que el espacio y el tiempo
imaginario en su conjunto, son sin duda finitos en extensión, pero sin límites.
Son como la superficie de la Tierra, pero con dos dimensiones más. La superficie
terrestre es finita en extensión, pero no tiene límites ni fronteras. Yo he
dado la vuelta al mundo, y no me he caído por el borde.
Si el espacio y el tiempo imaginario son de hecho como la
superficie de la Tierra, no podría haber ninguna singularidad en la dirección
del tiempo imaginario, ya que entonces las leyes de la física se romperían. Y
no habría ninguna frontera al espacio- tiempo, tal como no hay fronteras para
la superficie de la Tierra. Esta ausencia de fronteras indica que las leyes de
la física determinarían el estado del universo de manera unívoca, en el tiempo
imaginario. Pero si se conoce el estado del universo en el tiempo imaginario,
se puede calcular el estado del universo en el tiempo real. Se esperaría por
tanto algún tipo de singularidad del Big Bang en el
tiempo real. Por lo tanto el tiempo real tendría un comienzo. Pero no se
tendría que apelar a algo que esté fuera del universo para determinar como comenzó el universo. Al contrario, la manera en la
cual el universo comenzó con el Big Bang estaría
determinada por el estado del universo en el tiempo imaginario. Y por tanto, el
universo sería un sistema completamente auto contenido. No estaría determinado
por nada fuera del universo físico, que nosotros observamos.
La
condición de no frontera es el enunciado que mantienen las leyes de la física
en todas partes. Claramente es algo que a uno le gustaría creer, pero es solo
una hipótesis. Se debe probar, comparando con el estado del universo que
predeciría, con las observaciones de como es de hecho
el universo. Si las observaciones discreparan con las predicciones de la
hipótesis de no frontera, tendríamos que concluir que la hipótesis era falsa.
Tendría que haber algo fuera del universo que diera cuerda al mecanismo de relojería,
y que pusiera el universo a funcionar. Por supuesto, incluso si las
observaciones concuerdan con las predicciones, eso no prueba que la proposición
de no frontera sea correcta. Pero la confianza depositada en ella se
incrementaría, en concreto porque no parece haber otra propuesta natural para
el estado cuántico del universo.
La propuesta de no frontera predice que el universo debería
empezar en un punto único, como si fuera el Polo Norte de la Tierra. Pero ese
punto no tiene por que ser una singularidad, como el
Big Bang. Al contrario, podría ser un punto ordinario
del espacio y del tiempo, tal como el Polo Norte es un punto ordinario en la
Tierra, o al menos tal y como me han contado. Yo no lo he visto en persona.
De acuerdo con la proposición de no frontera, el universo se
habría expandido de manera suave desde un punto inicial. Conforme se expandía,
habría tomado prestada energía del campo gravitatorio para crear materia. Tal
como cualquier economista habrá predicho, el resultado de dichos prestamos, fue
la inflación. El universo se expandía y cogía prestada energía incluso a una
tasa creciente. Afortunadamente, la deuda de energía gravitacional no tendría
que ser devuelta hasta el final del universo.
Eventualmente, el periodo de inflación podría haber acabado, y el
universo se habría establecido en un estado de crecimiento o expansión más
moderado. Aún así, la inflación habría dejado su
marca en el universo. El universo podría haber sido suave casi por completo,
pero con pequeñísimas irregularidades. Estas irregularidades son tan pequeñas,
solo una parte de cada cien mil, que han sido buscadas durante años en vano.
Pero en 1992, el satélite de Exploración del Fondo Cósmico (Cosmic
Background Explorer), COBE, encontró dichas
irregularidades en la radiación de fondo de microondas. Fue un momento
histórico. Vimos hacia atrás el comienzo del universo. La
forma de las fluctuaciones en el fondo de microondas concordaban estrechamente
con las predicciones de la proposición de no frontera. Estas pequeñísimas
irregularidades en el universo habrían causado que algunas regiones se hubieran
expandido menos rápido que otras.
Eventualmente, habrían cesado su expansión, y se habrían colapsado
en ellas mismas, para formar estrellas y galaxias. Por tanto, la proposición de
no frontera puede explicar la rica y variada estructura del mundo en el que
vivimos. ¿Que es lo que predice la proposición de no
frontera para el futuro?. Ya que requiere que el
universo sea finito tanto en el espacio, como en el tiempo imaginario, implica
que el universo se re-colapsará eventualmente. A
pesar de todo, no se re-colapsará en mucho tiempo,
mucho más tiempo que los 15 miles de millones de años que se ha estado
expandiendo. Por tanto aún tienen tiempo de vender sus bonos del tesoro antes
de que el final del universo esté cerca. En que vas a
invertir entonces, no se.
Originariamente, pensaba que el colapso sería el reverso del tiempo
de la expansión. Esto habría significado que la flecha del tiempo habría
apuntado en el sentido contrario en la fase de contracción. La gente se habría
hecho más joven conforme el universo se hubiera hecho más pequeño.
Eventualmente la gente habría desaparecido en la matriz materna.
Sin embargo ahora me doy cuenta de que estaba equivocado, tal y
como estas soluciones demuestran. El colapso no es el reverso del tiempo de la
expansión. La expansión comenzará con una fase de inflación, pero el colapso no
acabará en general con una fase anti-inflación. Lo
que es más, las pequeñas discordancias de la densidad uniforme continuarán
creciendo en la fase de contracción. El universo se volverá más y más grumoso e
irregular conforme se haga más pequeño, y el desorden se incrementará. Esto
significa que aquella flecha del tiempo no se invertirá. La gente continuará
haciéndose vieja, incluso después de que el universo haya comenzado a
contraerse. Por lo tanto no es bueno esperar hasta que el universo se re-colapse para volver a la juventud. Estarías un poco en
el pasado, de cualquier manera, para entonces.
La conclusión de esta conferencia es que el universo no ha
existido desde siempre. Lo que es más, el universo, y el tiempo en sí mismo,
tuvieron un comienzo en el Big Bang, hace más o menos
15 mil millones de años. El comienzo del tiempo real podría haber sido una
singularidad, en la cual las leyes de la física podrían haberse roto, si el
universo satisficiera la condición de no frontera. Esto quiere decir que en la
dirección del tiempo imaginario, el espacio-tiempo es finito en extensión, pero
no tiene ninguna frontera o borde. Las predicciones de la proposición de no
frontera parecen concordar con las observaciones. La hipótesis de no frontera
también predice que el universo se colapsará otra vez de manera eventual. Sin
embargo, la fase de contracción no tendrá una flecha del tiempo opuesta a la
fase de expansión. Por lo tanto continuaremos haciéndonos viejos, y no
volveremos a nuestra juventud. Y porque el tiempo no va a volver hacia atrás,
creo que mejor paro ya.
En esta
charla, quisiera especular un poco sobre el desarrollo de la vida en el universo, y en
particular, sobre el desarrollo de la vida inteligente. Haré esto para incluir
a la raza humana, aunque buena parte de su comportamiento a lo largo de la
historia, ha sido bastante estúpido, y no precisamente calculado para ayudar a
la supervivencia de las especies. Dos preguntas que discutiré son, '¿Cuál es la
probabilidad de que la vida exista en otras partes del universo?' y, ' ¿Cómo
podrá desarrollarse la vida en el futuro?'
Es cuestión de experiencia común, saber que las cosas tienden al
desorden y al caos a medida que pasa el tiempo. Esta observación puede elevarse
al estado de ley, la así llamada Segunda Ley de la Termodinámica. Esta dice que
la cantidad total de desorden, o entropía, en el universo, aumenta siempre con
el tiempo. Sin embargo, la ley se refiere solamente a la cantidad total de
desorden. El orden en un cuerpo puede aumentar, a condición de que la cantidad
de desorden a sus alrededor aumente en una cantidad mayor.
Esto es lo que sucede con un ser vivo.
Podríamos definir a la vida como: sistema ordenado que puede
sostenerse contra la tendencia al desorden, y que puede reproducirse. Es decir,
que puede formar sistemas ordenados similares, pero independientes. Para hacer
estas cosas, el sistema debe poder convertir energía partiendo de una forma
ordenada, (por ejemplo: alimento, luz del sol, o energía eléctrica), en energía
desordenada, (en forma de calor). De esta manera, el sistema puede satisfacer
el requisito de que la cantidad total de desorden aumente, mientras que, al
mismo tiempo, aumenta el orden en sí mismo y en su descendencia. Un ser vivo
tiene generalmente dos elementos: un sistema de instrucciones que le dicen al
sistema cómo sostenerse y reproducirse, y un mecanismo para realizar estas
instrucciones.
En biología, estas dos piezas se llaman genes y metabolismo. Pero
merece la pena acentuar que no es necesario una naturaleza biológica en ellos.
Por ejemplo, un virus de ordenador es un programa que hará copias de sí mismo
en la memoria de un ordenador, y se transferirá a otros ordenadores. Así, cabe
en la definición de sistema vivo que yo he dado. Al igual que un virus
biológico, ambos son formas algo degeneradas, porque solo contiene
instrucciones o genes, y no tienen ningún metabolismo propio. En su lugar,
reprograman el metabolismo del ordenador huésped o de la célula. Algunas
personas se han cuestionado si deberíamos contar a los virus entre los seres
vivos, ya que son parásitos, y no pueden existir independientemente de sus
anfitriones. Pero entonces la mayor parte de las formas de vida, nosotros
mismos incluidos, son parásitos, ya que se alimentan y dependen para su
supervivencia de otras formas de vida. Creo que los virus de ordenador deberían
considerarse también como vida. Quizás esto dijera algo sobre la naturaleza
humana, ya que la única forma de vida que hemos creado hasta ahora, es
puramente destructiva. Dicho de otro modo, creamos vida a nuestra imagen y
semejanza. Volveré sobre las formas electrónicas de vida más adelante.
Lo qué normalmente conocemos como ' vida ' se basa en cadenas de
átomos de carbono, enlazados con algunos otros átomos, tales como nitrógeno o
fósforo. Podríamos especular que se puede obtener vida a partir de otra base
química, por ejemplo el silicio, pero el carbono parece el caso más favorable,
porque tiene la química más rica. Que los átomos de carbono existan al fin, con
las características que tienen, requiere un fino ajuste de las constantes
físicas, tales como la escala QCD (Nota del traductor: escala
cromo-dinámica cuántica), la carga eléctrica, e incluso la dimensión
espacio-tiempo. Si estas constantes tuvieran valores perceptiblemente
distintos, o bien el núcleo del átomo de carbono se volvería inestable, o bien
los electrones se colapsarían sobre el núcleo. A primera vista, parece notable
que el universo esté ajustado tan finamente. Esta es quizá una evidencia, de
que el universo fue diseñado especialmente para producir la raza humana. Sin
embargo, hay que tener cuidado sobre tales discusiones, debido a lo que se
conoce como el Principio Antrópico. Este se basa en la verdad, de por si
evidente, de que si el universo no hubiera sido adecuado para la vida, nosotros
no estaríamos ahora preguntándonos por qué está ajustado tan finamente. Se
puede aplicar el Principio Antrópico, en sus versiones fuerte, o débil.
Para el principio Antrópico fuerte, suponemos que hay muchos y
diversos universos, cada uno con distintos valores en sus constantes físicas.
En un número pequeño de ellos, estos valores permitirán la existencia de
objetos tales como los átomos del carbono, que pueden actuar como los ladrillos
para la construcción de sistemas vivos. Puesto que debemos vivir en uno de
estos universos, no debemos sorprendernos de que las constantes físicas estén
tan finamente ajustadas. Si no fuera así, no estaríamos aquí. La forma fuerte
del Principio Antrópico no es muy satisfactoria. ¿Qué sentido operativo podemos
dar a la existencia de esos otros universos? Y si están separados y al margen
de nuestro propio universo, cómo puede afectarnos lo que suceda en ellos. En su
lugar, adoptaré el que se conoce como Principio Antrópico débil. Es decir,
tomaré los valores de las constantes físicas, según nos vienen dados. Pero veré
qué conclusiones pueden extraerse, del hecho de que la vida exista en este
planeta, en esta etapa de la historia del universo.
No había carbono, cuando el universo comenzó con el Big Bang, hace aproximadamente 15 mil millones de años. Era tan
caliente, que toda la materia habría estado en forma de partículas, llamadas
protones y neutrones. En un principio habría protones y neutrones en cantidades
iguales. Sin embargo, como el universo se expandió, este se habría enfriado.
Aproximadamente un minuto después del Big Bang, la
temperatura habría caído a alrededor de mil millones de grados, equivalente a
cientos de veces la temperatura del Sol. A esta temperatura, los neutrones
comenzaron a descomponerse en más protones.
Si solo hubiera sucedido esto, toda la materia en el universo
habría terminado siendo como el elemento más simple, el hidrógeno, cuyo núcleo
consiste en un solo protón. Sin embargo, algunos de los neutrones chocaron con
los protones, y se fusionaron para formar el siguiente elemento más simple, el
helio, cuyo núcleo consiste en dos protones y dos neutrones. Pero en el joven
universo no se habría formado ningún elemento más pesado, como el carbono o el
oxígeno. Es difícil imaginarse construir un sistema vivo, partiendo del
hidrógeno y del helio, y de todos modos el universo primigenio seguía siendo
demasiado caliente como para que los átomos se combinasen formando moléculas.
El universo habría continuado expandiéndose, y enfriándose. Pero
algunas regiones habrían tenido densidades algo más altas que otras. La
atracción gravitacional de la materia adicional en esas regiones, retrasaría su
expansión, y eventualmente la pararía. En su lugar, esas regiones se
colapsarían para formar galaxias y estrellas, hecho que empezó aproximadamente
dos mil millones de años después del Big Bang.
Algunas de aquellas estrellas tempranas habrían sido más masivas y calientes
que nuestro Sol y habrían quemado el hidrógeno y helio original,
transformándolo en elementos más pesados, tales como carbono, oxígeno, y
hierro. Esto habría podido tomar solamente algunos cientos de millones de años.
Después de eso, algunas de las estrellas habrían estallado como supernovas, y
habrían dispersado los elementos pesados hacia el interior del espacio,
formando la materia prima para próximas generaciones de estrellas.
Otras estrellas están demasiado lejos, como para que podamos ver
directamente, si tienen planetas girando alrededor de ellas. Pero ciertas
estrellas, llamadas pulsars, emiten pulsos regulares
de ondas de radio. Observamos una leve variación en el índice de emisión de
algunos pulsars, y esto se interpreta como un
indicador de que están siendo perturbados, por la presencia de planetas del
tamaño de la Tierra girando alrededor de ellas. Los planetas que giran
alrededor de pulsars tienen pocas probabilidades de
albergar vida, porque cualquier ser vivo habría muerto, en la explosión de la
supernova que condujo a la estrella a convertirse en un pulsar. Pero, el hecho
de que se haya observado que varios pulsars tienen
planetas sugiere que una fracción razonable de las cientos
de miles de millones de estrellas de nuestra galaxia pueden también tener
planetas. Las condiciones planetarias necesarias para nuestra forma de vida
pudieron por lo tanto, haber existido a partir de cuatro mil millones de años
después del Big Bang.
Nuestro Sistema Solar se formó aproximadamente hace cuatro mil
quinientos millones de años, cerca de diez mil millones de años después del Big
Bang, a partir de gas contaminado con los restos de
estrellas anteriores. La Tierra se formó en gran parte a partir de los
elementos más pesados, incluyendo el carbono y el oxígeno. De algún modo,
algunos de esos átomos llegaron a ordenarse en forma de moléculas de ADN. Este
tiene la famosa forma de doble hélice, descubierta por Crick y Watson en un
cuartucho situado en el Nuevo Museo, en Cambridge. Enlazando las dos cadenas en
la hélice, hay pares de ácidos nucleicos.
Hay cuatro tipos de ácidos nucleicos: adenina, citosina, guanina,
y tiamina. Me temo que mi sintetizador del voz no es
muy bueno, pronunciando sus nombres. Obviamente, no fue diseñado para biólogos
moleculares. Una adenina en una cadena se empareja siempre con una tiamina en
la otra cadena, y una guanina con un citosina. Así la
secuencia de ácidos nucleicos en una cadena define una secuencia única y
complementaria, en la otra cadena. Ambas cadenas pueden entonces separarse y
cada una actúa como una plantilla para construir otras cadenas. De este modo
las moléculas de ADN pueden reproducir la información genética, cifrada en sus
secuencias de ácidos nucleicos. Algunas secciones de la secuencia se pueden
también utilizar para elaborar proteínas y otros productos químicos, que pueden
transportar las instrucciones codificadas en secuencia, y montar la materia
prima para que el propio ADN se reproduzca.
No sabemos cómo aparecieron las primeras moléculas de ADN. La
probabilidad de que una molécula de ADN se forme por fluctuaciones al azar es
muy pequeña. Algunas personas, por lo tanto, han sugerido que la vida llegó a
la Tierra desde alguna otra parte, y que hay semillas de vida flotando por los
alrededores de la galaxia. Sin embargo, parece inverosímil que el ADN pudiera
sobrevivir durante mucho tiempo a la radiación en el espacio. E incluso si
pudiera, esto realmente no ayudaría a explicar el origen de la vida, porque el
tiempo que necesitó el universo para lograr la formación del carbono es sólo un
poco mas del doble que la edad de la Tierra.
La posibilidad de formación de algo parecido al ADN, que pudiera
reproducirse, es extremadamente inverosímil. Sin embargo, en un universo con un
número muy grande, o infinito, de estrellas, cabría esperar que esto ocurriera
en algunos sistemas estelares, pero estarían tremendamente separados unos de
otros. El hecho de que la vida llegara a suceder en la Tierra, no es sin
embargo algo que nos sorprenda o inverosímil. Es solo una aplicación del
Principio Antrópico Débil: si en su lugar, la vida hubiera aparecido en otro
planeta, estaríamos preguntándonos por qué había ocurrido allí.
Si la
aparición de vida en un planeta dado era muy inverosímil, se podía haber
esperado que el proceso se alargase en el tiempo. Más exactamente, se podía
haber esperado de la vida que apareciese justo a tiempo para la evolución
subsiguiente de seres inteligentes, como nosotros antes del apagón, es decir
antes del fin del proceso vital del Sol. Este es de cerca de diez mil millones
de años, tras lo cual el Sol se expandirá y engullirá a la Tierra. Una forma
inteligente de vida, podría haber dominado el viaje espacial, y podría por
tanto ser capaz de escaparse a otra estrella. Pero de otro modo, la vida en la
Tierra estaría condenada.
Hay evidencia fósil, de que existían ciertas formas de vida en la
Tierra, hace aproximadamente tres mil quinientos millones de años. Esto pudo
haber sido apenas 500 millones de años después de que la Tierra llegase a
estabilizarse y a enfriarse lo bastante como para que la vida apareciera. Pero
la vida habría podido tardar siete mil millones de años en desarrollarse, y
todavía le sobraría tiempo para el desarrollo de seres que como nosotros,
podrían preguntarse sobre el origen de la vida. Si la probabilidad del
desarrollo de vida en un planeta dado, es muy pequeña, por qué sucedió en la
Tierra, en tan solo 1/14 del tiempo total disponible.
La temprana aparición de vida en la Tierra sugiere que hay buenas
opciones para la generación espontánea de vida, en condiciones convenientes.
Quizás existieran ciertas formas más simple de organización, las cuales
llegaron a construir el ADN. Una vez que apareció el ADN, este habría tenido
tanto éxito, que puede ser que hubiera substituido totalmente las formas
anteriores. No sabemos cuáles habrían sido estas formas anteriores. Una
posibilidad es el ARN. Este es como el ADN, pero algo más simple, y sin la estructura
de doble hélice. Las cortas longitudes del ARN, podían reproducirse como el
ADN, y pudieron eventualmente transformarse en ADN. No se pueden crear ácidos
nucleicos en el laboratorio a partir de material no-vivo, ni siquiera ARN. Pero
transcurridos 500 millones de años, y contando con los océanos que cubrían la
mayor parte de la Tierra, pudo haber una probabilidad razonable de que el ARN,
se formase por casualidad.
Mientras el ADN se reprodujo, habrían sucedido errores al azar.
Muchos de estos errores habrían sido dañinos, y habrían muerto. Otros habrían
sido neutrales. Lo cual significa que no habrían afectado la función de los
genes. Tales errores contribuirían a una deriva genética gradual, lo cual
parece ocurrir en todas las poblaciones. Y otros errores habrían sido
favorables para la supervivencia de la especie. Estos habrían sido escogidos
por la selección natural Darwiniana. El proceso de la evolución biológica fue
muy lento al principio. Llevó dos mil quinientos millones de años, desarrollar
animales multicelulares a partir de las células más tempranas, y otros mil
millones de años más el desarrollo, a través de peces y reptiles, de los
mamíferos. Pero entonces la evolución pareció pegar un acelerón. En solo unos
cientos de millones de años, los primeros mamíferos evolucionaron hasta
nosotros. La razón es, que los peces ya contienen una gran parte de los órganos
importantes de los humanos, y los mamíferos, prácticamente todos. Es decir,
todo lo que se requería para el desarrollo humano a partir de los primeros
mamíferos, como los lemurs, era un poco de afinación
y ajuste.
Pero con la raza humana, la evolución alcanzó un nivel crítico,
comparable en importancia con el desarrollo del ADN. Este hito fue el
desarrollo del lenguaje, y particularmente el del lenguaje escrito. Ello
significó que existía otro tipo de información que se podía pasar de generación
en generación, además de la genética a través del ADN. No ha habido cambios
perceptibles en al ADN humano, causados por la evolución biológica, en los diez
mil años de historia registrada. Pero la cantidad de conocimiento manejado de
generación en generación ha crecido enormemente.
El ADN en los seres humanos contiene cerca de tres mil millones de
ácidos nucleicos. Sin embargo, mucha de la información cifrada en esta
secuencia, es redundante, o está inactiva. Por tanto la cantidad total de
información útil en nuestros genes, es probablemente algo que ocupa unos
cientos de millones de bits. Un bit de información es la respuesta a una
pregunta de rango: si ó no. Por el contrario, una
novela impresa en papel puede contener dos millones de bits de información. Así
que un ser humano es el equivalente a 50 novelas románticas de Mills & Boon (Nota del traductor: Arlequín Mills & Boon es la empresa lider mundial
en edición de novelas rosa) .Una biblioteca nacional importante
puede contener cerca de cinco millones de libros, lo cual equivale a cerca de
diez billones de bits. Por lo que la cantidad de información recogida en los
libros, es cientos de miles de veces superior a la contenida en el ADN.
Aún más importante, es el hecho de que la información en los
libros, puede cambiarse y actualizarse, mucho más rápidamente. Hemos tardado
varios millones de años en desarrollarnos a partir de los monos. Durante ese
tiempo, la información útil en nuestra ADN, ha cambiado probablemente en solo
algunos millones de bits. De modo que el índice de evolución biológica en los
seres humanos, es aproximadamente de un bit por año. Por contra, se publican
cerca de 50.000 nuevos libros en lengua inglesa cada año, conteniendo del orden
de cientos de miles de millones de bits de información. Por supuesto, la gran
mayoría de esta información es basura, y de ninguna utilidad para cualquier
forma de vida. Pero, incluso así, el ratio en el cual
se puede agregar información útil es de millones, si no miles de millones, más
alto que el del ADN.
Esto ha significado que hemos entrado en una nueva fase de la
evolución. Al principio, la evolución procedió por obra de la selección
natural, a través de mutaciones al azar. Esta fase Darwiniana, duró cerca de
tres mil quinientos millones de años, y nos produjo a nosotros, seres que
desarrollaron el lenguaje para intercambiar información. Pero en los últimos
diez mil años, más o menos, hemos atravesado lo que podemos llamar, una fase de
transmisión externa. Durante esta, el registro interno de información, manejado
por las generaciones que tuvieron éxito reproductivo, no ha cambiado
perceptiblemente al ADN. Pero el registro externo, mediante libros y otras
formas duraderas de almacenaje, ha crecido enormemente. Algunas personas
utilizarían el término, evolución, sólo para el material genético internamente
transmitido, y se opondría a que dicho término fuese aplicado a la información
manejada externamente. Pero creo que esto es también un problema de estrechez
de miras.
Somos más que simplemente nuestros genes. Podemos no ser más
fuertes, o intrínsecamente más inteligentes, que nuestros antepasados los hombre de las cavernas. Pero lo que nos distingue de
ellos, es el conocimiento que hemos acumulado durante los últimos diez mil
años, y particularmente, durante los últimos trescientos. Pienso que es
legítimo tomar una visión de conjunto, e incluir la información transmitida
externamente, tanto como al ADN, en la evolución de la raza humana.
La escala de tiempo para la evolución de la información, durante
el período de transmisión externo, es la de la tasa de acumulación. Esta fase
solía ser de centenares, o aún de millares de años. Pero ahora este escala de tiempo se ha reducido a cerca de 50 años, o
menos. Por otro lado, los cerebros con los cuales procesamos esa información se
han desarrollado solamente en la escala de tiempo Darwiniana, de cientos de
miles de años. Esto está comenzando a causar problemas. En el siglo XVIII, se
decía que había un hombre que había leído cada uno de los libros escritos. Pero
hoy en día, si usted leyera un libro al día, le llevaría cerca de 15.000 años
leer todos los libros de una biblioteca nacional. Y para cuando acabase, muchos
más libros habrían sido escritos.
Esto ha significado que nadie puede ser maestro en más que una
pequeña esquina del conocimiento humano. La gente tiene que especializarse, en
campos más y más reducidos. Esto es probable que sea una limitación importante
en el futuro. No podemos continuar ciertamente, durante mucho tiempo, con el
índice de crecimiento exponencial de conocimiento que hemos tenido en los
últimos trescientos años. Una limitación y un peligro aún mayor para las
generaciones futuras, es que todavía conservamos los instintos, y en
particular, los impulsos agresivos, que teníamos en los días del hombre de las
cavernas.
Las agresiones, tales como la subyugación o el asesinato de otros
hombres para tomar sus mujeres y su alimento, ha representado una ventaja
definitiva para la supervivencia, hasta el presente. Pero ahora podría destruir
a la raza humana entera, y a gran parte del resto de seres vivos de la Tierra.
Una guerra nuclear, sigue representando el peligro más inmediato, pero existen
otros, tales como el lanzamiento de virus rediseñados por ingeniería genética.
O que el efecto invernadero llegue a tornarse inestable.
No queda tiempo, para esperar a que la evolución Darwiniana, nos haga
más inteligentes, y mejore nuestra naturaleza. Pero ahora estamos entrando en
una nueva fase, que podría ser llamada, evolución de auto-diseño,
en la cual podremos cambiar y mejorar nuestra ADN. Existe un proyecto en marcha
hoy en día para trazar la secuencia entera del ADN humano. (Nota del
traductor: La charla es anterior a 1993, y el proyecto Genoma Humano empezó en
1990 y acabó en el 2000) Costará algunos miles de millones de dólares, pero
eso es pecata minuta, para un proyecto de esta
importancia. Una vez que hayamos leído el libro de la vida, comenzaremos a
escribir las correcciones. Al principio, estos cambios estarán confinados a la
reparación de defectos genéticos, como la fibrosis quística, y la distrofia
muscular. Estas son controladas por genes sencillos, así que son bastante
fáciles de identificar, y de corregir. Otras cualidades, tales como la
inteligencia, son probablemente controladas por una gran cantidad de genes.
Será mucho más difícil encontrarlos, y descubrir las relaciones entre ellos.
Sin embargo, estoy seguro de que durante el próximo siglo, la gente descubrirá
cómo modificar tanto la inteligencia, como los instintos agresivos.
Se aprobarán leyes contrarias a la ingeniería genética en seres
humanos. Pero algunas personas no podrán resistirse a la tentación, de mejorar
ciertas características humanas, tales como el tamaño de la memoria, la
resistencia a las enfermedades, y el alargamiento de la vida. Una vez que
aparezcan semejantes super-seres humanos, va a haber
problemas políticos importantes, con el resto de seres humanos no mejorados,
que no podrán competir. Probablemente, estos últimos morirán, o perderán
importancia. En su lugar, habrá una raza de seres auto-diseñados,
que irán mejorándose en un porcentaje cada vez mayor.
Si esta raza consigue reajustarse, hasta reducir o eliminar el
riesgo de autodestrucción, probablemente se expandirá, y colonizará otros
planetas y estrellas. Sin embargo, los viajes espaciales a través de grandes
distancias, serán difíciles para las formas de vida con base química, como el
ADN. El curso de vida natural para tales seres es muy breve, comparado con el
tiempo del viaje. Según la teoría de la relatividad, nada puede viajar más
rápidamente que luz. Por lo que el viaje de ida y vuelta a la estrella más
cercana tomaría por lo menos 8 años, y al centro de la galaxia, alrededor de
cien mil años.
En la ciencia ficción, se superan estas dificultades, mediante
deformaciones del espacio, o viajando a través de otras dimensiones. Pero no
creo que esto sea posible jamás, no importa lo inteligentes que se vuelvan. En
la teoría de la relatividad, si algo puede viajar más rápidamente que luz,
también puede viajar hacia atrás en el tiempo. Esto nos conduciría a problemas
con la gente que vuelve desde el futuro, para cambiar el pasado. Cabría esperar
además, haber visto a una gran cantidad de turistas llegando desde el futuro,
curiosos por observar nuestras costumbres pintorescas y pasadas de moda.
Puede que sea posible utilizar la ingeniería genética, para hacer
que la vida basada en ADN sobreviva indefinidamente, o por lo menos durante
cien mil años. Pero hay una forma más sencilla, y que ya casi está dentro de
nuestras posibilidades, que sería la de enviar máquinas. Estas se podrían
diseñar para que durasen el tiempo suficiente para soportar el recorrido
interestelar. Cuando llegasen a una nueva estrella, podrían aterrizar en un
planeta conveniente, y extraer material de las minas para producir más
máquinas, las cuales podrían ser enviadas hacia otras estrellas. Estas máquinas
serían una nueva forma de vida, basada en componentes mecánicos y electrónicos,
en lugar de macromoléculas. Podrían eventualmente sustituir a la vida basada en
ADN, tal y como el ADN pudo haber sustituido a otras formas anteriores de vida.
Esta vida mecánica podría también ser auto-diseñada.
Por ello, parece que el período de transmisión externa de la evolución, habría
sido solo un corto interludio, entre la fase Darwiniana, y la fase (biológica o
mecánica) de auto-diseño. Esto se muestra en el
diagrama siguiente, que no es a escala, porque no hay forma alguna de
representar un período de diez mil años en una escala de miles de millones de
años.
Cuánto tiempo durará la fase de auto-diseño,
es algo discutible. Puede ser inestable, y la vida podría destruirse a si misma, o llegar a un callejón sin salida. Si no lo hace,
debería poder sobrevivir a la muerte del Sol, aproximadamente dentro de 5 mil
millones de años, moviéndose a planetas situados alrededor de otras estrellas.
La mayoría de las estrellas se habrán quemado dentro de otros 15 mil millones
de años, más o menos, y el universo se acercará a un estado de completo
desorden, según la Segunda Ley de la Termodinámica. Pero Freeman Dyson ha demostrado que, a pesar de esto, la vida podría
adaptarse a la fuente siempre decreciente de energía ordenada, y por lo tanto
podría, en principio, continuar su existencia para siempre.
¿Qué oportunidades tenemos de encontrar alguna forma de vida alienígena , mientras exploramos la galaxia?. Si la
discusión sobre la escala de tiempo para la aparición de vida en la Tierra es
correcta, debe haber muchas otras estrellas, cuyos planetas alberguen vida.
Algunos de estos sistemas estelares podrían haberse formado cinco mil millones
de años antes que la Tierra. Luego, ¿por qué la galaxia no está bullendo de
formas de vida auto-diseñadas, mecánicas o
biológicas? ¿Por qué la Tierra no ha sido visitada, o incluso colonizada?. No tendré en cuenta las sugerencias de que los
OVNIS transportan a seres del espacio exterior. Creo que cualquier visita
alienígena, sería mucho más obvia, y probablemente también, mucho más
desagradable.
¿Cuál es la explicación del por qué no nos han visitado? Una
posibilidad es que la discusión, sobre la aparición de vida en la Tierra, es
incorrecta. Tal vez la probabilidad de que la vida aparezca espontáneamente es
tan baja, que la Tierra es el único planeta en la galaxia, o en el universo
observable, en el cual sucedió. Otra posibilidad es que exista una probabilidad
razonable para que se formen sistemas de auto reproducción, como las células,
pero que la mayoría de estas formas de vida no desarrollaron la inteligencia.
Solemos creer en la vida inteligente, como una consecuencia inevitable de la
evolución. Pero el Principio Antrópico debería advertirnos para que fuéramos
cuidadosos con tales argumentos. Es más probable que la evolución sea un
proceso al azar, donde la inteligencia es simplemente uno más entre una gran
cantidad de resultados posibles.
No está claro que la inteligencia tenga un valor de supervivencia
a largo plazo. Las bacterias, y otros organismos unicelulares, seguirán
viviendo, aún cuando el resto de la vida en la Tierra
fuese barrida por nuestras acciones. Hay por tanto
apoyos para la visión de que la inteligencia, es un desarrollo poco probable de
la vida en la Tierra, desde la cronología de la evolución. Tomó un tiempo muy
largo, dos mil quinientos millones de años, llegar a partir de las células
hasta los seres multicelulares, los cuales son precursores necesarios para la
inteligencia. Esta es una buena fracción del tiempo total disponible, antes de
que el sol se destruya. Lo cual daría consistencia a la hipótesis, de que la
probabilidad para que la vida inteligente se desarrolle, es baja. En ese caso,
cabe esperar que encontremos muchas otras formas de vida en la galaxia, pero es
poco probable encontrar vida inteligente.
Otro modo, mediante el cual la vida podría fracasar en su intento
de desarrollarse hasta un escenario de inteligencia, sería la de que un
asteroide o cometa colisionase con el planeta. Acabamos de observar la colisión
de un cometa, el Schumacher-Levi, con Júpiter. Esto produjo una serie de bolas
de fuego enormes. Se cree que la colisión de un cuerpo algo más pequeño, con la
Tierra, hace cerca de 70 millones de años, fue responsable de la extinción de
los dinosaurios. Algunos pequeños mamíferos tempranos sobrevivieron, pero
cualquier cosa tan grande como un humano habría sido aniquilada casi con toda
certeza. Es difícil decir cuan a menudo ocurren tales colisiones, pero una
conjetura razonable sobre este promedio, puede ser cada veinte millones de
años. Si esta cifra es correcta, significaría que la vida inteligente en la
tierra ha aparecido, únicamente gracias al hecho afortunado de que no ha habido
colisiones importantes en los últimos 70 millones de años. Otros planetas en la
galaxia, en los cuales la vida hubiera aparecido, pudieron no haber tenido un
período libre de colisiones lo suficientemente largo como para desarrollar
seres inteligentes.
Una tercera posibilidad es que durante la fase de transmisión
externa haya una probabilidad razonable para que la vida se forme, y se
desarrollen los seres inteligentes. Pero en ese punto, el sistema llega a ser
inestable, y la vida inteligente se destruye. Esta sería una conclusión muy
pesimista. Y en verdad deseo mucho que no sea así. Prefiero una cuarta
posibilidad: la de que hay otras formas de vida inteligente ahí fuera, pero que
se nos han pasado por alto.
Existía un proyecto llamado SETI, la búsqueda de inteligencia extra-terrestre. Este implicaba la exploración de
radiofrecuencias, para ver si podríamos captar señales emitidas por
civilizaciones extraterrestres. Creo que merecía la pena apoyar este proyecto,
aunque fue cancelado debido a una carencia de fondos. Pero deberíamos ser
cuidadosos y no contestar, hasta que nos hayamos desarrollado un poquito más.
Descubrir una civilización más avanzada, en nuestra actual etapa, puede ser un
poco como cuando los habitantes originales de América se encontraron con Colón.
Creo que estaban mejor antes de ello.
Eso es todo lo que tengo que decir. Gracias por escuchar.
En
1999, Stephen Hawking visitó Granada para dar una conferencia sobre la Ciencia
en el futuro. Tuve el priviligegio de asistir, y
verdaderamente no me defraudó.
El Dr. Rafael Rodrigo dejó la presentación personal de Stephen
Hawking al doctor Víctor Aldaya, quien no se quiso extender demasiado, y sólo
resaltó los aspectos más destacados de su peculiar carrera científica: el
descubrimiento teórico, junto con Roger Penrose, de una singularidad en el
principio de los tiempos (posteriormente denominada "Big Bang") y sus estudios de agujeros negros mediante
gravedad cuántica. A continuación, dejó la palabra al profesor Stephen Hawking.
Para
comenzar su conferencia, mostró una imagen de uno de los episodios de "Star Trek", en la que aparece él mismo jugando a las
cartas con Newton, Einstein y uno de los protagonistas. Con este toque irónico
(que mantuvo a lo largo de toda su conferencia) quiso llamar la atención sobre
la visión que siempre se ha tenido del futuro, desde las novelas de H.G. Wells
a la saga de "La Guerra de las Galaxias" o la serie "Star Trek". El punto común de todas ellas es el hecho
de encontrarnos ante una sociedad estacionaria, esto es, una sociedad en la que
los problemas sociales están en muchos casos solventados, y la ciencia es un
cuerpo totalmente cerrado, del que sólo se pueden extraer innovaciones
tecnológicas. Pero desde que el hombre apareció sobre la faz de la Tierra, no
se ha tenido dicha sociedad estática, sino una sociedad en continuo avance y
revolución, aunque en ocasiones ocurrieran retrocesos culturales como en la
Edad Media.
Actualmente, la población de la Tierra sigue un crecimiento
exponencial del 1.9%. Esto significa que la población se duplica en 40 años
escasos. Podríamos poner como medidas del desarrollo científico el consumo de
electricidad o el número de artículos científicos publicados. Ambos también se
duplican en 40 años. Sin embargo, no se han alcanzado las visiones utópicas que
se tenían sobre el año 2001 al principio o a mitad del siglo pasado. Por
ejemplo, en la película "2001: Una Odisea en el Espacio", el hombre
ya poseía colonias en la Luna y viajaba a Júpiter. No ocurrirá esto en los
próximos años, sea quien sea el que gobierne.
Pero el crecimiento exponencial no puede continuar de esta forma.
En caso contrario, para el 2600 todos los seres humanos estaríamos apiñados
hombro con hombro en la superficie terrestre, la que brillaría con luz propia
por motivo de la electricidad consumida. Esta visión del futuro, nada
halagüeña, no parece muy real. ¿Qué sucederá entonces?.
Una posibilidad que podemos plantear es la completa
destrucción de nuestra civilización como consecuencia de una guerra nuclear.
Podría ser lo que en realidad les sucede a las jóvenes civilizaciones que
surgen en cualquier planeta, y por eso aún no hemos topado con alienígenas. Si
los gobiernos del planeta están acallando que realmente estamos en contacto con
otros seres extraterrestres, desde luego lo están haciendo mucho mejor que en
el resto de las cosas. Volverá al tema de los extraterrestres más adelante.
En realidad, nos guste o no, se tiene ahora mismo un peligro
real de autodestrucción global. Podemos usar las primeras escenas de la
película "Terminator" para visualizar lo
que nos podría ocurrir. Se volvería a un estado de barbarie. Sin embargo, él es
optimista, y no cree que ocurra un Armageddon en el
futuro. Si consideramos los pensamientos de un erudito del año 1000, casi
con total seguridad no hubiera previsto la enorme explosión tecnológica y
científica que ha sucedido en los últimos doscientos años, y sobre todo en el
último siglo. De esta forma, nos indica Hawking que no podemos extrapolar los
avances actuales para intentar predecir el futuro. Probablemente, sucederá lo
inesperado.
Desde que Galileo Galilei, hace ya más de 400 años,
comenzara el método científico, nuestros conocimientos de las leyes básicas del
Universo han crecido de forma espectacular. Galileo fue una de las primeras
personas que puso en duda las ideas de Aristóteles, quien defendía que se debía
usar la razón pura para conocer el Universo. Con Galileo nació la
experimentación científica, esto es, la observación, que ahora es completamente
necesaria para la realización de teorías científicas. Sin embargo, en Física Teórica,
cada vez es necesaria una mayor abstracción matemática, que se refleja en
ecuaciones más y más complicadas. La observación tiene un límite. No podemos
observar el inicio del Universo, por lo que sólo podremos entenderlo mediante
estas abstracciones matemáticas que surgen en el desarrollo de las teorías
físicas.
Para finales del siglo XIX, se tenía una visión casi cerrada
de la Física gracias a la teoría de la Gravedad de Newton y a la teoría del
Electromagnetismo de Faraday y Maxwell. Constituía el bloque de la Mecánica
Clásica, en donde las variaciones en las variables físicas (posición,
velocidad, energía) eran continuas y bien definidas. Todo tenía "sentido
común". Pero no nos confundamos, puesto que fue el sentido común lo que le
sugirió a Aristóteles que, como los planetas estaban en los cielos, y éstos
eran perfectos, el movimiento que debían realizar debía ser el más perfecto
posible. Y la órbita más perfecta es una circunferencia, considerándose así
hasta que Kepler demostró que realmente el movimiento planetario es elíptico.
De igual forma, a principios del siglo XX existían algunos
aspectos como la radiación de cuerpo negro o los espectros atómicos que no se
satisfacían mediante las leyes clásicas. Así, Planck
introdujo el concepto de "cuanto": la naturaleza está cuantizada, no
es lisa como mantiene la Mecánica Clásica, sino rugosa. Es el inicio de la
Mecánica Cuántica. Hawking espera que los hijos de nuestros hijos la vean con
sentido común. Según la Mecánica Cuántica, todas las cosas son posibles,
existiendo una probabilidad para cada caso. Por ejemplo, en el periódico
"Ideal" de Granada podría aparecer el titular siguiente "Granada
win 'la Liga' ", pero es algo altamente
improbable...
Sin embargo, estas probabilidades tan bajas en el mundo
macroscópico se traducen en probabilidades más o menos altas en el mundo
microscópico. En este sentido, el físico teórico (y músico de jazz) Richard
Feynman introdujo en la teoría conceptos muy útiles a la hora de entender la
naturaleza a muy pequeña escala. Por ejemplo, aunque clásicamente una partícula
vaya del punto A al punto B, en Mecánica Cuántica esto no tiene por qué
suceder: todos los caminos son posibles, incluidas las posibilidades en las que
la partícula viaja más rápido que la luz o hacia atrás en el tiempo.
Precisamente, es la suma de todos estos caminos lo que tiene interés físico. De
esta forma, se postuló que el espacio vacío en realidad está lleno de
partículas que se mueven en lazos cerrados. Estas partículas reciben el nombre
de "virtuales" porque no se pueden medir directamente, aunque sus
efectos indirectos sí se conocen, y han sido ya medidos en múltiples ocasiones.
Por ejemplo, en lo que se conoce como "Efecto Casimir", algo que se
tiene en cuenta a la hora de hacer los cálculos teóricos y que se ha encontrado
en todos los sucesos que ocurren en los aceleradores de partículas.
Pero existe
un problema bastante importante. Como el espacio y tiempo tienen infinitos
puntos, existen infinitos lazos cerrados de partículas virtuales, lo que
provoca que las ecuaciones físicas diverjan: el espacio-tiempo tendría una
energía infinita. Obviamente, esto no puede ser. Es el mayor problema que se
encuentra al intentar unir la teoría de la Mecánica Cuántica con la Teoría
General de la Relatividad de Einstein. Ésta es la otra gran teoría
fisicomatemática del siglo XX, en la que el espacio y tiempo se encuentran
entrelazados y fuertemente unidos. Si en realidad existiesen estos infinitos
lazos cerrados de partículas virtuales, tendrían infinita energía, y reducirían
el Universo a un único punto.
Es en este ámbito donde surge el concepto de
"supersimetría". En el año 1971, los físicos teóricos postularon que
debían existir, además de las cuatro dimensiones ya conocidas, otras
adicionales. Para el estudio de estas dimensiones es necesario el uso de las
"variables de Grassmann", que cumplen la propiedad siguiente:
x · y = - y · x
De esta forma, se sugirió que cada partícula debía tener su
compañera "supersimétrica", cumpliéndose
entre ambas la relación anterior. La contribución en la energía de estas
partículas supersimétricas también es infinita, pero
de signo contrario a la contribución de las partículas "normales", de
tal modo que, al hacer la suma de energías, los infinitos se anulan, y el
resultado es un número finito. Como ejemplo aclaratorio de este razonamiento,
el profesor Hawking propuso un cálculo práctico. Si consideramos los ingresos
que obtiene el gobierno norteamericano a partir de los impuestos, la suma debe
ser enorme. Pero también los gastos que tiene este gobierno son exageradamente
grandes. Sin embargo, la resta de los gastos a los impuestos proporciona un
número finito, que es la cantidad de dinero que se pierde en los políticos...
Precisamente, los estudios teóricos actuales buscan con
ahínco una forma en la que estos infinitos se anulen completamente. Sólo en
este caso se tendrá una visión unificada de la Teoría de la Relatividad General
de Einstein con la Mecánica Cuántica. ¿Cuáles son las perspectivas en el futuro?. Según el profesor Hawking son muy buenas, pero él
es muy optimista. En 1980 dijo que lo íbamos a conseguir antes de fin de siglo
pero ahora, veintiún años después y aunque se hayan realizado grandes avances,
estamos igual de lejos de conseguirlo.
¿Qué limite real tenemos en la medida del microcosmos?.
Con las leyes clásicas, se obtenían unas medidas límite de 0.01 mm. La Física Atómica alcanzó unos valores en torno a los
0.000 001 mm (o escrito en forma exponencial, 10-6 mm). Los valores actuales
mínimos obtenidos con Física Nuclear y de Partículas Elementales son de 10-12
mm (0.000 000 000 001 mm). La teoría impone un límite aún más pequeño, que se
conoce como la longitud de Planck. Dicha longitud es la siguiente:
0.000 000 000 000 000 000 000 000 000 000 000 001 636 mm
esto es, simplificando con la notación exponencial, 10-36
mm. Para poder obtener medidas de esta precisión,
necesitaríamos construir aceleradores mayores que el propio Sistema Solar. Si
pensamos que en los Estados Unidos se canceló a
mitad del programa la construcción del acelerador de partículas gigante SCC,
construir un acelerador mayor que el propio Sistema Solar es más difícil. De
todas formas, confía que en el futuro los gobiernos de cualquier país del
planeta tengan una mejor disposición con la Ciencia.
Afortunadamente, existe una forma más sencilla y modesta de
obtener estas medidas: usando la supersimetría. Hawking confía que el
acelerador de partículas del CERN en Ginebra confirme definitivamente en los
próximos años la teoría de la supersimetría. No obstante, el límite teórico de
la longitud de Planck sigue estando ahí: no podemos mirar por debajo de este
valor. Sin embargo, sí podemos estudiar el Big Bang,
tanto teóricamente como a través de las consecuencias observacionales que se
extraigan del estudio de la radiación cósmica del fondo de microondas. Hawking
sigue siendo optimista, y cree al 50% que en los próximos 20 años la teoría
física sí podrá alcanzar el ansiado estado estacionario del que hablaba al
comenzar su conferencia.
De todas formas, pese a que se consolidara el cuerpo físico y
matemático de esta elegante teoría unificatoria, los
avances tecnológicos que se puedan extraer de ella seguirían surgiendo
continuamente. Sabemos que algunas leyes deben cumplirse seguro. Por ejemplo,
los cuerpos macroscópicos no podrán moverse más rápido que la luz ni viajar
atrás en el tiempo. Por lo tanto, muchas de las imágenes que vemos en películas
y series de ciencia ficción, como la teletransportación de personas en Star Trek, no serán posibles, así como los viajes rápidos a
otras estrellas. Lo importante a considerar a partir de este punto es la
complejidad, que aumenta continuamente.
Hace 4 000 millones de años, surgieron en los primitivos océanos
de una Tierra recién formada unas macromoléculas que eran capaces de copiarse a
sí mismas. El cómo nacieron, no lo sabemos. 500 millones de años después,
apareció una molécula enorme y altamente complicada: el ADN. El descubrimiento
de esta molécula en 1953 por Crick y Watson, científicos en el Laboratorio
Cavendish, ha sido el más importante de toda la biología. El ADN es una doble
espiral en forma de doble hélice, conectada entre sí mediante ácidos nucleicos
(o bases). Sólo existen cuatro bases en la molécula de ADN: adenina (A),
citosina (C), guanina (G) y timina (T), que Hawking no pudo pronunciar porque
su sintetizador de voz no está preparado para la biología. La evolución de la
vida, y la explosión de las distintas especies vivas que fueron poblando el
planeta desde entonces son consecuencia directa de los cambios accidentales (o
mutaciones) que ocurren en el ADN. Normalmente, una mutación es perjudicial
para el individuo, que acabará muriendo pronto. Pero en ocasiones la mutación
mejora la especie, la hace sobrevivir y prosperar mejor que las especies
anteriores, y la evolución de la vida continúa. La complejidad de la molécula
de ADN aumenta. Esta complejidad es proporcional al número de ácidos nucleicos
que contiene.
Hace unos 8 000 ó 6 000 años apareció el
lenguaje escrito. La información podía ahora transmitirse mucho más rápido que
como lo hace la evolución biológica. Aumenta enormemente la complejidad,
llegado al punto en el que en la actualidad se publican en el mundo más de 200
000 libros al año. Una novela rosa posee tanta información como la parte de ADN
que nos diferencia a los seres humanos de los monos. Esta transmisión de datos
a través de medios externos nos ha hecho dominar el planeta y conseguir la
explosión demográfica que existe hoy día. Ahora, toda esta información va a
poder usarse para alterar el ADN humano. No importa que, por razones religiosas
o éticas, muchas personas intenten impedirlo, porque se hará tarde o temprano,
nos guste o no. El desarrollo de humanos mejorados provocará diferencias
raciales con los humanos no mejorados. Debemos estar preparados para ello.
Otro aspecto muy importante a tener en cuenta es el desarrollo de
la Inteligencia Artificial. En la actualidad, los ordenadores no son más
inteligentes que una lombriz de tierra, y no hemos visto a ninguna lombriz
dando clases magistrales de física teórica. Sin embargo, cada 18 meses se
duplica la velocidad y la complejidad de los computadores. La complejidad
biológica debe superar a la tecnológica. ¿Cómo será posible?.
La inteligencia humana depende directamente del tamaño del
cerebro, que a su vez depende de la "cantidad de cabeza" que es capaz
de pasar por el conducto natal. Si se consiguen desarrollar embriones y fetos
fuera del cuerpo materno, podemos eliminar este problema, y crear seres humanos
más inteligentes y que piensen más rápido. No obstante, no se podrán
"construir" seres humanos con ambas características, puesto que la
transmisión de datos necesita de compuestos químicos para llevarse a cabo, y
éstos actúan lentamente si el tamaño del cerebro es muy grande.
En el caso de los ordenadores, el límite se encuentra en la física
de la materia. La velocidad máxima viene impuesta por la velocidad de la luz, y
el tamaño por la constitución atómica de la propia materia. Lo que se está
intentando en realidad es copiar la red neuronal del cerebro humano y adaptarla
a las necesidades de los computadores.
De esta forma, y para terminar, Hawking cree que en el milenio que
acabamos de inaugurar nos extenderemos por los planetas del Sistema Solar y
viajaremos a las estrellas más cercanas, en donde incluso podremos establecer
colonias. Puede que en este viaje por la Galaxia nos encontraremos con
civilizaciones mucho más avanzadas que la nuestra, o mucho más primitivas, pero
no con nuestro mismo nivel. Si existen dichas civilizaciones ultraavanzadas, ¿por qué no vienen a visitarnos a la Tierra?. Puede que tengan un código ético que les impide
tomar contacto con civilizaciones en plena formación, como es el caso de la
nuestra. Aunque también podía ser que en realidad la probabilidad de vida
inteligente sea muy baja. Las bacterias nos sobrevivirían a una guerra nuclear.
Es posible que las civilizaciones jóvenes terminen autodestruyéndose. Pero él
sigue siendo optimista y no cree que esto suceda con nuestra especie. Lo que es
seguro es que en la sociedad del futuro no se tendrán múltiples tipos de razas
humanoides, como sugiere Star Trek;
ni existirá una sociedad y una ciencia estática, sino que tendremos algo
completamente dinámico.
© 2007 Javier de Lucas