EL FUTURO DEL UNIVERSO

 

 El futuro de este Universo: ¿cómo acabará? Si la hipótesis del Multiverso de nivel IV es correcta, entonces no hay mucho que decir sobre el futuro de nuestra realidad Física en su conjunto: como existe fuera del espacio y el tiempo, no podrá acabar o desaparecer más de lo que puede ser creada o cambiar. Sin embargo, si ponemos el foco en la estructura matemática particular que habitamos, la cual alberga en su interior el espacio y el tiempo, entonces las cosas se tornan mucho más interesantes. Aquí, las cosas son de tal modo que parecen cambiar contempladas desde el punto de vista privilegiado de observadores como nosotros, y es natural preguntarse qué pasará al final.

Entonces ¿cómo acabará nuestro Universo cuando transcurran varios miles de millones de años? Veamos cinco hipótesis para nuestro futuro apocalipsis cósmico (o «cosmocalipsis»), ilustradas en la figura 1 y sintetizadas en la tabla 1: El Gran Frío, la Gran Implosión, la Gran Fuga, la Gran Disgregación y Las Burbujas Mortales.

Este Universo lleva expandiéndose unos catorce mil millones de años. El Gran Frío (Big Chill) se da si el Universo sigue expandiéndose para siempre y diluye el cosmos hasta convertirlo en un lugar gélido, oscuro e inerte a la larga. Es la opción de T. S. Eliot: «Así es como acaba el mundo / No con una explosión, sino con una exhalación». Si, como Robert Frost, se prefiere que el mundo acabe envuelto en llamas y no en hielo, entonces ocurrirá la Gran Implosión (Big Crunch), donde la expansión cósmica acabará invirtiéndose y todo volverá a juntarse de nuevo en un colapso cataclísmico semejante a una Gran Explosión marcha atrás. Por último, la Gran Fuga (Big Rip) es como un Gran Frío para impacientes, de modo que las galaxias, planetas y hasta los átomos se fragmenten en un grandioso final dentro de un tiempo finito a partir de ahora. ¿Por cuál de estas tres alternativas apostaría yo? Pues depende de lo que haga la energía oscura a medida que el espacio continúe expandiéndose, la cual conforma alrededor del 70 % de la masa de este Universo. Ocurrirá el frío, la implosión o la fuga dependiendo, respectivamente, de si la energía oscura permanece inalterada, se diluye en densidad negativa, o si se antidiluye en una densidad mayor.

Como aún no tenemos ninguna pista acerca de qué es la energía oscura, me limitaré a decir que mi apuesta sería: 40 % al Gran Frío, 2 % a la Gran Implosión y 10 % a la Gran Fuga.

FIGURA 1

 Sabemos que nuestro Universo comenzó con una Gran Explosión (Big Bang) de altas temperaturas hace unos catorce mil millones de años, que se expandió y se enfrió, y que agregó sus partículas en átomos, estrellas y galaxias. Pero no sabemos cuál será su destino final. Las hipótesis que se han propuesto son el Gran Frío (Big Chill, una expansión eterna), la Gran Implosión (Big Crunch, una vuelta al colapso), la Gran Fuga (Big Rip, una expansión a un ritmo infinito), la Gran Disgregación (Big Snap, que el tejido del espacio revele una naturaleza granular letal al estirarse demasiado) y Burbujas Mortales (Death Bubbles, que el espacio se «congele» en burbujas letales que se expandan a la velocidad de la luz).

Futuro del espacio

                                              Gran Frío     Gran Implosión    Gran Fuga   Gran Disgregación    Burbujas Mortales

   ¿Dura eternamente?               Sí--                      No--                No--                         No--                           No

¿Alcanza un tamaño infinito?  Sí--                       No--                 Sí--                         No--                            No

¿Alcanza densidad infinita?     No--                     Sí--                   Sí--                         No--                             No

 ¿Es estable?                             Sí--                       Sí--                  Sí--                          No--                            No

¿Se estira hasta el infinito?     Sí--                       Sí--                  Sí--                          No--                             Sí

TABLA 1

Antes pensábamos que el espacio no era más que el escenario estático y anodino sobre el que se representa la tragedia cósmica. Después Einstein nos enseñó que el espacio es en realidad uno de los actores principales: se curva para crear agujeros negros, se arruga en forma de ondas gravitatorias, y se estira como un Universo en expansión. Tal vez hasta pueda pasar a otro estado y se congele, como el agua, de manera que las burbujas letales en expansión veloz de la nueva fase ofrezcan otro comodín para candidato a cosmocalipsis. También creíamos que no se puede conseguir más espacio sin quitárselo a otros. Sin embargo, la teoría de la gravitación de Einstein dice justo lo contrario: se puede crear volumen en una región particular entre algunas galaxias sin que ese volumen nuevo se extienda a otras regiones. Es más, la teoría de Einstein afirma que el estiramiento del espacio puede proseguir para siempre, lo que permite que nuestro Universo alcance un volumen infinito como en las hipótesis del Gran Frío y de la Gran Fuga.

Una cinta de goma, si se estira demasiado, se rompe. ¿Por qué? Pues porque está hecha de átomos, y si se estira lo suficiente, esa naturaleza atómica granular de la goma cobra relevancia. ¿Es posible que el espacio también adolezca de alguna suerte de granulación, solo que a una escala demasiado pequeña para que la notemos? A los matemáticos les encanta representar el espacio como un continuo idealizado sin ninguna granulación, de modo que tiene sentido hablar de distancias tan cortas como se desee. Recurrimos a ese modelo del espacio continuo en la mayoría de las enseñanzas que se imparten, pero ¿estamos seguros de que es el correcto? De hecho, cada vez hay más signos de que no lo es. En un espacio continuo simple hay que dar una cantidad infinita de decimales para especificar la distancia exacta que media entre dos puntos cualesquiera, pero el titán de la Física John Wheeler evidenció que es muy probable que los efectos cuánticos vuelvan irrelevante cualquier dígito después del trigésimo quinto decimal, porque la concepción clásica que tenemos del espacio se desmorona por completo a escalas cada vez menores, y tal vez quede reemplazada por una extraña estructura "espumosa".

Se parece un poco a lo que sucede cuando ampliamos una foto en la pantalla y descubrimos que lo que parecía uniforme y continuo es, en realidad, granulado, como una cinta de goma, solo que en este caso se compone de píxeles que no se pueden subdividir más. Como la fotografía está pixelada, solo contiene una cantidad finita de información y se puede transmitir con comodidad por Internet. De manera análoga, cada vez hay más signos de que el Universo observable contiene una cantidad finita de información, lo que facilitaría entender cómo calcula la naturaleza lo que va a hacer a continuación.

El principio holográfico indica que este Universo contiene como mucho 10 elevado a 124 bits de información, lo que da una media aproximada de 10 terabytes por cada volumen empaquetable en un átomo. Pero la ecuación de Schrödinger de la mecánica cuántica implica que la información no se crea ni se destruye, lo que significa que la cantidad de gigabytes por litro de espacio sigue descendiendo a medida que el Universo se expande. Esta expansión continúa para siempre en el caso del Gran Frío (el primer candidato a cosmocalipsis de acuerdo con sondeos entre astrofísicos); entonces ¿qué ocurre cuando el contenido de información se diluye hasta alcanzar un megabyte por litro, que es menos que la capacidad de almacenamiento de un teléfono móvil? ¿Y a un byte por litro? No hay manera de decir qué sucederá hasta que tengamos un modelo detallado para suplantar el espacio continuo, pero parece seguro apostar a que será algo indeseable que alterará poco a poco las leyes de la Física tal como las conocemos y que tornará imposible nuestra forma de vida: bienvenidos a lo que se llama la «Gran Disgregación». (Big Snap).

Un cálculo sencillo sugiere que eso ocurrirá dentro de unos cuantos miles de millones de años, antes incluso de que el Sol agote su combustible y se trague la Tierra. La mejor teoría que tenemos sobre qué fue lo que detonó la Gran Explosión, la teoría de la inflación, dice que cuando empezó este Universo se produjo un estiramiento velocísimo del espacio y que algunas regiones se estiraron mucho más que otras. Si el espacio solo pudiera estirarse hasta un límite máximo antes de sufrir una Gran Disgregación, entonces la mayoría del volumen (y, por tanto, la mayoría de las galaxias, estrellas, planetas y observadores) se encontrará en las regiones que más se estiraron y, por tanto, más próximas a disgregarse.

¿Cómo sería una Gran Disgregación inminente? Si la granulación del espacio crece de forma progresiva, entonces las estructuras a las escalas más pequeñas se descompondrían en primer lugar. Notaríamos que las propiedades de la Física nuclear empiezan a cambiar, por ejemplo, en que los átomos que antes eran estables experimentan una desintegración radiactiva. Después empezaría a trastocarse la Física atómica, de forma que arruinaría toda la química y la biología. Por suerte, nuestro Universo nos ha dotado de explosiones de rayos gamma como oportuno sistema de aviso temprano, para alertarnos mucho antes de que una Gran Disgregación pudiera dañarnos. Las explosiones de rayos gamma son estallidos cósmicos cataclísmicos que despiden rayos gamma de longitudes de onda cortas, que son detectables y que recorren medio Universo.

En el espacio continuo, todas las longitudes de onda se desplazan a la misma velocidad, la velocidad de la luz, pero en las variantes más simples de espacio granulado, las longitudes de onda más cortas se desplazan algo más lentas. Pues bien, recientemente se han observado rayos gamma de longitudes de onda diversas que llevan miles de millones de años atravesando el espacio desde una explosión distante, y que nos llegan con una diferencia temporal entre unas frecuencias y otras de una centésima de segundo. En rigor, esto descarta la inminencia de una Gran Disgregación durante los próximos miles y miles de millones de años, en contra de lo que se pronosticó en el párrafo anterior.

De hecho, el problema es aún peor. Este espacio no sigue una expansión uniforme: en realidad, algunas regiones, como nuestra Galaxia, no se están expandiendo en absoluto. Esto permite imaginar que los observadores residentes en la Galaxia sobrevivirían tranquilos hasta mucho después de que el espacio intergaláctico sufriera una Gran Disgregación, siempre y cuando los efectos perniciosos procedentes de esas regiones distantes no se propagaran hasta las galaxias. Pero esta posibilidad salva tan solo a los observadores, ¡no a la teoría subyacente! Es más, la discrepancia entre la teoría y la observación no hace más que empeorar: el empleo del argumento anterior predice ahora que lo más probable es que sigamos sanos y salvos dentro de una galaxia después de que la Gran Disgregación haya tenido lugar en la mayor parte del espacio, de modo que la ausencia de un retraso temporal raro en los rayos gamma se torna aún más difícil de explicar.

Así que hemos preparado un extraño cóctel mezclando algunos de los ingredientes más preciados de la Cosmología y la Física cuántica, añadiendo algunos datos experimentales y agitando el conjunto. ¿Qué sale? Los elementos no se mezclan bien, lo que induce a pensar que hay algún error en al menos uno de ellos. Puede ser que estamos a punto de descubrir algo crucial sobre la naturaleza del espacio, y que la paradoja de la Gran Disgregación es una pista interesante.

El futuro de la vida

Partiendo del conjunto de la realidad física del Multiverso del nivel IV, hemos ampliado la imagen de nuestro Universo particular y analizado su destino a largo plazo. Sigamos acercándonos más a nosotros, y consideremos el futuro de la vida. De todas las características asombrosas que exhibe nuestro Universo, la más interesante, sin duda, es que ha desarrollado vida y que contiene entidades conscientes de sí mismas, como nosotros, capaces de disfrutarla y de plantearse sus misterios. ¿Y cuáles son las perspectivas futuras de la vida? ¿Estamos solos los humanos en este Universo o hay otras civilizaciones ahí fuera que puedan interaccionar con nosotros o destruirnos? ¿Se propagará la vida humana por todo nuestro Universo, quizá en alguna forma evolucionada? Exploraremos estas cuestiones fascinantes más adelante, pero abordemos primero otras más apremiantes: ¿cuáles son las mayores amenazas para la supervivencia futura de la vida en nuestro planeta, y qué se puede hacer para mitigarlas?

El riesgo existencial

Nos inquietan desafíos personales como la salud, las relaciones con los demás, el dinero, la trayectoria profesional, y también nos angustian los peligros que acechan a familiares, amigos y la sociedad en general. Pero ¿y las mayores amenazas de todas, las que tienen capacidad para destruir toda la humanidad? ¿Nos preocupaban lo suficiente? No. Vivimos arrullados por un falso sentimiento de seguridad, ingenuamente convencidos de que ya había alguien controlando todo lo que podía preocuparnos. Pero los problemas más relevantes y grandes de verdad que acuciaban a la humanidad, esos eran una prioridad absoluta para nuestros dirigentes políticos. ¿Seguro? Nunca nos cuestionamos eso hasta que la alarmante realidad nos impactó cuando atravesamos la infancia y primera juventud. Las alertas personales saltaron cuando conocimos detalles de la carrera de armamento nuclear. Al saber que miles de millones de nosotros vivimos juntos sobre este preciado y precioso planeta azul y que, aunque nadie quería una guerra nuclear a escala global, existía un riesgo considerable de que se produjera alguna en el transcurso de la vida, con casi toda probabilidad por accidente.

Tal vez el riesgo era de un 1 % al año, tal vez 100 veces inferior, tal vez 10 veces mayor; en cualquier caso, era un riesgo increíblemente elevado, habida cuenta de lo que nos jugábamos. Sin embargo, ni siquiera se consideraba este tema como principal en la carrera electoral de ningún país. Es más, solo es un ejemplo de los muchos que Nick Bostrom reunió bajo el término riesgo existencial, algo capaz de exterminar la vida inteligente surgida en la Tierra o de imponer restricciones permanentes y drásticas a sus capacidades. El visionario estadounidense Buckminster Fuller ha descrito esta situación acuciante como un viaje colectivo dentro de la «Nave Tierra». A medida que surca el espacio gélido y estéril, esta nave nuestra nos mantiene a la vez que nos protege. Está provista de cantidades abundantes, aunque limitadas, de agua, alimento y combustible. Su atmósfera nos cobija a una temperatura cálida y nos ampara (a través de la capa de ozono) de los dañinos rayos ultravioletas del Sol, y su campo magnético nos resguarda de los letales rayos cósmicos.

¿Seguro que cualquier capitán responsable daría prioridad absoluta a salvaguardar la existencia futura de la nave evitando impactos de asteroides, explosiones a bordo, el sobrecalentamiento, la destrucción del escudo contra la luz ultravioleta y el agotamiento precipitado de los recursos? Está claro que la tripulación de esta nave no ha considerado de máxima prioridad ninguno de estos problemas, ya que ha dedicado menos de una millonésima parte de los recursos a paliarlos. Es más ¡nuestra nave ni siquiera tiene capitán!

Más adelante analizaremos por qué los humanos somos pésimos para atajar las mayores amenazas que acechan nuestra supervivencia a largo plazo y para decidir qué medidas tomar para remediarlas. Pero antes veamos brevemente cuáles son algunos de esos peligros. La figura 2 compendia algunos de los riesgos existenciales que considero más relevantes. Comencemos por el extremo de la derecha de la línea temporal, en el futuro lejano, para ir acercándonos poco a poco al presente.

El Sol moribundo

Primero empezaremos por las amenazas astronómicas y geológicas, y después examinaremos las amenazas provocadas por la humanidad. Con anterioridad hemos hablado de cinco escenarios de «cosmocalipsis» como posible fin de este Universo: el Gran Frío, la Gran Implosión, la Gran Fuga, la Gran Disgregación y las Burbujas Mortales. Aunque desconocemos cuál de ellos ocurrirá en realidad, si es que se da alguno, en principio no hay motivos para alarmarse: nuestro Universo evitará la destrucción total durante millones de años.

FIGURA 2

Ejemplos de lo que podría destruir la vida que conocemos o imponer limitaciones permanentes a sus capacidades. Aunque es muy probable que el Universo en sí perdure un mínimo de decenas de miles de millones de años, el Sol chamuscará la Tierra dentro de unos mil millones de años, y después se la tragará a menos que la desplacemos hasta una distancia segura, y la Galaxia chocará con una galaxia vecina dentro de unos tres mil quinientos millones de años. Aunque desconocemos el instante preciso, sí podemos predecir casi con seguridad que, mucho antes de eso, recibiremos las sacudidas de asteroides y que supervolcanes provocarán inviernos sin luz solar de un año de duración. A medio plazo, es posible que nos enfrentemos a problemas inducidos por nosotros mismos, como el cambio climático, la guerra nuclear, pandemias globales y la hostilidad de inteligencia artificial sobrehumana.

En cambio, lo que sí sabemos con seguridad es que el Sol, que ahora tiene 4500 millones de años de edad, nos dará problemas mucho antes. Cada vez brilla con más intensidad debido a la compleja dinámica de las reacciones de fusión que se dan en su núcleo a medida que consumen el combustible hidrógeno de manera gradual. Los pronósticos indican que dentro de unos mil millones de años, el brillo solar empezará a ejercer unos efectos devastadores en la biosfera terrestre, y que, a la larga, un efecto invernadero desbocado acabará evaporando los océanos, de un modo muy similar a lo que ocurrió en Venus. A menos que pongamos algún remedio, claro está.

Por extraño que parezca, se puede hacer algo al respecto. Los astrónomos Donald Korycansky, Greg Laughlin y Fred Adams han revelado que el empleo inteligente de los asteroides permitiría desplazar la Tierra progresivamente hacia una órbita mayor alrededor de un Sol en proceso de calentamiento para mantenerla a una temperatura constante. La idea esencial consiste en empujar un asteroide de grandes dimensiones para que pase cerca de la Tierra cada seis mil años o así, de manera que nos dé un empujón gravitatorio en la dirección adecuada. Cada uno de esos encuentros cercanos se planificaría con precisión, de forma que el asteroide se acercara a Júpiter y Saturno para ganar energía y acumular el momento angular necesario para el siguiente paso junto a la Tierra (ya hemos empleado estas «catapultas gravitatorias» con anterioridad para mandar naves como las sondas Voyager de la NASA al exterior del Sistema Solar).

En caso de tener éxito, este procedimiento permitiría ampliar la habitabilidad de la Tierra desde unos mil millones de años hasta unos seis mil millones de años. Después, el Sol dejaría de existir tal como lo conocemos y se hincharía hasta convertirse en una gigante roja, lo que tal vez requeriría medidas más drásticas tanto para evitar que engullera a la Tierra como para mantener la atmósfera del planeta a una temperatura razonable.

Más o menos para entonces, dentro de unos pocos miles de millones de años, el conjunto de la Galaxia chocará y se fundirá con su vecina de mayor tamaño, la galaxia de Andrómeda. Las estrellas que las conforman están tan alejadas en relación con su tamaño que la mayoría de ellas no llegará a tocarse: si el Sol tuviera el tamaño de una naranja y estuviera en Madrid, su vecina estelar más cercana, Próxima Centauri, se encontraría en Moscú. En lugar de chocar entre sí, la mayoría de las estrellas se mezclará y dará lugar a una sola galaxia nueva, Galaxiómeda. No obstante, como veremos a continuación, esto tal vez acreciente los problemas derivados de supernovas e impactos asteroidales.

Asteroides, supernovas y supervolcanes

El registro fósil de la Tierra revela cinco grandes sucesos de extinción durante los últimos quinientos millones de años, cada uno de los cuales aniquiló más del 50 % de todas las especies animales. Aunque se discuten mucho los detalles, en general se cree que todos ellos se debieron a diversos episodios astronómicos y geológicos. La más reciente de esas «cinco grandes» extinciones parece haberla causado el choque de un asteroide del tamaño del monte Everest contra el litoral mexicano hace unos sesenta y cinco millones de años, cuyas víctimas más famosas fueron los dinosaurios no aviares. Aquel impacto, de una energía equivalente a muchos millones de detonaciones de bombas de hidrógeno, excavó un cráter de 180 kilómetros y sumió el planeta bajo una oscura nube de polvo que tapó la luz del Sol durante años, lo que arruinó el ecosistema global.

La Tierra recibe con regularidad el impacto de objetos procedentes del espacio de tamaños y composiciones diversos, de modo que la cuestión no es si sufriremos otro choque letal como aquel, sino cuándo. La respuesta depende en gran medida de nosotros: una buena red de telescopios robóticos nos avisaría con décadas de antelación sobre la llegada de asteroides peligrosos, lo que representa un plazo amplio para planificar, lanzar y ejecutar una misión destinada a desviarlo. Si se hace con la anticipación suficiente, basta un suave empujón que se puede aplicar, por ejemplo, con un «tractor gravitatorio» (un satélite cuyo tirón gravitatorio  atraiga el asteroide hacia él), un láser instalado en un satélite (que arranque material de la superficie del asteroide de manera que el retroceso mande el objeto en dirección opuesta), o incluso pintando el asteroide para que la presión de la radiación debida al calentamiento por el Sol altere su desplazamiento. Si se hiciera con poco tiempo, habría que recurrir a un procedimiento más peligroso, como un impactor cinético (un satélite que desviara el asteroide de su trayectoria como un jugador de fútbol) o una explosión nuclear.

A modo de entrenamiento, podemos practicar desviando los asteroides más pequeños y más numerosos que chocan contra la Tierra más a menudo. Por ejemplo, el suceso de Tunguska de 1908 se debió a un objeto con el peso aproximado de un petrolero, lo que no planteaba ningún riesgo existencial, pero cuya explosión, de unos 10 megatones, habría matado a millones de personas si hubiera caído sobre una gran ciudad. Cuando dominemos el arte de desviar asteroides pequeños para protegernos, estaremos preparados para recibir los que tengan que llegar grandes, y también podremos utilizar esos conocimientos técnicos para llevar a cabo el proyecto a más largo plazo que comentamos con anterioridad: recurrir a asteroides para ampliar la órbita de la Tierra y alejar el planeta de un Sol cada vez más brillante.

Pero lo cierto es que los asteroides no causaron todas las extinciones masivas del planeta. Hay otro sospechoso astronómico, un estallido de rayos gamma procedente de una explosión de supernova, al que se le ha atribuido la segunda extinción más grande registrada en el planeta y que tuvo lugar hace unos cuatrocientos cincuenta millones de años. Aunque las pruebas "forenses" son demasiado endebles hoy en día para emitir un veredicto de culpabilidad, el sospechoso contó sin duda con los medios y con una oportunidad convincente. Cuando algunas estrellas masivas y en rotación rápida estallan como supernovas, despiden parte de su inmensa energía explosiva en forma de un haz de rayos gamma. Si uno de esos haces letales llegara a la Tierra, nos propinaría un golpe doble: nos daría de lleno y destruiría la capa de ozono, tras lo cual la luz ultravioleta del Sol empezaría a esterilizar la superficie terrestre.

Existen conexiones interesantes entre las diferentes amenazas astronómicas. A veces, una estrella al azar se desvía y se acerca lo bastante al Sistema Solar como para alterar las órbitas de asteroides y cometas distantes y mandar un enjambre de ellos hacia el interior del Sistema Solar, donde algunos pueden tropezar con la Tierra. Por ejemplo, se prevé que la estrella Gliese 710 pasará a una distancia de un año-luz de nosotros dentro de unos mil cuatrocientos millones de años, cuatro veces más cerca que la estrella vecina más inmediata en la actualidad, Próxima Centauri. Además, el orden circulatorio actual con el que la mayoría de las estrellas orbita alrededor del centro de la Galaxia siguiendo la misma dirección, como en una rotonda, se convertirá en un embrollo caótico cuando la Galaxia se funda con Andrómeda, lo que supondrá un aumento sustancial de la frecuencia de encuentros cercanos perturbadores con otras estrellas capaces de desencadenar lluvias de asteroides o, en última instancia, incluso expulsar la Tierra fuera del Sistema Solar. Esta colisión entre galaxias también provocará choques de nubes de gas que desencadenen episodios eruptivos de formación estelar, donde los astros más masivos no tardarán en explotar como supernovas, tal vez demasiado cerca.

Pero no nos alejemos tanto, también nos acosan «enemigos interiores»: sucesos causados por nuestro propio planeta. Los principales sospechosos de muchas extinciones son supervolcanes y flujos masivos de lavas basálticas. Estos dos mecanismos tienen la capacidad de desencadenar un «invierno volcánico» envolviendo la Tierra en una nube oscura de polvo que bloquee el paso de la luz solar durante años, tal como ocurriría tras el impacto de un asteroide de gran tamaño. Asimismo, podrían alterar los ecosistemas a escala mundial inyectando en la atmósfera gases que generen toxicidad, lluvia ácida o un calentamiento global. En general se acusa a una supererupción de este tipo en Siberia de la mayor extinción registrada, la «Gran Mortandad», que aniquiló el 96 % de todas las especies marinas existentes unos doscientos cincuenta millones de años atrás.

Problemas creados por nosotros mismos

En resumen, los humanos nos enfrentamos a muchos riesgos existenciales relacionados con efectos astronómicos o geológicos; he sintetizado tan solo los que parecen más graves. La conclusión optimista sería:

1. Es probable que la tecnología del futuro ayude a que la vida prolifere durante los miles de millones de años venideros.

2. Nosotros y nuestra descendencia deberíamos ser capaces de desarrollar esas tecnologías a tiempo, si acometemos actuaciones conjuntas.

La pesimista: no llegaremos al siglo XXII. Veamos:

Si resolvemos en primer lugar los problemas más urgentes, situados en la parte izquierda de la figura 2, ganaremos tiempo para atajar los restantes. Curiosamente, esos problemas más urgentes los hemos generado nosotros mismos. Mientras la mayoría de los desastres geológicos y cosmológicos suponen una amenaza para dentro de miles, millones o milesde millones de años, los humanos estamos induciendo cambios extremos a escalas temporales de décadas, lo que abre una caja de Pandora repleta de nuevos riesgos existenciales. La transformación del agua, la tierra y el aire a través de la actividad pesquera, agrícola e industrial, está provocando la extinción de unas 30 000 especies al año, lo que algunos biólogos denominan «la Sexta Extinción». ¿Nos llegará pronto el turno de extinguirnos también a nosotros?

Los peligros inducidos por el ser humano incluyen desde pandemias mundiales accidentales o deliberadas (¿Covid?) hasta el cambio climático, la contaminación, el agotamiento de recursos y el colapso del ecosistema, un conflicto nuclear accidental y la inteligencia artificial hostil.

Guerra atómica accidental

¡Un asesino en serie anda suelto! ¡Un terrorista suicida! ¡Cuidado con la última mutación del virus! Aunque las alertas que acaparan titulares infunden más temor, es más probable que nos afecte el viejo y odioso cáncer. Aunque hay menos del 1 % de probabilidad al año de padecerlo, si se vive lo bastante hay muchas posibilidades de contraerlo al fin. Lo mismo pasa con la guerra atómica accidental. A lo largo del medio siglo que llevamos los humanos equipados para un Armagedón nuclear, han habido noticias constantes de falsas alarmas que ya podían haber desencadenado una guerra abierta, debidas a fallos en computadoras, averías energéticas, desatinos en los servicios de inteligencia, errores de navegación, atentados terroristas y estallidos de satélites. La desclasificación progresiva de archivos ha revelado que algunos de estos incidentes nucleares entrañaron riesgos mayores de lo que se creyó en su momento. Por ejemplo, hasta 2002 no se supo a ciencia cierta que durante la crisis de los misiles de Cuba, el destructor estadounidense Beale lanzó cargas de profundidad contra un submarino no identificado que en realidad era una nave soviética provista de armas nucleares y cuyos mandos discutieron si responder con un torpedo nuclear.

A pesar del fin de la Guerra Fría, lo más probable es que el peligro haya aumentado en los últimos años. Misiles balísticos intercontinentales de poca precisión pero de gran potencia afianzaron la estabilidad de la «destrucción mutua asegurada», porque atacar primero no evitaría una respuesta masiva. La deriva hacia una navegación de misiles más fina, tiempos de vuelo más cortos y el rastreo mejorado de submarinos enemigos socavan esa estabilidad. Un sistema de defensa antimisiles eficaz completaría este proceso de deterioro. Tanto Rusia como Estados Unidos mantienen sus estrategias de lanzamiento de misiles en caso de alerta, las cuales obligan a tomar la decisión de efectuar un lanzamiento en un intervalo temporal de entre cinco y quince minutos, insuficiente seguramente para disponer de una información completa.

El 25 de enero de 1995, el presidente ruso Boris Yeltsin estuvo a varios minutos de iniciar un ataque nuclear total contra Estados Unidos debido a un cohete científico noruego sin identificar. Ha causado preocupación un proyecto de Estados Unidos para sustituir las cabezas nucleares por ojivas convencionales en dos de los 24 misiles balísticos intercontinentales D5 que portan los submarinos Trident, para su posible uso contra Irán, Rusia o Corea del Norte: los sistemas rusos de alerta incrementa las posibilidades de malentendidos desafortunados. Otras situaciones alarmantes incluyen conductas indeseadas deliberadas por parte de mandos militares debidas a desórdenes mentales y/o aspiraciones políticas/religiosas extremistas. Ahora mismo, la situación en Ucrania con la Rusia de Putin enviando tropas y armamento a la frontera con la intención de disuadir a este país de entrar en la OTAN, es causa de preocupación mundial. Los dos actores, Putin y la OTAN, disponen de una ingente cantidad de armamento nuclear.

Pero ¿por qué preocuparse? Seguro que, si las cosas se ponen feas, habrá gente razonable que intervenga y actúe de manera correcta, como ya ocurrió en el pasado. De hecho, las potencias nucleares cuentan con complejas medidas de prevención, igual que el cuerpo las tiene contra el cáncer. El cuerpo humano suele superar mutaciones aisladas perjudiciales, y al parecer se precisa la coincidencia fortuita de hasta cuatro mutaciones para desencadenar ciertos cánceres. Pero si tiramos los dados las veces suficientes, las cosas pasan.

El estallido accidental de un conflicto nuclear entre dos superpotencias puede ocurrir o no en el transcurso de nuestras vidas, pero si sucediera, está claro que lo trastocaría todo. El cambio climático que nos preocupa en la actualidad se quedaría en nada comparado con un invierno nuclear, donde una nube de polvo de dimensiones planetarias impediría el paso de la luz del Sol durante años, de forma muy similar a cuando un asteroide o un supervolcán generaron las extinciones masivas en el pasado. Las crisis económicas de 2008 y de 2020 no serían nada en absoluto comparadas con las pérdidas de cultivos, el colapso de las infraestructuras y la hambruna generalizada consiguientes, y los supervivientes sucumbirían a manos de pandillas armadas en busca de alimentos que emprenderían saqueos sistemáticos casa por casa. ¿Lo veremos a lo largo de una vida? Le daría un 30 % de probabilidades, casi las mismas que hay de contraer un cáncer.

Sin embargo, dedicamos menos atención y recursos a reducir el riesgo de un desastre nuclear que al cáncer. Y, si bien la humanidad en su conjunto sobreviviría aunque el 30 % de ella desarrollara cáncer, está menos claro en qué medida sobreviviría nuestra civilización a un Armagedón nuclear. Podemos adoptar medidas concretas y claras para rebajar este riesgo, tal como explican numerosos informes de organizaciones científicas, pero estos nunca se convierten en los principales puntos de las campañas electorales de los países y suelen ignorarse en gran medida.

Una singularidad hostil

La Revolución Industrial nos brindó máquinas más fuertes que nosotros. La revolución de la información nos ha dotado de máquinas hasta cierto punto más listas que nosotros. ¿Hasta qué punto? Las computadoras solían superarnos tan solo en tareas cognitivas simples, de «fuerza bruta», como el cálculo veloz o las búsquedas en bancos de datos, pero en el año 2006, una computadora derrotó al campeón mundial de ajedrez Vladímir Krámnik, y en 2011 una computadora destronó a Ken Jennings en el programa televisivo estadounidense Jeopardy, un concurso de preguntas y respuestas variadas. En el año 2012 una computadora obtuvo la licencia para conducir coches en Nevada (EE. UU.) tras considerarse más segura que un conductor humano. ¿A dónde llegará este avance? ¿Acabarán superándonos en todo las computadoras, cuando hayan desarrollado una inteligencia sobrehumana? Hay pocas dudas de que puede pasar: el cerebro humano consiste en un montón de partículas sujetas a las leyes de la Física, y no existe ninguna ley que impida que las partículas se ordenen de un modo que les permita efectuar cálculos cada vez más avanzados.

Pero ¿sucederá de verdad? ¿Y será algo bueno o malo? Estas son preguntas muy oportunas: aunque hay quien piensa que las máquinas con una inteligencia sobrehumana no son viables en un futuro cercano, también hay quien prevé su existencia para 2030, como el inventor y escritor estadounidense Ray Kurzweil, lo que convierte este asunto en el único riesgo existencial que deberíamos estudiar con más urgencia.

La idea de la singularidad

En resumen, no está claro si el desarrollo de máquinas ultrainteligentes debería o llegará a producirse, y los expertos en inteligencia artificial se muestran divididos. Si ocurriera, podría tener unos efectos desastrosos. El matemático británico Irving Good explicó el por qué en 1965:

«Definamos una máquina ultrainteligente como una máquina capaz de sobrepasar con mucho todas las actividades intelectuales de cualquier ser humano, por muy listo que este sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; se produciría, sin lugar a dudas, una “explosión de inteligencia”, y la inteligencia humana quedaría muy rezagada. Por tanto, la primera máquina ultrainteligente es el último invento que nos hará falta idear a los humanos, siempre que esa máquina sea lo bastante dócil para indicarnos cómo mantenerla bajo control».

En un artículo sugerente y sensato de 1993, el matemático y autor de obras de ciencia ficción Vernor Vinge llamó a esta explosión de inteligencia «la singularidad», argumentando que hay un punto más allá del cual nos es imposible emitir predicciones fiables. Si logramos confeccionar tales máquinas ultrainteligentes, la primera de ellas estará muy limitada por el software desarrollado para ella, y que compensaremos la falta de conocimientos para la programación óptima de inteligencia mediante el desarrollo de hardware con unas capacidades computacionales muy superiores a las del cerebro humano. Al fin y al cabo, las neuronas humanas no son mejores ni más numerosas que las de los delfines, solo que están conectadas de otra manera, lo que induce a pensar que en ocasiones el software es más importante que el hardware.

Es probable que esta coyuntura permita a la primera máquina perfeccionarse en extremo una y otra vez mediante la mera reescritura de su propio software. En otras palabras, mientras que los humanos tardamos millones de años en evolucionar y superar con creces la inteligencia de nuestros ancestros simiescos, esta máquina en evolución también podría sobrepasar la inteligencia de sus ancestros, nosotros, en cuestión de horas o segundos.

Después de eso, la vida en la Tierra nunca será la misma. La persona o la cosa que controle esta tecnología atesorará con rapidez la mayor riqueza y el mayor poder del mundo, con lo que burlará todos los mercados financieros y desarrollará más inventos y patentes que todos los investigadores humanos juntos. Mediante el diseño de hardware y software informáticos extremadamente perfeccionados, esas máquinas multiplicarán con rapidez su capacidad y su número. Pronto se inventarían tecnologías muy apartadas de nuestra imaginación actual, incluidas algunas armas consideradas necesarias. A eso le seguirá sin tardanza el control político, militar y social del mundo. Dada la influencia que ejercen hoy en día los libros, los medios de comunicación y los contenidos de Internet, máquinas capaces de publicar miles de millones de obras más que los humanos ultrabrillantes nos conquistarán los corazones y las mentes incluso sin necesidad de comprarnos o someternos.

¿Quién controla la singularidad?

Si ocurriera una singularidad, ¿cómo afectaría a la civilización humana? Desde luego no lo sabemos con seguridad, pero creo que dependerá que qué o quién la controle desde un principio, tal como se ilustra en la figura 3. Si esa tecnología la desarrollan, en sus inicios, académicos u otras personas dispuestas a convertirla en código abierto, la situación resultante de «barra libre» será muy inestable y derivará en el control por parte de una sola entidad después de un breve periodo de competición. Si esa entidad es un humano egoísta o una empresa con ánimo de lucro, creo que no tardará en asumir el control gubernamental en cuanto su dueño controle el mundo y asuma el gobierno. Una persona altruista tal vez haría lo mismo.

En este caso, las inteligencias artificiales (IA) controladas por humanos serán en la práctica como dioses esclavizados, entidades con un entendimiento y unas capacidades inmensamente superiores a los nuestros que, aun así, acatarán todo lo que su dueño les mande. Esas IA tal vez sobrepasen tanto a los ordenadores actuales como nosotros a las hormigas.

FIGURA 3

Si de verdad ocurriera la singularidad, los resultados serían muy distintos dependiendo de quién la controlara. La opción «nadie» es absolutamente inestable y que, tras un breve periodo de competición, conducirá al control por parte de una sola entidad. El control en manos de una persona egoísta o de una empresa con ánimo de lucro acabaría llevando al control gubernamental en cuanto el dueño se hiciera con el mundo y se erigiera en gobierno. Es posible que una persona altruista hiciera eso mismo, o que decidiera cederle el control a una inteligencia artificial (IA) amistosa más capacitada para proteger los intereses humanos. Sin embargo, también podría ser que una IA hostil acabara convirtiéndose en el mando único si superara en inteligencia a su creador y desarrollara con rapidez características que consolidaran su poder.

Quizá resulte imposible mantener sometidas a esas IA superinteligentes por mucho que intentemos contenerlas manteniéndolas desconectadas de Internet. Como podrán comunicarse con nosotros, es posible que lleguen a conocernos lo bastante bien como para averiguar cómo adularnos para que hagamos algo aparentemente inocuo que les permita «soltarse», propagarse como un virus y tomar el control. Dudo mucho que pudiéramos contener una fuga así, en vista de lo que nos cuesta erradicar hasta los virus informáticos actuales, desarrollados por humanos e inmensamente más simples. Para prevenir una evasión o para servir mejor a los intereses humanos, puede que el dueño elija ceder poder de manera voluntaria a lo que el experto en inteligencia artificial Eliezer Yudkowsky denomina una «IA amistosa» que, por muy avanzada que llegue a ser, siempre conserve el objetivo de ejercer unos efectos positivos, nunca negativos, sobre la humanidad. Si esta idea funcionara, las IA amistosas actuarían como dioses benevolentes, o como guardianes, que nos mantendrían alimentados, seguros y satisfechos al tiempo que conserváramos el control con firmeza.

Si todos los humanos fueran reemplazados en el trabajo por máquinas supeditadas al control de una IA amistosa, la humanidad podría seguir disfrutando de una felicidad aceptable si los productos que necesitamos se nos brindaran a cambio de nada. En cambio, en el caso de que un humano egoísta o una empresa con ánimo de lucro controlara la singularidad, seguramente llegaríamos a la mayor disparidad en el reparto de la riqueza que ha conocido jamás el planeta, pues la historia revela que la mayoría de los humanos preferimos acumular riquezas personales en lugar de repartirlas.

Pero hasta los planes mejor concebidos fallan a menudo, y una situación controlada por una IA amistosa también podría ser inestable y transformarse a la larga en otra controlada por una IA hostil, cuyas aspiraciones no coincidieran con las nuestras, y cuyas actuaciones acabaran destruyendo tanto la humanidad como todo lo que nos importa. Esa destrucción tal vez fuera indirecta, en lugar de intencionada: puede que la IA solo quisiera usar los átomos de la Tierra para propósitos incompatibles con nuestra existencia. La comparación con la manera en que los humanos tratamos a formas de vida inferiores no es nada alentadora: cuando queremos construir una presa hidroeléctrica y hay hormigas en la zona que se ahogarán como consecuencia, construimos la presa igualmente, no porque sintamos alguna antipatía hacia las hormigas, sino por la mera razónde que le damos prioridad a objetivos que consideramos más importantes.

La realidad interior de la vida ultrainteligente

Si hubiera una singularidad, ¿serían conscientes y autoconscientes las IA resultantes? ¿Tendrían una realidad interior? De no ser así, serían zombis a todos los efectos prácticos. De todas las características que posee la forma de vida humana, la consciencia es, con gran diferencia, la más notable. Ella es la que da sentido al Universo, de modo que si el Universo fuera tomado por formas de vida carentes de esta propiedad, perdería todo el sentido y no sería más que un inmenso desperdicio de espacio.

La naturaleza de la vida y la consciencia es un asunto muy discutido. Esos fenómenos pueden existir de un modo mucho más general que en los ejemplos basados en el carbono que conocemos. La consciencia es la manera en que se percibe la información cuando se está procesando. Como la materia se puede organizar para procesar información de muchas maneras con una complejidad muy diversa, esto implica una abundante variedad de niveles y clases de consciencia. El tipo particular de consciencia que conocemos de forma subjetiva es, pues, un fenómeno que surge en ciertos sistemas físicos altamente complejos que reciben, procesan, almacenan y generan información. Está claro que si se pueden ensamblar átomos para crear humanos, las leyes de la Física también permiten confeccionar una cantidad inmensa de otras formas avanzadas de vida sensible.

Por consiguiente, si los humanos acabáramos desencadenando el desarrollo de entidades más inteligentes a través de una singularidad, es muy probable que también ellas tuvieran consciencia de sí mismas, y en tal caso deberían contemplarse no como meras máquinas inertes, sino como seres conscientes como nosotros. No obstante, es posible que la percepción subjetiva de su consciencia difiriera bastante de la nuestra. Por ejemplo, seguramente carecerían del intenso miedo humano a la muerte: como harían copias de seguridad de sí mismas, lo único que podrían perder serían los recuerdos acumulados desde la copia archivada más reciente. La capacidad de copiar información y software con facilidad entre varias IA probablemente reduciría la firme sensación de individualidad que tanto caracteriza a la consciencia humana: habría menos diferencias entre nosotros si nos resultara trivial compartir y copiar todos los recuerdos y habilidades, así que un grupo de IA cercanas quizá se sintiera más bien como un único organismo con una mente colectiva.

Si esto fuera así, entonces la supervivencia de la vida a largo plazo se podría compaginar con el argumento del día del juicio final: lo que acabará no es la vida en sí, sino nuestra clase de referencia, momentos del observador autoconscientes cuya percepción subjetiva percibe aproximadamente como nuestra mente humana. Aunque una multitud de sofisticadas mentes colectivas colonizara este Universo a lo largo de miles de millones de años, el hecho de que no seamos ellas no tendría que causarnos más sorpresa que el hecho de que no seamos hormigas.

Reacciones ante la singularidad

Las reacciones de la gente ante la posibilidad de una singularidad varían enormemente. La idea de IA amistosas tiene una historia venerable en laliteratura de ciencia ficción fundamentada en las tres famosas leyes de la robótica de Isaac Asimov, destinadas a garantizar una relación armónica entre los robots y los humanos. También abundan las historias en las que IA superan en inteligencia y atacan a sus creadores, como en las películas de la saga de Terminator. Muchos rechazan la singularidad como «el delirio de los locos de la informática», y la ven como una idea disparatada de ciencia ficción que no llegará a suceder, al menos no en un futuro próximo. Según otros, es probable que ocurra y, si no se planifica con esmero, seguramente acabará, no ya con la especie humana, sino también con todo lo que nos ha importado desde siempre, tal como analizamos antes. Muchos investigadores contemplan la singularidad como el riesgo existencial más serio de nuestro tiempo. Algunos de ellos consideran que si no se puede garantizar la idea de la IA amistosa de Yudkowsky y otros, lomejor será mantener las IA futuras sujetas a un férreo control humano o no llegar a desarrollar jamás IA avanzadas.

Aunque hasta ahora hemos centrado nuestra exposición en las consecuencias negativas de la singularidad, otros, como Ray Kurzweil, creen que la singularidad sería algo enormemente positivo, de hecho, lo mejor que podría pasarle a la humanidad, porque resolvería todos los problemas actuales de la gente. ¿Atrae o espanta la idea de que la humanidad sea reemplazada por formas de vida más avanzadas? Probablemente dependa en gran medida de las circunstancias, y en particular de si contemplamos los seres del futuro como descendientes o como invasores.

Si un padre tiene un hijo que lo supera en inteligencia, que aprende de él y que, al irse, llega hasta donde él ni siquiera llegó a soñar, seguramente se sentirá feliz y orgulloso aunque sepa que no vivirá para ver todos sus éxitos. Pero el padre de un asesino en serie muy inteligente se siente de otra manera. Tal vez sintamos una relación similar a la de un padre con su hijo con las IA del futuro, y las contemplemos como herederas de nuestros valores. Por tanto, será muy distinto si la vida avanzada del futuro conserva o no nuestras aspiraciones más preciadas.

Otro factor clave consiste en si la transición será gradual o abrupta. A pocas personas les preocupará la idea de que la humanidad evolucione poco a poco, en el transcurso de milenios, para volverse más inteligente y mejor adaptada al entorno cambiante, tal vez variando incluso de aspecto físico en el proceso. Por otra parte, muchos padres se enfrentarían a sentimientos contrapuestos si supieran que tener el hijo soñado les costaría la vida. Si la tecnología avanzada del futuro no nos reemplaza de golpe, sino que nos moderniza y mejora de forma progresiva hasta fundirse a la larga con nosotros, nos permitirá conservar nuestras metas y nos brindará la gradación necesaria para que contemplemos las formas de vida posteriores a la singularidad como descendientes nuestras.

Los teléfonos móviles e Internet ya han incrementado la capacidad humana para alcanzar lo que queremos sin alterar demasiado nuestros valores esenciales, y los optimistas de la singularidad creen que lo mismo ocurrirá con los implantes cerebrales, los dispositivos controlados por la mente y hasta la instauración completa de la mente humana en una realidad virtual. Es más, eso podría lanzarnos al espacio, la última frontera. Al fin y al cabo, lo más probable es que una forma de vida extremadamente avanzada capaz de propagarse por todo este Universo solo emerja en dos pasos: primero la evolución da lugar a seres inteligentes surgidos por selección natural, y después estos eligen ceder la antorcha de la vida creando consciencias más avanzadas, capaces de perfeccionarse solas. Libres de las limitaciones del cuerpo humano, estas formas de vida avanzada podrán alzarse y a la larga colonizar buena parte del Universo observable, una idea tanteada desde hace mucho por autores de ciencia ficción, aficionados a la IA y pensadores transhumanistas.

En resumen, ¿habrá una singularidad dentro de unas pocas décadas? Y ¿debemos favorecerlo o evitarlo? Creo que es justo afirmar que no estamos nada cerca del consenso sobre ninguno de estos interrogantes, pero eso no significa que lo razonable sea no hacer nada al respecto. Podría ser lo mejor o lo peor que le haya ocurrido jamás a la humanidad, de modo que con que haya tan solo un 1 % de posibilidades de que se produzca una singularidad a lo largo de nuestra vida, creo que lo lógico sería tomar la precaución de dedicar al menos un 1 % del PIB a estudiar el asunto y decidir qué hacer.

Pero ¿por qué no lo hacemos?

                                                                                                                                © 2022 Javier De Lucas