SINGULARIDAD

 

 Guerra atómica accidental

¡Un asesino en serie anda suelto! ¡Un terrorista suicida! ¡Cuidado con la última mutación del virus! Aunque las alertas que acaparan titulares infunden más temor, es más probable que nos afecte el viejo y odioso cáncer. Aunque hay menos del 1% de probabilidad al año de padecerlo, si se vive lo bastante hay muchas posibilidades de contraerlo al fin. Lo mismo pasa con la guerra atómica accidental. A lo largo del medio siglo que llevamos los humanos equipados para un Armagedón nuclear, han habido noticias constantes de falsas alarmas que ya podían haber desencadenado una guerra abierta, debidas a fallos en computadoras, averías energéticas, desatinos en los servicios de inteligencia, errores de navegación, atentados terroristas y estallidos de satélites. La desclasificación progresiva de archivos ha revelado que algunos de estos incidentes nucleares entrañaron riesgos mayores de lo que se creyó en su momento. Por ejemplo, hasta 2002 no se supo a ciencia cierta que durante la crisis de los misiles de Cuba, el destructor estadounidense Beale lanzó cargas de profundidad contra un submarino no identificado que en realidad era una nave soviética provista de armas nucleares y cuyos mandos discutieron si responder con un torpedo nuclear.

A pesar del fin de la Guerra Fría, lo más probable es que el peligro haya aumentado en los últimos años. Misiles balísticos intercontinentales de poca precisión pero de gran potencia afianzaron la estabilidad de la «destrucción mutua asegurada», porque atacar primero no evitaría una respuesta masiva. La deriva hacia una navegación de misiles más fina, tiempos de vuelo más cortos y el rastreo mejorado de submarinos enemigos socavan esa estabilidad. Un sistema de defensa antimisiles eficaz completaría este proceso de deterioro. Tanto Rusia como Estados Unidos mantienen sus estrategias de lanzamiento de misiles en caso de alerta, las cuales obligan a tomar la decisión de efectuar un lanzamiento en un intervalo temporal de entre cinco y quince minutos, insuficiente seguramente para disponer de una información completa.

El 25 de enero de 1995, el presidente ruso Boris Yeltsin estuvo a varios minutos de iniciar un ataque nuclear total contra Estados Unidos debido a un cohete científico noruego sin identificar. Ha causado preocupación un proyecto de Estados Unidos para sustituir las cabezas nucleares por ojivas convencionales en dos de los 24 misiles balísticos intercontinentales D5 que portan los submarinos Trident, para su posible uso contra Irán, Rusia o Corea del Norte: los sistemas rusos de alerta incrementa las posibilidades de malentendidos desafortunados. Otras situaciones alarmantes incluyen conductas indeseadas deliberadas por parte de mandos militares debidas a desórdenes mentales y/o aspiraciones políticas/religiosas extremistas. Ahora mismo, la situación en Ucrania con la Rusia de Putin invadiendo el país a sangre y fuego con la intención de disuadir a este país de entrar en la OTAN, es causa de preocupación mundial. Los dos actores, Putin y la OTAN, disponen de una ingente cantidad de armamento nuclear.

Pero ¿por qué preocuparse? Seguro que, si las cosas se ponen feas, habrá gente razonable que intervenga y actúe de manera correcta, como ya ocurrió en el pasado. De hecho, las potencias nucleares cuentan con complejas medidas de prevención, igual que el cuerpo las tiene contra el cáncer. El cuerpo humano suele superar mutaciones aisladas perjudiciales, y al parecer se precisa la coincidencia fortuita de hasta cuatro mutaciones para desencadenar ciertos cánceres. Pero si tiramos los dados las veces suficientes, las cosas pasan.

El estallido accidental de un conflicto nuclear entre dos superpotencias puede ocurrir o no en el transcurso de nuestras vidas, pero si sucediera, está claro que lo trastocaría todo. El cambio climático que nos preocupa en la actualidad se quedaría en nada comparado con un invierno nuclear, donde una nube de polvo de dimensiones planetarias impediría el paso de la luz del Sol durante años, de forma muy similar a cuando un asteroide o un supervolcán generaron las extinciones masivas en el pasado. Las crisis económicas de 2008 y de 2020 no serían nada en absoluto comparadas con las pérdidas de cultivos, el colapso de las infraestructuras y la hambruna generalizada consiguientes, y los supervivientes sucumbirían a manos de pandillas armadas en busca de alimentos que emprenderían saqueos sistemáticos casa por casa. ¿Lo veremos a lo largo de una vida? Le daría un 30 % de probabilidades, casi las mismas que hay de contraer un cáncer.

Sin embargo, dedicamos menos atención y recursos a reducir el riesgo de un desastre nuclear que al cáncer. Y, si bien la humanidad en su conjunto sobreviviría aunque el 30 % de ella desarrollara cáncer, está menos claro en qué medida sobreviviría nuestra civilización a un Armagedón nuclear. Podemos adoptar medidas concretas y claras para rebajar este riesgo, tal como explican numerosos informes de organizaciones científicas, pero estos nunca se convierten en los principales puntos de las campañas electorales de los países y suelen ignorarse en gran medida.

Una singularidad hostil

La Revolución Industrial nos brindó máquinas más fuertes que nosotros. La revolución de la información nos ha dotado de máquinas hasta cierto punto más listas que nosotros. ¿Hasta qué punto? Las computadoras solían superarnos tan solo en tareas cognitivas simples, de «fuerza bruta», como el cálculo veloz o las búsquedas en bancos de datos, pero en el año 2006, una computadora derrotó al campeón mundial de ajedrez Vladímir Krámnik, y en 2011 una computadora destronó a Ken Jennings en el programa televisivo estadounidense Jeopardy, un concurso de preguntas y respuestas variadas. En el año 2012 una computadora obtuvo la licencia para conducir coches en Nevada (EE. UU.) tras considerarse más segura que un conductor humano. ¿A dónde llegará este avance? ¿Acabarán superándonos en todo las computadoras, cuando hayan desarrollado una inteligencia sobrehumana? Hay pocas dudas de que puede pasar: el cerebro humano consiste en un montón de partículas sujetas a las leyes de la Física, y no existe ninguna ley que impida que las partículas se ordenen de un modo que les permita efectuar cálculos cada vez más avanzados.

Pero ¿sucederá de verdad? ¿Y será algo bueno o malo? Estas son preguntas muy oportunas: aunque hay quien piensa que las máquinas con una inteligencia sobrehumana no son viables en un futuro cercano, también hay quien prevé su existencia para 2030, como el inventor y escritor estadounidense Ray Kurzweil, lo que convierte este asunto en el único riesgo existencial que deberíamos estudiar con más urgencia.

La idea de la singularidad

En resumen, no está claro si el desarrollo de máquinas ultrainteligentes debería o llegará a producirse, y los expertos en inteligencia artificial se muestran divididos. Si ocurriera, podría tener unos efectos desastrosos. El matemático británico Irving Good explicó el por qué en 1965:

«Definamos una máquina ultrainteligente como una máquina capaz de sobrepasar con mucho todas las actividades intelectuales de cualquier ser humano, por muy listo que este sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; se produciría, sin lugar a dudas, una “explosión de inteligencia”, y la inteligencia humana quedaría muy rezagada. Por tanto, la primera máquina ultrainteligente es el último invento que nos hará falta idear a los humanos, siempre que esa máquina sea lo bastante dócil para indicarnos cómo mantenerla bajo control».

En un artículo sugerente y sensato de 1993, el matemático y autor de obras de ciencia ficción Vernor Vinge llamó a esta explosión de inteligencia «la singularidad», argumentando que hay un punto más allá del cual nos es imposible emitir predicciones fiables. Si logramos confeccionar tales máquinas ultrainteligentes, la primera de ellas estará muy limitada por el software desarrollado para ella, y que compensaremos la falta de conocimientos para la programación óptima de inteligencia mediante el desarrollo de hardware con unas capacidades computacionales muy superiores a las del cerebro humano. Al fin y al cabo, las neuronas humanas no son mejores ni más numerosas que las de los delfines, solo que están conectadas de otra manera, lo que induce a pensar que en ocasiones el software es más importante que el hardware.

Es probable que esta coyuntura permita a la primera máquina perfeccionarse en extremo una y otra vez mediante la mera reescritura de su propio software. En otras palabras, mientras que los humanos tardamos millones de años en evolucionar y superar con creces la inteligencia de nuestros ancestros simiescos, esta máquina en evolución también podría sobrepasar la inteligencia de sus ancestros, nosotros, en cuestión de horas o segundos.

Después de eso, la vida en la Tierra nunca será la misma. La persona o la cosa que controle esta tecnología atesorará con rapidez la mayor riqueza y el mayor poder del mundo, con lo que burlará todos los mercados financieros y desarrollará más inventos y patentes que todos los investigadores humanos juntos. Mediante el diseño de hardware y software informáticos extremadamente perfeccionados, esas máquinas multiplicarán con rapidez su capacidad y su número. Pronto se inventarían tecnologías muy apartadas de nuestra imaginación actual, incluidas algunas armas consideradas necesarias. A eso le seguirá sin tardanza el control político, militar y social del mundo. Dada la influencia que ejercen hoy en día los libros, los medios de comunicación y los contenidos de Internet, máquinas capaces de publicar miles de millones de obras más que los humanos ultrabrillantes nos conquistarán los corazones y las mentes incluso sin necesidad de comprarnos o someternos.

¿Quién controla la singularidad?

Si ocurriera una singularidad, ¿cómo afectaría a la civilización humana? Desde luego no lo sabemos con seguridad, pero creo que dependerá que qué o quién la controle desde un principio, tal como se ilustra en la figura 3. Si esa tecnología la desarrollan, en sus inicios, académicos u otras personas dispuestas a convertirla en código abierto, la situación resultante de «barra libre» será muy inestable y derivará en el control por parte de una sola entidad después de un breve periodo de competición. Si esa entidad es un humano egoísta o una empresa con ánimo de lucro, creo que no tardará en asumir el control gubernamental en cuanto su dueño controle el mundo y asuma el gobierno. Una persona altruista tal vez haría lo mismo. En este caso, las inteligencias artificiales (IA) controladas por humanos serán en la práctica como dioses esclavizados, entidades con un entendimiento y unas capacidades inmensamente superiores a los nuestros que, aun así, acatarán todo lo que su dueño les mande. Esas IA tal vez sobrepasen tanto a los ordenadores actuales como nosotros a las hormigas.

Si de verdad ocurriera la singularidad, los resultados serían muy distintos dependiendo de quién la controlara. La opción «nadie» es absolutamente inestable y que, tras un breve periodo de competición, conducirá al control por parte de una sola entidad. El control en manos de una persona egoísta o de una empresa con ánimo de lucro acabaría llevando al control gubernamental en cuanto el dueño se hiciera con el mundo y se erigiera en gobierno. Es posible que una persona altruista hiciera eso mismo, o que decidiera cederle el control a una inteligencia artificial (IA) amistosa más capacitada para proteger los intereses humanos. Sin embargo, también podría ser que una IA hostil acabara convirtiéndose en el mando único si superara en inteligencia a su creador y desarrollara con rapidez características que consolidaran su poder.

Quizá resulte imposible mantener sometidas a esas IA superinteligentes por mucho que intentemos contenerlas manteniéndolas desconectadas de Internet. Como podrán comunicarse con nosotros, es posible que lleguen a conocernos lo bastante bien como para averiguar cómo adularnos para que hagamos algo aparentemente inocuo que les permita «soltarse», propagarse como un virus y tomar el control. Dudo mucho que pudiéramos contener una fuga así, en vista de lo que nos cuesta erradicar hasta los virus informáticos actuales, desarrollados por humanos e inmensamente más simples. Para prevenir una evasión o para servir mejor a los intereses humanos, puede que el dueño elija ceder poder de manera voluntaria a lo que el experto en inteligencia artificial Eliezer Yudkowsky denomina una «IA amistosa» que, por muy avanzada que llegue a ser, siempre conserve el objetivo de ejercer unos efectos positivos, nunca negativos, sobre la humanidad. Si esta idea funcionara, las IA amistosas actuarían como dioses benevolentes, o como guardianes, que nos mantendrían alimentados, seguros y satisfechos al tiempo que conserváramos el control con firmeza.

Si todos los humanos fueran reemplazados en el trabajo por máquinas supeditadas al control de una IA amistosa, la humanidad podría seguir disfrutando de una felicidad aceptable si los productos que necesitamos se nos brindaran a cambio de nada. En cambio, en el caso de que un humano egoísta o una empresa con ánimo de lucro controlara la singularidad, seguramente llegaríamos a la mayor disparidad en el reparto de la riqueza que ha conocido jamás el planeta, pues la historia revela que la mayoría de los humanos preferimos acumular riquezas personales en lugar de repartirlas.

Pero hasta los planes mejor concebidos fallan a menudo, y una situación controlada por una IA amistosa también podría ser inestable y transformarse a la larga en otra controlada por una IA hostil, cuyas aspiraciones no coincidieran con las nuestras, y cuyas actuaciones acabaran destruyendo tanto la humanidad como todo lo que nos importa. Esa destrucción tal vez fuera indirecta, en lugar de intencionada: puede que la IA solo quisiera usar los átomos de la Tierra para propósitos incompatibles con nuestra existencia. La comparación con la manera en que los humanos tratamos a formas de vida inferiores no es nada alentadora: cuando queremos construir una presa hidroeléctrica y hay hormigas en la zona que se ahogarán como consecuencia, construimos la presa igualmente, no porque sintamos alguna antipatía hacia las hormigas, sino por la mera razónde que le damos prioridad a objetivos que consideramos más importantes.

La realidad interior de la vida ultra inteligente

Si hubiera una singularidad, ¿serían conscientes y autoconscientes las IA resultantes? ¿Tendrían una realidad interior? De no ser así, serían zombis a todos los efectos prácticos. De todas las características que posee la forma de vida humana, la consciencia es, con gran diferencia, la más notable. Ella es la que da sentido al Universo, de modo que si el Universo fuera tomado por formas de vida carentes de esta propiedad, perdería todo el sentido y no sería más que un inmenso desperdicio de espacio.

La naturaleza de la vida y la consciencia es un asunto muy discutido. Esos fenómenos pueden existir de un modo mucho más general que en los ejemplos basados en el carbono que conocemos. La consciencia es la manera en que se percibe la información cuando se está procesando. Como la materia se puede organizar para procesar información de muchas maneras con una complejidad muy diversa, esto implica una abundante variedad de niveles y clases de consciencia. El tipo particular de consciencia que conocemos de forma subjetiva es, pues, un fenómeno que surge en ciertos sistemas físicos altamente complejos que reciben, procesan, almacenan y generan información. Está claro que si se pueden ensamblar átomos para crear humanos, las leyes de la Física también permiten confeccionar una cantidad inmensa de otras formas avanzadas de vida sensible.

Por consiguiente, si los humanos acabáramos desencadenando el desarrollo de entidades más inteligentes a través de una singularidad, es muy probable que también ellas tuvieran consciencia de sí mismas, y en tal caso deberían contemplarse no como meras máquinas inertes, sino como seres conscientes como nosotros. No obstante, es posible que la percepción subjetiva de su consciencia difiriera bastante de la nuestra. Por ejemplo, seguramente carecerían del intenso miedo humano a la muerte: como harían copias de seguridad de sí mismas, lo único que podrían perder serían los recuerdos acumulados desde la copia archivada más reciente. La capacidad de copiar información y software con facilidad entre varias IA probablemente reduciría la firme sensación de individualidad que tanto caracteriza a la consciencia humana: habría menos diferencias entre nosotros si nos resultara trivial compartir y copiar todos los recuerdos y habilidades, así que un grupo de IA cercanas quizá se sintiera más bien como un único organismo con una mente colectiva.

Si esto fuera así, entonces la supervivencia de la vida a largo plazo se podría compaginar con el argumento del día del juicio final: lo que acabará no es la vida en sí, sino nuestra clase de referencia, momentos del observador autoconscientes cuya percepción subjetiva percibe aproximadamente como nuestra mente humana. Aunque una multitud de sofisticadas mentes colectivas colonizara este Universo a lo largo de miles de millones de años, el hecho de que no seamos ellas no tendría que causarnos más sorpresa que el hecho de que no seamos hormigas.

Reacciones ante la singularidad

Las reacciones de la gente ante la posibilidad de una singularidad varían enormemente. La idea de IA amistosas tiene una historia venerable en la literatura de ciencia ficción fundamentada en las tres famosas leyes de la robótica de Isaac Asimov, destinadas a garantizar una relación armónica entre los robots y los humanos. También abundan las historias en las que IA superan en inteligencia y atacan a sus creadores, como en las películas de la saga de Terminator.

Muchos rechazan la singularidad como «el delirio de los locos de la informática», y la ven como una idea disparatada de ciencia ficción que no llegará a suceder, al menos no en un futuro próximo. Según otros, es probable que ocurra y, si no se planifica con esmero, seguramente acabará, no ya con la especie humana, sino también con todo lo que nos ha importado desde siempre, tal como analizamos antes. Muchos investigadores contemplan la singularidad como el riesgo existencial más serio de nuestro tiempo. Algunos de ellos consideran que si no se puede garantizar la idea de la IA amistosa de Yudkowsky y otros, lomejor será mantener las IA futuras sujetas a un férreo control humano o no llegar a desarrollar jamás IA avanzadas.

Aunque hasta ahora hemos centrado nuestra exposición en las consecuencias negativas de la singularidad, otros, como Ray Kurzweil, creen que la singularidad sería algo enormemente positivo, de hecho, lo mejor que podría pasarle a la humanidad, porque resolvería todos los problemas actuales de la gente. ¿Atrae o espanta la idea de que la humanidad sea reemplazada por formas de vida más avanzadas? Probablemente dependa en gran medida de las circunstancias, y en particular de si contemplamos los seres del futuro como descendientes o como invasores.

Si un padre tiene un hijo que lo supera en inteligencia, que aprende de él y que, al irse, llega hasta donde él ni siquiera llegó a soñar, seguramente se sentirá feliz y orgulloso aunque sepa que no vivirá para ver todos sus éxitos. Pero el padre de un asesino en serie muy inteligente se siente de otra manera. Tal vez sintamos una relación similar a la de un padre con su hijo con las IA del futuro, y las contemplemos como herederas de nuestros valores. Por tanto, será muy distinto si la vida avanzada del futuro conserva o no nuestras aspiraciones más preciadas.

Otro factor clave consiste en si la transición será gradual o abrupta. A pocas personas les preocupará la idea de que la humanidad evolucione poco a poco, en el transcurso de milenios, para volverse más inteligente y mejor adaptada al entorno cambiante, tal vez variando incluso de aspecto físico en el proceso. Por otra parte, muchos padres se enfrentarían a sentimientos contrapuestos si supieran que tener el hijo soñado les costaría la vida. Si la tecnología avanzada del futuro no nos reemplaza de golpe, sino que nos moderniza y mejora de forma progresiva hasta fundirse a la larga con nosotros, nos permitirá conservar nuestras metas y nos brindará la gradación necesaria para que contemplemos las formas de vida posteriores a la singularidad como descendientes nuestras.

Los teléfonos móviles e Internet ya han incrementado la capacidad humana para alcanzar lo que queremos sin alterar demasiado nuestros valores esenciales, y los optimistas de la singularidad creen que lo mismo ocurrirá con los implantes cerebrales, los dispositivos controlados por la mente y hasta la instauración completa de la mente humana en una realidad virtual. Es más, eso podría lanzarnos al espacio, la última frontera. Al fin y al cabo, lo más probable es que una forma de vida extremadamente avanzada capaz de propagarse por todo este Universo solo emerja en dos pasos: primero la evolución da lugar a seres inteligentes surgidos por selección natural, y después estos eligen ceder la antorcha de la vida creando consciencias más avanzadas, capaces de perfeccionarse solas. Libres de las limitaciones del cuerpo humano, estas formas de vida avanzada podrán alzarse y a la larga colonizar buena parte del Universo observable, una idea tanteada desde hace mucho por autores de ciencia ficción, aficionados a la IA y pensadores transhumanistas.

En resumen, ¿habrá una singularidad dentro de unas pocas décadas? Y ¿debemos favorecerlo o evitarlo? Creo que es justo afirmar que no estamos nada cerca del consenso sobre ninguno de estos interrogantes, pero eso no significa que lo razonable sea no hacer nada al respecto. Podría ser lo mejor o lo peor que le haya ocurrido jamás a la humanidad, de modo que con que haya tan solo un 1 % de posibilidades de que se produzca una singularidad a lo largo de nuestra vida, creo que lo lógico sería tomar la precaución de dedicar al menos un 1 % del PIB a estudiar el asunto y decidir qué hacer.

Pero ¿por qué no lo hacemos? ¿Cómo es posible que en el año 2022, siglo XXI, estemos al borde de una guerra nuclear que acabe con todo, cuando Putin aplasta a Ucrania y pone en disposición de ataque a su inmenso poderío nuclear? Elucubramos con fines a largo plazo de la civilización humana, como el peligro que suponen las máquinas que habitarán con nosotros próximamente, y en cualquier momento, un dirigente paranoico es capaz de desatar el apocalipsis simplemente apretando un botón. Demencial, pero cierto. Como la Historia no deja de demostrarnos, somos capaces de lo mejor...y de lo peor. Por eso siempre he pensado que nuestra civilización se extinguirá mucho antes de que grandes fenómenos externos imprevistos nos detruyan. Lo haremos nosotros mismos.

 

                                                                                                                                                 © 2022 Javier De Lucas