LA GRAN ENCRUCIJADA

 

Los antiguos griegos forjaron su civilización sobre la base de su mitología. Los llamados “Doce Olímpicos” eran dioses que sentían y se comportaban como los humanos, según el libro de Homero de "la Ilíada" . Sin embargo, no lo eran. Gozaban de inmortalidad, más fuerza y más inteligencia. Solo así podrían protegerles de las distintas vicisitudes que debían afrontar en la Tierra. Desde lo alto, desde el monte Olimpo, Zeus y su séquito permanecían vigilantes y, con sus abundantes mitos, hacían sentir su omnipresencia ante sus leales creyentes.

Los sueños mitológicos perviven de alguna manera. Sin duda, han influido en nuestra manera de pensar a lo largo de la Historia. Pero son sueños, pura irrealidad. Sin embargo, la posibilidad de que seres superiores, no humanos, nos lleguen a dominar y quedemos bajo su libre albedrío llega a producir un temor real. En los últimos años, se han levantado muchas voces de expertos advirtiendo sobre el peligro de una Inteligencia Artificial evolucionada hasta alcanzar un estado de IA general y, después, la de singularidad tecnológica. Sería entonces cuando las máquinas superarían al ser humano en todos los ámbitos de su inteligencia, incluso podrían replicarse y mejorarse a sí mismas. El hombre quedaría finalmente en inferioridad de condiciones. ¿Cuánto hay de posible en este nuevo y ciertamente desconcertante mito?

Algunos de los elementos que más han contribuido a crear en nuestras mentes escenas apocalípticas entre humanos y robots provienen de la ciencia ficción. En "2001, odisea en el espacio" (1968), la computadora HAL (Heuristically Programmed ALgorithmic Computer) demuestra tener consciencia e intenta evitar que le apaguen, matando a varios miembros de la tripulación. Mientras, en "Terminator" (1984), un cíborg asesino es más fuerte e inteligente que un humano y, a su vez, está controlado por Skynet, una red neuronal con superinteligencia y consciencia que se resiste cuando los humanos intentan apagarla. " Matrix" (1999) también nos transporta a un escenario distópico desconcertante. En esta película, en una clara alusión al libro de "Alicia en el País de las Maravillas", el protagonista Neo sigue al conejo blanco hacia un mundo irreal dominado por la Inteligencia Artificial. Allí se encuentra a Morfeo quien le ofrece dos pastillas, una azul (la del conformismo y la ignorancia) y una roja, que le enseñará la cruda realidad: un mundo devastado por las máquinas, que utiliza a los seres humanos como generadores de energía. Para ello utilizan sus mentes alimentándolas con una simulación de la realidad.

Principales preocupaciones

Si nos imaginamos un mundo donde la singularidad ha llegado, es decir, que las máquinas son conscientes, hay dos escenarios que nos pueden preocupar:

• Que las máquinas nos quieran hacer daño, que abusen de nosotros, es decir, que seamos sus enemigos.

• Que, dada nuestra supuesta “inferioridad”, no importemos a las máquinas. Que les seamos indiferentes, siempre que no las molestemos. Esto último se puede comparar, en cierta medida, con cómo la mayoría de las personas tratamos a algunos animales, por ejemplo, las hormigas. Las pisas sin darte cuenta, sin advertir, la mayoría de las veces, su presencia. Conviven sin molestar. No entendemos sus razonamientos ni ellas, probablemente, los nuestros. Es obvio que, si las máquinas llegaran a tratarnos de esta forma, nuestra existencia sería bastante intranquila. También podríamos acabar siendo un mero recurso para las máquinas, como una fuente de energía. En este caso, las máquinas no nos odian, pero nos ven como un recurso a explotar, parecido a la forma en la que nosotros ahora explotamos a algunos animales. Como hemos visto, este es el escenario de la película " Matrix".

El filósofo sueco Nick Bostrom, en su libro "Superintelligence", describe un ejemplo algo menos dramático. Un sistema de IA general tiene, como objetivo, poseer el máximo número de clips posibles, un objetivo que, aparentemente, no tiene nada malo. El sistema empieza a comprar y coleccionar clips. Con respecto a su objetivo, se puede autoentrenar para ser aún más inteligente y puede empezar a construir clips de hilo de hierro. Cuando ya no puede encontrar este hilo, podría construir fábricas para producir hilo a partir de metales. Y, cuando ya no quedan metales, se transforma, con autoaprendizaje, para buscar otros materiales que podrían formar la base para construir más clips. Está claro a dónde conduce esto: optimizando su único objetivo, podría “robar” recursos esenciales a los humanos, incluso considerar a estos como recurso. La moraleja del cuento es que, aunque un sistema superinteligente no tiene objetivos explícitos contra los humanos, como efecto secundario podría destruir a la humanidad.

La otra preocupación es que las máquinas nos vean como sus enemigos. En este caso, tendrían como objetivo destruir a la humanidad o usarnos como recursos baratos y esclavos. Esto generaría dos mundos distintos: uno de lujo, donde vivirían las máquinas y algunos humanos como sus sirvientes; y otro más precario, donde habitaría el resto de las personas, sobreviviendo y trabajando para el bien de las máquinas.

AUTONOMÍA CONTROLADA

Para evaluar si es posible llegar a esta “singularidad”, analicemos algunos de los componentes necesarios y recapitulemos sobre dónde estamos actualmente con este proceso evolutivo de la Inteligencia Artificial. Algunas de las primeras preguntas que nos podríamos hacer serían: ¿cómo vamos a saber si una máquina tiene inteligencia general, es decir, una inteligencia parecida a la nuestra? ¿Cómo reconocemos o medimos esta inteligencia? En el llamado "Turing Test" o “Juego de imitación” de Alan Turing, se considera “inteligente” a un software cuando, en interacción con un humano, no somos capaces de distinguir entre las respuestas de la máquina y la persona. La prueba original de Turing no especifica ni el objeto de la conversación ni la duración de la prueba. Por lo tanto, para pasar la prueba de verdad, la máquina debería poder responder a cualquier tipo de pregunta sobre cualquier asunto, igual que lo hacemos los humanos.

Si aceptamos la prueba de Turing como una manera de medir “inteligencia”, debemos de ser conscientes de que nos fijamos en elresultado o el “comportamiento” de una máquina, no tanto en el proceso. Ya, en 1966, se creó el programa ELIZA, un sistema de IA que simulaba un psicólogo de la escuela Roger (parecido a lo que hoy es un coach personal). La gente tenía conversaciones con ELIZA sobre problemas personales. ELIZA te escuchaba, te preguntaba más y, al final, hacía que tú mismo te dieras cuenta de la solución. Aunque hoy día pocas personas se dejarían “engañar” por ELIZA pensando que es una persona, en su día consiguió confundir a varias sobre su verdadera naturaleza. ¿Se puede decir que ELIZA pasara la prueba de Turing? Si valoramos el resultado de ELIZA, es decir, el comportamiento del sistema, quizás tenemos que concluir que tiene una cierta inteligencia, ya que ha convencido a algunas personas.

El caso de Google Duplex

Google Duplex es capaz de mantener una conversación en lenguaje natural, el de los humanos, para reservar una mesa en un restaurante. Si nos fijamos solo en el resultado, la conclusión es que sí tiene inteligencia. Pero, si nos fijamos en cómo funciona por dentro, queda menos claro. Duplex se basa en aprendizaje automático supervisado, es decir, ha sido entrenado con muchas conversaciones para hacer reservas. Si escucha una frase, predice qué tiene que venir después. Duplex no sabe qué es un restaurante ni qué es una mesa. No “sabe” que un restaurante es un lugar donde se come y que es un acto social. Simplemente produce unas palabras que, estadísticamente, siguen a otras palabras. ¿Es esto inteligencia? Si solo consideramos el resultado, sí. Si consideramos el proceso, ya queda menos claro. Pero, si nos damos cuenta de que el programa no tiene ni idea de que está hablando, nos inclinamos a decir que no.

La cuestión de evaluar si una máquina es inteligente o no se complica también por una característica humana que el filósofo Daniel Dennett ha llamado la "intentional stance" . Esto se puede definir como la tendencia de las personas para atribuir características mentales a ciertos comportamientos de artefactos, aunque sepamos que no son mentales. Por ejemplo, solemos decir que nuestro ordenador está “pensando” cuando tarda un poco en reaccionar, o cuando decimos de un robot que es muy “mono” porque nos presta atención. Y, si conversamos con Google Duplex, es fácil que atribuyamos características humanas a la voz.

La Inteligencia Artificial de hoy es una IA “actual”, que puede hacer una tarea muy concreta, con un excelente resultado, pero que no tiene consciencia de la tarea que está ejecutando. Por eso aún estamos lejos de una Inteligencia Artificial general, como la que tenemos las personas. Para progresar de la IA actual hacia una IA general, son necesarios varios avances importantes. A este respecto se plantean grandes preguntas. ¿Cómo programar o enseñar sentido común a una máquina? ¿Qué debemos hacer para que una máquina domine la causalidad? ¿Cómo podría llegar a hacer la máquina inferencias lógicas sobre cualquier tipo de situaciones, algunas de las cuales no han visto nunca? ¿Es necesario la autoconsciencia para la Inteligencia Artificial general?

En su libro "Rebooting AI" , los autores Gary Marcus y Ernest Davis explican, de una manera sencilla, cómo la aproximación mediante técnicas de "deep learning" (aprendizaje profundo) no es suficiente para alcanzar todos estos avances importantes. Además, ofrecen pistas de qué más sería necesario. En resumen, parece que el reto es imitar el proceso de aprendizaje que experimenta un bebé durante sus primeros años de vida. Nace no sabiendo nada y, después de unos años, entiende la causalidad, tiene autoconsciencia, sabe razonar y desarrolla su sentido común. En opinión de los autores de este libro, para lograr ese progreso hacia una IA general es necesario una aproximación híbrida, donde se combinan varios tipos de Inteligencia Artificial, de los cuales es posible que algunos sean aún desconocidos.

Miremos un momento el ejemplo de GPT-2, un sistema de aprendizaje profundo que ha sido entrenado con el texto de 45 millones de páginas web y usa unos 1.500 millones de parámetros. Este sistema es capaz de generar texto coherente a partir de unas frases escritas por personas. Es decir, cuando nosotros leemos el texto generado por GPT-2, tiene sentido. Aunque no es perfecto, acierta en más de la mitad de los casos. Algunos investigadores que hicieron pruebas con GPT-2 advirtieron que, gracias a esta técnica, era posible automatizar la creación de noticias falsas. Esto llevó a su creador, Open AI, una empresa respaldada por Elon Musk y con una inversión de Microsoft de 1.000 millones de dólares, a restringir el programa por los peligros que pudiera causar. GPT-2 representa las palabras y el orden en que pueden aparecer como vectores. Cuando tiene que completar frases donde faltan algunas palabras, simplemente mira qué vectores son similares e inserta las palabras correspondientes.

Por ejemplo: [Persona:] Me crié en Italia y hablo [GPT-2:] italiano y puedo usar el italiano en todas mis notas. En este caso, lo que ha completado GPT-2 tiene todo el sentido del mundo. Pero también hay muchas ocasiones en las que lo que produce no tiene sentido. El científico Gary Marcus observó que GPT-2 no entiende de lugares, causalidad, no hace razonamiento lógico y no sabe de números: [Persona:] A es mayor que B. B es mayor que C. Entonces A es mayor que [GPT-2:] B. [Persona:] Tengo cuatro platos y pongo en cada uno una galleta. El número total de galletas es [GPT-2:] 24,5 como topping y dos como llenado. La pregunta importante es si estos vectores representan algo de la semántica de las palabras en conjunto o si un vector es meramente una representación estadística. Esto es, más bien, una pregunta filosófica porque aún no sabemos cómo nosotros, los humanos, representamos la semántica de las palabras y frases en nuestro cerebro.  GPT sigue avanzando y perfeccionándose, mientras que otras compañías han irrumpido en este fantástico campo, diseñando programas cada vez más sofisticados y sorprendentes que parecen disminuir las diferencias persona/máquina.

LA GRAN ENCRUCIJADA

¿Qué es entonces ciencia, ficción y opinión con respecto a la singularidad? Lo primero es que hay consenso en el mundo científico de que la IA de hoy no es una inteligencia digna para ser comparada con la inteligencia humana a iguales. Esta pretendemos que sea una de las ideas principales de este artículo. La IA de hoy, nos estamos refiriendo al aprendizaje profundo, sabe resolver problemas muy complejos, pero solo problemas muy concretos con abundancia de datos para el entrenamiento. Además, esta IA no tiene conocimiento explícito del dominio donde está actuando; no tiene metaconocimiento ni un modelo causal que explica el por qué ha llegado a sus conclusiones. Como mucho, puede llegar a una explicación correlacional. Otra cosa que sabemos es que aún quedan muchos pasos que dar hasta que lleguemos a la IA general, en el futuro. Sabemos también que esta última requiere algo como el sentido común, capacidad de inferencia lógica y entender relaciones causales. Hasta aquí es “ciencia”. Pero no sabemos si, para llegar a esto, el paradigma del aprendizaje profundo es suficiente o si son necesarios avances significativos adicionales en la Inteligencia Artificial.

La verdadera pregunta es cómo los humanos conseguimos pensar en conceptos abstractos, cómo entendemos causalidad, cómo funciona el sentido común y cómo conseguimos hacer inferencias lógicas, si todo lo que tenemos es un cerebro complejo con miles de millones de células y conexiones. Además, otra de las preguntas sería si es necesaria la autoconsciencia para llegar a una inteligencia general. Tampoco hay consenso sobre si la consciencia es un requisito necesario para llegar a una IA general. Quizás la consciencia nos da la moralidad: a primera vista, parece que no es necesaria para exhibir un comportamiento lógico (ponerse metas y actuar en consecuencia), pero sí para distinguir entre lo bueno y lo malo, entre las metas malas y las metas buenas. Aunque bien argumentadas, todo esto siguen siendo opiniones.

En su libro "Architects of Intelligence", Martin Ford preguntó a más de veinte expertos reconocidos internacionalmente cuándo creían que llegaría la IA general. Las respuestas oscilaron entre 10 años y 180 años, y la media era 80 años, es decir, en 2099. El experto más optimista era Ray Kurzweil que hablaba del año 2029 y el más pesimista Rodney Brooks, que abogó por el año 2200. Si los más distinguidos expertos no están de acuerdo, está claro que estamos hablando de opiniones. En España, el experto en IA Ramón López de Mántaras afirma que la singularidad aún está muy lejos y quizás es imposible de alcanzar.

¿Sería realmente posible la singularidad tecnológica?

Paremos un momento en la pregunta si la Inteligencia Artificial general siquiera es posible. Con todas nuestras limitaciones, somos capaces de hacer, sentir, pensar una gran cantidad de cosas impresionantes. Además, somos conscientes de ellas y podemos razonar sobre esta consciencia. ¿Cómo podrían las máquinas conseguir lo mismo, aunque fuera con nuestra ayuda? Efectivamente, es muy difícil imaginar que algo inerte pudiera alcanzar esta sofisticación que hemos alcanzado los humanos. Pero ¿sabemos cómo hemos alcanzado los humanos todas estas características maravillosas? Sabemos dónde empezó todo: con LUCA, el "último ancestro común universal" por sus siglas en inglés. LUCA es el último organismo que tiene en común toda la vida en nuestro planeta y vivió hacía unos 3.500 millones de años. A partir de ahí, la teoría de evolución de Darwin es el mecanismo que nos ha llevado hasta donde estamos. Desde LUCA, hemos “sufrido” mutaciones aleatorias durante miles de millones de años, que al final nos ha llevado a lo que somos actualmente. Nuestra consciencia, el sentido común, nuestro pensamiento lógico, nuestras emociones, la capacidad de empatía, de enfadarnos, reírnos, etc., ¿todo esto viene de un simple organismo que llamamos LUCA? Es difícil de creer, ¿verdad? Pero, según la teoría científica, así es. Los humanos actuales venimos de los neandertales, que vinieron de los monos, que vinieron de... y así en adelante.

Entonces, si gracias a la evolución ha sido posible la creación de todas estas capacidades maravillosas, ¿no podría existir otro camino para llegar a esto mismo? Teniendo en cuenta la teoría de la evolución, no podemos decir que la Inteligencia Artificial general sea posible, ¿pero quizás sí podemos decir que no es imposible? El filósofo Daniel Dennett esgrime un argumento muy largo y convincente a este respecto en su libro "From bacteria to Bach and back". En vez de tardar miles de millones de años para llegar al humano actual, a través de un proceso aleatorio con ciclos largos (nuestras generaciones), ¿no se podría hacer más rápido a través de un proceso dirigido y diseñado con ciclos muy cortos? Esto nadie puede saberlo, aunque casi todos tenemos una opinión bastante consistente al respecto.

El científico Christoph Koch, jefe científico del Allen Institute en Seattle y uno de los más reconocidos científicos en temas relativos a la consciencia, sí cree que las máquinas podrían llegar a tenerla en el futuro. Según él, la consciencia siempre sobreviene de algo físico, pero requiere de un hardware específico para que pueda ocurrir. No se sabe aún qué tipo de hardware es, pero quizás podría estar hecho de un material, como la silicona. Obviamente, aquí estamos hablando de una opinión, no de una certeza científica.

EL FUTURO DE LA HUMANIDAD

Llegados a este punto, merece la pena aventurarse una última vez y opinar sobre qué nos deparará el futuro desde la perspectiva de los principales elementos característicos de la Inteligencia Artificial y de otras tecnologías relevantes. Los dos grandes temas tecnológicos para la toma de decisiones autónomas son los sesgos, con su posible discriminación no deseada, y la explicabilidad de los algoritmos de caja negra. Actualmente, estas dos áreas cuentan con una intensa actividad de investigación y muy probablemente, en unos cinco años, el problema técnico estará resuelto. Seremos capaces de abrir los algoritmos de caja negra para que se pueda entender cómo funcionan y cómo llegan a conclusiones específicas. También será posible evitar la discriminación contra grupos vulnerables, incluso si no hay datos disponibles al respecto en el conjunto de datos con que el algoritmo trabaja.

Aunque actualmente la Inteligencia Artificial no cuenta con una regulación horizontal, hay mucha discusión al respecto, en los gobiernos nacionales y en la Comisión Europea, sobre si es necesario o no. Ya existe legislación que prohíbe la discriminación de grupos vulnerables, la discriminación contra la raza, la convicción religiosa, etc. También existe el derecho a reclamar si un ciudadano no está de acuerdo con una decisión que le afecta, como el rechazo de una prestación social. Y la GDPR europea protege la privacidad de datos personales. La pregunta es si, con la Inteligencia Artificial, se ha vuelto imposible ejercer y controlar estas legislaciones. Tanto las empresas y las administraciones públicas que usan IA, como los reguladores y los jueces que tienen que verificar su buen uso, tienen dificultades en conseguirlo. Esto es, por un lado, debido a que se trata de una tecnología nueva que no controlan y, por otro, porque permite automatizar las decisiones a una escala que antes no se hacía. Recientemente se han conseguido acuerdos de mínimos sobre I.A. en varios foros internacionales.

Actualmente, los candidatos para ser regulados, en el campo de la AI, son las decisiones autónomas y el reconocimiento facial en sectores y aplicaciones considerados como alto riesgo, como defensa, transporte y salud. Dado el vacío en la legislación y la preocupación social, varias empresas y organizaciones han definido sus principios de IA en un intento de autorregulación. Pero, de vez en cuando, surgen dudas sobre la intención de estas iniciativas y se habla de "ethics washing" (lavado de ética). Ocurre cuando una empresa anuncia públicamente que da mucha importancia a la privacidad o la discriminación con algoritmos pero, en la práctica, está vulnerando estos principios. En mi opinión, no se puede generalizar y habrá un poco de todo. Podemos visualizar esto como un continuo de intenciones respecto a la consideración ética de la IA que va desde la consideración nula (organizaciones criminales) hasta el cumplimiento total de las directrices internacionales a este respecto:

Hacer el mal con IA.

Usar la IA para el negocio y considerar los impactos no éticos como daño colateral.

Usar la IA para el negocio e intentar evitar todos los impactos no éticos.

Usar la IA para el negocio y, cuando se detectan impactos no éticos, decidir no usarla.

Usar la IA para el bien social.

El tiempo nos dirá en qué dirección se desarrollará esta tendencia y cuál será el impacto de una nueva regulación.

La privacidad

En el mundo digital, la privacidad de nuestros datos está siendo continuamente cuestionada. La manera más eficaz de resolver este problema sería quedándonos fuera del mundo digital. Pero, hoy en día, esto no es opción si queremos aprovechar todas las oportunidades. Es verdad que necesitamos empresas y administraciones públicas que traten nuestros datos con responsabilidad, igual que ahora trabajan en una cadena de suministro justa, en la diversidad y en “ser más verde”. Ya existe una legislación en Europa al respecto.

Sin embargo, aún queda mucho que mejorar en lo relativo a la Inteligencia Artificial y el Big Data para que podamos llegar a sacar todo su potencial. De esto, podría ser considerado “no ético” el hecho de no usar estas tecnologías para resolver los grandes problemas del planeta y la humanidad como el cambio climático o las pandemias. Actualmente, existe una preocupación, y con razón, por la privacidad de los datos, que ha llevado a una falta de confianza. Es esta falta de confianza la que limita las posibilidades. Incluso si consideramos solo datos agregados y anónimos, existe una preocupación en la opinión pública, muchas veces fomentada por los medios. Es fundamental reestablecer la confianza a todos los niveles. Así, no solo se conseguirá aumentar su beneficio para las empresas, sino también para los gobiernos, quienes podrán transformar la forma en la que toman decisiones, basándose en evidencias más fiables. La educación tiene un papel fundamental para resolver este reto.

La relación máquinas-personas

En el futuro, la colaboración persona-máquina va a ser la clave. Actualmente, en la época de la IA actual, es difícil que las máquinas pueden hacer un trabajo completo de manera autónoma, pero las personas pueden ser mucho más efectivas apoyándose en las máquinas. En el futuro, cuando la investigación científica avance en la dirección de una IA general (aunque quizás nunca la alcance) y vaya desarrollando la capacidad de razonamiento, sentido común y modelos causales, esta colaboración seguirá siendo muy fructífera, porque el humano cada vez se podrá apoyar más en las máquinas, sin que estas sean “cajas negras”: cada vez más seremos un equipo.

Como formula el experto Ignacio Hernández Medrano, “en el futuro, tendremos IA que nos ayudará a sobrellevar muchas tareas que asumimos como nuestras hoy día. La población no concebirá vivir sin que la IA forme parte de sus vidas, al igual que hoy no podríamos concebir que un humano asfaltara con sus propias manos una carretera”.

En definitiva, podremos seguir estando tranquilos hasta el momento en que las máquinas adquieran consciencia y puedan decidir si nos dominan o nos eliminan. Mientras, deberíamos pensar en tener más cuidado con nosotros mismos que con las máquinas. La mayoría de los problemas que tenemos como humanidad son consecuencia de nuestras propias actuaciones. No todos queremos el bien de todos ni todos tenemos comportamientos éticos. El cambio climático, la contaminación, las guerras, los gobiernos dictatoriales, nuestra mala salud, la desigualdad, etc., todo esto, en gran medida, lo debemos a nosotros mismos y no a ninguna máquina.

Otras tecnologías importantes

Hay muchas otras tecnologías que van a tener un impacto significativo en nuestras vidas de una manera similar a la Inteligencia Artificial como, por ejemplo, la biotecnología, la neurotecnología y la nanotecnología. Estas disciplinas aplican tecnología para intervenir el cuerpo o cerebro con el objetivo de entender, mitigar, predecir o curar enfermedades. El avance de estas tecnologías plantea cuestiones similares a la de la IA, pero no desde la perspectiva de una máquina, sino desde la perspectiva de los humanos mejorados.

El científico español Rafael Yuste, impulsor de la mayor iniciativa para conocer el cerebro y catedrático de la Universidad de Columbia en EE. UU., avisa del peligro de la pérdida de la privacidad de los pensamientos. Se están haciendo pruebas para leer la actividad cerebral y descifrarlo como palabras. Esto también podría servir para, a través de señales eléctricas, manipular los pensamientos de las personas. También debemos pensar en el impacto de todas estas tecnologías en el cambio climático. Por ejemplo, el hecho de entrenar los modelos actuales más potentes de aprendizaje profundo para el procesamiento de lenguaje natural podría emitir la misma cantidad de CO2 que cinco coches durante todas sus vidas activas.

Acelerando el futuro

Para que todas estas tecnologías del futuro lleguen a desarrollarse con todo su potencial, teniendo en cuenta el inmenso volumen de datos que crece cada día más, a un ritmo exponencial, será necesario, por un lado, una mayor potencia de computación (que permita mayor velocidad en el cálculo a la hora de extraer el valor de los datos) y, por otro, una mayor eficiencia en el cálculo, además de dispositivos que permitan almacenar cada vez más y mejor los datos. Si al final le sumamos un consumo energético menor y una menor contaminación ambiental, visualizamos un resultado que pasa por la llamada “computación cuántica”.

Pero eso es otra historia.

                                                                                                                      ©  2024  JAVIER DE LUCAS