LA UNIDAD DE LA VIDA

Dejando atrás la síntesis de átomos simples y complejos, el origen del Sol y la Tierra, la naturaleza de las reacciones químicas y la necesidad de agua, me centraré en este artículo en la vida. Aunque pueda parecer natural comenzar por su génesis, esta cuestión, todavía no resuelta, es mejor abordarla después de explorar las cualidades moleculares por excelencia de la propia vida. Y para alguien como yo, esa exploración revela una sorprendente unidad biológica. No conocemos el número exacto de especies distintas que hay en la Tierra, de microbios a manatíes, pero los estudios ofrecen estimaciones que se mueven desde millones, por lo bajo, hasta billones, en las estimaciones más altas. Sea cual sea el número exacto, está claro que es enorme. Pero toda esa riqueza de especies distintas no nos deja ver la naturaleza singular del funcionamiento interno de la vida.
Si examinamos un tejido vivo con la suficiente ampliación, encontramos los «cuantos» de la vida, las células, que son las unidades más pequeñas de los tejidos que podemos identificar como algo vivo. Con independencia de su procedencia, son tantas las características que todas comparten que a una persona no entrenada que examine especímenes individuales le resultaría difícil distinguir un ratón de un mastín, una tortuga de una tarántula o una mosca de un humano. Eso es más que notable. Uno creería que en nuestras células debe verse alguna marca obvia y significativa. Pero no es así. La razón, establecida durante las últimas décadas, es que toda la vida pluricelular compleja desciende de la misma especie unicelular ancestral.
Las células se parecen porque sus linajes irradian desde el mismo punto de partida. Eso es muy revelador. Con tan copiosas encarnaciones, la vida podría haber tenido múltiples orígenes. Al seguir el linaje de los moluscos marinos y remontarnos a su origen, podríamos haber encontrado que este es distinto del que encontramos en los jazmines o las orquídeas. Pero los datos nos dicen con rotundidad que cuando se busca el origen de la vida, los linajes convergen en un antepasado común. Y hay dos características omnipresentes en la vida que nos convencen todavía más. Ambas ilustran lo hondo que es lo que comparten todas las vidas. La primera, y más familiar, tiene que ver con la «información», con el modo en que las células codifican y utilizan la información que dirige las funciones que sustentan la vida. La segunda, igual de importante pero menos célebre, se refiere a la «energía», a cómo las células aprovechan, almacenan y utilizan la energía necesaria para llevar a cabo las funciones que sustentan la vida. En ambos casos veremos cómo en toda la extraordinaria diversidad de la vida en la Tierra los detalles de los procesos son idénticos.
La unidad de la información en la vida
Una de las formas que tenemos de reconocer que un conejo está vivo es observando cómo se mueve. Una piedra también se mueve, naturalmente. Una fuerte corriente puede trasladarla río abajo o una erupción puede lanzarla al cielo. La diferencia es que el movimiento de la piedra se puede entender, incluso predecir, a partir de las fuerzas externas que actúan sobre ella. Si conocemos lo suficiente sobre el río o la erupción, seremos capaces de anticipar bastante bien lo que ocurrirá. Predecir el movimiento de un conejo no es tan fácil. La actividad dentro de lo que Schrödinger llamó «límites espaciales» del conejo (su actividad interna) es un factor decisivo para su locomoción. El conejo arruga el hocico, gira la cabeza, golpea el suelo con la pata, y todo ello hace que parezca tener voluntad propia. Que el conejo o cualquier otra forma de vida (incluidos nosotros) gocen de verdad de una voluntad autónoma es algo que se ha debatido durante siglos, pero nos ocuparemos de ello en el capítulo siguiente, así que no hay razón para que nos entorpezca ahora. Por el momento, podemos estar de acuerdo en que, si bien la actividad dentro de la piedra no tiene la menor relevancia para el movimiento que observamos, los movimientos coordinados, complejos y autodirigidos del conejo nos dejan ver que está vivo.
No es una prueba infalible. Los sistemas automáticos pueden ejecutar movimientos bastante parecidos, y a media que la tecnología avance, la capacidad de emular la vida será cada vez mayor. Pero eso solo nos lleva a subrayar la cuestión general que estamos discutiendo: el movimiento del tipo que estamos considerando surge de la interacción entre información y ejecución, entre lo que podríamos calificar de programa y máquina, de software y hardware . Para un sistema automático, la descripción es literal. Los drones, los coches autónomos, los robots aspiradores y demás artilugios están gobernados por programas que toman datos de su entorno como entradas, y sus salidas determinan una respuesta ejecutada por la maquinaria del aparato, ya sean alas, rotores o ruedas.
En el caso de un conejo, la descripción es metafórica. Aun así, el paradigma de programa-máquina resulta ser especialmente útil para pensar sobre la vida. El conejo acumula datos sensoriales de su entorno, los hace pasar por una «computadora neuronal» (su cerebro), y esta envía señales cargadas de información por las vías nerviosas (come hierba, salta por encima de la rama caída, etc.) que generan acciones físicas. El movimiento del conejo surge del procesamiento y transmisión internos de una compleja serie de instrucciones que fluyen a través de su estructura física: un software biológico que rige un hardware también biológico. Este tipo de procesos no se hallan en absoluto en la piedra.
Si nos introducimos en una sola célula del conejo, encontramos que esas mismas ideas nos valen, pero a una escala menor. La mayor parte de las funciones de la célula están ejecutadas por proteínas, unas moléculas grandes que catalizan y regulan reacciones químicas, transportan sustancias esenciales y controlan propiedades específicas, como la forma de la célula o su movimiento. Las proteínas están constituidas por combinaciones de veinte subunidades menores, los «aminoácidos», de modo parecido a como las palabras están formadas por diversas combinaciones de veintisiete letras. Y del mismo modo que las palabras con sentido requieren que las letras se ordenen de manera específica, las proteínas útiles requieren que los aminoácidos se unan en secuencias concretas. Si ese ensamblaje se encomendase al azar, las probabilidades de que los aminoácidos requeridos se encontrasen unos con otros en el orden justo para construir una proteína determinada serían casi cero.
El ingente número de maneras posibles en que se pueden combinar veinte aminoácidos distintos en una larga cadena lo deja bien claro: para una cadena de ciento cincuenta aminoácidos (una proteína pequeña), hay unas 10195 ordenaciones distintas, un número que supera en mucho el de partículas en todo el universo observable. De modo muy parecido a como el proverbial equipo de monos que teclean letras al azar durante décadas no conseguirá escribir más que «ser o no ser», el azar ciego no conseguiría crear las proteínas específicas que requiere la vida.
En realidad, la síntesis de proteínas complejas requiere un conjunto de instrucciones que definen el proceso paso a paso: une este aminoácido a este otro, luego añade uno más, seguido de aquel otro, y así sucesivamente. Dicho de otro modo, la síntesis de proteínas requiere de un software celular. Y esas instrucciones existen dentro de cada célula. Están codificadas en el ADN, la molécula de la vida, cuya estructura geométrica descubrieron Watson y Crick. Cada molécula de ADN está configurada en la famosa espiral de la doble hélice, una larga escalera retorcida cuyos peldaños están formados por travesaños formados por parejas de unas moléculas más cortas, llamadas bases, que se suelen denotar con las letras A, T, G y C (los nombrestécnicos, que no importan aquí, son adenina, tirosina, guanina y citosina).
Los miembros de una especie determinada comparten de forma muy precisa la misma secuencia de letras. En el caso de los humanos, la secuencia de ADN alcanza unos tres mil millones de letras, y la secuencia de cualquiera de nosotros difiere de la de Einstein, Marie Curie, William Shakespeare o cualquier otro en menos de una cuarta parte de un 1 %, aproximadamente una letra de cada quinientas. Pero antes de vanagloriarnos por poseer un genoma tan parecido al de cualquiera de las más brillantes mentes de la historia (o de cualquiera de los más infames villanos), conviene saber que nuestra secuencia de ADN también coincide en un 99 % con la de cualquier chimpancé. Diferencias genéticas pequeñas pueden tener un impacto muy grande.
Al construir los peldaños de la escalera de ADN, las bases se juntan por parejas de acuerdo con una regla rígida: una A en uno de los largueros forma un travesaño uniéndose a una T en el otro larguero, una G en un lado se une a una C en el otro. De este modo, la secuencia de bases de uno de los largueros de la escalera determina la secuencia de bases en el otro larguero. Y es en la secuencia de letras donde encontramos, entre otra información vital para la célula, instrucciones que especifican qué aminoácidos se unirán a qué otros, dirigiendo así la síntesis de la colección de proteínas que en cada especie son esenciales para esa forma de vida.
«Todos los seres vivos codifican las instrucciones para fabricar las proteínas del mismo modo.»
En un solo párrafo, tal vez demasiado detallado, se puede resumir el manual de funcionamiento del código Morse que está escrito en la vida. Los grupos de tres letras consecutivas de una hebra determinada de ADN denotan un aminoácido particular de la colección de veinte. Por ejemplo, la secuencia CTA denota el aminoácido leucina; la secuencia GCT, la alanina; la secuencia GTT, la valina, y así sucesivamente. Si examinamos las bases unidas a uno de los largueros de una secuencia de ADN y nos fijamos en la secuencia de nueve letras CTAGCTGTT, lo que leemos son instrucciones para unir una leucina (las primeras tres letras, CTA) a una alanina (el segundo grupo de tres letras, GCT), a la que luego añadiríamos una molécula de valina (las últimas tres letras, GTT). Una proteína formada por mil aminoácidos estará codificada por una secuencia específica de tres mil letras (el punto de inicio y fin de esa secuencia también estarían codificados por secuencias específicas de tres letras, de modo parecido a como una letra mayúscula y un punto denotan el principio y el final de esta frase). Una secuencia como la descrita constituye un «gen», el plano de instrucciones para ensamblar una proteína.
He expuesto los detalles por dos razones. La primera es que ver el código hace que el concepto de software celular sea explícito. Dado un segmento de ADN, podemos leer las instrucciones que dirigen el funcionamiento interno de la célula, una sofisticada coordinación totalmente ausente en la materia inanimada. La segunda es que ver el código demuestra lo que quieren decir los biólogos cuando lo califican de universal. Toda molécula de ADN, sea de Sófocles o sea de un sargazo, codifica del mismo modo la información necesaria para fabricar las proteínas. Esa es la unidad de la información en la vida.
La unidad de la energía en la vida

Del mismo modo que la máquina de vapor necesita un suministro de energía para empujar una y otra vez el pistón, la vida requiere un abastecimiento constante de energía para llevar a cabo funciones esenciales, desde el crecimiento y la reparación al movimiento y la reproducción. En el caso del artefacto, la energía se extrae del entorno: quemamos carbón, madera y otros combustibles variados, y el calor que se genera es consumido por el mecanismo interno de la máquina, que lleva a la expansión del vapor de agua. Los seres vivos también consiguen energía de su entorno. Los animales la extraen de los alimentos; las plantas, de la radiación solar. Pero a diferencia de la máquina de vapor, la vida no suele usar esa energía en el momento de adquirirla. Los procesos de la vida, más complejos que la expansión o contracción del vapor de agua, requieren un sistema más refinado de transporte y distribución de energía. La vida necesita almacenar la energía que extrae del combustible para poder entregarla de manera regular y fiable a medida que la requieran sus constituyentes celulares.
«Todos los seres vivos resuelven del mismo modo el problema de la extracción y distribución de la energía.»
La solución universal que ha alcanzado la vida, una compleja secuencia de procesos que tienen lugar en este mismo momento en cualquiera de nosotros y, por lo que sabemos, en todo lo que vive, se cuenta entre los logros más espectaculares de la naturaleza. La vida extrae energía de su entorno mediante una suerte de lenta combustión química, y la almacena cargando unas baterías biológicas que poseen todas las células. Estos paquetes de baterías celulares proveen después una fuente constante de electricidad que las células utilizan para sintetizar moléculas que tienen el cometido de transportar y entregar energía a cada componente celular. Eso puede parecer difícil de entender, y lo es. Pero también es vital comprenderlo, así que voy a examinarlo brevemente. No es esencial entender todos los detalles. Aun la más superficial de las exploraciones revelará la prodigiosa manera en que la vida impulsa su funcionamiento interno.
La combustión química que ocupa un lugar central en el procesamiento de la energía en los seres vivos se conoce como «reacción redox». No es el nombre más seductor, pero el ejemplo arquetípico (la combustión de un tronco) clarifica la nomenclatura. A medida que un tronco se quema, el carbono y el hidrógeno de la madera ceden electrones al oxígeno del aire (recordemos que el oxígeno se desvive por conseguir electrones), y se unen con este formando moléculas de agua y dióxido de carbono al tiempo que liberan energía (la razón de que el fuego sea caliente). Cuando el oxígeno toma los electrones, decimos que se reduce (podemos pensar que lo que se reduce es el ansia del oxígeno por conseguir electrones). Cuando el carbono o el hidrógeno ceden electrones al oxígeno, decimos que se oxidan. En conjunto, lo que presenciamos es una reacción de reducción-oxidación o, de forma más concisa, redox.
En la actualidad, los científicos utilizan el término redox de manera más amplia para referirse al conjunto de reacciones que implican la transferencia de electrones entre constituyentes químicos, aunque el oxígeno no intervenga. Aun así, un tronco en llamas sigue proporcionando un modelo muy relevante para describir la combustión química. Átomos famélicos, acongojados por su carga de filas medio llenas, agarran electrones de donantes atómicos con tal fuerza que en el proceso se libera una cantidad no despreciable de energía almacenada.
En las células vivas (centrémonos en los animales para ser más concretos), se producen reacciones redox parecidas, pero, y esto es importante, los electrones arrancados de los alimentos ingeridos durante el desayuno no se transfieren directamente al oxígeno. Si se hiciera así, la energía liberada provocaría algo parecido a un incendio celular, un resultado que a la vida le ha resultado conveniente evitar. En su lugar, los electrones donados por los alimentos pasan por una serie de reacciones redox intermedias, áreas de descanso en un viaje que finalmente acabará en el oxígeno, pero que permite que cada vez se libere una cantidad menor de energía. Como una pelota que alcanza las gradas y baja los escalones uno a uno hasta el estadio, los electrones saltan de un receptor molecular a otro, cada uno más ávido de electrones que el anterior, y a cada paso se libera energía. El oxígeno, que de todos los receptores es el más ávido de electrones, aguarda al electrón en la base de las gradas y, cuando por fin llega, lo agarra con fuerza, le exprime la energía marginal que aún le quede y concluye el proceso de extracción de energía.
En las plantas el proceso es básicamente el mismo. La principal diferencia es la fuente de electrones, que en los animales proceden de los alimentos, y en los vegetales, del agua. Cuando la luz del sol golpea la clorofila de las hojas verdes de las plantas, arranca electrones de moléculas de agua, los carga de energía, y entonces caen por otra cascada redox que permite extraer su energía. Así pues, la energía que sustenta todas las acciones de los seres vivos se puede atribuir, en último análisis, a un mismo proceso: electrones que, saltando, ejecutan una cadena de reacciones redox dentro de la célula. Por eso Albert Szent-Györgyi, siguiendo sus reflexiones poéticas, decía que «la vida es un electrón que busca un lugar de descanso».
Desde la perspectiva de la física, merece la pena subrayar lo sorprendente que resulta todo esto. La energía es la moneda que paga las idas y venidas en todo el cosmos, una divisa con muchos nombres y conseguida por una variedad aún mayor de medios. Una de las monedas es la energía nuclear, generada por la fisión y fusión entre un amplísimo abanico de especies atómicas; otra es la energía electromagnética, generada por atracciones y repulsiones entre una gran variedad de partículas cargadas; aún otra es la energía gravitacional, generada por interacciones entre muy diversos cuerpos masivos. Y, sin embargo, de todos los innumerables procesos, la vida en el planeta Tierra aprovecha un solo mecanismo, solo uno: una secuencia específica de reacciones químicas electromagnéticas en la que los electrones participan en una secuencia descendiente de saltos, empezando en el alimento o el agua y acabando en el fuerte abrazo del oxígeno.
¿Cómo llegó a convertirse este proceso de extracción de energía en el mecanismo elegido por la vida? Nadie lo sabe. Pero su universalidad, como la del código genético, atestigua, y con fuerza, la unidad de la vida. ¿Por qué todos los seres vivos obtienen energía de la misma manera? La respuesta inmediata es que toda la vida debe descender de un antepasado común, una especie unicelular que los investigadores creen que existió hace unos cuatro mil millones de años.
Biología y baterías
Las pruebas a favor de la unidad de la vida se tornan aún más convincentes cuando le seguimos la pista a la energía liberada por el salto de electrones a lo largo de una cadena de reacciones redox. Esa energía se utiliza para cargar baterías celulares presentes en todas las células. Estas baterías, a su vez, alimentan la síntesis de moléculas especialmente útiles para el transporte y entrega de energía en el lugar y el momento en que se necesite dentro de una célula. Se trata de un proceso complejo. Pero es el mismo en todos los seres vivos.
A grandes rasgos, funciona del siguiente modo. A medida que un electrón salta a los brazos abiertos de un receptor redox, la molécula de este se estremece y modifica su orientación con relación a otras moléculas que se encuentran estrechamente empaquetadas a su alrededor, de modo parecido a como en un motor se cambia de marcha. Cuando el veleidoso electrón salta de nuevo hasta el siguiente receptor redox, la primera molécula retorna a su orientación original al tiempo que la nueva molécula receptora se estremece. A medida que el electrón va saltando, la pauta se repite: las moléculas se estremecen, cambian de orientación, pierden el electrón, se estremecen de nuevo y vuelven a su orientación original. Esta secuencia de saltos de electrones que producen los estremecimientos moleculares realiza un trabajo sutil pero importante. Cada vez que las moléculas cambian de orientación y regresan a la original, empujan a un grupo de protones, que se ven obligados a atravesar una membrana circundante, y se van acumulando en un delgado compartimento, una especie de celda de detención abarrotada. O, en un lenguaje más prosaico, una batería de protones.
En una batería normal, las reacciones químicas fuerzan a los electrones a acumularse en uno de los lados de la batería (el ánodo), donde la repulsión mutua entre estas partículas de igual carga hace que estén dispuestos a escapar a la primera de cambio. Cuando al presionar un botón de encendido o accionar un interruptor cerramos un circuito eléctrico, liberamos los electrones acumulados, permitimos que fluyan fuera del ánodo, pasen por algún dispositivo (una bombilla, un portátil, un teléfono) y por fin regresen a la batería por el otro lado (el cátodo). Por comunes que sean, las baterías son tremendamente ingeniosas. Almacenan energía en un conjunto de electrones abarrotados, ansiosos por liberar su energía y alimentar con ella el aparato que sea.
En una célula viva nos encontramos con una situación análoga, solo que en lugar de una acumulación de electrones, lo que tenemos es una acumulación de protones. Pero esa distinción no importa demasiado. Igual que los electrones, los protones llevan todos la misma carga, de modo que también se repelen mutuamente. Así pues, en una célula, las reacciones redox cargan unas baterías biológicas de protones. De hecho, como los protones se encuentran todos agregados a un lado de una membrana extremadamente fina (con un grosor de unas pocas docenas de átomos), el campo eléctrico (el voltaje de la membrana dividido por su grosor) puede ser enorme, por encima de decenas de millones de voltios por metro. Las baterías celulares no son precisamente flojas. ¿Qué hacen entonces las células con estas minicentrales? Aquí es donde las cosas se ponen todavía más interesantes. Pegadas a la membrana hay numerosas nanoturbinas. Cuando a los protones acumulados se les permite fluir de vuelta a través de regiones específicas de la membrana, hacen girar esas minúsculas turbinas de modo parecido a como el viento mueve las aspas de los molinos.
En siglos pasados, el sistema de rotación de estos se usaba para moler el trigo y otros cereales para hacer harina. Los molinos celulares hacen algo análogo, pero en lugar de pulverizar una estructura, la construyen. Al girar, las turbinas moleculares aprietan una y otra vez dos moléculas determinadas (ADP, o difosfato de adenosina, y un grupo fosfato), para sintetizar otra molécula (ATP o trifosfato de adenosina). Al verse forzados a unirse por la turbina, los constituyentes de cada molécula de ATP se encuentran en una posición tensa: unos constituyentes que se repelen mutuamente se encuentran unidos mediante enlaces químicos y, como un muelle comprimido, luchan por liberarse. Eso resulta bastante útil. Las moléculas de ATP pueden viajar por toda la célula, liberando la energía que llevan almacenada cuando se necesita, lo que consiguen rompiendo los enlaces y permitiendo que las partículas constituyentes se relajen en un estado de menor energía, más confortable. Es esa energía liberada por la disociación de moléculas de ATP la que impulsa las funciones celulares.
La incansable actividad de esas centrales energéticas de las células se hace evidente en cuanto hacemos unos pocos números. Las funciones que mantienen viva una célula típica durante un solo segundo requieren la energía almacenada en unos «diez millones» de moléculas de ATP. Nuestro cuerpo contiene decenas de billones de células, lo que significa que cada segundo consumimos del orden de cien trillones (1020 ) de moléculas de ATP. Cada vez que se usa un ATP, se divide en sus componentes (ADP y un fosfato), y las turbinas alimentadas por las baterías de protones vuelven a forzar su unión, acuñando unas moléculas de ATP nuevas y rejuvenecidas.
Estas moléculas de ATP vuelven a ponerse en marcha para entregar energía por toda la célula. Para satisfacer las demandas energéticas del cuerpo, las turbinas celulares tienen que ser extraordinariamente productivas. Por rápido que uno lea, en el tiempo que se tarda en leer esta frase el cuerpo sintetiza unos quinientos trillones de moléculas de ATP. Y justo ahora, unos trescientos trillones más.
Resumen

Dejando de lado los detalles, la conclusión es que a medida que los electrones energéticos de los alimentos (o los electrones energizados por la luz del sol en las plantas) caen en cascada por un vuelo de escaleras químicas, la energía liberada en cada escalón carga baterías biológicas en el interior de todas las células. La energía almacenada en las baterías se utiliza entonces para sintetizar moléculas que hacen con ella lo que los camiones de los repartidores hacen con los paquetes: las moléculas distribuyen de manera fiable paquetes de energía en el lugar de la célula donde se requieran. Este es el mecanismo universal que impulsa toda la vida. Esta es la singular vía que recorre la energía en «cada» acción y en «cada» pensamiento.
Como en nuestra breve exploración del ADN, la cuestión más importante está por encima de los detalles: la compleja y aparentemente barroca colección de procesos que impulsan las células es universal para toda la vida. Esa unidad, junto con la de la codificación en el ADN de las instrucciones celulares, constituye una prueba abrumadora de que toda la vida surgió de un antepasado común. Del mismo modo que Einstein buscó una teoría unificada de las fuerzas de la naturaleza, y de la misma manera que los físicos actuales sueñan con una síntesis aún más amplia que englobe toda la materia y quizá también el espacio y el tiempo, hay algo bastante seductor en la identificación de un núcleo común en un amplísimo abanico de fenómenos en apariencia distintos. Que el funcionamiento interno más profundo de todos los seres vivos, desde dos perros, que descansan plácidamente sobre la moqueta, hasta el caótico torbellino de insectos atraídos por la lámpara que hay junto una ventana, el coro de ranas que cantan desde un estanque cercano, que en todos ellos, el funcionamiento interno dependa de los mismos procesos, es sencillamente espectacular. Así que dejemos a un lado los detalles, respiremos profundamente antes de concluir el artículo, y permitamos que la comprensión de este prodigio acabe de posarse.
Evolución antes de la evolución
Comprender cuestiones vitales no solo nos brinda una claridad inesperada, sino que también nos anima a una exploración todavía más profunda. ¿Cómo surgió el antepasado común de toda la vida compleja? Y, aún más profundamente, ¿cómo comenzó la vida? Los científicos todavía tienen que determinar el origen de esta, pero nuestra discusión deja claro que la pregunta tiene tres aspectos. ¿Cómo surgió el componente genético de la vida, la capacidad de almacenar, utilizar y replicar información? ¿Cómo surgió el componente metabólico de la vida, la capacidad de extraer, almacenar y utilizar energía química? ¿Cómo surgió el empaquetado de la maquinaria genética y molecular en unas bolsas autónomas, las células? La historia del origen de la vida requiere respuestas definitivas a estas preguntas, pero aunque todavía no las comprendemos del todo, podemos apelar a un marco explicativo, la evolución darwiniana, que, casi con seguridad, formará parte del relato que finalmente hilvanemos.
La solución de Darwin se resume en dos ideas relacionadas. En primer lugar, cuando los organismos se reproducen, la progenie tiende a ser parecida pero no idéntica a sus progenitores. O, en las palabras de Darwin, la reproducción produce descendencia con modificación. En segundo lugar, en un mundo con recursos finitos hay que competir para sobrevivir. Las modificaciones biológicas que mejoran el éxito en la competencia aumentarán la probabilidad de que quien las posea sobreviva el tiempo suficiente para reproducirse y, por lo tanto, para transmitir a generaciones futuras aquellos rasgos que mejoran la supervivencia. Con el tiempo se irán acumulando lentamente distintas combinaciones de modificaciones exitosas que empujarán a la población inicial a ramificarse en grupos que constituyen especies distintas.
Simple e intuitiva, la evolución darwiniana parece casi una perogrullada. Sin embargo, por convincente que resulte como marco explicativo, si la evolución darwiniana no estuviese respaldada por datos no habría conseguido el consenso de los científicos. La lógica no basta. La confianza en la evolución darwiniana se debe al respaldo abrumador que ha recibido de los científicos que han estudiado modificaciones graduales en la estructura de los organismos y han determinado las ventajas adaptativas que muchos de esos cambios confieren. Si esas transformaciones no se hubiesen producido, o si lo hubiesen hecho sin pauta evidente o sin guardar relación con la capacidad del portador de sobrevivir o reproducirse, hoy la evolución darwiniana no se enseñaría en las escuelas.
Darwin no especificó la base biológica que explica la descendencia con modificación. ¿Cómo transmiten los seres vivos sus rasgos a su progenie? ¿Y cómo pasan algunos de esos rasgos a la descendencia en una forma modificada? En tiempos de Darwin no se conocían las respuestas. Todo el mundo se daba cuenta de que la pequeña Mará se parecía a papá y mamá, pero el conocimiento de los mecanismos moleculares para la transmisión de rasgos se encontraba todavía a muchos descubrimientos de distancia. Que Darwin pudiera desarrollar la teoría de la evolución pese a desconocer esos mecanismos es prueba de la generalidad y potencia de aquellas ideas.
Trascienden los detalles. No fue hasta casi un siglo después, en 1953, cuando el descubrimiento de la estructura del ADN desbrozó el sendero que conduce a la base molecular de la herencia. Con elegante contención, Watson y Crick concluyeron su artículo con una frase que se encuentra entre las más famosas del mundo por su modestia:
«No se nos escapa que las parejas específicas que hemos postulado sugieren de inmediato un posible mecanismo de copia del material genético».
Watson y Crick desvelaron el proceso que usa la vida para duplicar las moléculas que almacenan las instrucciones internas de la célula, que es lo que permite transmitir copias de esas instrucciones a la progenie. Como hemos visto, la información que dirige la función celular se encuentra codificada en la secuencia de bases unidas a los largueros de la escalera de caracol del ADN. Cuando una célula se prepara para reproducirse, para dividirse en dos, la escalera de ADN se parte en dos por el centro, dejando dos largueros, cada uno de ellos con una secuencia de bases. Como las secuencias son complementarias (una A en un larguero implica una T en la misma posición del segundo larguero, y lo mismo para la C y la G), cada larguero sirve de plantilla para fabricar una copia del otro. Añadiendo las bases que correspondan en cada uno de los dos largueros, la célula crea dos copias completas de la hebra original de ADN. De este modo, en el momento de la división celular, cada una de las células hijas recibe uno de los duplicados, y se transmite así la información genética de una generación a la siguiente. Este es el mecanismo de copia que no se les escapaba a Watson y Crick.
Tal como lo hemos descrito, este proceso produciría hebras de ADN idénticas. Entonces ¿cómo aparecen los rasgos nuevos o modificados en las células hijas? Por error. Ningún proceso es perfecto al 100 %. Aunque sean poco frecuentes, se producen fallos, a veces de manera fortuita, otras veces infligidos por influencias ambientales, por ejemplo fotones energéticos (rayos X o ultravioleta) que pueden corromper el proceso de copia. Así pues, la secuencia de ADN que hereda una célula hija puede diferir de la de sus progenitores. A menudo, esas modificaciones carecen de importancia, como un único error tipográfico en una página del Quijote. Otras, en cambio, afectan al funcionamiento de la célula, para bien o para mal. En el primero de estos casos, como mejoran la aptitud biológica, la fitness , tienen una mayor probabilidad de transmitirse a las siguientes generaciones, y por tanto de extenderse por la población.
La reproducción sexual añade complejidad porque el material genético no se duplica limpiamente, sino que se mezclan las contribuciones de los dos progenitores. Pero aunque este tipo de reproducción (cuyo origen todavía se debate) supuso un gran paso en la historia de la vida en la Tierra, los principios darwinianos se aplican del mismo modo. La mezcla y copia del material genético produce variaciones en los rasgos heredados, y los que tienen mayor probabilidad de persistir con el paso de las generaciones son los que mejoran en su portador las probabilidades de sobrevivir y reproducirse.
Un aspecto esencial de la evolución es que durante la transmisión de progenitores a descendientes, las modificaciones del ADN suelen ser poco frecuentes. Esta estabilidad protege las mejoras genéticas acumuladas durante generaciones anteriores, garantizando que no se degraden rápidamente o desaparezcan. Para hacernos una idea de lo raros que son esos cambios, los errores de copia se cuelan al ritmo de más o menos uno de cada cien millones de pares de bases de ADN. Eso es como si un escriba medieval se equivocase en una letra de cada treinta copias de la Biblia. Y aun esa tasa tan minúscula es una sobreestimación, porque el 99 % de los errores son reparados por mecanismos químicos de corrección que actúan dentro de cada célula, con lo que la tasa neta de error se reduce más o menos a uno por cada diez mil millones de pares de bases.
Pero incluso una modificación genética tan ínfima, acumulada durante muchas generaciones puede dar lugar a grandes modificaciones físicas y fisiológicas. Esto no es evidente. Ante el prodigio del ojo, las capacidades del cerebro o la complejidad de los mecanismos celulares relacionados con la energía, hay quien llega a la conclusión de que estos sistemas no podrían haber evolucionado sin una guía inteligente. Esa conclusión estaría justificada si el desarrollo evolutivo se produjese a nuestra escala de tiempo. Pero no es así. La vida lleva evolucionando «miles de millones» de años. Eso son «decenas de millones» de siglos. Si representamos un año con una lámina de papel impreso, mil millones de años corresponderían a una pila de casi cien kilómetros de altura. Imaginemos que esas páginas conforman un folioscopio más grueso que diez veces la altura del monte Everest. Aunque el dibujo de cada página casi no difiera del precedente, los dibujos del principio y el final del libro pueden ser tan distintos como un chimpancé de una ameba.
No quiero decir con ello que el cambio evolutivo siga un plan cuidadosamente diseñado que progresa de forma gradual y eficiente, página a página, desde los organismos simples a los complejos. Al contrario, la evolución por medio de la selección natural se describe mejor como innovación por ensayo y error. Las innovaciones surgen de combinaciones y mutaciones aleatorias del material genético. Los ensayos enfrentan unas innovaciones a otras en el ruedo de la supervivencia. Los errores, por definición, son innovaciones que pierden. Esta manera de innovar llevaría a la quiebra a cualquier negocio. Probar una posibilidad aleatoria tras otra con la esperanza vana de que tarde o temprano se dé con la ganadora en el mercado... es una estrategia que nadie querría exponer ante un consejo de dirección. Pero a la naturaleza le sobra un recurso que en los negocios escasea: tiempo. La naturaleza no tiene prisa y no tiene que cumplir unos objetivos. Así que puede soportar el coste de innovar mediante pequeños cambios aleatorios.
Otro factor esencial es que no hay un folioscopio evolutivo aislado. Cada división celular en cada uno de los organismos que ocupan cada rincón del planeta contribuye al relato darwiniano. Algunas de esas líneas argumentales se quedan en nada (modificaciones genéticas perjudiciales). La mayoría no añaden nada nuevo al argumento (material genético transmitido sin cambio). Pero algunas proporcionan giros inesperados (modificaciones genéticas adaptativas y útiles) y desarrollan sus propios folioscopios evolutivos. Muchos de estos, de hecho, tienen tramas y subtramas interdependientes, de modo que el relato evolutivo de un folioscopio se ve influido por el de otro. Así pues, la riqueza de la vida en la Tierra refleja la enorme duración de las crónicas que ha escrito la naturaleza.
Como en cualquier ámbito de investigación saludable, en el de la evolución darwiniana se ha debatido y refinado la teoría durante décadas. ¿A qué ritmo evolucionan las especies? ¿Difiere esa velocidad mucho o poco en el tiempo? ¿Hay largos períodos de calma seguidos de cortos períodos de cambio más rápido? ¿O el cambio siempre es gradual? ¿Cómo debemos considerar los rasgos que reducen la supervivencia del organismo pero aumentan la probabilidad de que se reproduzca? ¿Cuál es el abanicocompleto de mecanismos por medio de los cuales cambian los genes de una generación a otra? ¿Qué debemos pensar de las lagunas en el registro evolutivo? Algunas de estas cuestiones han suscitado apasionadas reyertascientíficas, pero, y esto es lo fundamental, ninguna nos ha llevado a dudar de la propia evolución. Los detalles del cualquier marco explicativo pueden, deben y serán perfeccionados con el tiempo, pero los cimientos de la teoría darwiniana son sólidos como una roca.
Y eso plantea una pregunta: ¿Es posible que la evolución darwiniana sea relevante en un ámbito más grande que la vida? Al fin y al cabo, los ingredientes esenciales (replicación, variación y competencia) no se limitan a los seres vivos. Las impresoras replican páginas. Las distorsiones ópticas producen variaciones en las copias. El receptor inalámbrico de la impresora compite por un ancho de banda limitado. Imaginemos, pues, un contexto más cercano al de la vida que las impresoras de oficina, pero decididamente inanimado: moléculas que han adquirido la capacidad de replicarse. El ADN es el principal ejemplo, y debemos tenerlo presente. Pero la replicación del ADN (el proceso por el que se abre la escalera en caracol y a partir de cada larguero se construyen dos moléculas de ADN completas), depende de un ejército de proteínas celulares, así que requiere que los procesos de la vida ya estén desarrollados.
Imaginemos, en cambio, una molécula que pudiera replicarse por su cuenta mucho antes del origen de la vida. No es necesario que decidamos un mecanismo de replicación concreto, pero para hacernos una imagen mental más exacta podemos suponer que, mientras flota en un rico caldo químico, este tipo de molécula actúa como un imán molecular que atrae con fuerza los ingredientes que la componen y proporciona una plantilla para ensamblarlos en su imitador molecular. Imaginemos, además, que el proceso de replicación, como todos los procesos del mundo real, es imperfecto. La mayor parte del tiempo las moléculas sintetizadas son idénticas a las originales, pero en ocasiones no lo son. Con el paso de un gran número de generaciones moleculares, construiríamos este modo un ecosistema habitado por un abanico de moléculas que son variantes de la original.
En todo medio hay siempre materias primas limitadas, recursos limitados. Así pues, a medida que en nuestro ecosistema las moléculas siguen replicándose, las que se repliquen de forma más eficiente y precisa (rápido, barato, pero de ningún modo fuera de control) prevalecerán. Esas moléculas consiguen el título de «aptas» o «eficaces», y con el tiempo acabarán predominando en la población molecular. Cada mutación que aparezca con posterioridad a causa de la replicación imperfecta ofrecerá nuevas modificaciones de la eficacia molecular. Y tal como ocurre en todo lo que vive, también en lo que no vive: las modificaciones que mejoren la eficacia molecular triunfarán sobre las que no la mejoren. La mayor fecundidad de las moléculas más eficaces inclina la demografía a favor de esas moléculas.
Lo que acabo de describir es una versión molecular de la evolución: «darwinismo molecular». Nos enseña cómo grupos de moléculas que interactúan guiadas únicamente por las leyes de la física pueden ir mejorando su capacidad reproductora, algo que solemos asociar con los seres vivos. Si pensamos ahora en el origen de la vida, lo que todo esto sugiere es que el darwinismo molecular podría haber sido un mecanismo esencial durante los tiempos que precedieron a la aparición de la vida. Una versión de esta sugerencia, aún lejos del consenso, pero que cuenta con un buen número de seguidores, centra su atención en una molécula especial y de muy variados talentos: el ARN.
Hacia el origen de la vida

En la década de 1960, un grupo de destacados investigadores, entre ellos Francis Crick, el químico Leslie Orgel y el biólogo Carl Woese, llamaron la atención sobre un primo cercano del ADN llamado ARN (ácido ribonucleico), que hace unos cuatro mil millones de años podría haber dado el pistoletazo de salida a una fase de darwinismo molecular anterior al origen de la vida. El ARN es una molécula extraordinariamente versátil y un componente esencial de todos los sistemas vivos. Podemos concebirla como una versión de ADN más corta y de una sola hebra, un solo larguero a lo largo del cual se une una secuencia de bases. Entre los variados papeles que desempeña en la célula, el ARN es un mediador químico que copia diversas secciones cortas de una hebra «desabrochada» de ADN de modo parecido a como un dentista hace un molde de los dientes cuando separamos las mandíbulas, y transporta esa información a otras partes de la célula, donde dirige la síntesis de proteínas específicas. Al igual que el ADN, las moléculas de ARN son portadoras de información celular y, por consiguiente, son un componente más del software de la célula. Pero hay una diferencia importante entre el ADN y el ARN: mientras que al primero le satisface erigirse como oráculo de la célula, el segundo está dispuesto a arremangarse y hacer el trabajo manual de los procesos químicos. De hecho, los ribosomas de las células, que son las fábricas en miniatura que juntan aminoácidos para hacer proteínas, poseen en su interior un tipo particular de ARN, llamado ARN ribosómico.
Así que el ARN puede ser tanto software como hardware . Puede tanto dirigir como catalizar reacciones químicas. Y entre esas reacciones hay algunas que promueven la replicación del propio ARN. Mientras que la maquinaria molecular que hace copias de ADN usa una compleja serie de tuercas y engranajes químicos, el ARN puede promover la síntesis de las bases necesarias para su propia replicación. Pensemos en las implicaciones de eso. Las moléculas de ARN, que son software y hardware , pueden eludir el acertijo de la gallina y el huevo: ¿cómo ensamblas una maquinaria molecular si no tienes antes el programa molecular, las instrucciones para el ensamblaje? ¿Cómo sintetizas un programa molecular sin tener primero la maquinaria molecular, la infraestructura para efectuar el ensamblaje? El ARN, huevo y gallina a la vez, engloba las dos funciones, y por eso puede impulsar una era de darwinismo molecular.
Eso es la hipótesis del mundo de ARN, que imagina que antes de la vida hubo un mundo repleto de moléculas de ARN que, por medio del darwinismo molecular, evolucionaron a lo largo de un número inconcebible de generaciones hasta formar las estructuras químicas que constituyeron las primeras células. Aunque los detalles son provisionales, los científicos han hecho un esbozo de cómo podría haber sido esta primera fase de la evolución molecular. En la década de 1950, el premio Nobel Harold Urey y su estudiante de doctorado Stanley Miller mezclaron los gases (hidrógeno, amoníaco, metano y vapor de agua) que, según creían, constituían la atmósfera primigenia de la Tierra. Después de someter este cóctel gaseoso a corrientes eléctricas para simular relámpagos, comunicaron al mundo su célebre descubrimiento de que el limo pardo resultante contenía aminoácidos, las piezas con las que se construyen las proteínas.
Aunque investigaciones posteriores demostraron que las mezclas de gases que estudiaron Miller y Urey no reflejaban de forma precisa la composición química de la atmósfera primigenia de la Tierra, experimentos parecidos realizados con otros cócteles de gases que sí la reflejaban (entre ellos una mezcla que los propios Miller y Urey habían elaborado como modelo de los humos tóxicos de los volcanes activos y que, curiosamente, quedó sin analizar durante más de medio siglo) lograron igualmente generar aminoácidos. Además, actualmente ya se han detectado aminoácidos en nubes interestelares, cometas y meteoritos. Así pues, es plausible que en la joven Tierra hubiera caldos químicos donde se mezclasen moléculas replicantes de ARN con un abundante surtido de aminoácidos.
Imaginemos que, a medida que las moléculas de ARN se replicaban, una mutación al azar conseguía facilitar algo nuevo: de algún modo, el ARN mutante llevaba a algunos de los aminoácidos de aquel caldo a unirse en cadenas y formar la primera proteína rudimentaria (una versión burda de los procesos que hoy tienen lugar en los ribosomas). Si, por azar, algunas de estas proteínas básicas incrementaban la eficiencia de replicación del ARN (al fin y al cabo, catalizar reacciones es lo que hacen las proteínas), se verían bien recompensadas: las proteínas llevarían a la forma mutante de ARN a dominar, y esta abundancia de ARN llevaría a la síntesis de más proteínas. En tándem, formarían un bucle químico que se reforzaría a sí mismo y convertiría aquellas aberraciones moleculares aleatorias en la norma. Con el tiempo, esas maquinaciones moleculares podrían dar con otra novedad química, una escalera de dos largueros, una forma rudimentaria de ADN con una estructura más estable y eficiente para la replicación molecular, que gradualmente iría usurpando los procesos de replicación hasta relegar el ARN a un papel secundario. La formación fortuita de bolsas moleculares (células) habría incrementado todavía más la eficacia, la fitness , al concentrar los productos químicos en compartimentos y ofrecer protección química frente a las perturbaciones del ambiente. De este modo, esparcidas por la población química, se irían ensamblando las estructuras necesarias para la formación de las primeras células rudimentarias.
Y surgiría la vida
El mundo de ARN no es sino una de muchas propuestas, un ejemplo de las que ponen el énfasis en el componente genético de la vida: moléculas que guardan información y que, por medio de la replicación, la transfieren a generaciones posteriores. De ser correcta, todavía tendríamos que abordar la cuestión del origen del propio ARN; tal vez una fase todavía más temprana de evolución molecular habría generado ARN a partir de constituyentes químicos más simples. Otras proposiciones hacen hincapié en el componente metabólico de la vida: moléculas que catalizan reacciones. En lugar de partir de una molécula replicante que puede actuar como proteína, estos escenarios comienzan con proteínas que se pueden replicar. Aún otras proposiciones conciben dos procesos completamente distintos, uno que conduce a moléculas que se pueden replicar y otro que conduce a moléculas que pueden catalizar reacciones químicas, y solo más tarde estos dos procesos se dan cita en células que pueden realizar las funciones básicas de reproducción y metabolismo.
Tampoco faltan propuestas acerca de dónde se formaron los precursores químicos de la vida. Algunos investigadores concluyen que la sugerencia improvisada de Darwin de una «pequeña laguna caliente» no resulta especialmente prometedora a causa de los cientos de millones de años que sobre la superficie de la Tierra llovieron meteoritos rocosos que debieron hacerla inhóspita. Aún así, el biólogo David Deamer ha sugerido que para el origen de la vida es esencial un entorno que fluctúe entre seco y mojado, como el limo de la ribera de un estanque o laguna. Las investigaciones de su equipo han demostrado que esos ciclos de sequedad y humedad pueden empujar a los lípidos a formar membranas (envoltorios celulares) dentro de las cuales se facilitaría que se unieran moléculas pequeñas en cadenas largas al estilo del ARN y el ADN. El químico Graham Cairns-Smith ha propuesto que los cristales que constituyen los lechos arcillosos (estructuras que crecen de forma continua encerrando átomos dentro de una pauta ordenada y repetida) podrían haber constituido un sistema primigenio de replicación que habría servido de precursor de este comportamiento en moléculas orgánicas más complejas camino de la vida.
Otro ambiente factible y convincente, sugerido y analizado por el geoquímico Mike Russell y el biólogo Bill Martin, es el constituido por grietas del fondo del océano de las que emana una mezcla caliente y rica en minerales fruto de la interacción entre el agua del mar y las rocas que forman el manto de la Tierra. Estos humeros hidrotermales alcalinos construyen por precipitación unas chimeneas calizas que se elevan sobre elfondo marino, en algunos casos de hasta más de cincuenta metros de altura, y están llenas de grietas y resquicios por los que continuamente se filtra una mezcla de sustancias químicas ricas en energía. La propuesta imagina que dentro de los muchos torbellinos que se forman en el interior de estas torres, la magia química del darwinismo molecular produce replicantes que con el tiempo ganan en complejidad y sofisticación hasta engendrar la vida en la Tierra.
Los detalles son objeto de investigaciones de vanguardia. Hasta el momento, los intentos por recrear estos procesos han arrojado resultados interesantes, pero no concluyentes. Todavía no hemos conseguido crear vida, pero no tengo la menor duda de que un día, quizá no muy lejano, lo lograremos. Entretanto, ya está cobrando forma un relato científico general sobre su origen. Una vez que las moléculas adquieren la capacidad de replicarse, las mutaciones y errores aleatorios alimentan el darwinismo molecular y empujan los productos químicos resultantes a ascender por el vector fundamental de la eficacia biológica, de la fitness . A lo largo de cientos de millones de años, el proceso logra construir la arquitectura química de la vida.
La física de la información
Llegados a este punto, uno podría llegar a la conclusión de que las moléculas de la vida debían poseer muchos conocimientos de química orgánica, pues de otro modo, ¿cómo habrían sabido lo que se suponía que tenían que hacer? ¿Cómo sabe el ADN dividirse a lo largo y luego añadir bases complementarias a las que quedan expuestas, creando un molécula duplicada? ¿Cómo sabe el ARN crear copias de secciones de ADN, transportar esa información a las estructuras celulares apropiadas donde otras moléculas distintas, pero emparentadas con ellas, son capaces de leer el código genético, y enlazar las secuencias adecuadas de aminoácidos para formar proteínas funcionales?
Las moléculas, naturalmente, no saben nada. Su comportamiento está gobernado por las ciegas, inconscientes e incultas leyes de la física. Pero la pregunta sigue ahí: ¿cómo consiguen realizar de manera constante y fidedigna tan intrincadas series de complejas reacciones químicas? Es una cuestión que nos devuelve a nuestra paráfrasis de la pregunta inicial de Schrödinger en ¿Qué es la vida? La agitación y traqueteo de las moléculas de una piedra están gobernadas por las leyes de la física. La agitación y traqueteo de las moléculas de un conejo también están regidas por las leyes de la física. ¿En qué difieren? Ahora sabemos que las partículas del conejo actúan guiadas por una influencia adicional: el archivo de información interno del conejo, su software celular. Lo importante, crítico y vital es que esa información no quebranta las leyes de la física. Nada lo hace. Del mismo modo que un tobogán de agua no quebranta las leyes de la gravedad, pero gracias a su forma guía a quienes lo usan para que tomen una trayectoria determinada que de otro modo no seguirían, el software celular del conejo funciona gracias a un orden químico que, por medio de sus formas, estructuras y constituyentes, guía diversas moléculas para que tomen unas trayectorias que de otro modo tampoco seguirían.
¿Cómo funcionan esas guías moleculares? Gracias a la disposición detallada de sus átomos constituyentes, una molécula determinada puede atraer este aminoácido, repeler aquel otro o mostrarse del todo indiferente ante un tercero. O, como piezas de Lego, cierta molécula puede encajar solamente en otra molécula determinada. Todo eso es física. Cuando átomos y moléculas tiran o empujan o encajan unos con otros, lo que hay detrás es la fuerza electromagnética. La clave, pues, es que la información que guarda la célula no es abstracta. No es un conjunto separado de instrucciones que las moléculas tengan que estudiar, aprender y ejecutar, sino que está codificada en las propias estructuras y configuraciones químicas, unas configuraciones que llevan a otras moléculas a chocar, unirse o interactuar con ellas de tal manera que lleven a cabo procesos celulares como el crecimiento, la reparación o la reproducción. Aunque las moléculas del interior de una célula carecen de intención o propósito, aunque obviamente son inconscientes, su estructura física les permite realizar tareas muy especializadas.
En este sentido, los procesos de la vida son divagaciones moleculares plenamente descritas por la ley física, pero al propio tiempo escriben, a un nivel superior, un relato basado en la información. En la piedra no hay relato a nivel superior. En ella, usamos las leyes de la física para describir las colisiones y movimientos de las moléculas y listo, hemos acabado. Pero cuando usamos las mismas leyes de la física para describir las colisiones y movimientos de las moléculas del conejo, la historia no se acaba ahí. Ni de lejos. Por encima del relato reduccionista hay otro más que nos habla de las disposiciones moleculares internas únicas del conejo, responsables de coreografiar un exquisito abanico de movimientos moleculares organizados. Son esos movimientos moleculares los que realizan los procesos de un nivel superior en el interior de las células del conejo.
De hecho, en el conejo, como en nosotros mismos, esa información biológica también está organizada a escalas mayores, guiando procesos que actúan no ya dentro de células individuales, sino en conjuntos de células, y llevan el sello distintivo de la complejidad coordinada. Cuando cogemos una taza de café, el movimiento de cada uno de los átomos que forman cada una de las moléculas de la mano, el brazo, el cuerpo y el cerebro está gobernado por las leyes de la física. Digámoslo una vez más: la vida ni contraviene ni puede contravenir las leyes de la física. Nada puede. Pero el hecho de que un número ingente de moléculas de nuestro cuerpo sean capaces de actuar de forma concertada, coordinando sus movimientos para que el brazo se extienda sobre la mesa y la mano coja una taza, refleja la enorme riqueza de la información biológica que, encarnada en configuraciones atómicas y moleculares, dirige una gran profusión de complejos procesos moleculares.
La vida es física orquestada
Termodinámica y vida

La evolución, de acuerdo con Darwin, guía el desarrollo de estructuras, de las moléculas a las células y los organismos pluricelulares complejos. La entropía, de acuerdo con Boltzmann, traza el desarrollo de los sistemas físicos, de los aromas que se difunden a los motores que rechinan o las estrellas que arden. La vida está sujeta a estas dos influencias. Surgió y fue cambiando gracias a la evolución y, como todos los sistemas físicos, obedece los preceptos de la entropía. En los dos últimos capítulos de ¿Qué es la vida?, Schrödinger explora la aparente tensión entre ambos. Cuando la materia se condensa en vida, mantiene un estado de orden durante largos períodos de tiempo. Y cuando la vida se reproduce, genera conjuntos adicionales de moléculas que también se disponen formando estructuras ordenadas. ¿Dónde está en todo esto la entropía, el desorden, la segunda ley de la termodinámica?
En su respuesta, Schrödinger explica que los organismos se resisten al aumento de la entropía «alimentándose de entropía negativa», una expresión que durante décadas ha generado algo de confusión y críticas puntillosas. Pero es evidente que, aunque lo expresó en un lenguaje un tanto distinto, la respuesta de Schrödinger es exactamente la misma que venimos desarrollando aquí: el paso a dos de la entropía. Los seres vivos no están aislados, así que toda cuantificación de la segunda ley debe incorporar su entorno. Yo, sin ir más lejos, he conseguido evitar durante mucho tiempo que mi entropía se dispare. Pero eso lo he logrado asimilando estructuras ordenadas (sobre todo verduras, frutos secos y cereales) para quemarlas lentamente (por medio de reacciones redox, electrones de los alimentos que caen en cascada por las gradas del estadio hasta combinarse finalmente con el oxígeno que respiro), y luego usar la energía liberada para impulsar diversas actividades metabólicas e incrementar la entropía de mi entorno con calor y desechos. En conjunto, el paso a dos ha permitido que mi entropía aparentemente burle la segunda ley cuando, en realidad, mi entorno me ha ido cubriendo las espaldas diligentemente, absorbiendo la diferencia de entropía (y más). El proceso de quemar, almacenar y liberar energía que alimenta las funciones celulares es más sofisticado que el proceso correspondiente que impulsa las máquinas de vapor, pero desde el punto de vista de la entropía, la física esencial es la misma.
Más allá de la elección de palabras de Schrödinger, una preocupación menos quisquillosa es el origen del nutrimento de alta calidad y baja energía. Si empezando por los animales descendemos por las cadenas tróficas, al final encontramos plantas que se alimentan directamente de la radiación solar. Su ciclo de energía proporciona un ejemplo más del paso a dos de la entropía. Los fotones que llegan con la luz solar y son absorbidos por las células de las plantas hacen saltar electrones a estados de energía más altos, y esta energía es luego aprovechada por la maquinaria celular (por medio de una serie de reacciones redox que guían a los electrones en su descenso por las gradas del estadio) para impulsar diversas funciones celulares. Así pues, los fotones que provienen del Sol son el nutrimento de calidad y baja entropía que las plantas absorben, aprovechan para alimentar las funciones vitales y luego liberan en una forma de alta entropía, en una forma degradada como desecho (por cada fotón recibido del Sol, la Tierra envía de vuelta al espacio una colección menos ordenada de una media docena de fotones infrarrojos de baja energía y alta dispersión).
Si queremos seguirle un poco más la pista a la fuente de baja energía, tenemos que remontarnos al origen del Sol, que tiene que ver con la historia gravitacional : la gravedad comprime nubes de gas en estrellas, reduciendo la entropía interna y, por medio del calor liberado, aumentando la del entorno. Con el tiempo, se desencadenan reacciones nucleares, y las estrellas se encienden y comienzan a enviar fotones hacia el exterior. Cuando esa estrella es el Sol, los fotones que alcanzan la Tierra constituyen una fuente de energía de baja entropía que alimenta el metabolismo de las plantas. Por eso algunos investigadores dicen que la fuerza de la gravedad sustenta la vida. Aunque cierto, a estas alturas ya habrá quedado claro que yo prefiero repartir el crédito de manera más equitativa, elogiando la gravedad por hacer que la materia se agregue y conforme entornos estelares estables, pero alabando también la fusión nuclear por la incansable producción de una corriente constante de fotones de alta calidad durante miles de millones de años.
La fuerza nuclear, en tándem con la gravedad, es la fuente del combustible de baja entropía que alimenta la vida.
¿Una teoría general de la vida?
En sus conferencias de 1943, Schrödinger subrayó que el torrente de avances científicos había sido tan intenso que «a una sola mente le resulta casi imposible dominar más que una pequeña parcela especializada». En consecuencia, animaba a los pensadores a ampliar el alcance de su conocimiento explorando ámbitos fuera del territorio habitual de sus disciplinas. Con ¿Qué es la vida? se atrevió a aplicar la formación, intuición y sensibilidad del físico a los enigmas de la biología.
En las décadas que han pasado desde entonces, el conocimiento se ha ido especializando todavía más, pero una cohorte cada vez más nutrida de investigadores ha seguido oyendo la llamada interdisciplinar de Schrödinger. Y muchos han respondido. Investigadores formados en campos tan dispares como la física de alta energía, la mecánica estadística, las ciencias de la computación, la teoría de la información, la química cuántica, la biología molecular y la astrobiología, entre muchas otras, han desarrollado formas nuevas y perspicaces de explorar la naturaleza de la vida. Acabaré este artículo centrándome en una de esas empresas científicas que amplían el tema termodinámico y que, si culmina con éxito, un día nos podría ayudar a responder algunas de las preguntas más profundas de la ciencia: ¿es la vida algo tan improbable que solo ha aparecido en una única ocasión en un universo que contiene cientos de miles de millones de galaxias, cada una de ellas con cientos de miles de millones de estrellas, muchas de ellas con planetas en órbita? ¿O es la vida el resultado natural, quizá incluso inevitable, de ciertas condiciones ambientales básicas y relativamente comunes, lo que sugeriría que el cosmos está repleto de vida?
Para abordar preguntas tan amplias necesitamos principios igual de amplios. Hasta el momento, tenemos muchísimas pruebas de la enorme aplicabilidad de la termodinámica, una teoría física que Einstein describió como la única de la que se puede afirmar con seguridad que «nunca será destronada». Quizá al analizar la naturaleza de la vida y su origen y evolución podamos llevar aún más lejos la perspectiva de la termodinámica. Eso es precisamente lo que han hecho algunos científicos durante las últimas décadas. La disciplina de investigación que han desarrollado, que se conoce como «termodinámica del no equilibrio», analiza de manera sistemática las clases de situaciones que ahora encontramos una y otra vez: energía de alta calidad que atraviesa un sistema alimentando el paso a dos de la entropía y permitiendo de este modo que este resista la tendencia hacia el desorden interno que de otro modo se adueñaría de todo. El químico físico belga Ilya Prigogine, que fue galardonado con el premio Nobel de 1977 por sus trabajos pioneros en este campo, desarrolló las matemáticas que permiten analizar configuraciones de materia que, sujetas a una fuente continua de energía, pueden generar orden de manera espontánea, lo que él llamó «orden a partir del caos».
En un buen curso de física de instituto es posible encontrarse con un ejemplo simple, pero no por ello menos impresionante: las células de Bénard. Para verlas, hay que calentar una placa con un líquido viscoso. Al principio no parece que pase nada, pero a medida que aumenta la energía que circula por el líquido, los movimientos moleculares aleatorios conspiran para producir un orden visible. Si se mira entonces el aceite desde lo alto, se ve que forma teselas, un conjunto de pequeñas cámaras hexagonales. Si se mira de lado, se observa cómo el líquido fluye de manera estable y ordenada, ascendiendo desde el fondo de cada cámara hexagonal hasta la superficie, para luego retornar al fondo de la cámara.
Desde el punto de vista de la segunda ley de la termodinámica, un orden espontáneo como este resulta totalmente inesperado. La razón de que aparezca es que las moléculas del líquido están sujetas a una influencia ambiental externa, el calor continuo de la llama. Esta insistente inyección de energía tiene un impacto significativo. En todo sistema se producen de manera ocasional fluctuaciones espontáneas que, por momentos, forman un patrón ordenado pequeño y localizado. Por lo general, esas minúsculas fluctuaciones se dispersan con rapidez hacia una forma desordenada. Pero el análisis de Prigogine demostró que cuando las moléculas se encuentran formando ciertos patrones especiales, se tornan particularmente competentes en la absorción de energía, y eso dicta un destino distinto. Si el sistema físico recibe de su entorno un flujo continuo de energía concentrada, los patrones moleculares especiales pueden usar esta para sustentar e incluso reforzar su conformación ordenada, al tiempo que devuelven a su entorno una forma degradada (menos accesible, más dispersa) de esa energía. Decimos entonces que los patrones ordenados disipan energía, y por ello se conocen como «estructuras disipativas». La entropía total, que incluye la del entorno, aumenta, pero el bombeo continuo de energía al sistema nos permite alimentar y mantener orden por medio de un paso a dos entrópico sostenido.
La descripción de Prigogine se asemeja a la explicación física, que se remonta a Schrödinger, de cómo consiguen los organismos eludir la degradación entrópica. No porque las células de Bénard estén vivas, sino porque los seres vivos son también estructuras disipativas que absorben energía de su entorno, la utilizan para sustentar o incrementar su conformación ordenada, y liberan de nuevo a este una forma degradada de energía. Los resultados de Prigogine proporcionaron una articulación matemáticamente precisa de su eslogan, «orden a partir del caos», y muchos investigadores posteriores especularon con la posibilidad de desarrollar más aún esa matemática, que tal vez nos ayude a entender cómo surgieron las moléculas necesarias para la vida a partir del caos de movimientos moleculares de la Tierra primigenia.
De las muchas aportaciones de este programa, los trabajos recientes de Jeremy England (que amplió los resultados previos desarrollados por otros investigadores, entre ellos Christopher Jarzynski y Gavin Crooks) son especialmente interesantes. Mediante ingeniosas manipulaciones matemáticas, England ha desvelado las implicaciones de la segunda ley de la termodinámica cuando se aplica a sistemas alimentados por una fuente externa de energía. Para hacerse una idea de sus resultados, imaginemos que estamos en un columpio de un parque. Como todo niño sabe por intuición, tenemos que lanzar las piernas hacia delante (y arquear el cuerpo) con el ritmo justo para columpiarnos y mantener un movimiento suave y rítmico. Ese ritmo, de acuerdo con la física básica, depende de la distancia entre la silla y el eje del columpio. Si lanzamos las piernas a un ritmo inadecuado, la discordancia rítmica impedirá que el columpio absorba de manera eficiente la energía que le proporcionamos, y no subirá mucho.
Imaginemos, en cambio, que nuestro juguete posee una característica peculiar: a medida que lanzamos las piernas, la longitud del columpio cambia para ajustar el período de su movimiento de manera que concuerde con el de nuestras piernas. Esta «adaptación» permite que el columpio coja el ritmo enseguida, absorba la energía que le damos y alcance rápidamente la altura deseada en cada ciclo. A partir de entonces la energía que proporcionamos al lanzar las piernas es absorbida por el columpio, pero no lo lleva a subir más alto, sino que mantiene su movimiento estable actuando contra las fuerzas de fricción contrapuestas y, de paso, produce desechos (calor, sonido y demás) que se disipan en el entorno (salvo que se trate de un diablillo que espera a llegar al punto más alto del columpio para saltar de la silla, salir volando y disipar energía rodando por el suelo).
El análisis matemático de England reveló que en el dominio molecular, las partículas que son «empujadas» por una fuente externa de energía pueden experimentar algo parecido a lo que ocurre en nuestro columpio. Un conjunto inicialmente desordenado de partículas puede adaptar su configuración para «coger el ritmo», es decir, para adoptar una configuración que absorbe energía del ambiente con mayor eficiencia, la usa para mantener o mejorar su estructura o movimiento interno ordenado, y luego disipa una forma degradada de esa energía en el entorno. England llama a este proceso «adaptación disipativa». Potencialmente, proporciona un mecanismo universal para convencer a ciertos sistemas moleculares para levantarse y bailar el paso a dos entrópico. Y como eso es lo que hacen los seres vivos para ganarse la vida (toman energía de alta calidad, la usan y luego expulsan energía de baja calidad en forma de calor y otros desechos), tal vez la adaptación disipativa sea esencial para el origen de la vida. England señala que la propia replicación es una potente herramienta de adaptación disipativa: si un pequeño conjunto de partículas ha conseguido arreglárselas bien para absorber, usar y desechar energía, entonces dos conjuntos serán todavía mejores, y más aún cuatro u ocho, y así sucesivamente. Las moléculas que pueden replicarse podrían considerarse entonces como un producto «esperado» de la adaptación disipativa. Y en cuanto entran en escena moléculas replicantes, el darwinismo molecular comienza a actuar, y se pone en marcha el motor hacia la vida.
Estas ideas se encuentran todavía en pañales, pero no puedo dejar de pensar que habrían hecho feliz a Schrödinger. Con la ayuda de principios físicos elementales hemos conseguido comprender de algún modo el Big Bang, la formación de las estrellas y los planetas, la síntesis de átomos complejos, y ahora estamos camino de determinar cómo esos átomos podrían conformar moléculas replicantes bien adaptadas a extraer energía del entorno para construir y sustentar formas ordenadas. Con el poder del darwinismo molecular para seleccionar conjuntos de moléculas con una eficacia cada vez mayor, podemos imaginar que algunas lleguen a adquirir la capacidad de almacenar y transmitir información. Un manual de instrucciones transferido de una generación molecular a la siguiente que preserve estrategias de eficacia bien contrastadas es una poderosa fuerza para el dominio molecular. A lo largo de cientos de millones de años, estos procesos podrían haber esculpido poco a poco las primeras formas de vida.
Tanto si los detalles de estas ideas sobreviven a futuros descubrimientos como si no, la trama del relato de la vida de acuerdo con la física ya está cogiendo forma. Y si ese relato resulta ser tan general como las investigaciones recientes sugieren, es posible que la vida sea común en el cosmos. Sin embargo, por emocionante que eso sea, una cosa es la vida y otra muy distinta la vida inteligente. Encontrar microbios en Marte o en Europa, la luna de Júpiter, sería un descubrimiento monumental. Pero en tanto que seres pensantes, conversadores y creativos, todavía podríamos estar solos.
Entonces ¿cuál es el camino que lleva de la vida a la consciencia?
Partículas y consciencia
De la vida a la mente

En algún momento, entre las primeras células procariotas de hace cuatro mil millones de años y las noventa mil millones de neuronas del cerebro humano, entrelazadas en una red de cien billones de conexiones sinápticas, surgieron las facultades de pensar y sentir, amar y odiar, temer y anhelar, sacrificar y adorar, imaginar y crear; unas capacidades nuevas que producirían logros espectaculares, pero también indecible destrucción.
«Todo comienza por la consciencia y nada vale nada sino por ella»
decía Albert Camus. Sin embargo, hasta hace pocos años, consciencia era una palabra poco grata para las ciencias duras. A los investigadores decadentes en el crepúsculo de sus carreras se les perdonaba que dirigiesen su atención al tema marginal de la mente, pero el objetivo de la investigación científica general era entender la realidad objetiva, y para muchos, y durante mucho tiempo, la consciencia no pertenecía a ella: la voz que parlotea dentro de mi cabeza solo se puede oír allí dentro.
Es una posición un tanto irónica. El «Cogito, ergo sum» de Descartes resume nuestro contacto con la realidad. Todo lo demás puede ser ilusión, pero pensar es la única cosa de la que hasta el más férreo escéptico puede estar seguro. Y pese al retruécano de Ambrose Bierce, «Pienso que pienso, luego pienso que existo», si uno piensa, las razones para creer en la existencia son poderosas. Que a la ciencia no le importase la consciencia sería como darle la espalda a lo único con lo que todos podemos contar. De hecho, durante miles de años muchos han negado el carácter terminante de la muerte colgando de la consciencia la esperanza existencial. El cuerpo muere. Eso es obvio, evidente, innegable. Pero esa voz interior que nos parece persistente, junto con los abundantes pensamientos, sensaciones y emociones que llenan cada uno de nuestros mundos subjetivos, nos habla de una presencia etérea que algunos conciben como algo que se sitúa más allá de los hechos básicos de la existencia física. Atman , ánima, alma inmortal, son muchos los nombres que ha recibido, pero todos connotan la creencia en que el yo consciente bebe de algo que sobrevive a la forma física, algo que trasciende a la ciencia mecanicista tradicional. La mente no es solo el hilo que nos sujeta a la realidad, sino también, quizá, el que nos sujeta a la eternidad.
Ahí se encuentra una pista más que nos revela por qué las ciencias duras se han resistido durante tanto tiempo a todo lo que tenga que ver con la consciencia. La reacción de la ciencia a los discursos sobre ámbitos que se encuentran fuera del alcance de la ley física es hacer un grsto de exasperación y luego volverse y regresar a toda prisa al laboratorio. Ese desdén representa una actitud científica dominante, pero también pone de manifiesto una laguna crítica en el relato científico. Todavía está por construir una explicación científica robusta de la experiencia consciente. Carecemos de un relato concluyente de cómo la consciencia manifiesta un mundo privado de visiones, sonidos y sensaciones. Todavía no podemos responder, o por lo menos no con plena fuerza, a quienes afirman que la consciencia se sitúa más allá de la ciencia convencional. Y no parece probable que podamos llenar esta laguna en un futuro cercano. Quienes han pensado en el pensar han comprendido que desentrañar la consciencia, explicar nuestros mundos interiores en términos puramente científicos, es uno de los retos más formidables a los que nos enfrentamos.
Isaac Newton prendió la llama de la ciencia moderna cuando desveló pautas regulares en las partes de la realidad que son accesibles a los sentidos humanos y las codificó en sus leyes del movimiento. En los siglos que han transcurrido desde entonces, hemos llegado a comprender que para ir más allá de Newton hay que desbrozar tres caminos distintos. Resulta necesario entender la realidad a escalas mucho más pequeñas que las que Newton consideró, un camino que nos ha llevado hasta la física cuántica, que explica el comportamiento de las partículas fundamentales y, entre muchas otras cosas, los procesos bioquímicos que subyacen a la vida. Es necesario entender también la realidad a escalas mucho más grandes que las que Newton consideró, un camino que nos ha conducido hasta la relatividad general, que explica la gravedad y, entre muchas otras cosas, la formación de las estrellas y los planetas esenciales para la aparición de la vida. Y para la tercera frontera, la más laberíntica de todas, resulta necesario entender la realidad a escalas mucho más complejas que las consideradas por Newton, un camino que creemos que nos conducirá a una explicación de cómo grandes conjuntos de partículas pueden entrelazarse para producir la vida y generar la mente.
Newton hizo bien en enfocar su potencia intelectual en problemas altamente simplificados, ignorando, por ejemplo, la agitada estructura interna del Sol y los planetas para tratarlos como bolas sólidas. El arte de la ciencia, en el que Newton era maestro, consiste en hacer simplificaciones juiciosas que hagan tratable el problema, pero que al mismo tiempo retengan lo suficiente de su esencia como para que las conclusiones extraídas sean relevantes. La dificultad es que las simplificaciones que resultan eficaces para un tipo de problemas no tienen por qué serlo para otros. Si modelamos los planetas como bolas sólidas, podemos calcular sus trayectorias con facilidad y precisión. Si modelamos la cabeza como una bola sólida, lo que podamos aprender de la naturaleza de la mente no será tan esclarecedor. Pero deshacerse de aproximaciones infructuosas y dejar al descubierto el funcionamiento interno de un sistema con tantas partículas como el cerebro, que es un objetivo loable, exigiría el dominio de un nivel de complejidad muy lejos del alcance de los más sofisticados métodos matemáticos y computacionales de nuestros días.
Lo que ha cambiado en los últimos años es que hemos hallado maneras de acceder a características observables y mensurables de la actividad cerebral que, como mínimo, acceden a procesos que siempre acompañan a la experiencia consciente. Cuando los investigadores utilizan técnicas de imagen por resonancia magnética funcional para hacer un seguimiento meticuloso del flujo de sangre que sustenta la actividad neuronal, o insertan profundamente en el cerebro sondas que detectan impulsos eléctricos disparados por neuronas individuales, o usan electroencefalogramas para detectar ondas electromagnéticas que atraviesan el cerebro, y cuando los datos revelan patrones claros que reflejan tanto el comportamiento observado como los informes de la experiencia interior, se refuerzan considerablemente los argumentos a favor de una aproximación a la consciencia como fenómeno físico. De hecho, hay investigadores osados que, animados por estos impresionantes progresos, creen que ya ha llegado el momento de sentar las bases científicas de la experiencia consciente.
Consciencia y narración
Hace algunos años, durante un intercambio cortés pero encendido sobre el papel de las matemáticas en la descripción del universo, le contesté a un amigo que él no era más que un saco de partículas gobernadas por las leyes de la física. No lo dije en broma, aunque él al instante le sacó punta. Tampoco lo dije como burla, puesto que todo lo que fuese cierto de mi amigo lo sería también de mí. El comentario surgió más bien de mi profundo compromiso con el reduccionismo, que sostiene que si entendemos completamente el comportamiento de los ingredientes fundamentales del universo, podemos narrar una historia rigurosa y completa de la realidad. Si no disponemos todavía de un primer borrador de esta narración es porque todavía quedan por resolver muchos problemas en la vanguardia de la investigación, algunos de los cuales comentaré enseguida. No obstante, puedo imaginar un futuro en el que los científicos sean capaces de proporcionar una articulación matemática completa de los procesos microfísicos fundamentales que subyacen a todo lo que ocurre en cualquier momento y lugar.
Hay algo reconfortante en esa posibilidad, algo que de un modo u otro reverbera con elegancia en el sentir de Demócrito desde hace dos mil quinientos años:
«Por convención lo dulce, por convención lo amargo, por convención el color, cuando en realidad solo hay átomos y vacío.»
O sea, que todo surge de la misma colección de ingredientes gobernados por los mismos principios físicos. Y esos principios, como atestiguan varios cientos de años de observación, experimentación y elaboración de teorías, probablemente se lleguen a expresar mediante un puñado de símbolos dispuestos en una pequeña colección de ecuaciones matemáticas. «Eso» es un universo elegante. Por potente que fuera una descripción así, no dejaría de ser un relato más entre los muchos que podemos contar. Gozamos de la capacidad de cambiar el enfoque, de restablecer la resolución, de implicarnos en el mundo de muy variadas maneras. Aunque una descripción reduccionista completa nos ofrecería un sólido cimiento científico, otras descripciones de la realidad, otros relatos, nos permiten vislumbrar aspectos que muchos consideran más relevantes por ser más cercanos a la experiencia.
Para narrar algunos de esos relatos se necesitan, como hemos visto, nuevos conceptos y un nuevo lenguaje. La entropía nos ayuda a explicar la historia de la aleatoriedad y la organización en grandes conjuntos de partículas, las que emanan del horno de la cocina o las que se condensan en estrellas. La evolución nos ayuda a contar la historia del azar y la selección en conjuntos en moléculas (vivas o no) que se replican, mutan y, poco a poco, se van adaptando a su entorno. Un relato que para muchos es todavía más relevante es el que se centra en la consciencia. Abarcar pensamientos, emociones y recuerdos es abarcar elnúcleo de la experiencia humana. Es también un relato que exige una perspectiva cualitativamente distinta de cualquiera de las que hemos adoptado hasta el momento. Entropía, evolución y vida pueden estudiarse «ahí fuera». Narramos sus historias en tercera persona. Somos testigos de sus historias y, si somos lo bastante diligentes, nuestra narración puede ser exhaustiva. Son historias grabadas en libros abiertos.
Un relato que incluya la consciencia es distinto. Un relato que penetre en las sensaciones interiores de imágenes o sonidos, de gozo o amargura, decomodidad o dolor, de serenidad o zozobra, tiene que contarse en primera persona. De este relato nos informa una voz interior de la consciencia que nos habla siguiendo un guion del que aparentemente cada uno de nosotros somos autores. No solo experimento un mundo subjetivo, sino que percibo de manera palpable que dentro de ese mundo controlo mis acciones. Sin duda, cualquier otra persona siente lo mismo de sus acciones. Qué importan las leyes de la física; pienso, luego controlo. Comprender el universo al nivel de la consciencia requiere un relato que pueda habérselas con una realidad subjetiva, por completo personal y aparentemente autónoma.
Para iluminar la consciencia nos enfrentamos, pues, a dos retos distintos, pero relacionados. ¿Puede la materia, por sí sola, producir las sensaciones que infunden consciencia? ¿Es posible que nuestro sentido de autonomía consciente no sea más que el resultado de la acción de las leyes de la física sobre la materia que constituye el cerebro y el cuerpo? A estas preguntas, Descartes respondió con una clara negación. Para él, la diferencia manifiesta entre mente y materia refleja una profunda división. El universo tiene sustancia física. El universo tiene sustancia mental. Lo físico puede afectar a lo mental y lo mental a lo físico, pero son cosas distintas. Dicho en lenguaje moderno, los pensamientos no están hechos de átomos.
© 2025 JAVIER DE LUCAS