El tema
de la "vida artificial" se relaciona con el tema de la "inteligencia
artificial". Ambos términos se refieren a disciplinas sumamente nuevas y de
carácter interdisciplinario. Además, ambas hacen uso esencial de las técnicas de
la computación electrónica. La inteligencia artificial (IA) es la más antigua de
las dos disciplinas, habiéndose desarrollado a partir de los años cincuenta. La
vida artificial (VA) es de ayer: nace en una conferencia sostenida en 1987 que reunió a especialistas de diversas ciencias, conectados entre
sí por el común interés en la nueva disciplina.
La computación electrónica es un componente esencial de la IA, pues en ella se
trata de construir sistemas computacionales capaces de realizar tareas
inteligentemente. Es también un componente esencial de la VA por cuanto la
programación electrónica ofrece el medio más económico y eficaz de producir los
elementos cuyo comportamiento estudia la disciplina. Ambas ciencias se valen de
la computación como instrumento metodológico para experimentar con modelos de lo
que no se puede por distintas razones, experimentar "en vivo". Ambas también
pretenden usar la computación para aplicar sus principios al orden tecnológico y
producir productos útiles. Pero sobre todo, y además de estas coincidencias,
ambas disciplinas constituyen un esfuerzo científico de alto grado de
abstracción que promueve generalizaciones sin precedentes sobre dos de las más
importantes ciencias empíricas contemporáneas: la psicología y la biología.
Entendemos por
inteligencia artificial una disciplina que se dedica a procurar que los
ordenadores sean capaces de realizar tareas intelectuales que, si las hicieren
los seres humanos, diríamos que requieren inteligencia. Llamamos Vida Artificial
a la realización de comportamientos similares a la vida de parte de sistemas
hechos por el hombre, consistentes en poblaciones de entes semiautónomos cuyas
interacciones locales mutuas están gobernadas por un conjunto de reglas simples.
Lo interesante de estas situaciones es que en esos comportamientos se logran
observar dinámicas y estructuras de alto nivel que tienen la calidad de
propiedades emergentes, originadas en el transcurso del tiempo a partir de la
totalidad de las interacciones locales entre los componentes de bajo nivel.
La inteligencia artificial ofrece una extraordinaria oportunidad a las ciencias cognoscitivas, especialmente a la psicología cognoscitiva, para estudiar los fenómenos mentales por un método experimental indirecto, a saber, la realización de teorías sobre la mente en la forma de programas de computación. Si postulamos que determinada actividad mental, por ejemplo la solución de determinada clase de acertijos, se realiza por la aplicación de cierto algoritmo (en el sentido de una sucesión de pasos para efectuar una tarea), entonces un ordenador podrá ejecutar el mismo algoritmo con base en la programación respectiva.
Inmediatamente tendremos una prueba de existencia de ese procedimiento, es decir, habremos demostrado que, cualquiera que sea la forma en que la mente realiza la tarea, la forma computacional hallada es un candidato hipotético aceptable para explicarla. Pero además, la existencia del programa nos permite efectuar comparaciones, por ejemplo entre problemas de la misma clase con distinto grado de dificultad, que pueden llevar a una confirmación empírica de que la arquitectura mental es isomórfica de la arquitectura computacional (por ejemplo, por correspondencia de la demanda de recursos del programa en tiempo de proceso y memoria de la máquina, con el tiempo de respuesta de los sujetos humanos en la experimentación psicológica),
La existencia de la inteligencia artificial, como disciplina paralela a la
psicología cognoscitiva, ha actuado como un estímulo eficaz para mover a los
practicantes y estudiosos de la teoría biológica de la evolución a especular que
una parecida relación podrá existir entre la biología evolucionaria y una
disciplina computacional correspondiente. Como en el caso de la inteligencia
artificial, aunque por razones distintas, la experimentación en vivo de la
teoría de la evolución está muy limitada, ya que debe concretarse a la
observación de las huellas de la transformación milenaria de las especies o al
razonamiento analógico sobre los casos históricos de selección artificial. La
simulación de esos procesos en un ordenador, en cambio, puede producir
resultados utilizables de importancia en unos cuantos minutos.
Además de su utilización metodológica en el apoyo a la psicología cognoscitiva, la inteligencia artificial produce una consecuencia importante: si hay isomorfismo entre los fenómenos intelectuales mentales y los fenómenos computacionales de la misma clase, es razonable postular que se trata en cada uno de estos casos de una instanciación específica de procesos formales de mayor generalidad: en el caso de la psicología, realizados en carne y sangre, en el caso de la computación, realizados en silicio.
Esta clase de reflexión ha llevado a pensadores como H. Simon y A. Newell a postular una ciencia más general que la psicología cognoscitiva y que la inteligencia artificial, que las abarca a ambas como casos especiales, a saber: la ciencia de la inteligencia en general, concebida como una disciplina altamente formal relacionada con la representación del conocimiento y su manipulación por medio de reglas de operación puramente formales. La psicología de los seres humanos, de los animales, de las máquinas y hasta de los seres extraterrestres serán casos particulares de esta teoría.
Los fenómenos biológicos de la evolución han sido estudiados hasta ahora en
su encarnación concreta en especies que mutan, se recombinan, luchan con el
ambiente, se reproducen, y -como resultado de esas peripecias- se transforman en
otras especies. Pero todo pareciera indicar que estos fenómenos son objeto de
interés con independencia de la encarnación de las poblaciones en compuestos
carbónicos; igualmente serían interesantes si la base química de la vida fuera
diferente. Pero si esto es así, estamos sólo a un paso de entender que los
fenómenos de la evolución son independientes de la materia que constituye su
objeto, que lo realmente importante es el aspecto formal de estas interacciones.
Podemos entonces postular una disciplina de la vida totalmente formal, análoga a
la teoría formal de la inteligencia: en esa disciplina lo importante será la
existencia de poblaciones de elementos semejantes que transcurren en el tiempo,
son capaces de mutar y recombinan, luchan por la supervivencia en un ambiente
común y se reproducen a sí mismos. En tal disciplina los elementos pueden ser
seres vivientes terrestres en el sentido tradicional, seres vivos de otros
planetas, robots en la luna, mano-máquinas herramientas inoculadas en la sangre
o formas gráficas en una pantalla de ordenador.
Los genes, órganos de la herencia, tienen dos funciones precisas y diferenciabas: por un lado participan en la embriología, influenciando el desarrollo del fenotipo en una generación particular; por el otro, participan en la genética, al hacerse copiar al través de la sucesión de generaciones. En la vida artificial también deben considerarse estas dos dimensiones. Las embriologías están constreñidas, en el sentido de que poseen un conjunto restringido de fenotipos que les es posible generar, los cuales son especificados por un número menor de genes. En ello, como en muchas otras cosas, se parecen a los programas de computación, que son capaces de producir una amplia variedad de efectos con un número muy limitado de medios.
En su artículo "La Evolución de la Evolubilidad", Richard Dawkins nos presenta los resultados de su trabajo en evolución artificial en que aplicó estos principios. En particular toma en cuenta las clases de constreñimientos embriológicos; por ejemplo, la mayor parte de los animales son simétricos bilateralmente; la segmentación es un fenómeno de distribución muy amplia; esta segmentación tiene gradientes en una gran cantidad de casos . Las plantas, por su parte, exhiben un alto grado de recursividad en sus ramificaciones (piénsese sobre todo en los helechos).
Todos estos fenómenos
se pueden estipular en los "genes" como condiciones de desarrollo de una manera
general y compacta; en cambio, los "fenotipos" los mostrarán como matemáticas,
al "hacer cosas grandes con medios pequeños", característica común de la
biología y de la programación electrónica, especialmente patente en la
investigación de vida artificial. La imagen adjunta, tomado de la citada obra de
Dawkins, son ejemplos de "biomorfos" producidos por un programa con 9 "genes",
uno de los cuales muta en cada generación; un biomorfo fue seleccionado en cada
generación, con criterios de interés estético y similitud con seres vivos.
Nanotecnología
es una tecnología proyectada basada en la habilidad general para construir
objetos de acuerdo a complejas especificaciones a nivel atómico (un nanómetro
cúbico de material contiene típicamente más de un centenar de átomos) .
El precursor de la nanotecnología es el premio Nobel en física Richard Feynman, quien en su notable conferencia de 1959 titulada "Hay mucho campo allá abajo", propuso usar máquinas herramientas para hacer máquinas herramientas más pequeñas que serían usadas para hacer máquinas todavía más pequeñas, y así sucesivamente hasta el nivel del átomo. Ya en ese nivel, sería posible usar tales máquinas para producir moléculas de conformidad con especificaciones, para muy diversas aplicaciones.
Para dar una idea de lo que esto podría significar, pensemos que componentes computacionales que consistieran cada uno de unos pocos átomos podrían usar niveles de energía cuantizada o bien los efectos mecánico-cuánticos del giro ( spin) para realizar su trabajo. No parece haber ninguna barrera en las leyes de la física para que con ese enfoque pudiera reducirse el tamaño de los computadores hasta que los dígitos binarios (bits) fueran átomos y el comportamiento cuántico reinara. Si tales aparatos pudieran diseñarse y ensamblarse serían 10.000 veces más rápidos que los transistores convencionales.
Podemos pensar que los ribosomas, por ejemplo, como nanomáquinas herramientas naturales, genéticamente programadas para ensamblar pequeñas moléculas reactivas en patrones complejos que son capaces de formar máquinas moleculares más grandes. Las máquinas herramientas de la nanotecnología -aparatos llamados ensambladores- serán mucho más generales, ya que podrán programarse para permitir la construcción de un amplio rango de estructuras moleculares (el problema de cómo les podremos dar a conocer los programas que deben ejecutar es una cuestión abierta que deberá dar origen, probablemente, a la disciplina de las nanocomunicaciones).
A pesar de lo revolucionario de todo este panorama, las máquinas moleculares previstas por la nanotecnología son sorprendentemente convencionales: incluyen poleas, motores eléctricos, y una gama completa de partes móviles tradicionales. El análisis indica que los sistemas lógicos digitales basados en aparatos moleculares pueden ser muy compactos, hasta el extremo de que la capacidad equivalente a un computador grande (mainframe) podrá acomodarse en un micrón cúbico.
Los ensambladores de primera generación pueden ser desarrollados mediante
ingeniería proteínica; no obstante, los ensambladores de generaciones posteriores
se construirán usando otros ensambladores. Serán pues típicas aplicaciones de la
vida artificial; no obstante, esto no las hace automáticamente susceptibles de
evolución. La distinción merece un análisis más detenido. Para realizarlo,
tenemos que pensar en las características que normalmente asociamos con
lo viviente, por una parte, y con lo fabril o típicamente mecánico por la otra.
Existe una
oposición convencional entre lo orgánico y lo mecánico (confróntese "La
Evolución Creadora" de Henry Bergson) que asimila lo orgánico a lo creativo y
flexible, y lo mecánico a lo rígido y repetitivo. Tal caracterización no es
suficientemente rigurosa y naufraga en forma lamentable ante los desarrollos
recientes de la computación electrónica y de la robótica que han dado un alto
grado de creatividad y flexibilidad a procesos incuestionablemente mecánicos.
Necesitamos, pues, un conjunto de criterios más precisos para distinguir entre el
modo fabril y el modo orgánico. Ensayemos la definición de algunos. Los seres vivientes se caracterizan
por uso intenso del transporte difusivo, el
ensamblado por copulación aleatoria, la
estructura topológica y
las partes adaptativas. Los
sistemas fabriles, por su parte, se caracterizan por los inversos de estos: el
transporte canalizado, el
ensamblado posicional, la
estructura geométrica, y
las partes inertes.
Los
sistemas vivientes son obvios modelos para los nanoreplicadores: se reproducen y
se basan en componentes moleculares (por ello mismo los nanoreplicadores pueden
considerarse materia de VA). Pero más allá de esto los dos tipos de replicadores
divergen en estructura y función. Los nanoreplicadores proyectados se parecen
más a fábricas que a células, corresponden al modo fabril más que al modo
orgánico. Ahora bien, son las características del modo orgánico las que
posibilitan la evolución, ya que el cambio implicado en una mutación será
probablemente fatal si el organismo se basa en transporte canalizado, ensamblado
posicional, estructura geométrica y componentes inertes. Es entonces factible
que, incluso habiendo recibido la capacidad de autoreplicarse, la naturaleza
mecánica de los nanoreplicadores impida a estos instrumentos evolucionar y en
esta forma desarrollarse por caminos no previstos por sus diseñadores.
A largo plazo,
la nanotecnología podrá producir, por ejemplo, máquinas cirujanos que,
trabajando veinticuatro horas al día por décadas o incluso siglos, restaurarán
tiernamente cerebros congelados, célula por célula, o incluso molécula por
molécula en áreas críticas. Otra posibilidad es que lleguemos a llevar en la
sangre nanomáquinas colectoras de basura, superiores a los leucocitos y otros
agentes del patrimonio genético humano, que con la mayor eficiencia perseguirán
y cazarán a una amplia gama de invasores hostiles y dañinos. Aunque parezca
increíble, hasta diez de estas máquinas podrían introducirse dentro de una
célula en reparación sin que causen daños de importancia.
Pasando a otra dimensión, la presencia del crecimiento demográfico, la degradación del ambiente natural, el rápido agotamiento de los recursos del planeta, todo ello significa que el desarrollo de un poder industrial extraterrestre es inevitable. Es posible incluso que nuestra continuación como especie podría muy bien depender de la explotación de recursos extra-terrestres. Al respecto, nuestra luna ofrece abundante provisión de importantes minerales y tiene un número de ventajas para la factoría que la hacen atractiva como sede industrial. Dado el costo y peligro asociado con el uso de trabajadores humanos en una localización tan remota y azarosa, una factoría lunar deberá estar automatizada en el más alto grado posible.
La instalación lunar deberá ser flexible, de modo que su torrente productivo sea fácilmente modificable por control remoto y requiera un mínimo de atención humana. Sin embargo, siendo así que una factoría lunar podrá agotar los recursos minerales, descomponerse o pasar a ser obsoleta, tarde o temprano tendrá que ser relocalizada o reconstruida. Esto requiere una nueva gran inversión de capital, junto con la presencia, otra vez, de gran número de obreros de construcción y toda clase de técnicos en lugares remotos y peligrosos. Al pasar el tiempo, este proceso de sustitución cara y azarosa tendrá que ser repetido muchas veces. De ahí que un estudio de NASA ha llegado a la conclusión de que el proceso de reposición de equipo debe ser evitado, de modo que una empresa de factoría lunar pueda requerir solamente una única inicial inversión de capital.
La solución sugerida es una factoría
lunar automática, de múltiple producto, controlada desde la tierra,
reprogramable y autoreproductora. En esa forma, descendientes sucesivos podrán
ser copias de la factoría original, o bien versiones mejoradas, reorganizadas o
aumentadas por control remoto que reflejan las cambiantes necesidades humanas.
Existen dos escuelas de
pensamiento en relación con el origen de la vida. Una se basa en la premisa de
que las proteínas aparecieron primero. La segunda postula que los ácidos
nucleicos aparecieron primero. Ninguno de estos dos modelos basados en la
química orgánica son plausibles a la luz de los hallazgos geológicos.
Recientemente ha surgido una tercera teoría, la teoría de la arcilla, que enseña
la bíblica doctrina de que la vida viene del barro.
De acuerdo con esta teoría sobre el origen de la vida, es verosímil especular que la evolución habrá pasado por tres estadios:
Los primeros
organismos fueron cristales microscópicos de arcilla que se reproducían por los
procesos comunes de crecimiento y fractura de cristales, y que acarreaban
información genética como patrones de defectos de cristalización. Estos defectos
tendrán influencia en las propiedades físicas de la arcilla y en sus capacidades
catalíticas, y de esa manera habrían proveído a sus poseedores de la capacidad
de controlar parcialmente el medio ambiente de su inmediato vecindario, uno de
los atributos fundamentales de la vida.
Los
cristales de arcilla que constituyeron los proto-organismos tropezaron por
casualidad con una manera de absorber compuestos carbónicos de su vecindario
como materiales de construcción y herramientas, e incluso como depositarios
externos de información genética. Esta maquinaria carbónica resultó tan
eficiente que los proto-organismos que la usaron ganaron la partida contra sus
competidores, y pasaron eventualmente a basarse completamente en la química del
carbono sin que quedaran vestigios de su pasado cristalino. A. G. Cairns-Smith,
el químico que concibió esta teoría, lo ha bautizado con el nombre de golpe de
estado genético.
Los seres humanos somos híbridos: parte naturaleza y parte cultura. La parte cultural es construida, y depende para su existencia del fundamento biológico. Las máquinas, como entes puramente culturales, no participan de ese dilema de la condición humana. Más tarde o más temprano serán capaces de manejar su propio diseño y construcción, librándose así de los últimos vestigios de sus formas biológicas; comenzará entonces la etapa post-biológica de la evolución.
Las máquinas podrán continuar nuestra evolución cultural, incluido su cada vez más rápido automejoramiento, sin nosotros, y sin los genes que nos construyeron. Será entonces que nuestro ADN quedará cesante, habiendo pasado la antorcha y perdido la carrera en una competencia planetaria contra sus propias criaturas. A partir de ese momento y dentro del nuevo orden de cosas, el portador de la información genética será exclusivamente el conocimiento transmitido de mente a mente. La total independencia de la cultura frente a la biología habrá quedado consumada.
NOTAS
NOTA 1 Un milímetro es equivalente a 10 a la -3 metros (un uno con tres ceros delante, es decir 0.001). Un nanómetro es equivalente a 10 a la -9 metros (0.000000001).
NOTA 2 Un milímetro es equivalente a 10 a la -3 metros (un uno con tres ceros delante, es decir 0.001). Un micrón es equivalente a 10 a la -6 metros (0.000001).
NOTA 3 Tal vez sea mejor identificar lo que hasta ahora se ha llamado "mecánico" como "fabril", es decir, propio de las fábricas.
NOTA 4 En las células vivientes, los sustratos metabólicos se difunden de enzima a enzima, al igual que se difunden las moléculas de ARN con sus bloques de información. En un sistema difusivo, cada unidad está conectada de manera efectiva con todas las otras unidades.
NOTA 5 Dícese de los componentes moleculares tales como ARN y las proteínas que componen los ribosomas, los cuales se difunden y chocan unos con los otros en todas las posiciones y orientaciones posibles. Los que tienen superficies complementarias se integran para formar una nueva estructura.
NOTA 6 Las estructuras orgánicas están organizadas topológicamente, es decir, no tanto con base en la geometría sino en la conectividad. Por ejemplo, la forma de una membrana importa menos que su continuidad. Igualmente, el largo de un músculo es menos importante que los puntos a que está ligado.
NOTA 7 La piel crece para cubrir al organismo: no tiene que ser rediseñada cuando los genes o el ambiente dan lugar al desarrollo de un gigante. Igualmente, el cráneo crece para albergar el cerebro, los músculos se adaptan al tamaño de los huesos, y los sistemas vasculares se extienden para permear los tejidos.
NOTA 8 En las fábricas se hace uso extenso del transporte canalizado, por ejemplo fajas transportadoras, tubos, cables y varillas de transmisión, para llevar material, energía o información. En un sistema canalizado prototípico cada máquina debe estar ligada específicamente con sus suplidoras y con sus consumidoras.
NOTA 9 Las fábricas automatizados hacen uso del ensamblaje posicional. Su prototipo es el robot ciego que impulsa un eje dentro de la localización esperada de un agujero.
NOTA 10 Dícese de los componentes que tienen tamaños, formas y posiciones definidas en relación unos con los otros; la resultante geometría fija se presta para el ensamblaje posicional y el transporte canalizado.
NOTA 11 El prototípico componente inerte es un objeto rígido cuya forma especial calza estrictamente en otro componente (como la tuerca y el tornillo). Un cambio en uno de ellos exige un cambio correspondiente en el otro, si es que se quiere que sigan con la capacidad de integrarse.
NOTA 12 Para ser más precisos, en 1990 había suficiente evidencia genética -si no geológica- sobre la precedencia de los ácidos nucleicos sobre las proteínas, pero se abría ya paso la teoría de un mundo de ARN como anterior tamto a la existencia del ADN como a la de las proteínas. Aquí lo que está en cuestión es si la genética basada en ácidos nucleoicos fue el primer sistema de control de la replicación de los seres vivos. La teoría que se expone enseguida de la arcilla como material de los primeros replicadores genéticos es todavía considerada en el nuevo siglo como pertinente.
©
2002 Javier de Lucas