MENTES MARAVILLOSAS

Todos lo hemos experimentado. Es cuestión de teclear una palabra, esperar unos segundos, y todo el imponente edificio de la información a escala global aparece ante nosotros. Al tiempo que admiramos nuestra genial invención, nos sentimos agobiados ante todo lo que nos ofrece. La humanidad, que durante siglos había ansiado crear una red universal de conocimientos a disposición de todos los hombres y mujeres de la Tierra y en cualquier instante, lo ha conseguido al fin.

Internet representa uno de los momentos culminantes de la historia intelectual humana. Es el fruto más sobresaliente de una época que se remonta, a corto plazo, a los sueños de los matemáticos y filósofos del siglo XVII, quienes, como Leibniz (1646-1716) o ya antes el jesuita, lingüista, inventor, criptógrafo y estudioso de la lengua copta Athanasius Kircher (1602-1680), habían ideado un sistema lógico universalmente válido capaz de sintetizar todos los conocimientos adquiridos por el género humano. Contemporáneo de Leibniz fue Pierre Bayle, uno de los primeros librepensadores de occidente y una figura a todas luces fascinante, que escribió su célebre Diccionario histórico-crítico a principios del siglo XVIII, convirtiéndose en un destacado precursor de la Ilustración. Sólo nos separan tres siglos de estos grandes pensadores, y por eso hablo de “a corto plazo” (a largo plazo nos obligaría a buscar cuándo nació el deseo tan típicamente humano de conocerlo todo). Poco representan tres siglos dentro del dilatado recorrido humano por la Tierra, aunque el ritmo acelerado de la historia que vivimos nos lo impida ver y nos cambie nuestra percepción del tiempo.

La Ilustración constituye una de las cimas intelectuales de la modernidad, y posibilitó, en palabras de Kant, “la salida del hombre de su minoría de edad”. Se fijaron unos ideales, tan utópicos como admirables, de difusión global de la cultura a todos los rincones del orbe. Sin querer ignorar las sombras de las Luces, que otros muchos ya se han encargado de poner de relieve (¿no es acaso la postmodernidad una reacción contra la Ilustración y sus ideales universales?), no dejaré a un lado sus logros. La Encyclopédie de Diderot (consejero, entre otros, de Catalina la Grande de Rusia) y D'Alembert (matemático y físico), la “Biblia” del movimiento ilustrado europeo durante décadas, fue concebida como una puesta en común de los avances en la investigación científica y humanista desde los ideales que guiaban a los espíritus ilustrados.

¿Qué habrían pensado Kircher, Leibniz, Bayle, Diderot y D'Alembert al conocer la gran creación humana que es Internet? ¿Qué habrían pensado al comprobar que todo cuanto la humanidad había llegado a conocer, que tantos pensamientos que habían habitado en nuestras mentes, estaban ahora al alcance de todos, sin importar la distancia y cada vez menos la situación social? ¿Y qué habrían pensado si hubiesen comprobado que, además de reunir una cantidad ingente de conocimientos que probablemente ningún hombre, por prodigiosa que fuese su cabeza, hubiera podido acumular, también incluía una cantidad igualmente ingente de perspectivas de pensamiento y de sistemas filosóficos? En Internet expresa sus ideas la práctica totalidad de movimientos culturales, intelectuales y religiosos del mundo. Es el espacio de lo universal, el espacio de lo humano, donde convergen todas las posiciones, todas las creencias, todos los descubrimientos. Realiza, de esta forma, el ideal más genuinamente ilustrado: el afán de que todos se puedan expresarse libremente (con el límite, que más que un límite es una prueba de responsabilidad, del respeto a la dignidad de toda persona).

La posibilidad de disponer de otro mundo, el virtual., nos abre a esa doble presencia: la real y la telemática. Internet permite, de esta forma, la simultaneidad, la universalidad, nos ofrece innumerables alternativas y, aunque muchos usen estas ventajas para evadirse de la realidad presente , lo cierto es que Internet abre horizontes nuevos y potencialmente infinitos en los que cada persona pueda desarrollar sus facultades y colmar muchos de sus deseos.

Pero, ¿quién es aquí la mente maravillosa? Quizás, el recorrido que hemos hecho por algunas de las grandes figuras de las ciencias y del pensamiento nos haya acostumbrado a identificar un descubrimiento concreto o una gran idea con una persona en particular, algo que no es siempre posible si se quiere hacer justicia a todos los que realmente participaron en la realización de un gran avance. ¿Se puede decir que el modelo de la doble hélice del ADN, quizás la principal aportación a las ciencias de la vida en el siglo XX, sea obra de James Watson y de Francis Crick? En absoluto. Nadie niega que ellos desempeñaron un papel clave en este hito científico, pero no podemos olvidar las investigaciones de una mujer, Rosalind Franklin, o el trabajo que ya existía previamente de Linus Pauling.

Algo parecido ocurre con Internet. Conforme la Ciencia y el conocimiento se han ido haciendo más complejos y más difíciles de dominar, siquiera en un campo concreto, para una única persona, los descubrimientos más importantes han exigido la colaboración de muchos equipos. Han surgido, indudablemente, individualidades geniales, dando ellas solas pasos significativos en un campo de las ciencias naturales o humanas; pero suele ser raro. Lo normal es que los premios Nobel se otorguen a científicos que han dirigido grandes equipos de investigación y laboratorios, ofreciendo directrices sobre cómo debían desarrollarse los experimentos y ensayos pero colaborando, lógicamente, con muchas otras personas a las que resulta muy difícil conceder el mismo reconocimiento (por ejemplo, un galardón como el Nobel).

Para conocer la historia de Internet es necesario remontarse varias décadas atrás, y ante todo tener claro que Internet es distinto de la World Wide Web (las famosas tres uves dobles que tecleamos en los buscadores cuando queremos acceder a una determinada página web). Internet se refiere, primordialmente, al conjunto de redes de ordenados conectados entre sí, mientras que la “World Wide Web” (“Web” significa telaraña; no basta con crear un gran invento: hay que darle un buen nombre para que triunfe) consiste en documentos interconectados mediante hipervínculos (hyperlinks) y URLs (Uniform Resource Locator). Las dos se rigen por protocolos informáticos distintos: el IP, o Internet Protocol, y el HTTP, Hypertext Transfer Protocol. O en otras palabras, puede decirse que Internet es una estructura a modo de soporte capaz de ofrecer distintos servicios, entre los cuales se encuentran la World Wide Web, el correo electrónico... y otras muchas aplicaciones. Las historias de Internet y de la World Wide Web están estrechamente relacionadas, porque si Internet ha gozado de tanta aceptación popular y hoy en día es uno de los pilares fundamentales de nuestro mundo globalizado es, en gran medida, gracias a las facilidades que ofrece esta última.

Los orígenes de Internet nos llevan a la carrera espacial emprendida por las dos grandes superpotencias del momento: los Estados Unidos de América y la Unión Soviética. Enfrentadas en una guerra fría sin cuartel, se disputaban no sólo el control político del mundo, sino el liderazgo científico y tecnológico para mostrar la supremacía de sus ideologías respectivas (el capitalismo liberal y el comunismo leninista). Los soviéticos habían tomado la delantera en esa carrera espacial al lanzar el primer satélite artificial en órbita, el Sputnik (Спутник, que en ruso significa algo así como “compañero de viaje”) en 1957, y al llevar el primer hombre al espacio (Yuri Gagarin, el 12 de abril de 1961) y la primera mujer (Valentina Tereshkova, el 16 de junio de 1963) e incluso al primer ser vivo (la perrita Laika, el 3 de noviembre de 1957).

Los Estados Unidos no podían consentir que su principal enemigo les superase de manera tan evidente en semejante competición. Por ello, el gobierno (entonces presidido por el general Dwight Eisenhower) creó la Advanced Research Projects Agency (conocida por sus siglas como ARPA) en febrero de 1958, para retomar la iniciativa en la batalla tecnológica con la Unión Soviética.

Entre los proyectos que surgieron de la ARPA destacó el establecimiento de una oficina, la Information Processing Technology Office (IPTO), entre cuyos objetivos principales estaba el de desarrollar un sistema de control automatizado llamado Semi Automatic Ground Environment (SAGE). Este sistema permitía conectar sistemas de radar a lo largo y ancho del país, lo que para aquella época era un verdadero hito. Entre los participantes en el proyecto destaca la figura de J.C.R. Licklider (1915-1990), uno de los informáticos más importantes del siglo pasado, que escribió importantes estudios sobre la “simbiosis” que podía darse entre el ser humano y el ordenador. Un auténtico visionario de las posibilidades que ofrecía la informática para los nuevos tiempos.

Licklider, allá por los años ’50, estaba trabajando en el prestigioso MIT y había empezado a investigar sobre un campo que hoy resulta de actualidad: la tecnología de la información, ocupación que simultaneaba desempeñando puestos de alta responsabilidad en una de las empresas punteras del sector, BBN Technologies. Licklider, junto con otro informático llamado Lawrence Roberts (considerado uno de los “padres” de Internet), desarrolló un sistema que operaba mediante el denominado packet switching (estudiado antes por Paul Baran, un ingeniero famoso también por haber inventado lo detectores de metal que se usan en los aeropuertos) en lugar del circuit switching. ¿En qué se diferenciaban ambos mecanismos? En que el primero, que se suele traducir al castellano como “conmutación de paquetes”, implica conducir unidades de transporte de información entre nodos o puntos específicos dentro de la red de comunicaciones pero que, a diferencia del “circuit switching” como por ejemplo los antiguos circuitos telefónicos, no establece una tasa constante de bits (los dígitos binarios, compuestos de ceros o unos, que están en la base del almacenamiento y el transporte de la información en los sistemas computacionales) entre dos nodos. Con los circuitos la comunicación se restringía a dos partes, mientras que los paquetes permitían la comunicación simultánea entre más terminales y no sólo entre quien enviaba datos y quien estuviera al otro lado del circuito. Ahora, con los paquetes, era posible usar un mismo vínculo de comunicación para entrar en contacto con más de una máquina. Puede decirse que el desarrollo de la comunicación por “paquetes” en lugar de circuitos está en la base de Internet.

En 1969, en la UCLA (la Universidad de California en Los Ángeles) se creó el ARPANET (Advanced Research Projects Agency Network), la primera gran red de comunicaciones que operaba con el sistema de paquetes en vez de con los clásicos circuitos. En 1978 se estableció el International Packet Switched Service (IPSS), un consorcio entre la oficina de correos británica, la compañía financiera Western Union y una red de comunicaciones, la Tymnet, formando la primera red internacional mediante la tecnología del intercambio de paquetes, que a principios de los ’80 ya se había extendido a lugares como Hong Kong y Australia.

En 1983 estaba operativo en Estados Unidos el primer protocolo de Internet, que dio lugar rápidamente al surgimiento de distintas redes educativas y comerciales. Gobiernos y empresas vieron en la nueva herramienta informática, Internet, un mecanismo excepcional para la comunicación y el intercambio. Internet pasaba a ser la “nueva imprenta” de la civilización tecnológica.

A principios de los años ’90, Internet dejó de ser una tecnología desconocida y misteriosa para el común de los mortales y entró de lleno en el espacio público. Un evento sumamente importante en estos años fue la invención de la World Wide Web por otra de las mentes maravillosas de la informática, Tim Berners-Lee. Detengámonos un poco en alguien que ocupa ya un lugar destacado en la historia del progreso humano.

Timothy Berners-Lee nació en Londres el 8 de junio de 1955, hijo de un matrimonio de matemáticos que se dedicaban al diseño de ordenadores. Creció en una atmósfera muy intelectual, donde las matemáticas eran uno más de la familia. En ese contexto de gran estímulo intelectual, Berners-Lee realizó estudios en una escuela primera, Sheen Mount Primary School, aunque los “A-Levels” (unos exámenes que los alumnos tienen que hacer para acceder a la universidad, con unos cursos previos parecidos al bachillerato español en el sistema educativo británico) los cursase en “Emmanuel School”, en Wandsworth (suroeste de Londres).

Tim Berners-Lee estudió en el afamado Queen’s College de la Universidad de Oxford, fundado en 1341 y situado en plena High Street de esta ciudad británica, y en el que han vivido, entre otros famosos ex alumnos, el filósofo utilitarista Jeremy Bentham. Oxford era y sigue siendo una de las mejores instituciones de educación superior del mundo. Su idílico paisaje (verdes campiñas inglesas con edificios medievales que, sin embargo, dan cobijo entre sus muros a la vanguardia en muchos campos de investigación) y su tradición la convierten en un escenario magnífico para la labor intelectual y científica. Parece que “invita” a pensar y a producir ideas e inventos. Tim Berners-Lee estudió allí la carrera de Ciencias Físicas, graduándose en 1976. Poco después de finalizar sus estudios de Física, Berners-Lee comenzó a trabajar como programador. Su mujer, Jane, también se dedicaba a la informática (una especie de matrimonio “Curie” de los ordenadores).

Una fecha muy importante en la vida de Tim Berners-Lee es 1980. Ese año estaba trabajando en el CERN (Conseil Européen pour la Recherche Nucléaire) de Ginebra, en Suiza, un centro puntero en la Física de altas energías y en el estudio de las partículas elementales. Fue allí donde Berners-Lee desarrolló la idea del hipertexto, destinado a permitir el intercambio de información entre los investigadores que se encontraban en el CERN. Se trataba de una especie de “intranet” que operaba sólo en el CERN, pero que incluía una sofisticada tecnología para el traspaso de datos y archivos.

Berners-Lee siguió trabajando como programador, pero en 1989 decidió regresar al CERN, que había instalado un potente nodo de Internet que le permitiría desarrollar lo que había concebido años antes (el hipervínculo). El mérito de Berners-Lee consiste, ante todo, en haberse dado cuenta de que integrando dos tecnologías que habían surgido hasta cierto punto de manera independiente (Internet y el hipertexto), podía dar al mundo una herramienta de información y de intercambio que superaba con creces a las disponibles en esa época: la World Wide Web. Podía servirse de Internet para generar un instrumento valiosísimo de intercambio de información. Nuevamente, esto puede parecer sencillo, pero en realidad se trataba de un reto de altísimo nivel. Era marzo de 1989, un año que debe recordarse no sólo por la caída del Muro de Berlín, sino también por algo no menos trascendental como es la invención de la World Wide Web.

Con la ayuda del belga Robert Cailliau, Berners-Lee lanzó la World Wide Web, desarrollando el primer servidor, el conocido como httpd (Hypertext Transfer Protocol Daemon). Era el comienzo de las páginas web (la primera, realizada en el propio CERN, apareció en agosto de 1991), hoy tan presentes en nuestras vidas cotidianas.

La historia que viene a continuación es sobradamente conocida: es la historia del éxito de la idea de Berners-Lee, la del éxito de la World Wide Web y la del éxito de Internet. Ambos han pasado a formar parte de nuestra existencia cotidiana, de tal modo que parecería imposible subsistir sin ellas.

Pero también es la historia de la grandeza humana: la que mostró Berners-Lee al no patentar su invento. En 1994 creó el World Wide Web Consortium, que preside en la actualidad, pero en ningún momento pidió “royalties” por su idea, probablemente una de las que más han influido en el mundo contemporáneo. Podría ser uno de los hombres más ricos del mundo, pero prefirió no serlo. Es perfectamente legítimo que alguien gane dinero, fama y prestigio por sus inventos o creaciones, porque al fin y al cabo representan una forma de reconocer su labor y su esfuerzo. Pero es innegable que resultará más fácil admirar a quien renuncia a ello y lo pone a disposición de la humanidad sin pedir nada a cambio. Ambas opciones son legítimas, pero también es legítimo admirar más una que a otra. Berners-Lee ha demostrado, con ello, ser no sólo una mente maravillosa, sino un gran ejemplo para una sociedad necesitada de referentes éticos y de figuras con las que sentirse identificada.

Berners-Lee se dedica ahora al desarrollo de la denominada web semántica, un proyecto fascinante que permitiría a los ordenadores “entender” ellos mismos la información que poseen, en lugar de limitarse a procesar las órdenes que nosotros, los humanos, les damos. Por ejemplo, estamos habituados a entrar en Google y decirle al buscador que encuentre cuál es la montaña más alta de África. El buscador no entiende la pregunta: simplemente se limita a buscar páginas donde aparezcan los términos “montaña/ más/ alta/ de/ África”, dando como resultado de la búsqueda un gran número de páginas, y dejando al usuario que sea él mismo quien dé con la respuesta mirando esas páginas. El ordenador no interpreta el contenido de esas páginas. Con la web semántica, el ordenador nos daría directamente la respuesta: el Kilimanjaro, sin necesidad de remitirnos a otras páginas en las que conseguir la información. El ordenador dejaría de ser una mera herramienta de procesamiento de órdenes para llevar a cabo una tarea más “activa”. En otras palabras: sería el propio ordenador quien leyera las páginas web.

Miles de millones de personas se conectan, diariamente, a la Red. Si nunca como ahora habíamos sido tantos, tampoco nunca como ahora hemos tenido tantas posibilidades para encontrarnos, conocernos y ayudarnos. Nunca habíamos tenido una herramienta tan poderosa para el intercambio de información y la configuración de una auténtica sociedad del conocimiento. Hoy, progreso es sinónimo de Internet. De nosotros depende que esto no sea un simple sueño utópico, y que el uso que demos a una de las creaciones más importantes de los últimos siglos responda al bien de todos.

MENTES MARAVILLOSAS

Primero, explicaré qué entiendo por una mente maravillosa. Por supuesto, Sócrates, Arquímedes, Galileo, Einstein y muchos otros nombres han sido mentes absolutamente extraordinarias, dotadas de una inteligencia y de un tesón excepcionales que no todo el mundo posee. Pero una mente maravillosa no es sólo una cuestión de ser un prodigio desde muy joven. Han existido casos de personas que aparentemente no prometían nada en el campo de la Ciencia o de las humanidades (no fueron niños prodigio ni estudiantes brillantísimos) y que sin embargo acabaron realizando contribuciones fundamentales al progreso del conocimiento. Por ejemplo, el inventor de la batería eléctrica, Alessandro Volta, el genial físico Michael Faraday (un hombre casi sin formación científica) o sin ir tan lejos, el del premio Nobel de Química de 2003 y descubridor de las acuaporinas (las proteínas clave en el transporte de agua en la célula), Peter Agre, que obtuvo un grado “D”, una nota bajísima, en su primera clase de Química, a pesar de que su padre era profesor universitario de Química. Ni la precocidad ni el entorno familiar garantizan nada, aunque puedan facilitar las cosas. Además, no olvidemos que de algunos de los mayores genios de la historia, como Isaac Newton, Immanuel Kant o Charles Darwin, no nos consta que fuesen particularmente prodigiosos en su infancia.

Y a la inversa, se han dado situaciones en las que figuras prodigiosas desde temprana edad o que consiguieron un currículum formidable “fracasaron”, en el sentido de que no dejaron ninguna aportación relevante en la Ciencia o en el pensamiento. Un ejemplo muy célebre es el de William James Sidis (1898-1944), probablemente una de las personas más inteligentes de todos los tiempos. Sidis fue un niño muy especial. Sus padres eran emigrantes rusos de origen judío, y el pequeño William nació el 1 de abril de 1898 en Nueva York. Boris Sidis, su padre, era un renombrado psicólogo y políglota profesor en Harvard, y su madre estudió la carrera de medicina en la Universidad de Boston. Ambos progenitores poseían, por tanto, una educación y una inteligencia muy superiores a la media del momento. Con un padre psicólogo que además investigaba sobre cómo potenciar las habilidades intelectuales de las personas, era de esperar que William recibiese una formación completamente atípica. ¿Qué método de enseñanza podía emplear quien pensaba, como Boris Sidis, que el genio podía “avivarse” e incluso “fabricarse” con una correcta pedagogía? Al igual que el padre de John Stuart Mill (1806-1873), James Mill, se propuso hacer de su hijo un gran sabio que pudiese enarbolar en un futuro la bandera de la filosofía utilitarista, y para ello le privó de relaciones con los demás niños de su edad y le sometió a una férrea disciplina que incluía la lectura en griego de las Fábulas de Esopo y de la Anábasis de Jenofonte a los ocho años (lo que acabó pasándole una costosa factura, ya que a los 21 años sufrió un colapso nervioso del que afortunadamente, sobre todo para la historia del pensamiento, se recuperó), Boris Sidis también diseñó un cuidadoso programa de instrucción para su joven criatura. Si el escultor modela su obra, Boris Sidis quería modelar a su propio genio. Y si sumamos a esta inquebrantable voluntad paterna la excepcional precocidad que de por sí tenía William, el resultado es asombroso, casi increíble: Sidis era capaz de leer el New York Times a los 18 meses, a los ocho años había aprendido los rudimentos de lenguas como el latín, el griego, el francés, el ruso, el alemán, el hebreo, el turco y el armenio, y no contento con eso había inventado un nuevo idioma, el vendergood. En los Sidis archives, disponibles en Internet, se pueden leer las crónicas que salían en los periódicos de la época y que daban cuenta de los progresos de semejante maravilla.

Sidis quiso entrar en la universidad a los 9 años, pero como les ha ocurrido a tantos otros niños prodigio, se topó con numerosas trabas a causa de su edad. A los 11 logró ser admitido en la Universidad de Harvard dentro de un programa especial en el que también participaba el futuro matemático, padre de la cibernética, Norbert Wiener. Tal era el nivel de matemáticas exhibido por el joven Sidis que con sólo 11 años pronunció una conferencia sobre los cuerpos tetra-dimensionales en el club matemático de Harvard, con la asistencia de las mayores eminencias matemáticas del momento, que se quedaron atónitas ante su genio. El profesor Daniel Comstock, del Instituto tecnológico de Massachusetts (el MIT), llegó a predecir que Sidis lideraría la Ciencia en breve.

Sidis se licenció en matemáticas a los 16 años, en 1914, obteniendo la calificación de cum laude (a su madre no le pareció suficiente porque no era summa cum laude). “Quiero vivir la vida perfecta”, declaró Sidis a los medios de comunicación que le entrevistaron con motivo de su graduación en Harvard. Sidis despreciaba el dinero y había decidido permanecer célibe, seguramente porque creía que pensar en mujeres le distraería de sus intereses intelectuales y académicos. Tras terminar sus estudios tan pronto, ¿qué podía hacer ahora? Empezó a dar clases de matemáticas en la Universidad Rice, en Houston (Texas), con tan sólo 17 años, pero Sidis no conseguía encontrar la felicidad. Se sentía frustrado y aburrido, y como el clásico, debió de decirse para sus adentros: taedet animam meam vitae meae, “mi alma está hastiada de la vida”. Las matemáticas ya no le llenaban, y nunca volvería a ser el mismo y exitoso prodigio que había puesto a Harvard bajo sus pies. Sidis se matriculó en derecho, pero terminó abandonando la vida académica. Fue arrestado por participar en una manifestación socialista (Sidis era ateo y de izquierdas) en Boston y condenado a 18 meses de prisión, en teoría por su comportamiento violento durante la protesta. Tenía 21 años. El prodigio Sidis, célebre en Estados Unidos desde tempranísima edad, se convirtió ahora en el objeto de las burlas y los escarnios de la prensa neoyorkina que antes lo había exaltado como la mayor promesa de América. Los periódicos nunca dejarían de ridiculizarlo: “prodigioso fracaso”, lo llamó uno de ellos. Gracias a la intervención de su padre, Sidis se libró de la prisión, pero a cambio tuvo que ser internado en un sanatorio psiquiátrico dirigido por sus propios padres, quienes le amenazaron con llevarlo a un manicomio si no cambiaba de comportamiento.

Pero no todos los niño prodigio han corrido la misma suerte que Sidis. El holandés Hugo Grocio (1583-1645) entró en la Universidad de Leiden a los 11 años y a los 15 cautivó con su talento al rey Enrique IV de Francia en una audiencia, que lo describió como el “milagro de Holanda”. Ha pasado a la historia como uno de los padres del derecho internacional y como una figura determinante en la modernidad europea. Blaise Pascal (1623-1662) también fue un niño prodigio que a los 16 años publicó lo que hoy se conoce como el “teorema de Pascal” sobre las cónicas, y siguió haciendo contribuciones notorias al conocimiento en campos tan variados como la Física, las matemáticas, la filosofía, la teología y la prosa francesa. El alemán Carl Friedrich Gauss (1777-1855), seguramente el mayor de los matemáticos junto con Arquímedes y Newton, era el hijo de un humilde albañil cuando llamó la atención de un profesor de la escuela elemental al calcular al instante el valor de la suma de todos los números desde 1 hasta 100: 1 + 2 + 3... + 100: -“¡5050!”, dijo enseguida. El maestro Büttner había puesto a sus alumnos como tarea hacer esa suma para entretenerlos mientras atendía otros asuntos, pero debió de quedarse extasiado y fuera de sí al comprobar que un niño de corta edad había tardado tan poco en resolver el problema. Y es que Gauss se había dado cuenta de que tanto si la suma comienza desde 1 como si empieza desde 100, al adicionar los términos opuestos (1 + 100, 2 + 99, 3 + 98, 4 + 97...) el resultado siempre es de 101. Como hay 100 términos, pero sumamos de dos en dos, habrá que multiplicar 101 por 50, lo que da 5050. Fascinante el poder de la inteligencia humana ya desde edades tan tempranas. Y más recientemente, el que fuera niño prodigio de las matemáticas, el australiano de origen chino Terence Tao, ha ganado una de las medallas Fields, el “Nobel” de las matemáticas, que se entregaron en el congreso internacional de matemáticas de Madrid en 2006 (galardón que rechazó el polémico y genial matemático ruso Grigori Perelmann, autor de la demostración de la conjetura de Poincaré, uno de los interrogantes matemáticos más complicados de las últimas décadas).

Y siempre tenemos el ejemplo de Wolfgang Amadeus Mozart (1756-1791), el niño prodigio por excelencia que sorprendió a media Europa y que como adulto legó algunas de las creaciones más bellas del genio humano, que nos han extasiado durante siglos. Como dijo un director de orquesta, en la música de Mozart hay tres etapas: una en la que Mozart pertenece a su tiempo; otra en la que Mozart supera con creces a su tiempo; y una final en la que Mozart se sale del tiempo. ¿Qué habría sido de la historia de la música si Mozart no hubiese muerto a los 35 años? Afortunadamente y por haber sido un prodigio tan extraordinario, Mozart empezó a componer muy joven y por eso nos han llegado tantas sinfonías, conciertos, misas y óperas suyas.

Pero, ¿qué es una mente maravillosa? Hemos visto que no necesariamente un ser prodigioso desde la infancia se transforma en una mente maravillosa. ¿Y qué decir de esos cerebros asombrosos que aprenden decenas de lenguas o que hacen cálculos mentales con suma facilidad? ¿Son mentes maravillosas? Hay gente que, por ejemplo, es capaz de calcular la raíz trece de un número de cien dígitos en menos de un minuto. ¡La raíz trece! No sólo la cuadrada o la cúbica, sino la raíz trece. El colombiano Jaime García Serrano, “la computadora humana”, posee cinco récords mundiales de cálculo. Puede el calcular el día de la semana de cualquier fecha en un rango de un millón de años (¿qué día será el 20 de septiembre del año 200.000? “Miércoles”, nos diría Jaime sin rechistar); saca la raíz trece de un número de cien cifras en 15 centésimas de segundo, ha memorizado 37.000 decimales del número pi... Y sólo tiene estudios de formación profesional. Formidable. No menos que la gesta de Bhandanta Vicitsara, un hombre que en 1974 recitó de memoria 16.000 páginas de un texto budista. Y tampoco se queda atrás el italiano Giuseppe Caspar Mezzofanti (1774-1849), un cardenal políglota apodado en vida la Pentecote vivante, “el Pentecostés viviente”, por su legendaria facilidad para aprender idiomas.

Mezzofanti, que era de Bolonia (hay una placa en su casa natal donde se le llama massimo dei poliglotti), pudo llegar a dominar, según la biografía del reverendo Charles W. Russell y otras fuentes, 38 lenguas a la perfección y 50 dialectos (el lingüista Richard Hudson acuñó en 2003 un término para las personas que hablan con fluidez seis o más idiomas: hiperpolíglota, que sin duda Mezzofanti cumplía de sobra), incluyendo el húngaro, el chino, el turco, el árabe (Mezzofanti fue catedrático de árabe), el indostano, el valaco, el ilírico, el persa o lenguas nativas de América. Muchos viajeros se desplazaban a Bolonia o después a Roma simplemente para conocerlo y para poner a prueba sus habilidades. Aunque Mezzofanti aparece habitualmente en las ediciones del libro Guinness de los récords, no faltan pretendientes al disputado título de mayor políglota de la historia. Se dice que el filósofo y teólogo estonio fallecido en 1985 Uku Masing hablaba 65 idiomas y traducía 20, o que en la actualidad Ziad Fazah, nacido en Monrovia (Liberia) pero residente en Brasil, conoce 58 lenguas, y se ha sometido a numerosos “exámenes” en distintos programas de televisión de todo el mundo. Sin embargo, también se han dado exageraciones y fraudes como las de Sir John Bowring (1792-1872), cuarto gobernador británico de Hong Kong, diplomático y viajero, que presumía de poder hablar 200 idiomas, cuando en realidad dominaba poco más de diez y los dialectos.

Ya sean calculadoras humanas, seres dotados de una “mega-memoria” o hiper políglotas, lo que entiendo por mente maravillosa es muy distinto. Esas personas han estado dotadas de unas facultades únicas que desbordan todo límite que a priori se pueda imponer a las capacidades intelectuales del ser humano. Pero no han hecho progresar el conocimiento, ni han dejado a la posteridad una gran idea o una escuela de pensamiento, ni han inventado nada. Una mente maravillosa tiene que ser alguien más creativo, alguien que verdaderamente abra un nuevo horizonte a la humanidad, aun sin disponer de esas habilidades tan extraordinarias y sorprendentes que nos invitan a reflexionar sobre el alcance de la inteligencia humana. Una mente maravillosa es más compleja: quizás no tenga el mayor cociente intelectual, ni la mayor memoria, ni la mayor capacidad de cálculo, ni sea el mejor escritor, pero es todo a la vez, suma y no resta, sabe también situarse en el contexto histórico en que vive y ver qué puede aportar él en ese lugar y en ese momento. No desiste, no ceja nunca en su empeño por aprender, nunca cree que ya tiene la respuesta plena o que ya lo ha aprendido todo. ¿Qué es, entonces, una mente maravillosa? Una mente maravillosa es lo opuesto a la autosatisfacción intelectual y personal. Es alguien perpetuamente “abierto” a nuevos desafíos y a nuevos horizontes que sabe ver más allá de lo evidente, inmediato o comúnmente aceptado. Es alguien que trabaja y que quiere trabajar para conocer, descubrir o crear.

Porque si ni un niño prodigio ni una persona con una memoria o una capacidad de cálculo magníficas se convierte en una mente maravillosa, tampoco está garantizado que quien tenga un gran cociente intelectual vaya a serlo. Desde que el psicólogo francés Alfred Binet publicara en 1905 los primeros tests modernos de inteligencia, y que el alemán Wilhelm Stern emplease el término Intelligenz-Quotient como puntuación para la medida de la inteligencia de una persona, el IQ (intellectual quotient, en español “cociente intelectual”) ha pasado al lenguaje coloquial y se ha convertido en un número de uso habitual en estudios de ciencias sociales, en estadísticas educativas, en los departamentos de recursos humanos en las empresas... El prototipo de test de inteligencia de Binet lo combinó el estadounidense Lewis M. Terman, de la Universidad de Standford, con la noción de cociente intelectual de Stern, dando como resultado lo que hoy se conoce como test de Standford-Binet. ¿En qué consiste el cociente intelectual? Sencillamente en eso: en hacer un cociente o división entre la edad mental de un individuo y su edad cronológica y multiplicarlo por 100:

Cociente = Edad mental/Edad cronológica × 100.

Un cociente de 100 en la escala de Standford-Binet (la que se utiliza comúnmente) significa una persona de inteligencia media, ya que su edad mental está perfectamente sincronizada con su edad cronológica. Una persona con un cociente de 150 significa que a los 10 años de edad cronológica tiene una edad mental de 15(15/10 X 100 = 150), y una persona con un cociente de 80 significa que a los 10 años tiene una edad mental de 8 (8/10 X 100 = 80). El problema es que los primeros tests de inteligencia funcionaban básicamente para niños, en edades muy tempranas donde era más fácil calcular la diferencia entre la edad cronológica y la mental, pero no eran aptos para medir la inteligencia de los adultos. Por eso, los estudios más desarrollados para determinar el cociente intelectual emplean principalmente métodos estadísticos (desviaciones estándar, percentiles...) para las distribuciones de cocientes intelectuales en una determinada población.

Hasta la fecha, la escritora norteamericana (que dejó la Universidad de Washington antes de terminar la carrera) Marilyn Vos Savant, nacida en 1946 y columnista de la famosa revista Parade, es quien ha obtenido la puntuación más alta en un test de inteligencia, con 228 en la escala de Standford- Binet. Sin embargo, el resultado ha generado mucha discusión, porque la medida de cocientes intelectuales altos es enormemente inexacta y todavía es objeto de controversia científica. Por ejemplo, medir un cociente superior a 130 con un test de Wechsler para adultos (que integra pruebas relacionadas con la comprensión verbal, la percepción organizativa, la memoria o la velocidad de procesamiento y de asimilación de la información) es bastante complicado. La propia Marilyn ha reconocido que un test puede ofrecer una idea más o menos aproximada sobre ciertas habilidades mentales, pero que la inteligencia comporta tantos campos y tantos factores que intentar medirla es, en el fondo, una empresa inútil.

Ni el que tiene un cociente alto tiene que verse como alguien superior (porque la inteligencia sólo es una faceta de la persona entre otras muchas), ni el que tiene un cociente bajo debe sentirse inferior o discriminado. Lo importante es aceptarse a uno mismo tal y como se es y esforzarse siempre por mejorar. De la misma manera, los gobiernos y las instancias educativas han de ofrecer a todos las posibilidades adecuadas para que se desarrollen según sus aptitudes y cualidades, de modo que su inteligencia pueda servir al progreso de la sociedad y del conocimiento, al tiempo que ayuden a quienes más asistencia necesiten en el aprendizaje. La inteligencia nunca puede justificar la soberbia o la autosatisfacción: precisamente los grandes hombres y mujeres han sabido reconocer sus limitaciones y lo mucho que ignoraban en comparación con lo que eran capaces de comprender o con lo que habían descubierto. Y siempre permanecen interrogantes que ni los genios puede responder y que nos afectan a todos por igual.

¿Por qué tener cociente alto o incluso extraordinariamente elevado no conlleva necesariamente ser una mente maravillosa? Nuevamente, un gran cociente intelectual puede facilitar muchas cosas, ya que ofrece un potencial indiscutible. Pero al igual que haber sido un niño prodigio o disponer de una memoria fotográfica o de una calculadora inserta en el cerebro no garantiza que se hagan contribuciones auténticas al conocimiento (a las Ciencias, al pensamiento, a las matemáticas...), tampoco el poseer un alto cociente intelectual asegura que esa mente sea verdaderamente creativa, innovadora e influyente en el curso de la historia. El propio Alfred Binet estaba convencido de que los tests de cociente intelectual no eran suficientes para medir la inteligencia de una persona, ya que las cualidades intelectuales no se pueden superponer, como se hace a la hora de calcular el cociente: no se pueden sin más sumar la fluidez verbal o el razonamiento matemático y, haciendo media, decir cuál es el cociente intelectual de un individuo. Hacer esa operación puede dar una idea del nivel de inteligencia y de las aptitudes, pero implica de por sí un presupuesto absolutamente cuestionable (que la inteligencia como un todo se puede fragmentar en “sectores de la inteligencia” y examinar cada una de estas áreas por separado).

El padre de William James Sidis, Boris Sidis, despreciaba los tests de inteligencia como “estúpidos, pedantes, absurdos y engañosos”, y otros autores han llegado a acusar a los tests de inteligencia de racistas por llevar implícitas arbitrariedades culturales y geográficas (si bien hay modelos más desarrollados que no incorporan esos sesgos). Los tests se basan en consideraciones estadísticas, y lógicamente siempre pueden darse casos que no respondan a los procedimientos estadísticos que están en la base teórica de esos tests. Lo mismo podría decirse de los tests de personalidad: tienen un carácter orientativo, pero no ofrecen una certeza cien por cien que describa a un individuo tal y como es, porque en el fondo hacerlo sería inabarcable e imposible (¿quién es capaz de conocernos si ni nosotros mismos nos conocemos de manera óptima?). Por tanto, nadie debe frustrarse por no tener un cociente altísimo o por no haber destacado especialmente por precocidad o brillantez.

Es verdad que, como ha reconocido la Asociación americana de psicología, los análisis de cociente intelectual presentan un valor predictivo notable y muchas veces pueden explicar las diferencias intelectuales que se producen entre determinados individuos. Pero nuevamente, no son métodos absolutos y por tanto es necesaria una visión más amplia de la inteligencia. Sin llegar a una crítica tan extrema como la que hizo el paleontólogo estadounidense Stephen J. Gould en The mismeasure of man (1981), en el que acusaba a la psicología contemporánea de “reificar” o “cosificar” conceptos abstractos como el de inteligencia en valores cuantitativos como el cociente intelectual, no se puede negar, a día de hoy, que la medición de la inteligencia entraña una inevitable imperfección, y que no siempre puede dar cuenta de las aptitudes reales de una persona. Por tanto, si bien la “medición” de la inteligencia puede ser interesante y ayudar en algunos aspectos, no es absoluta y no debe tomarse como absoluta a efectos de conocer las habilidades de uno, que en el fondo no se pueden identificar hasta que no se han “visto” (por su biografía, itinerario personal e intelectual...). En las Ciencias sociales (como la psicología) no se puede emplear el mismo concepto de “predicción” que por ejemplo se usa en las matemáticas o en Ciencias naturales como la Física (al menos en la Física clásica), porque el individuo de carne y hueso nunca se puede “uniformizar”, aunque con frecuencia encaje bastante bien en los estándares propuestos.

La inteligencia no es, desde luego, un número, una cantidad fija e inamovible. Puede aumentar o disminuir, por lo que todos (independientemente de nuestra procedencia social, de nuestro nivel de educación o del ambiente en que nos movamos) podemos, si nos lo proponemos, aumentarla. Esto no quiere decir que todos vayamos a alcanzar el mismo grado de inteligencia y de creatividad que un Shakespeare o un Einstein (aunque... ¿por qué no? ¿Acaso no podrá surgir un dramaturgo que supere a Shakespeare o un físico que destrone a Einstein y dé una visión más profunda y rigurosa del Universo físico?). Se puede partir de un determinado potencial de inteligencia, que en unos casos será mayor o menor, pero ese potencial no define unívoca e irreversiblemente los logros intelectuales efectivos de una persona. Lo contrario sería transmitir una imagen excesivamente determinista del ser humano, cuando la experiencia (hemos tenido la oportunidad de comprobarlo en algunos de los personajes de esta obra) parece indicar que la persona muestra una desmesura. De hecho, el filósofo Xavier Zubiri concebía al ser humano como una “esencia abierta”, una capacidad de desbordar todo límite. Y eso ha sido y es justamente el progreso. Los tests de inteligencia y el cociente intelectual sirven como herramientas orientativas, pero nunca deben convertirse en identificadores o “huellas digitales”, al estilo de “usted tiene un 100 de cociente intelectual y entonces sólo puede optar a esto o a aquello”, máxime si con ello se pueden cerrar puertas a una persona, por ejemplo en la esfera laboral. Hay que ser conscientes de sus virtualidades y de sus restricciones.

Tampoco la inteligencia es algo que simplemente se herede, ante todo porque lo que normalmente se entiende por “herencia” es inmutabilidad, cuando lo que en realidad ocurre es que la herencia es cambiable, en el sentido de que uno u otro ambiente puede modular directamente esa herencia. Además, los estudios señalan que hay factores como la alimentación que pueden provocar un aumento o un descenso en los niveles de cociente intelectual, al influir en el desarrollo cognitivo de la persona. De igual forma, entrenarse en actividades intelectuales también ayuda. Otra cosa es que no se pueda saber a ciencia cierta cómo ayuda exactamente o en qué grado (si por leer tales libros o por jugar más partidas de ajedrez mi cociente intelectual va a verse incrementado en un tanto por ciento). Con todo esto sólo se quiere transmitir la idea de que la inteligencia no es una facultad incólume, impoluta e impasible, como si uno tuviese que conformarse irrevocablemente con la inteligencia que ha heredado o que tiene desde una cierta edad. Se puede hacer mucho en su favor o en su contra, y depende de nosotros mismos y de la sociedad. No se puede demostrar que un test de inteligencia mida la inteligencia “innata” de una persona, con independencia total de las experiencias y condicionamientos que ya ha recibido, aunque sea en pocos años. No podemos saber si en una determinada persona, por extraño que parezca en primera instancia, se dará la particular simbiosis de circunstancias y de azar que haga de ella una mente maravillosa capaz de servir con sus talentos a la sociedad y a su desarrollo intelectual, tecnológico, económico y ético. Por ello, la preocupación por la educación como la mayor riqueza de un país (el valor añadido por excelencia) es a todas luces fundamental.

El nivel de un país no se mide sólo por el número y el tamaño de sus empresas, por su poderío militar, por sus infraestructuras o por sus recursos naturales. El nivel y el valor humano de un país se mide por el papel que en él jueguen el conocimiento y la educación. Y está en nuestras manos que la creatividad intelectual no se circunscriba a un ámbito geográfico, al de los países más avanzados e industrializados, lo que supone una enorme injustica a escala global que hace que en los países pobres, por disponer de unas peores condiciones materiales y de una peor educación, no se lidere el progreso intelectual, llegando a la tragedia de la fuga de cerebros y del éxodo masivo de figuras prometedoras al mundo rico, que acaba acumulando todo el capital intelectual de la humanidad y arrebatando la riqueza más preciada que poseen otros pueblos. Es algo que podemos solucionar: “globalizar” la inteligencia a todas las regiones del mundo, porque en todas, si se dan las condiciones de educación y nivel socioeconómico, pueden surgir mentes maravillosas.

Tanto los individuos como las sociedades pueden hacer mucho para desarrollar la inteligencia. No basta con disponer de un buen sistema educativo; nosotros mismos también tenemos que poner de nuestra parte. Potenciar la mente implica buscar activamente el conocimiento. El conocimiento o los interrogantes intelectuales no pueden ser, simplemente, “cosas” que nos llegan pasivamente: uno tiene que mostrar iniciativa, espíritu crítico, inquietud, leer e informarse muchísimo, dialogar con el que ya sabe... Hay que estar siempre abierto a aprender y aceptar que no se conoce todo. Creo que un error muy típico en los estudios superiores, sobre todo en los universitarios, es concebirlos como un mero trámite que hay que pasar para conseguir el título. Si “absorbo” como por ósmosis el contenido de los libros, manuales y apuntes lograré llevar a buen término una asignatura y así podré terminar la carrera. ¿Y nada más? ¿No me llaman la atención las preguntas sin respuesta que aún quedan, el porqué de lo que estoy estudiando, cómo se llegó a esas u otras conclusiones, qué limitaciones presentan, hacia dónde se dirige la investigación actual en ese campo...? ¿No me fascina ver la conexión que existe entre muchas ideas y disciplinas científicas, y cómo la “arquitectónica” del conocimiento permite que en muchas ocasiones partiendo de una idea general se vaya descendiendo progresivamente a los detalles? ¿No me fascina ver la “síntesis” que se puede encontrar detrás de todo “análisis”?

Está claro que no todas las materias nos tienen que interesar o gustar por igual, pero al menos en las que nos interesen sí creo que es necesario adquirir una serie de inquietudes profundas que nos permitan formarnos un juicio propio e incluso proponernos efectuar alguna aportación que haga avanzar esa Ciencia o línea de pensamiento. No hay trucos para ser una mente maravillosa. Sólo las mentes que verdaderamente han sido maravillosas a lo largo de los siglos podrían enseñárnoslo, pero en el fondo nos daríamos cuenta de que cada una tuvo una trayectoria singular. Eso sí: partiendo de puntos de origen distintos y atravesando sendas completamente dispares a menudo alcanzaron la misma meta, la de contribuir a aumentar nuestro conocimiento o a mejorar nuestras vidas. Gracias a Einstein entendemos más sobre el Universo y la gravedad, y gracias a Tim Berners-Lee tenemos más acceso a las vías de información y de intercambio a escala global, aunque también por “culpa” de Einstein haya hoy nuevos interrogantes y por “culpa” de Berners-Lee hayan surgido no pocos problemas relacionados con la World Wide Web. Pero objetivamente hablando, ambos (y podríamos citar otros muchos nombres) han inaugurado un escenario intelectual y tecnológico nuevo.

Nunca se sabe si alguien puede convertirse en una mente maravillosa, creativa y descubridora. Y precisamente porque nunca se sabe, nunca hay que desistir, si se tiene el empeño, en cultivar la inteligencia y el aprendizaje.

 

                                                                                                                                                                                                               © 2022  JAVIER DE LUCAS