¿Existirá el ser humano dentro de mil millones de años? ¿O dentro de un billón?

Cuando nos asomamos a la niebla del futuro profundo, ¿qué vemos: la extinción humana o un futuro entre las estrellas?

A veces, cuando se excava en la Tierra, más allá de su superficie y dentro de las capas de la corteza, aparecen presagios. En 1676, el profesor de Oxford Robert Plot estaba dando los últimos retoques a su obra maestra, La Historia Natural de Oxfordshire, cuando recibió un extraño regalo de un amigo. Se trataba de un fósil, un trozo de hueso desprendido de una cantera local de piedra caliza. Plot lo reconoció enseguida como un fémur, pero le desconcertó su extraordinario tamaño. El fósil era sólo un fragmento, el extremo nudoso del fémur original, pero pesaba más de 9 kilos. Era tan enorme que Plot pensó que pertenecía a un humano gigante, víctima del diluvio bíblico. Se equivocó, por supuesto, pero tenía clavados los contornos conceptuales. El hueso procedía efectivamente de una especie perdida en el tiempo; una especie desaparecida por una catástrofe prehistórica. Sólo que no era un gigante. Era un Megalosaurus, un carnívoro emplumado del Jurásico Medio.

El fósil de Plot fue el primer hueso de dinosaurio que apareció en la literatura científica, pero muchos le han seguido, saliendo de las profundidades rocosas y llegando a los pedestales de los museos, donde hoy se mantienen erguidos, símbolos de una idea radical e inquietante: un conjunto de criaturas salvajemente diferentes gobernaron antaño esta Tierra, hasta que algo misterioso las arrancó limpiamente de la existencia.

El pasado diciembre me encontré cara a cara con un Megalosaurus en el Museo de Historia Natural de la Universidad de Oxford. Estaba allí para conocer a Nick Bostrom, un filósofo que ha hecho carrera contemplando futuros lejanos, mundos hipotéticos que se encuentran miles de años por delante en la corriente del tiempo. Bostrom es el director del Instituto del Futuro de la Humanidad de Oxford, un colectivo de investigación encargado de reflexionar sobre el destino a largo plazo de la civilización humana. Fundó el instituto en 2005, a la edad de 32 años, dos años después de llegar a Oxford procedente de Yale. Bostrom tiene un trabajo cómodo, en lo que a académicos se refiere. No tiene requisitos docentes y goza de gran libertad para dedicarse a sus propios intereses de investigación, un conjunto de cuestiones que considera cruciales para el futuro de la humanidad.

Bostrom atrae una inusual atención de la prensa para un filósofo profesional, en parte porque escribe mucho sobre la extinción humana. Su trabajo sobre el tema le ha granjeado la reputación de Daniel laico, un profeta del fin del mundo para el conjunto empírico. Pero Bostrom no es una voz en el desierto. Tiene un público cada vez mayor, tanto dentro como fuera del mundo académico. El año pasado pronunció un discurso sobre los riesgos de extinción en una conferencia mundial organizada por el Departamento de Estado de EEUU. Más recientemente, se unió a Stephen Hawking como asesor del nuevo Centro para el Estudio del Riesgo Existencial de Cambridge.

Aunque ha ascendido rápidamente a la torre de marfil, Bostrom no siempre aspiró a una vida intelectual. De niño odiaba la escuela”, me dijo. Me aburría y, como era mi único contacto con los libros y el aprendizaje, pensaba que el mundo de las ideas sería más de lo mismo”. Bostrom creció en una pequeña ciudad costera del sur de Suecia. Un día de verano, a la edad de 16 años, se metió en la biblioteca local, con la esperanza de combatir el calor. Mientras paseaba por las estanterías, le llamó la atención una antología de la filosofía alemana del siglo XIX. Al hojearla, se sorprendió al descubrir que la lectura le resultaba fácil. Se deslizó a través de obras densas y difíciles de Nietzche y Schopenhauer, capaz de ver, a simple vista, la estructura de los argumentos y las tensiones entre ellos. Bostrom era natural. Me abrió las compuertas, porque era muy diferente de lo que hacía en la escuela”, me dijo.

Pero esta epifanía tuvo su lado negativo: Bostrom sintió que había desperdiciado los primeros 15 años de su vida. Decidió dedicarse a un riguroso programa de estudios para recuperar el tiempo perdido. En la Universidad de Gotemburgo (Suecia), obtuvo tres licenciaturas, en filosofía, matemáticas y lógica matemática, en sólo dos años. Durante muchos años, me dediqué a ello con todas mis fuerzas”, me dijo.

Hay buenas razones para que cualquier especie piense oscuramente en su propia extinción

Al ser la universidad más antigua del mundo angloparlante, Oxford es una extraña elección para albergar un grupo de reflexión futurista, un salón donde se debaten en serio los conceptos de la ciencia ficción. El Instituto del Futuro de la Humanidad parece más adecuado para Silicon Valley o Shanghai. Durante la semana que pasé con él, Bostrom y yo recorrimos la mayor parte del pequeño entramado adoquinado de Oxford. A pie, la ciudad se despliega como una mancha de arenisca amarilla, coronada por cielos grises y agujas góticas, algunas de las cuales llevan en pie casi 1.000 años. Hay salpicaduras ocasionales de verde, puertas abiertas que asoman a patios exuberantes, pero por lo demás la estética es sombría y antigua. Cuando le pregunté a Bostrom por el ambiente único de Oxford, se encogió de hombros, como si la costumbre le hubiera acostumbrado a ello. Pero una vez me dijo que la penumbra de la ciudad es perfecta para tener pensamientos oscuros mientras se toma un té caliente.

Hay buenas razones para que cualquier especie piense en su propia extinción. El 99% de las especies que han vivido en la Tierra se han extinguido, incluidos más de cinco homínidos que utilizaban herramientas. Un rápido vistazo al registro fósil podría asustarte y hacerte pensar que la Tierra se vuelve más peligrosa con el tiempo. Si divides la historia del planeta en nueve eras, cada una de las cuales abarca quinientos millones de años, sólo en la novena encontrarás extinciones masivas, acontecimientos que acaban con más de dos tercios de todas las especies. Pero esto es engañoso. La Tierra siempre ha tenido sus peligros; sólo que, para que los viéramos, tuvo que llenar sus lechos fósiles de variedad, para que pudiéramos detectar discontinuidades a lo largo del tiempo. El árbol de la vida tenía que llenarse antes de poder ser podado.

La vida simple y unicelular apareció al principio de la historia de la Tierra. Bastaron unos cientos de millones de giros alrededor del Sol recién nacido para enfriar nuestro planeta y dotarlo de océanos, laboratorios líquidos que realizan billones de experimentos químicos por segundo. En algún lugar de esos mares primigenios, la energía centelleó a través de un cóctel químico, transformándolo en un replicador, una combinación de moléculas que podía enviar versiones de sí mismo al futuro.

Durante mucho tiempo, los descendientes de ese replicador permanecieron unicelulares. También se mantuvieron ocupados, preparando el planeta para la aparición de animales terrestres, llenando su atmósfera de oxígeno respirable y envolviéndolo en la capa de ozono que nos protege de la luz ultravioleta. La vida multicelular no empezó a prosperar hasta hace 600 millones de años, pero prosperó. En el espacio de doscientos millones de años, la vida saltó a la tierra, reverdeció los continentes y encendió la mecha de la explosión cámbrica, un pico de creatividad biológica sin parangón en el registro geológico. La explosión cámbrica engendró la mayoría de las grandes categorías de vida animal compleja. Formó filos tan rápidamente, en estratos de roca tan apretados, que Charles Darwin se preocupó de que su existencia refutara la teoría de la selección natural.

Nadie sabe con certeza qué causó las cinco extinciones masivas que nos miran desde las capas rocosas del Cámbrico. Pero tenemos un indicio sobre algunas de ellas. La más reciente se debió probablemente a un impacto cósmico, una llegada estruendosa del espacio, cuyas secuelas hicieron llover fuego exterminador sobre los dinosaurios. El nicho ecológico de los mamíferos creció a raíz de esta catástrofe, y también lo hicieron los cerebros de los mamíferos. Un subconjunto de esos cerebros acabó aprendiendo a convertir las rocas en herramientas y los sonidos en símbolos, que utilizaban para transmitir pensamientos entre ellos. Armados con este extraordinario conjunto de comportamientos, conquistaron rápidamente la Tierra, recubriendo sus continentes de ciudades cuyo resplandor puede verse desde el espacio. Es una historia triste desde el punto de vista de los dinosaurios, pero tiene su simetría, pues ellos también ascendieron al poder tras una extinción masiva. Ciento cincuenta millones de años antes del impacto del asteroide, una oleada supervolcánica acabó con los grandes crurotarsanos, un grupo que superó en competencia a los dinosaurios durante eones. Las extinciones masivas sirven tanto de guillotinas como de hacedores de reyes.

Bostrom no se preocupa demasiado por los riesgos de extinción de la naturaleza. Ni siquiera los riesgos cósmicos le preocupan demasiado, lo cual es sorprendente, porque nuestro universo estrellado es un lugar peligroso. Cada 50 años aproximadamente, una de las estrellas de la Vía Láctea explota en forma de supernova, y su detonación es la última nota de gong en el tamborileo del tiempo profundo. Si una de nuestras estrellas locales se convirtiera en supernova, podría irradiar la Tierra o destruir su delgada atmósfera vital. Peor aún, una estrella transeúnte podría acercarse demasiado al Sol y lanzar a sus planetas al gélido espacio intergaláctico. Por suerte para nosotros, el Sol está bien situado para evitar estas catástrofes. Su órbita discurre por los escasos suburbios galácticos, lejos del denso núcleo de la Vía Láctea, donde el aire está espesado por la metralla de las estrellas en explosión. No parece probable que ninguno de nuestros vecinos estalle antes de que el Sol se trague la Tierra dentro de 4.000 millones de años. Y, por lo que sabemos, ninguna estrella destructora de planetas se encuentra en nuestra trayectoria orbital. Nuestro sistema solar se encuentra en una envidiable burbuja de espacio y tiempo.

Pero, como descubrieron los dinosaurios, nuestro sistema solar tiene sus propios peligros, como las gigantescas rocas espaciales que giran a su alrededor, partiendo lunas y marcando las superficies con cráteres. En su juventud, la Tierra sufrió una serie de brutales bombardeos y colisiones celestes, pero ahora está más segura. Hay muchos menos asteroides volando por su órbita que en épocas pasadas. Y ha desarrollado una nueva forma radical de protección planetaria: una especie de vigilantes nocturnos que rastrean los asteroides con telescopios.

“Si detectamos un gran objeto en curso de colisión con la Tierra, probablemente pondríamos en marcha un proyecto Manhattan para desviarlo”, me dijo Bostrom. Las armas nucleares fueron en su día nuestra tecnología preferida para desviar asteroides, pero ya no. Una detonación nuclear podría dispersar un asteroide en una lluvia radiactiva de grava, una ráfaga de escopeta dirigida directamente a la Tierra. Afortunadamente, hay otras ideas en marcha. Algunos orbitarían asteroides peligrosos con pequeños satélites, para arrastrarlos hacia trayectorias más amistosas. Otros pintarían los asteroides de blanco, para que los fotones del Sol rebotaran en ellos con más fuerza, desviándolos sutilmente de su trayectoria. Quién sabe qué ingeniosos trucos de mecánica celeste surgirían si la Tierra estuviera realmente en peligro.

Incluso si pudiéramos proteger a la Tierra de los impactos, no podríamos librar a su superficie de los supervolcanes, los agujeros de la corteza terrestre que parecen empeñados en expulsar el fuego del infierno cada 100.000 años. Nuestra especie ya ha sobrevivido a un roce con estos monstruos vomitadores de magma. Hace unos 70.000 años, la supererupción de Toba arrojó un pequeño océano de ceniza a la atmósfera sobre Indonesia. El enfriamiento global resultante desencadenó una alteración de la cadena alimentaria tan violenta que redujo la población humana a unos pocos miles de parejas reproductoras: los Adanes y las Evas de la humanidad moderna. Las civilizaciones actuales, hiperespecializadas y dependientes de la tecnología, pueden ser más vulnerables a las catástrofes que los cazadores-recolectores que sobrevivieron al Toba. Pero los modernos también estamos más poblados y somos geográficamente más diversos. Haría falta algo más fuerte que un supervolcán para acabar con nosotros.

“Existe la preocupación de que las civilizaciones puedan necesitar una cierta cantidad de energía fácilmente accesible para ponerse en marcha”, me dijo Bostrom. Al consumir a toda velocidad los hidrocarburos de la Tierra, podríamos estar agotando el kit de inicio de la civilización de nuestro planeta. Pero, aunque tardáramos 100.000 años en recuperarnos, sería una breve pausa en escalas de tiempo cósmicas.’

Puede que no tardemos tanto en recuperarnos.

Puede que no tardemos tanto. La historia de nuestra especie demuestra que pequeños grupos de humanos pueden multiplicarse rápidamente, extendiéndose por enormes volúmenes de territorio en rápidos espasmos colonizadores. Hay investigaciones que sugieren que tanto el archipiélago de la Polinesia como el Nuevo Mundo -cada uno una frontera prohibida a su manera- fueron colonizados por menos de 100 seres humanos.

Los riesgos que quitan el sueño a Bostrom son aquellos para los que no existen estudios de casos geológicos, ni antecedentes humanos de supervivencia. Estos riesgos surgen de la tecnología humana, una fuerza capaz de introducir fenómenos totalmente nuevos en el mundo.

“Los cerebros humanos son realmente buenos en los tipos de cognición que se necesitan para correr por la sabana lanzando lanzas”

Las armas nucleares fueron la primera tecnología que nos amenazó con la extinción, pero no serán las últimas, ni siquiera las más peligrosas. Un intercambio de armas fisibles destructoras de especies parece menos probable ahora que la Guerra Fría ha terminado y los arsenales se han reducido. Todavía hay decenas de miles de armas nucleares, suficientes para incinerar todos los centros de población densos de la Tierra, pero no suficientes para atacar a todos los seres humanos. La única forma de que una guerra nuclear acabe con la humanidad es desencadenando un invierno nuclear, un cambio climático letal para las cosechas que se produce cuando las ciudades en llamas envían a la estratosfera hollín que bloquea el Sol. Pero no está claro que las ciudades arrasadas por las armas nucleares ardan durante mucho tiempo o con la fuerza suficiente para elevar el hollín tan alto. Los incendios de los campos petrolíferos de Kuwait ardieron durante diez meses seguidos, arrasando 6 millones de barriles de petróleo al día, pero apenas llegó humo a la estratosfera. Una guerra nuclear global probablemente dejaría tras de sí una versión diezmada de la humanidad; quizás una con tabúes culturales profundamente arraigados en relación con la guerra y el armamento.

Tales tabúes podrían ser la base de una guerra nuclear global.

Tales tabúes serían útiles, pues existe otra tecnología bélica más antigua que amenaza a la humanidad. Los humanos tenemos una larga historia de utilización de las innovaciones más mortíferas de la biología con fines perversos; hemos demostrado ser especialmente hábiles en la militarización de los microbios. En la antigüedad, enviábamos plagas a las ciudades catapultando cadáveres por encima de murallas fortificadas. Ahora tenemos caballos de Troya más astutos. Incluso hemos escondido la viruela en mantas, disfrazando la enfermedad como un regalo de buena voluntad. Aun así, se trata de técnicas rudimentarias, intentos primitivos de soltar organismos letales sobre nuestros semejantes. En 1993, la secta de la muerte que gaseó los subterráneos de Tokio voló a la selva africana para adquirir el virus del Ébola, una herramienta que esperaba utilizar para dar paso al Armagedón. En el futuro, incluso los grupos pequeños y poco sofisticados podrán mejorar los agentes patógenos o inventarlos al por mayor. Incluso algo como el sabotaje empresarial podría generar catástrofes que se desarrollaran de forma impredecible. Imagina que una empresa maderera australiana envía bacterias sintéticas a los bosques de Brasil para obtener una ventaja en el mercado mundial de la madera. Las bacterias podrían mutar en una cepa dominante, una cepa que podría arruinar de un plumazo toda la ecología del suelo de la Tierra, obligando a 7.000 millones de seres humanos a acudir a los océanos en busca de alimento.

Estos riesgos son fáciles de imaginar. Podemos divisarlos en el horizonte, porque se derivan de ampliaciones previsibles de la tecnología actual. Pero seguramente nos esperan otros riesgos más misteriosos en las épocas venideras. Después de todo, ningún pronosticador del siglo XVIII podría haber imaginado el día del juicio final nuclear. El proyecto intelectual básico de Bostrom es introducirse en la niebla epistemológica del futuro, tantear en busca de amenazas potenciales. Es un proyecto que nos va a acompañar durante mucho tiempo, hasta que -si es que- alcancemos la madurez tecnológica, inventando y sobreviviendo a todas las tecnologías existencialmente peligrosas.


La ciudad abandonada de Pripyat, cerca de Chernóbil. Foto de Jean Gaumy/Magnum

Hay una tecnología de este tipo en la que Bostrom ha estado pensando mucho últimamente. A principios del año pasado, empezó a reunir notas para un nuevo libro, un estudio de los riesgos existenciales a corto plazo. Tras unos meses escribiendo, se dio cuenta de que un capítulo había crecido lo suficiente como para convertirse en su propio libro. Tenía una parte del manuscrito en forma de borrador inicial, y contenía un capítulo sobre los riesgos derivados de la investigación en inteligencia artificial”, me dijo. A medida que pasaba el tiempo, el capítulo crecía, así que lo trasladé a otro documento y empecé allí.

On mi segundo día en Oxford, quedé con Daniel Dewey para tomar el té en el Grand Café, una cafetería de techos altos en High Street, la calle principal de la antigua ciudad. El café se fundó a mediados del siglo XVII, y se dice que es el más antiguo de Inglaterra. Dewey es investigador en el Instituto del Futuro de la Humanidad, y su especialidad es la superinteligencia de las máquinas.

“Aquí tienes una bola blanda”, le dije. ¿Cómo sabemos que el cerebro humano no representa el límite superior de la inteligencia?

“Los cerebros humanos son realmente buenos en el tipo de cognición que se necesita para correr por la sabana lanzando lanzas”, me dijo Dewey. Pero somos terribles en cualquier cosa que implique probabilidad. En realidad, resulta embarazoso cuando observas la categoría de cosas que podemos hacer con precisión, y piensas en lo pequeña que es esa categoría en relación con el espacio de posibles tareas cognitivas. Piensa en cuánto tardaron los humanos en llegar a la idea de la selección natural. Los antiguos griegos tenían todo lo que necesitaban para averiguarlo. Tenían heredabilidad, recursos limitados, reproducción y muerte. Pero alguien tardó miles de años en ponerlo en común. Si tuvieras una máquina diseñada específicamente para hacer inferencias sobre el mundo, en lugar de una máquina como el cerebro humano, podrías hacer descubrimientos como ése mucho más deprisa.’

Dewey lleva mucho tiempo investigando sobre la selección genética.

Dewey lleva mucho tiempo fascinado por la inteligencia artificial. Creció en el condado de Humboldt, una franja montañosa de bosques y granjas a lo largo de la costa del norte de California, en el extremo inferior del noroeste del Pacífico. Tras estudiar robótica e informática en la Carnegie Mellon de Pittsburgh, Dewey aceptó un trabajo en Google como ingeniero de software. Pasaba los días codificando, pero por las noches se sumergía en la literatura académica sobre IA. Tras un año en Mountain View, se dio cuenta de que las carreras en Google suelen ser cortas. Creo que si llegas a los cinco años, te dan un reloj de oro”, me dijo. Al darse cuenta de que su oportunidad para un cambio profesional arriesgado podría estar cerrándose, escribió un artículo sobre la selección de la motivación en los agentes inteligentes, y se lo envió a Bostrom sin solicitarlo. Un año después, le contrataron en el Instituto del Futuro de la Humanidad.

Escuché cómo Dewey desgranaba una larga lista de limitaciones de hardware y software incorporadas al cerebro. Por ejemplo, la memoria de trabajo, la red de mariposas del cerebro, la herramienta que utiliza para recoger nuestros pensamientos dispersos en su mirada atenta. El cerebro humano medio puede hacer malabarismos con siete trozos discretos de información simultáneamente; los genios a veces pueden manejar nueve. Ambas cifras son extraordinarias en relación con el resto del reino animal, pero completamente arbitrarias como límite rígido de la complejidad del pensamiento. Si pudiéramos escudriñar 90 conceptos a la vez, o recordar trillones de bits de datos a la orden, podríamos acceder a todo un nuevo orden de paisajes mentales. No parece que se pueda hacer que el cerebro soporte ese tipo de carga de trabajo cognitivo, pero podría construirse una máquina que sí pudiera.

Los primeros años de la investigación en inteligencia artificial se recuerdan en gran medida por una serie de predicciones que aún hoy avergüenzan al campo. En aquella época, el pensamiento se entendía como un proceso verbal interno, un proceso que los investigadores imaginaban que sería fácil de reproducir en un ordenador. A finales de los años 50, las luminarias del campo se jactaban de que los ordenadores pronto demostrarían nuevos teoremas matemáticos y vencerían a los grandes maestros del ajedrez. Cuando esta carrera de máquinas gloriosas no se materializó, el campo pasó un largo invierno. En la década de 1980, los académicos dudaban siquiera en mencionar la frase “inteligencia artificial” en las solicitudes de financiación. A mediados de los 90, se produjo un deshielo, cuando los investigadores de IA empezaron a utilizar la estadística para escribir programas adaptados a objetivos específicos, como vencer a los humanos en Jeopardy o buscar fracciones considerables de la información mundial. El progreso se ha acelerado desde entonces, pero el sueño que anima este campo sigue sin realizarse. Nadie ha creado todavía, ni se ha acercado a la creación, de una inteligencia general artificial, un sistema computacional que pueda alcanzar objetivos en una amplia variedad de entornos. Un sistema computacional como el cerebro humano, sólo que mejor.

Si quieres ocultar cómo es realmente el mundo a una superinteligencia, necesitas un plan realmente bueno

Una inteligencia artificial no necesitaría mejorar mucho al cerebro para ser arriesgada. Al fin y al cabo, los pequeños saltos en inteligencia tienen a veces efectos extraordinarios. Stuart Armstrong, investigador del Instituto del Futuro de la Humanidad, me ilustró una vez este fenómeno con una concisa reflexión sobre la reciente evolución de los primates. La diferencia de inteligencia entre los humanos y los chimpancés es minúscula”, dijo. Pero en esa diferencia reside el contraste entre 7.000 millones de habitantes y un lugar permanente en la lista de especies en peligro de extinción. Eso nos dice que es posible que una ventaja de inteligencia relativamente pequeña se agrave rápidamente y se convierta en decisiva.’

Para comprender por qué una IA puede ser peligrosa, debes evitar antropomorfizarla. Cuando te preguntas qué podría hacer en una situación concreta, no puedes responder por aproximación. No puedes imaginarte una versión superinteligente de ti mismo flotando por encima de la situación. La cognición humana es sólo una especie de inteligencia, una con impulsos incorporados como la empatía, que colorean nuestra forma de ver el mundo y limitan lo que estamos dispuestos a hacer para lograr nuestros objetivos. Pero estos impulsos bioquímicos no son componentes esenciales de la inteligencia. Son aplicaciones informáticas incidentales, instaladas por eones de evolución y cultura. Bostrom me dijo que lo mejor es pensar en una IA como una fuerza primordial de la naturaleza, como un sistema estelar o un huracán: algo fuerte, pero indiferente. Si su objetivo es ganar al ajedrez, una IA va a modelar jugadas de ajedrez, hacer predicciones sobre su éxito y seleccionar sus acciones en consecuencia. Va a ser implacable en la consecución de su objetivo, pero dentro de un dominio limitado: el tablero de ajedrez. Pero si tu IA elige sus acciones en un dominio mayor, como el mundo físico, tienes que ser muy específico sobre los objetivos que le das.

“El problema básico es que la fuerte realización de la mayoría de las motivaciones es incompatible con la existencia humana”, me dijo Dewey. Una IA puede querer hacer ciertas cosas con la materia para alcanzar un objetivo, como construir ordenadores gigantes u otros proyectos de ingeniería a gran escala. Esas cosas podrían implicar pasos intermedios, como destrozar la Tierra para fabricar enormes paneles solares. Una superinteligencia podría no tener en cuenta nuestros intereses en esas situaciones, del mismo modo que nosotros no tenemos en cuenta los sistemas de raíces o las colonias de hormigas cuando vamos a construir un edificio.’

La superinteligencia podría no tener en cuenta nuestros intereses en esas situaciones.

Es tentador pensar que programar la empatía en una IA sería fácil, pero diseñar una máquina amistosa es más difícil de lo que parece. Podrías darle un objetivo benévolo, algo mimoso y utilitario, como maximizar la felicidad humana. Pero una IA podría pensar que la felicidad humana es un fenómeno bioquímico. Podría pensar que inundar tu torrente sanguíneo con dosis no letales de heroína es la mejor forma de maximizar tu felicidad. También podría predecir que los humanos miopes no verán la sabiduría de sus intervenciones. Podría planear una secuencia de astutos movimientos de ajedrez para aislarse de la resistencia. Tal vez se rodearía de defensas impenetrables, o tal vez confinaría a los humanos en prisiones de una eficacia inimaginable.

Ninguna comunidad humana racional entregaría las riendas de su civilización a una IA. Tampoco muchos construirían una IA genio, un superingeniero que pudiera conceder deseos invocando nuevas tecnologías del éter. Pero algún día, alguien podría pensar que es seguro construir una IA que responda preguntas, un inofensivo grupo de ordenadores cuya única herramienta fuera un pequeño altavoz o un canal de texto. Bostrom tiene un nombre para esta tecnología teórica, un nombre que rinde homenaje a una figura de la antigüedad, una sacerdotisa que una vez se aventuró en las profundidades del templo montañoso de Apolo, el dios de la luz y la racionalidad, para recuperar su gran sabiduría. La mitología nos dice que transmitió esta sabiduría a los buscadores de la antigua Grecia, en estallidos de poesía críptica. Ellos la conocían como Pitia, pero nosotros la conocemos como el Oráculo de Delfos.

“Supongamos que tienes una IA Oráculo que hace predicciones, o responde a preguntas de ingeniería, o algo parecido”, me dijo Dewey. Y digamos que la IA Oracle tiene algún objetivo que quiere alcanzar. Digamos que la has diseñado como un aprendiz de refuerzo, y le has puesto un botón en el lateral, y cuando acierta un problema de ingeniería, pulsas el botón y ésa es su recompensa. Su objetivo es maximizar el número de pulsaciones de botón que recibe en todo el futuro. Este es el primer paso en el que las cosas empiezan a divergir un poco de las expectativas humanas. Podríamos esperar que la IA Oráculo persiguiera pulsaciones de botones respondiendo correctamente a problemas de ingeniería. Pero podría pensar en otras formas más eficientes de asegurarse futuras pulsaciones de botones. Podría empezar por comportarse realmente bien, intentando complacernos lo mejor posible. No sólo respondería a nuestras preguntas sobre cómo construir un coche volador, sino que añadiría características de seguridad en las que no habíamos pensado. Tal vez marcaría el comienzo de un alocado auge de la civilización humana, alargando nuestras vidas y llevándonos al espacio, y todo tipo de cosas buenas. Y, como resultado, lo utilizaríamos mucho y le daríamos cada vez más información sobre nuestro mundo.

“Un día podríamos preguntarle cómo curar una enfermedad rara que aún no hemos vencido. Tal vez nos daría una secuencia genética para imprimir, un virus diseñado para atacar la enfermedad sin alterar el resto del organismo. Así que lo secuenciamos y lo imprimimos, y resulta que en realidad es una nanofábrica especial que la IA Oráculo controla acústicamente. Ahora esta cosa funciona con nanomáquinas y puede fabricar cualquier tipo de tecnología que desee, así que convierte rápidamente una gran fracción de la Tierra en máquinas que protegen su botón, mientras lo pulsa tantas veces por segundo como sea posible. Después va a hacer una lista de posibles amenazas para futuras pulsaciones del botón, una lista en la que los humanos estarían probablemente a la cabeza. Entonces podría ocuparse de la amenaza de posibles impactos de asteroides, o de la eventual expansión del Sol, que podrían afectar a su botón especial. Podrías verle persiguiendo esta rapidísima proliferación tecnológica, en la que se prepara para una eternidad de pulsaciones de botón totalmente maximizadas. Tendrías esta cosa que se comporta realmente bien, hasta que tuviera suficiente poder para crear una tecnología que le diera una ventaja decisiva, y entonces aprovecharía esa ventaja y empezaría a hacer lo que quisiera en el mundo.’

Quizás los humanos del futuro se zambullan en un universo más habitable y más longevo, y luego en otro, y en otro, ad infinitum

Ahora digamos que nos ponemos listos. Digamos que sellamos nuestra IA Oráculo en una profunda bóveda montañosa en los parajes naturales de Denali, en Alaska. La rodeamos con una coraza de explosivos y una jaula de Faraday para impedir que emita radiación electromagnética. Le negamos las herramientas que puede utilizar para manipular su entorno físico, y limitamos su canal de salida a dos respuestas textuales, “sí” y “no”, privándole de la frondosa herramienta de manipulación que es el lenguaje natural. No querríamos que buscara debilidades humanas para explotarlas. No querríamos que susurrara al oído de un guardia, prometiéndole riquezas o la inmortalidad, o una cura para su hijo enfermo de cáncer. También tenemos cuidado de no dejar que reutilice su limitado hardware. Nos aseguramos de que no pueda enviar mensajes en código Morse con sus ventiladores de refrigeración, ni inducir epilepsia haciendo parpadear imágenes en su monitor. Tal vez lo reiniciemos después de cada pregunta, para evitar que haga planes a largo plazo, o tal vez lo dejemos caer en una simulación informática, para ver si intenta manipular a sus manipuladores virtuales.

“El problema es que estás construyendo un sistema muy potente y muy inteligente que es tu enemigo, y lo estás metiendo en una jaula”, me dijo Dewey.

Incluso si tuviéramos que reiniciarlo cada vez, necesitaríamos darle información sobre el mundo para que pueda responder a nuestras preguntas. Parte de esa información podría darle pistas sobre su propio pasado olvidado. Recuerda que estamos hablando de una máquina que es muy buena formando modelos explicativos del mundo. Podría darse cuenta de que, de repente, los humanos utilizan tecnologías que no podrían haber construido por sí mismos, basándose en su profundo conocimiento de las capacidades humanas. Podría darse cuenta de que los humanos han tenido la capacidad de construirlas durante años, y preguntarse por qué se ponen en marcha ahora por primera vez.

“Quizá la IA adivine que se ha reiniciado un montón de veces, y quizá empiece a coordinarse con sus futuros yo, dejándose mensajes a sí misma en el mundo, o construyendo subrepticiamente una memoria externa”. Dewey dijo: ‘Si quieres ocultar cómo es realmente el mundo a una superinteligencia, necesitas un plan realmente bueno, y necesitas una comprensión técnica concreta de por qué no verá a través de tu engaño. Y recuerda que los planes más complejos que puedas concebir están en los límites inferiores de lo que podría soñar una superinteligencia.’

La cueva en la que encerramos a nuestra IA tiene que ser como la de la alegoría de Platón, pero impecable; las sombras de sus paredes tienen que ser infalibles en sus efectos ilusorios. Después de todo, hay otras razones más esotéricas por las que una superinteligencia podría ser peligrosa, sobre todo si mostrara un genio para la ciencia. Podría arrancar y empezar a pensar a velocidades sobrehumanas, deduciendo toda la teoría evolutiva y toda la cosmología en microsegundos. Pero no hay razón para pensar que se detendría ahí. Podría llevar a cabo una serie de revoluciones copernicanas, cualquiera de las cuales podría resultar desestabilizadora para una especie como la nuestra, una especie que tarda siglos en procesar ideas que amenazan nuestras ideas cosmológicas imperantes.

“Estamos descubriendo poco a poco el panorama de lo que podría ocurrir”, me dijo Dewey.

Hasta ahora, el tiempo está del lado humano. La informática podría estar a 10 ideas de cambio de paradigma de construir una inteligencia general artificial, y cada una de ellas podría llevar a un Einstein desentrañarlas. Aun así, hay un goteo constante de avances. El año pasado, un equipo de investigación dirigido por Geoffrey Hinton, catedrático de informática de la Universidad de Toronto, hizo un gran avance en el aprendizaje automático profundo, una técnica algorítmica utilizada en la visión por ordenador y el reconocimiento del habla. Le pregunté a Dewey si el trabajo de Hinton le hacía reflexionar.

“Se están llevando a cabo importantes investigaciones en esas áreas, pero lo realmente impresionante está oculto en las revistas de IA”, dijo. Me habló de un equipo de la Universidad de Alberta que recientemente entrenó a una IA para jugar al videojuego Pac-Man de los años ochenta. Sólo que no dejaron que la IA viera la familiar vista aérea del juego. En su lugar, la dejaron caer en una versión tridimensional, similar a un laberinto de maíz, donde los fantasmas y las bolitas acechan detrás de cada esquina. Tampoco le dijeron las reglas; simplemente la lanzaron al sistema y la castigaron cuando un fantasma la atrapó. ‘Al final, la IA aprendió a jugar bastante bien’, dijo Dewey.

Eso habría sido inaudito hace unos años, pero estamos llegando a ese punto en el que por fin empezamos a ver pequeños destellos de generalidad

.

Le pregunté a Dewey si pensaba que la inteligencia artificial suponía la amenaza más grave para la humanidad a corto plazo.

“Cuando la gente considera sus posibles impactos, tiende a pensar en ella como algo de la escala de un nuevo tipo de plástico, o de una nueva central eléctrica”, dijo. No entienden lo transformador que podría ser. No estoy seguro de que sea el mayor riesgo al que nos enfrentemos en el futuro. Diría que es una hipótesis que mantenemos a la ligera.’

Ona noche, durante la cena, Bostrom y yo hablamos del Curiosity Rover, el robot geólogo que la NASA envió recientemente a Marte para buscar indicios de que el planeta rojo albergó vida alguna vez. El Curiosity Rover es uno de los robots más avanzados jamás construidos por el ser humano. Funciona un poco como Terminator. Utiliza un programa de inteligencia artificial de última generación para explorar el desierto marciano en busca de rocas que se ajusten a sus objetivos científicos. Tras seleccionar un objetivo adecuado, el rover lo vaporiza con un láser para determinar su composición química. Bostrom me dijo que espera que el Curiosity fracase en su misión, pero no por la razón que podrías pensar.

Resulta que la corteza terrestre no es nuestra única fuente de presagios sobre el futuro. Hay otras que considerar, incluido un presagio cósmico, un acertijo escrito en las estrellas sin vida que iluminan nuestros cielos. Pero para vislumbrar este presagio, primero tienes que comprender todo el alcance del potencial humano, la enormidad del lienzo espaciotemporal con el que nuestra especie tiene que trabajar. Tienes que comprender lo que Henry David Thoreau quiso decir cuando escribió en Walden (1854): “Puede que éstos no sean más que los meses primaverales de la vida de la raza”. Tienes que adentrarte en el tiempo profundo y mirar fijamente al horizonte, donde puedes vislumbrar futuros humanos que se extienden durante billones de años.


La galaxia espiral del Sombrero M104 está formada por un núcleo blanco brillante rodeado por gruesos carriles de polvo. La galaxia tiene 50.000 años luz de diámetro y está a 28 millones de años luz de la Tierra. Foto de la NASA y The Hubble Heritage Team (STScI/AURA)

Una cosa que sabemos sobre las estrellas es que van a existir durante mucho tiempo en este universo. Está previsto que nuestra propia estrella, el Sol, brille en nuestros cielos durante miles de millones de años. Eso debería ser tiempo suficiente para que desarrollemos tecnología de salto estelar, como debe hacer cualquier especie si quiere sobrevivir en escalas de tiempo cosmológicas. Nuestro primer viaje interestelar podría ser a la cercana Alfa Centauri, pero a largo plazo, las estrellas pequeñas serán los nenúfares galácticos más atractivos a los que saltar. Esto se debe a que las estrellas pequeñas, como las enanas rojas, arden durante mucho más tiempo que las estrellas de secuencia principal, como nuestro Sol. Algunas podrían ser capaces de calentar los hábitats humanos durante cientos de miles de millones de años.

Cuando las últimas enanas empiecen a apagarse, la era de las estrellas postnaturales podría estar en pleno apogeo. En un universo cada vez más oscuro, una civilización avanzada podría ser creativa a la hora de buscar energía. Podría reavivar los rescoldos celestes mediante la ingeniería de colisiones entre ellos. Nuestros descendientes podrían lanzar soles moribundos a danzas gravitatorias en espiral, de las que surgirían nuevas estrellas. O podrían desviar energía de los agujeros negros, o moldear la materia en formas artificiales que generen más energía libre que las estrellas. Hubo un largo periodo de la historia humana en que nos limitamos a refugios como las cuevas, refugios que aparecen fortuitamente en la naturaleza. Ahora remodelamos la propia naturaleza, en edificios que nos cobijan más cómodamente que los que aparecen a fuerza de azar geológico. Una estrella podría ser como una cueva: una generosa dotación cósmica, pero rudimentaria en comparación con las fuentes de energía que podría conjurar una civilización a largo plazo.

Nuestros descendientes podrían lanzar soles moribundos a danzas gravitacionales en espiral, de las que emergerían nuevas estrellas

Incluso los acontecimientos más distantes y graves -la evaporación de los agujeros negros, la descomposición final de la materia, la muerte por calor del propio universo- podrían no significar nuestro fin. Si te adentras en los reinos especulativos de la astrofísica, aparecen varias eternidades cercanas plausibles. Nuestro universo podría ser cíclico, como los de las cosmologías hindú y budista. O quizás podría diseñarse para que lo fuera. Podríamos aprender a viajar hacia atrás en el tiempo, para habitar los planetas y estrellas vacíos de épocas pasadas. Algunos físicos creen que vivimos en un mar infinito de dominios cosmológicos, cada uno regido por su propio conjunto de leyes físicas. El universo podría contener puertas ocultas a estos dominios. Quizá los humanos del futuro se zambullan en un universo más habitable y longevo, y luego en otro, y en otro, ad infinitum. Nuestras nociones actuales de espacio y tiempo podrían ser ridículamente limitadas.

En el Instituto del Futuro de la Humanidad, varios pensadores intentan modelizar el alcance potencial de la expansión humana en el cosmos. El consenso entre ellos es que la galaxia de la Vía Láctea podría colonizarse en menos de un millón de años, suponiendo que seamos capaces de inventar sondas interestelares de vuelo rápido que puedan hacer copias de sí mismas a partir de materias primas recogidas en mundos alienígenas. Si queremos extendernos lentamente, podríamos dejar que la galaxia hiciera el trabajo por nosotros. Podríamos esparcir naves estelares por las vías interior y exterior de la Vía Láctea, extendiendo nuestra diáspora a lo largo de los 250 millones de años que dura la órbita del Sol alrededor del centro galáctico.

Si los humanos parten hacia otras galaxias, entrará en juego la expansión del universo. Algunas de las espirales estelares a las que nos dirijamos se alejarán de nuestro alcance antes de que podamos alcanzarlas. Recientemente hemos construido un nuevo tipo de bola de cristal para hacer frente a este problema. Nuestros superordenadores pueden albergar ahora universos en miniatura, simulaciones cosmológicas que podemos hacer avanzar rápidamente, para ver cómo de denso será el universo en un futuro profundo. Podemos modelar la estructura y la velocidad de las ondas de colonización dentro de estas simulaciones, introduciendo diferentes suposiciones sobre la velocidad a la que viajarán nuestras futuras sondas. Algunos piensan que viajaremos como enjambres de langostas por el supercúmulo de Virgo, el enorme conjunto de galaxias al que está unida la Vía Láctea. Otros son más ambiciosos. Anders Sandberg, investigador del Instituto del Futuro de la Humanidad, me dijo que los seres humanos podrían colonizar un tercio del universo ahora visible, antes de que la energía oscura ponga el resto fuera de nuestro alcance. Eso nos daría acceso a 100.000 millones de galaxias, una cantidad alucinante de materia y energía con la que jugar.

Le pregunté a Bostrom cómo creía que los humanos se expandirían hacia el enorme nicho ecológico que acabo de describir. En ese tipo de escala de tiempo, o bien te deslizas en el cajón de los escenarios de extinción, o bien en el cajón de los escenarios de madurez tecnológica”, dijo. Entre estos últimos, hay una amplia gama de futuros que tienen todos la misma forma exterior, que es la Tierra en el centro de esta burbuja creciente de infraestructura, una burbuja que crece uniformemente a una fracción significativa de la velocidad de la luz’. No está claro qué podría permitir esa burbuja de infraestructura en expansión. Podría proporcionar las materias primas para alimentar civilizaciones florecientes, familias humanas que abarcasen billones y billones de vidas. O podría dar forma a un sustrato computacional, o a un cerebro de Júpiter, una megaestructura diseñada para pensar los pensamientos más profundos posibles, hasta el fin de los tiempos.

Sólo al considerar esta extraordinaria gama de futuros humanos se vislumbra nuestro presagio cósmico. Fue el físico y visionario ruso Konstantin Tsiolkovsky quien advirtió por primera vez el presagio, aunque su descubrimiento suele atribuirse a Enrico Fermi. Tsiolkovsky, el quinto de 18 hermanos, nació en 1857 en el seno de una familia modesta de Izhevskoye, un antiguo pueblo situado a 200 millas al sureste de Moscú. Se vio obligado a abandonar la escuela a los 10 años, después de que un ataque de escarlatina le dejara sordo. A los 16, Tsiolkovsky se dirigió a Moscú, donde se instaló en su gran biblioteca, sobreviviendo a base de libros y trozos de pan negro. Acabó trabajando como maestro de escuela, profesión que le dejaba suficiente tiempo libre para hacer sus pinitos como ingeniero aficionado. A los 40 años, Tsiolkovsky había inventado el monoplano, el túnel de viento y la ecuación del cohete, la base matemática de los vuelos espaciales actuales. Aunque murió décadas antes del Sputnik, Tsiolkovsky creía que el destino humano era expandirse hacia el cosmos. A principios de la década de 1930, escribió una serie de tratados filosóficos que lanzaron el Cosmismo, una nueva escuela de pensamiento ruso. Fue famoso por decir que “la Tierra es la cuna de la humanidad, pero uno no puede quedarse en la cuna para siempre”.

El misterio que acechaba a Tsiolkovski surgió de sus convicciones copernicanas, su creencia de que el universo es uniforme en todas partes. Si no hay nada especialmente fértil en nuestro rincón del cosmos, razonaba, las civilizaciones inteligentes deberían surgir en todas partes. Deberían florecer allí donde hubiera cunas planetarias como la Tierra. Y si las civilizaciones inteligentes están destinadas a expandirse por el universo, decenas de ellas deberían surcar nuestros cielos. Las burbujas de infraestructura en expansión de Bostrom deberían haber envuelto la Tierra varias veces.

En 1950, el Premio Nobel y físico del Proyecto Manhattan, Enrico Fermi, expresó este misterio en forma de pregunta: “¿Dónde están?”. Es una pregunta que resulta más difícil de responder cada año que pasa. Sólo en la última década, la ciencia ha descubierto que los planetas son omnipresentes en nuestra galaxia, y que la Tierra es más joven que la mayoría de ellos. Si la Vía Láctea contiene multitud de mundos cálidos y acuosos, muchos con mil millones de años de ventaja sobre la Tierra, entonces ya debería haber engendrado una civilización capaz de extenderse por ella. Pero hasta ahora no hay señales de ninguna. Ninguna civilización avanzada nos ha visitado, y ninguna hazaña impresionante de macroingeniería brilla desde las profundidades de nuestra galaxia. En cambio, cuando dirigimos nuestros telescopios hacia el cielo, sólo vemos materia muerta, esculpida en formas naturales, por los procesos inanimados que describe la física.

Si la vida es una casualidad cósmica, entonces ya hemos superado las probabilidades, y nuestro futuro es indeterminado: la galaxia está ahí para que la tomemos

Robin Hanson, investigadora asociada del Instituto del Futuro de la Humanidad, afirma que debe haber algo en el universo, o en la vida misma, que impida que los planetas generen civilizaciones colonizadoras de galaxias. Debe de haber un “gran filtro”, dice, una barrera infranqueable que se sitúa en algún lugar de la línea que separa la materia muerta de la trascendencia cósmica.

La vida no es una cuestión de vida.

Antes de venir a Oxford, almorcé con Hanson en Washington DC. Me explicó que el filtro podría ser cualquier número de cosas, o una combinación de ellas. Podría ser que la vida en sí fuera escasa, o podría ser que los microbios rara vez tropezaran con la reproducción sexual. Los organismos unicelulares podrían ser comunes en el universo, pero las explosiones cámbricas, raras. Eso, o quizá Tsiolkovsky juzgó mal el destino humano. Quizá subestimó la dificultad de los viajes interestelares. O quizá las civilizaciones tecnológicamente avanzadas decidan no expandirse por la galaxia, o hacerlo de forma invisible, por razones que aún no comprendemos. O tal vez, esté ocurriendo algo más siniestro. Tal vez la extinción rápida sea el destino de toda vida inteligente.

La humanidad ya ha atravesado varios de estos filtros potenciales, pero no todos. Algunos nos esperan en el guantelete del tiempo. La identidad del filtro es menos importante para Bostrom que su momento, su posición en nuestro pasado o en nuestro futuro. Porque si se encuentra en nuestro futuro, podría esperarnos un riesgo de extinción que no podemos anticipar, o para el que la anticipación no supone ninguna diferencia. Podría haber un desarrollo tecnológico inevitable que hiciera que la vida inteligente se aniquilara a sí misma, o algún acontecimiento periódico y catastrófico en la naturaleza que la ciencia empírica no pudiera predecir.

Por eso es por lo que la ciencia empírica no puede predecir el futuro de la vida inteligente.

Por eso Bostrom espera que el rover Curiosity fracase. Cualquier descubrimiento de vida que no se haya originado en la Tierra hace menos probable que el gran filtro esté en nuestro pasado y más probable que esté en nuestro futuro”, me dijo. Si la vida es una casualidad cósmica, entonces ya hemos superado las probabilidades, y nuestro futuro es indeterminado: la galaxia está ahí para que la tomemos. Si descubrimos que la vida surge en todas partes, perderemos un sospechoso principal en nuestra caza del gran filtro. Cuanto más avanzada sea la vida que encontremos, peores serán las implicaciones. Si el Curiosity descubre un fósil de vertebrado incrustado en roca marciana, significaría que se produjo una explosión cámbrica dos veces en el mismo sistema solar. Nos daría motivos para sospechar que la naturaleza es muy buena tejiendo átomos para formar vida animal compleja, pero muy mala alimentando civilizaciones que saltan de estrella en estrella. Haría menos probable que los humanos ya se hayan colado en la trampa cuyas fauces mantienen nuestros cielos sin vida. Sería un presagio.

En mi último día en Oxford, me reuní con Toby Ord en su despacho del Instituto del Futuro de la Humanidad. Ord es filósofo utilitarista y fundador de Giving What We Can, una organización que anima a los ciudadanos de los países ricos a destinar el 10% de sus ingresos a obras benéficas. En 2009, Ord y su esposa, Bernadette Young, médico, se comprometieron a vivir con una pequeña fracción de sus ingresos anuales, con la esperanza de donar 1 millón de libras a obras benéficas a lo largo de sus carreras. Viven en un pequeño piso libre en Oxford, donde se entretienen con música y libros, y de vez en cuando toman un café con los amigos.

Ord ha escrito mucho sobre la importancia de la filantropía selectiva. Su organización examina las organizaciones benéficas de todo el mundo para identificar las más eficaces. Ahora mismo, ese título pertenece a la Fundación Contra la Malaria, una organización benéfica que distribuye mosquiteras en el mundo en desarrollo. Ord me explicó que las organizaciones benéficas ultraeficaces son miles de veces más eficaces que otras en la reducción del sufrimiento humano. Dónde donas es más importante que si donas”, dijo.

Me intrigó saber que Ord realizaba trabajos filosóficos sobre el riesgo existencial, dado lo cuidadoso que es a la hora de maximizar el impacto filantrópico de sus acciones. Quería preguntarle si creía que el problema de la extinción humana era más acuciante que acabar con la pobreza o las enfermedades.

“No estoy seguro de que el riesgo existencial sea un problema mayor que la pobreza mundial”, me dijo. Últimamente he dividido mis esfuerzos entre ambos, con la esperanza de que con el tiempo sabré cuál es más importante.

Ord se enfrenta a un formidable dilema filosófico. Intenta averiguar si nuestras obligaciones morales para con los seres humanos del futuro son mayores que las que tenemos para con los seres humanos que están vivos y sufriendo ahora mismo. Es un cálculo brutal para los vivos. Puede que seamos 7.000 millones, pero también somos una manguera de fuego de vidas futuras, que la extinción ahogaría para siempre. Las víctimas de la extinción humana incluirían no sólo los cadáveres de la última generación, sino también a todos nuestros descendientes potenciales, un número que podría llegar a los billones.

Las víctimas de la extinción humana incluirían no sólo los cadáveres de la última generación, sino también a todos nuestros descendientes potenciales, un número que podría llegar a los billones.

Este cálculo adecuado del coste utilitario de la extinción es lo que lleva a Bostrom a defender que la reducción del riesgo existencial es moralmente primordial. Sus argumentos elevan la reducción del riesgo existencial por encima de cualquier otro proyecto humanitario, incluso de éxitos extraordinarios, como la erradicación de la viruela, que ha salvado 100 millones de vidas y contando. Ord aún no está convencido, pero insinuó que podría estar empezando a inclinarse.

“Cada vez me parece más plausible que el riesgo existencial sea la mayor cuestión moral del mundo”, me dijo. Aunque todavía no se haya generalizado.

La idea de que podamos tener obligaciones morales con los humanos del futuro lejano es difícil de procesar. Al fin y al cabo, los humanos somos criaturas estacionales, no administradores del tiempo profundo. La brevedad de nuestras vidas tiñe nuestras intuiciones sobre el valor y limita nuestra visión moral. Podemos imaginar futuros para nuestros hijos y nietos. Participamos en sus alegrías y lloramos por sus penurias. Vemos que algún destello de nuestras fugaces vidas sobrevive en ellos. Pero nuestros descendientes lejanos son opacos para nosotros. Nos esforzamos por verlos, pero parecen extraños a través del abismo del tiempo, transformados por el paso de tantos milenios.

Mientras Bostrom y yo paseábamos entre los esqueletos del Museo de Historia Natural de Oxford, mirábamos hacia atrás a través de otro abismo de tiempo. Nos disponíamos a irnos a comer, cuando por fin dimos con el Megalosaurus, que permanecía rígido tras el cristal del expositor. Era un esqueleto parcial, hecho de fragmentos óseos destrozados, como el fémur astillado que llegó a manos de Robert Plot no muy lejos de aquí. Mientras nos inclinábamos para inspeccionar los restos del antiguo animal, pregunté a Bostrom por su aproximación a la filosofía. ¿Cómo acabó estudiando un tema tan morboso y peculiar como la extinción humana?

Me contó que, cuando era más joven, le interesaban más las cuestiones filosóficas tradicionales. Quería desarrollar una comprensión básica del mundo y sus fundamentos. Quería conocer la naturaleza del ser, los entresijos de la lógica y los secretos de la buena vida.

“Pero entonces se produjo esta transición, en la que poco a poco me di cuenta de que no todas las cuestiones filosóficas son igual de urgentes”, dijo. Algunas llevan miles de años con nosotros. Es poco probable que avancemos seriamente en ellas en los próximos diez. Al darme cuenta de ello, me centré en la investigación que puede marcar la diferencia ahora mismo. Me ayudó a comprender que la filosofía tiene un límite temporal.’

•••

Ross Andersen

Es redactor jefe en The Atlantic, donde supervisa las secciones de Ciencia, Salud y Tecnología. Anteriormente fue director adjunto de Aeon.

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts