Por qué el largoplacismo es el credo secular más peligroso del mundo

Empezó como una teoría filosófica marginal sobre el futuro de la humanidad. Ahora está muy bien financiada y es cada vez más peligrosa.

Parece que cada vez se reconoce más que la humanidad podría estar acercándose al “fin de los tiempos”. Las noticias se llenan de funestas predicciones de catástrofes. Los vídeos de las redes sociales sobre incendios forestales infernales, inundaciones devastadoras y hospitales desbordados de pacientes de COVID-19 dominan nuestras líneas de tiempo. Los activistas de la Rebelión de la Extinción están cerrando ciudades en un intento desesperado por salvar el mundo. Una encuesta descubrió incluso que más de la mitad de las personas a las que se preguntó sobre el futuro de la humanidad “valoraron el riesgo de que nuestra forma de vida acabe en los próximos 100 años en un 50 por ciento o más.”

El “apocalipticismo”, o la creencia de que el fin de los tiempos es inminente, no es, por supuesto, nada nuevo: la gente lleva milenios advirtiendo de que el fin está cerca y, de hecho, muchos estudiosos del Nuevo Testamento creen que el propio Jesús esperaba que el mundo se acabara durante su propia vida. Pero la situación actual es fundamentalmente diferente a la del pasado. Los escenarios “escatológicos” que se discuten ahora no se basan en las revelaciones de profetas religiosos, ni en metanarrativas seculares de la historia humana (como en el caso del marxismo), sino en sólidas conclusiones científicas defendidas por destacados expertos en campos como la climatología, la ecología, la epidemiología, etc.

Sabemos que el fin del mundo está cerca.

Sabemos, por ejemplo, que el cambio climático supone una grave amenaza para la civilización. Sabemos que la pérdida de biodiversidad y la sexta extinción masiva podrían precipitar cambios repentinos, irreversibles y catastróficos en el ecosistema global. Un intercambio termonuclear podría apagar el Sol durante años o décadas, provocando el colapso de la agricultura mundial. Y tanto si el SARS-CoV-2 salió de un laboratorio de Wuhan como si se cocinó en la cocina de la naturaleza (esto último parece más probable en estos momentos), la biología sintética pronto permitir que los malos diseñen agentes patógenos mucho más letales y contagiosos que cualquier cosa que pudiera inventar la evolución darwiniana. Algunos filósofos y científicos también han empezado a hacer sonar la alarma sobre las “amenazas emergentes” asociadas a la superinteligencia de las máquinas, la nanotecnología molecular y la geoingeniería estratosférica, que no parecen menos formidables.

Tales consideraciones han llevado a muchos estudiosos a reconocer que, como escribió Stephen Hawking en The Guardian en 2016, “nos encontramos en el momento más peligroso del desarrollo de la humanidad”. Lord Martin Rees, por ejemplo, estima que la civilización tiene un 50% de posibilidades de llegar a 2100. Noam Chomsky argumenta que el riesgo de aniquilación no tiene actualmente “precedentes en la historia del Homo sapiens“. Y Max Tegmark afirma que “probablemente será en el transcurso de nuestras vidas… cuando nos autodestruyamos o nos pongamos las pilas”. En consonancia con estas lúgubres declaraciones, el Boletín de los Científicos Atómicos en 2020 ajustó su icónico Reloj del Juicio Final a sólo 100 segundos antes de la medianoche (o de la perdición), lo más cerca que ha estado desde que se creó el reloj en 1947, y más de 11.000 científicos de todo el mundo firmaron un articulo en 2020 declarando “clara e inequívocamente que el planeta Tierra se enfrenta a una emergencia climática”, y que sin “un inmenso aumento de escala en los esfuerzos para conservar nuestra biosfera [nos arriesgamos] a un sufrimiento indecible debido a la crisis climática”. Como la joven activista climática Xiye Bastida resumió este estado de ánimo existencial en una entrevista para Teen Vogue en 2019, el objetivo es “asegurarnos de que no somos la última generación”, porque ahora esto parece ser una posibilidad muy real.

Dados los peligros sin precedentes a los que se enfrenta la humanidad hoy en día, cabría esperar que los filósofos hubieran vertido una cantidad considerable de tinta sobre las implicaciones éticas de nuestra extinción, o escenarios relacionados como el colapso permanente de la civilización. ¿Hasta qué punto sería moralmente mala (o buena) nuestra desaparición, y por qué razones? ¿Estaría mal impedir la existencia de las generaciones futuras? ¿El valor de los sacrificios, luchas y esfuerzos pasados depende de que la humanidad siga existiendo mientras la Tierra, o el Universo en general, siga siendo habitable?

Pero no es así: el tema de nuestra extinción ha recibido poca atención sostenida por parte de los filósofos hasta hace poco, e incluso ahora permanece al margen de la discusión y el debate filosóficos. En general, han estado preocupados por otros asuntos. Sin embargo, hay una notable excepción a esta regla: durante las dos últimas décadas, un pequeño grupo de teóricos, la mayoría de ellos con sede en Oxford, se han ocupado de elaborar los detalles de una nueva visión moral del mundo denominada longtermismo, que hace hincapié en cómo nuestras acciones afectan al futuro a muy largo plazo del universo: miles, millones, miles de millones e incluso billones de años a partir de ahora. Tiene sus raíces en el trabajo de Nick Bostrom, que fundó el grandiosamente llamado Instituto del Futuro de la Humanidad (FHI) en 2005, y Nick Beckstead, investigador asociado del FHI y responsable de programas de Open Philanthropy. Ha sido defendido más públicamente por el filósofo del FHI Toby Ord, autor de El Precipicio: El Riesgo Existencial y el Futuro de la Humanidad (2020). El largoplacismo es el principal tema de investigación tanto del Global Priorities Institute (GPI), organización vinculada al FHI dirigida por Hilary Greaves, como de la Forethought Foundation, dirigida por William MacAskill, que también ocupa cargos en el FHI y el GPI. Además de la maraña de títulos, nombres, institutos y acrónimos, el largoplacismo es una de las principales “áreas de causa” del llamado movimiento del altruismo efectivo (EA), que fue introducido por Ord en torno a 2011 y ahora presume de tener la alucinante cifra de 46.000 millones de dólares en financiación comprometida.

Es difícil exagerar la influencia que ha adquirido el largoplacismo. Karl Marx declaró en 1845 que el objetivo de la filosofía no es simplemente interpretar el mundo, sino cambiarlo, y esto es exactamente lo que han estado haciendo los partidarios del largo plazo, con un éxito extraordinario. Considera que Elon Musk, que ha citado y respaldado el trabajo de Bostrom, ha donado 1,5 millones de dólares al FHI a través de su organización hermana, el Instituto del Futuro de la Vida (FLI), de nombre aún más grandioso. Éste fue cofundado por el multimillonario empresario tecnológico Jaan Tallinn, quien, como señalé recientemente , no cree que el cambio climático suponga un “riesgo existencial” para la humanidad debido a su adhesión a la ideología del largo plazo.

Por otra parte, el multimillonario libertario y partidario de Donald Trump Peter Thiel, que en una ocasión pronunció el discurso de apertura de una conferencia de EA, ha donado grandes sumas de dinero al Instituto de Investigación de Inteligencia Artificial, cuya misión de salvar a la humanidad de las máquinas superinteligentes está profundamente entrelazada con los valores del largo plazo. Otras organizaciones, como GPI y la Fundación Forethought, financian concursos de redacción y becas en un esfuerzo por atraer a los jóvenes a la comunidad, mientras que es un secreto a voces que el Centro para la Seguridad y las Tecnologías Emergentes (CSET), con sede en Washington DC, tiene como objetivo colocar a los longtermistas en puestos de alto nivel del gobierno estadounidense para dar forma a la política nacional. De hecho, el CSET fue creado por Jason Matheny, antiguo ayudante de investigación de FHI que ahora es ayudante adjunto del presidente estadounidense Joe Biden para tecnología y seguridad nacional. El propio Ord, sorprendentemente para un filósofo, ha “asesorado a la Organización Mundial de la Salud, el Banco Mundial, el Foro Económico Mundial, el Consejo Nacional de Inteligencia de EE.UU., la Oficina del Primer Ministro del Reino Unido, la Oficina del Gabinete y la Oficina Gubernamental para la Ciencia”, y recientemente contribuyó a un informe del Secretario General de las Naciones Unidas que menciona específicamente el “largoplacismo”

.

La cuestión es que el largoplacismo podría ser una de las ideologías más influyentes de la que pocas personas fuera de las universidades de élite y de Silicon Valley han oído hablar. Creo que esto tiene que cambiar porque, como antiguo longtermista que publicó todo un libro hace cuatro años en defensa de la idea general, he llegado a considerar esta visión del mundo como posiblemente el sistema de creencias secular más peligroso del mundo actual. Pero para comprender la naturaleza de la bestia, primero tenemos que diseccionarla, examinando sus características anatómicas y sus funciones fisiológicas.

Lo primero que hay que observar es que el largoplacismo, tal como lo proponen Bostrom y Beckstead, no equivale a “preocuparse por el largo plazo” o “valorar el bienestar de las generaciones futuras”. Va mucho más allá. En el fondo, se trata de una simple -aunque errónea, en mi opinión- analogía entre las personas individuales y la humanidad en su conjunto. Para ilustrar la idea, considera el caso de Frank Ramsey, un académico de la Universidad de Cambridge ampliamente considerado por sus compañeros como una de las mentes más excepcionales de su generación. Había algo de Newton en él”, dijo una vez el belletrista Lytton Strachey. G E Moore escribió sobre la “brillantez excepcional” de Ramsey. Y John Maynard Keynes describió un artículo de Ramsey como “una de las contribuciones más notables a la economía matemática jamás realizada”.

Pero la historia de Ramsey no es feliz. El 19 de enero de 1930, murió en un hospital de Londres tras una intervención quirúrgica, siendo la causa probable de la muerte una infección hepática por nadar en el río Cam, que serpentea a su paso por Cambridge. Ramsey sólo tenía 26 años.

Se podría argumentar que hay dos razones distintas por las que este desenlace fue trágico. La primera es la más obvia: truncó la vida de Ramsey, privándole de todo lo que podría haber experimentado si hubiera sobrevivido: las alegrías y la felicidad, el amor y la amistad: todo lo que hace que merezca la pena vivir. En este sentido, la temprana desaparición de Ramsey fue una tragedia personal. Pero, en segundo lugar, su muerte también privó al mundo de una superestrella intelectual aparentemente destinada a hacer contribuciones aún más extraordinarias al conocimiento humano. Sir Partha Dasgupta escribe: “El número de senderos que trazó Ramsey fue notable. Pero, ¿cuántos caminos más podría haber abierto? Es angustioso pensar en la pérdida que ha supuesto para su generación”, se lamentaba Strachey, “qué luz se ha apagado”, lo que le lleva a uno a preguntarse cómo habría sido de diferente la historia intelectual occidental si Ramsey no hubiera muerto tan joven. Desde esta perspectiva, se podría argumentar que, aunque la tragedia personal de la muerte de Ramsey fue realmente terrible, la inmensidad de su potencial para haber cambiado el mundo a mejor hace que la segunda tragedia sea aún peor. En otras palabras, la maldad de su muerte se debe sobre todo, tal vez abrumadoramente, a su potencial no realizado, más que a los daños directos y personales que experimentó. O eso es lo que se argumenta.

Los partidarios del largo plazo trasladarían estas afirmaciones y conclusiones a la propia humanidad, como si la humanidad fuera un individuo con su propio “potencial” para malgastar o realizar, arruinar o llevar a cabo, en el transcurso de “su vida”. Así, por un lado, una catástrofe que redujera la población humana a cero sería trágica por todo el sufrimiento que infligiría a los que estuvieran vivos en ese momento. Imagina el horror de morir de hambre a temperaturas bajo cero, bajo un cielo negro como el carbón al mediodía, durante años o décadas después de una guerra termonuclear. Esta es la primera tragedia, una tragedia personal para los directamente afectados. Pero, según los partidarios del largo plazo, existe una segunda tragedia que es astronómicamente peor que la primera, y que se deriva del hecho de que nuestra extinción excluiría permanentemente lo que podría ser un futuro extremadamente largo y próspero durante los próximos, digamos, ~10100 años (momento en el que la “muerte por calor” hará imposible la vida). Al hacerlo, destruiría irreversiblemente el “vasto y glorioso” potencial a largo plazo de la humanidad, en el lenguaje casi religioso de Ord. Un “potencial” tan enorme, dado el tamaño del Universo y el tiempo que queda antes de alcanzar el equilibrio termodinámico, que la primera tragedia palidecería totalmente en comparación.

Esto sugiere inmediatamente otro paralelismo entre los individuos y la humanidad: la muerte no es la única forma de que el potencial de alguien quede sin realizar. Imagina que Ramsey no hubiera muerto joven, sino que, en lugar de estudiar, escribir y publicar trabajos académicos, se hubiera pasado los días en el bar local jugando al billar y bebiendo. Mismo resultado, diferente modo de fracaso. Aplicando esto a la humanidad, los longtermistas argumentarían que hay modos de fallo que podrían dejar nuestro potencial sin realizar sin que nos muramos, a lo que volveré más adelante.

Según este punto de vista, una catástrofe climática será un pequeño bache, como una persona de 90 años que se golpeó un dedo del pie a los dos

Para resumir estas ideas hasta ahora, la humanidad tiene un “potencial” propio, que trasciende los potenciales de cada persona individual, y no realizar este potencial sería extremadamente malo -de hecho, como veremos, una catástrofe moral de proporciones literalmente cósmicas. Éste es el dogma central del longtermismo: nada importa más, éticamente hablando, que realizar nuestro potencial como especie de “vida inteligente originaria de la Tierra”. Importa tanto que los longtermistas incluso han acuñado el aterrador término “riesgo existencial” para cualquier posibilidad de que se destruya nuestro potencial, y “catástrofe existencial” para cualquier acontecimiento que destruya realmente este potencial.

¿Por qué creo que esta ideología es tan peligrosa? La respuesta breve es que elevar la realización del supuesto potencial de la humanidad por encima de todo lo demás podría aumentar de forma no trivial la probabilidad de que las personas reales -las que viven hoy y en un futuro próximo- sufran daños extremos, incluso la muerte. Considera que, como he señalado en otro lugar, la ideología a largo plazo inclina a sus seguidores a adoptar una actitud indiferente ante el cambio climático. ¿Por qué? Porque aunque el cambio climático provoque la desaparición de naciones insulares, desencadene migraciones masivas y mate a millones de personas, probablemente no comprometa nuestro potencial a largo plazo durante los próximos billones de años. Si se adopta una visión cósmica de la situación, incluso una catástrofe climática que reduzca la población humana en un 75% durante los próximos dos milenios no será, en el gran esquema de las cosas, más que un pequeño bache, el equivalente a que un hombre de 90 años se hubiera golpeado un dedo del pie cuando tenía dos años.

Cambios Climáticos.

El argumento de Boston es que “un desastre no existencial que provoque el colapso de la civilización global es, desde la perspectiva de la humanidad en su conjunto, un revés potencialmente recuperable”. Podría ser “una masacre gigantesca para el hombre”, añade, pero mientras la humanidad se recupere para desarrollar su potencial, en última instancia se registrará como poco más que “un pequeño paso en falso para la humanidad”. En otro lugar, escribe que las peores catástrofes naturales y las atrocidades devastadoras de la historia se convierten en trivialidades casi imperceptibles cuando se ven desde esta gran perspectiva. Refiriéndose a las dos guerras mundiales, al sida y al accidente nuclear de Chernóbil, declara que “por trágicos que sean estos acontecimientos para las personas inmediatamente afectadas, en la gran perspectiva de las cosas… incluso la peor de estas catástrofes son meras ondas en la superficie del gran mar de la vida”.

Esta forma de ver el mundo, de evaluar la maldad del SIDA y del Holocausto, implica que las futuras catástrofes del mismo alcance e intensidad (no existenciales) también deben clasificarse como “meras ondas”. Si no suponen un riesgo existencial directo, entonces no debemos preocuparnos mucho por ellas, por trágicas que puedan ser para los individuos. Como Bostrom escribió en 2003, “la prioridad número uno, dos, tres y cuatro debería… ser reducir el riesgo existencial”. reiteró esto varios años más tarde al argumentar que no debemos “desperdiciar…” nuestros recursos finitos en “proyectos de bienestar de eficacia subóptima”, como aliviar la pobreza mundial y reducir el sufrimiento de los animales, ya que ninguno de ellos amenaza nuestro potencial a largo plazo, y nuestro potencial a largo plazo es lo que realmente importa.

Ord se hace eco de estas opiniones al argumentar que, de todos los problemas a los que se enfrenta la humanidad, nuestra “primera gran tarea… es alcanzar un lugar seguro, un lugar donde el riesgo existencial” -como él lo define- “sea bajo y se mantenga bajo”, lo que él denomina “seguridad existencial”. Más que cualquier otra cosa, lo que importa es hacer todo lo necesario para “preservar” y “proteger” nuestro potencial “extrayéndonos del peligro inmediato” e ideando sólidas “salvaguardas que defiendan a la humanidad de los peligros en el futuro a largo plazo, de modo que sea imposible fracasar”. Aunque Ord hace un guiño al cambio climático, también afirma -basándose en una metodología dudosa- que la probabilidad de que el cambio climático provoque una catástrofe existencial es sólo de ∼1 entre 1.000, lo que supone dos órdenes de magnitud menos que la probabilidad de que máquinas superinteligentes destruyan la humanidad este siglo, según Ord.

Lo que realmente preocupa a Ord es la probabilidad de que el cambio climático provoque una catástrofe existencial.

Lo realmente notable aquí es que la preocupación central no es el efecto de la catástrofe climática sobre las personas reales de todo el mundo (recuerda que, en el gran esquema, esto sería, en palabras de Bostrom, un “pequeño paso en falso para la humanidad”), sino la escasa posibilidad de que, como dice Ord en El Precipicio, esta catástrofe “suponga un riesgo de colapso irrecuperable de la civilización o incluso la extinción completa de la humanidad”. Una vez más, los daños causados a las personas reales (especialmente a las del Sur Global) pueden ser significativos en términos absolutos, pero cuando se comparan con la “inmensidad” y la “gloria” de nuestro potencial a largo plazo en el cosmos, apenas se registran.

Y las implicaciones del largoplacismo son mucho más preocupantes. Si nuestras cuatro prioridades principales son evitar una catástrofe existencial, es decir, realizar “nuestro potencial”, ¿qué no está sobre la mesa para conseguirlo? Considera el comentario de Thomas Nagel sobre cómo la noción de lo que podríamos llamar el “bien mayor” se ha utilizado para “justificar” ciertas atrocidades (por ejemplo, durante la guerra). Si el fin “justifica” los medios, argumenta, y se considera que el fin es lo suficientemente grande (por ejemplo, la seguridad nacional), entonces esto “puede servir para tranquilizar las conciencias de los responsables de un cierto número de bebés carbonizados”. Ahora imagina lo que podría “justificarse” si el “bien mayor” no fuera la seguridad nacional, sino el potencial cósmico de la vida inteligente originada en la Tierra durante los próximos billones de años. Durante la Segunda Guerra Mundial perecieron 40 millones de civiles, pero compara esta cifra con las 1054 o más personas (según la estimación de Bostrom) que podrían llegar a existir si logramos evitar una catástrofe existencial. ¿Qué no deberíamos hacer para “proteger” y “preservar” este potencial? ¿Para garantizar que estas personas no nacidas lleguen a existir? ¿Qué medios no pueden “justificarse” por este fin moral cósmicamente significativo?

El propio Boston argumentó que deberíamos considerar seriamente la posibilidad de establecer un sistema de vigilancia global e invasivo que controle a todas las personas del planeta en tiempo real, para ampliar las “capacidades de vigilancia preventiva” (por ejemplo, para evitar atentados terroristas omnicidas que podrían devastar la civilización). En otros lugares, ha escrito que los Estados deberían utilizar la violencia/guerra preventiva para evitar catástrofes existenciales, y ha argumentado que salvar a miles de millones de personas reales es el equivalente moral de reducir el riesgo existencial en cantidades absolutamente minúsculas. En sus palabras, incluso si hay “una mera posibilidad del 1 por cent” de que existan 1054 personas en el futuro, entonces “el valor esperado de reducir el riesgo existencial en una mera milmillonésima de milmillonésima de un punto porcentual vale 100.000 millones veces más que mil millones de vidas humanas”. Semejante fanatismo -palabra que algunos longanimistas abrazan – ha llevado a un número creciente de críticos a preocuparse por lo que podría ocurrir si los líderes políticos del mundo real se tomaran en serio la opinión de Bostrom. Para citar al estadístico matemático Olle Häggström, que -de forma desconcertante- suele hablar favorablemente del largoplacismo:

Me inquieta enormemente la perspectiva de que [los cálculos anteriores] puedan llegar a ser reconocidos entre los políticos y los responsables de la toma de decisiones como una guía para la política que valga la pena tomar al pie de la letra. Simplemente recuerda demasiado al viejo dicho “Si quieres hacer una tortilla, debes estar dispuesto a romper unos cuantos huevos”, que se ha utilizado habitualmente para explicar que un poco de genocidio o así podría ser algo bueno, si puede contribuir al objetivo de crear una utopía futura. Imagina una situación en la que el jefe de la CIA explica al presidente de EEUU que tienen pruebas creíbles de que, en algún lugar de Alemania, hay un lunático que está trabajando en un arma del Juicio Final y pretende utilizarla para aniquilar a la humanidad, y que este lunático tiene una probabilidad entre un millón de lograrlo. No tienen más información sobre la identidad o el paradero de este lunático. Si el presidente se ha tomado a pecho el argumento de Bostrom, y si sabe hacer cuentas, puede llegar a la conclusión de que merece la pena llevar a cabo un asalto nuclear a gran escala contra Alemania para matar a todas y cada una de las personas que se encuentren dentro de sus fronteras.

He aquí, pues, algunas razones por las que considero que el largoplacismo es profundamente peligroso. Sin embargo, existen problemas adicionales y fundamentales con esta visión del mundo que nadie, que yo sepa, ha señalado antes por escrito. Por ejemplo, hay buenas razones para afirmar que los compromisos subyacentes del largoplacismo son una de las principales razones por las que la humanidad se enfrenta a tantos riesgos sin precedentes para su supervivencia. En otras palabras, el largoplacismo podría ser incompatible con la consecución de la “seguridad existencial”, lo que significa que la única forma de reducir realmente la probabilidad de extinción o colapso en el futuro podría ser abandonar por completo la ideología del largoplacismo.

Para Bostrom y Ord, no llegar a ser posthumanos nos impediría realizar nuestro vasto y glorioso potencial

Para entender el argumento, primero vamos a desentrañar qué entienden los longtermistas por nuestro “potencial a largo plazo”, una expresión que hasta ahora he utilizado sin definir. Podemos analizar este concepto en tres componentes principales: el transhumanismo, el expansionismo espacial y una visión moral estrechamente asociada a lo que los filósofos denominan “utilitarismo total”.

El primero se refiere a la idea de que deberíamos utilizar tecnologías avanzadas para rediseñar nuestros cuerpos y cerebros con el fin de crear una raza “superior” de posthumanos radicalmente mejorados (que, confusamente, los transhumanistas sitúan dentro de la categoría de “humanidad”). Aunque Bostrom es quizás el transhumanista más destacado en la actualidad, los partidarios del transhumanismo a largo plazo han evitado utilizar el término “transhumanismo”, probablemente debido a sus asociaciones negativas. Susan Levin, por ejemplo, señala que el transhumanismo contemporáneo tiene sus raíces en el movimiento eugenésico angloamericano, y transhumanistas como Julian Savulescu, que coeditó el book Human Enhancement (2009) con Bostrom, han defendido literalmente el consumo de sustancias químicas “potenciadoras de la moralidad”, como la oxitocina, para evitar una catástrofe existencial (que él llama “daño final”). Como Savulescu escribe con un colega, “es tan urgente mejorar moralmente a la humanidad… que deberíamos buscar cualquier medio para lograrlo”. Tales afirmaciones no sólo son controvertidas, sino que para muchos resultan bastante inquietantes, por lo que los transhumanistas han intentado distanciarse de tales ideas, aunque defendiendo la ideología.

El transhumanismo afirma que existen varios “modos posthumanos de ser” que son mucho mejores que nuestro modo humano actual. Podríamos, por ejemplo, alterarnos genéticamente para conseguir un control perfecto de nuestras emociones, o acceder a Internet mediante implantes neuronales, o tal vez incluso cargar nuestras mentes en hardware informático para conseguir la “inmortalidad digital”. Como Ord insta en El Precipicio, piensa en lo asombroso que sería percibir el mundo mediante la ecolocalización, como los murciélagos y los delfines, o la magnetorrecepción, como los zorros rojos y las palomas mensajeras. Tales experiencias desconocidas -escribe Ord- existen en mentes mucho menos sofisticadas que la nuestra. ¿Qué experiencias, posiblemente de inmenso valor, podrían ser accesibles, entonces, a mentes mucho mayores?”. La exploración más fantástica de Bostrom de estas posibilidades proviene de su evocadora “Carta desde Utopía” (2008), que describe un mundo tecnoutópico lleno de posthumanos superinteligentes inundados de tanto “placer” que, como escribe el posthumano ficticio de la carta, “lo rociamos en nuestro té”.

La conexión con el largoplacismo es que, según Bostrom y Ord, no llegar a ser posthumanos nos impediría aparentemente realizar nuestro vasto y glorioso potencial, lo que sería existencialmente catastrófico. Como dijo Bostrom en 2012, “la exclusión permanente de cualquier posibilidad de este tipo de cambio transformador de la naturaleza biológica humana puede constituir en sí misma una catástrofe existencial”. Del mismo modo, Ord afirma que “preservar para siempre a la humanidad tal y como es ahora también puede dilapidar nuestro legado, renunciando a la mayor parte de nuestro potencial”.

El segundo componente de nuestro potencial -el expansionismo espacial- se refiere a la idea de que debemos colonizar la mayor parte posible de nuestro futuro cono de luz: es decir, la región del espaciotiempo que nos es teóricamente accesible. Según los longtermistas, nuestro cono de luz futuro contiene una enorme cantidad de recursos explotables, a los que se refieren como nuestra “dotación cósmica” de negentropía (o entropía inversa). Sólo la Vía Láctea, escribe Ord, tiene “150.000 años luz de diámetro y abarca más de 100.000 millones de estrellas, la mayoría con sus propios planetas”. Para alcanzar el potencial a largo plazo de la humanidad, prosigue, “sólo hace falta que viajemos a una estrella cercana y establezcamos un punto de apoyo suficiente para crear una nueva sociedad floreciente desde la que podamos aventurarnos más lejos”. Extendiéndonos “sólo seis años luz cada vez”, nuestros descendientes posthumanos podrían hacer que “casi todas las estrellas de nuestra galaxia… fueran alcanzables”, ya que “cada sistema estelar, incluido el nuestro, necesitaría asentarse sólo en las pocas estrellas más cercanas [para que] toda la galaxia [se] llenara finalmente de vida”. El proceso podría ser exponencial, dando lugar a sociedades cada vez más “florecientes” con cada segundo adicional que nuestros descendientes saltan de estrella en estrella.

¿Pero por qué exactamente querríamos llegar a la Tierra?

¿Pero por qué querríamos hacer esto exactamente? ¿Qué tiene de importante inundar el Universo con nuevas civilizaciones posthumanas? Esto nos lleva al tercer componente: el utilitarismo total, al que me referiré como “utilitarismo” para abreviar. Aunque algunos longtermistas insisten en que no son utilitaristas, debemos advertir enseguida que se trata sobre todo de un acto de humo y espejismo para desviar las críticas de que el longtermismo -y, más en general, el movimiento del altruismo efectivo (AE) del que surgió- no es más que utilitarismo reempaquetado. El hecho es que el movimiento de la EA es profundamente utilitarista, al menos en la práctica, y de hecho, antes de decidir un nombre, los primeros miembros del movimiento, incluido Ord, consideraron seriamente llamarlo “comunidad utilitarista efectiva”.

Dicho esto, el utilitarismo es una teoría ética que especifica que nuestra única obligación moral es maximizar la cantidad total de “valor intrínseco” en el mundo, tal y como se calcula desde un punto de vista incorpóreo, imparcial y cósmico llamado “el punto de vista del Universo”. Desde este punto de vista, no importa cómo se distribuya el valor -que los hedonistas utilitaristas equiparan al placer- entre las personas en el espacio y el tiempo. Lo único que importa es la suma neta total. Por ejemplo, imagina que hay 1 billón de personas cuyas vidas tienen un valor “1”, lo que significa que apenas merece la pena vivirlas. Esto da un valor total de 1 billón. Ahora considera un universo alternativo en el que 1.000 millones de personas tienen vidas con un valor de “999”, lo que significa que sus vidas son extremadamente buenas. Esto da un valor total de 999.000 millones. Puesto que 999.000 millones es menos que 1 billón, el primer mundo, lleno de vidas que apenas merecen ser vividas, sería moralmente mejor que el segundo, y por tanto, si un utilitarista se viera obligado a elegir entre ambos, elegiría el primero. (A esto se le llama la “conclusión repugnante”, que los partidarios del largo plazo, como Ord, MacAskill y Greaves, recientemente argumentaron que no debería tomarse muy en serio. Para ellos, el primer mundo podría ser realmente mejor.

Beckstead argumentó que deberíamos dar prioridad a la vida de las personas de los países ricos frente a las de los países pobres

El razonamiento subyacente aquí se basa en la idea de que las personas -tú y yo- no somos más que medios para un fin. No importamos por nosotros mismos; no tenemos valor inherente propio. En cambio, las personas se entienden como “contenedores” de valor, y por tanto sólo importamos en la medida en que “contenemos” valor, y por tanto contribuimos a la cantidad neta global de valor en el Universo entre el Big Bang y la muerte por calor. Puesto que el utilitarismo nos dice que maximicemos el valor, se deduce que cuantas más personas (contenedores de valor) existan con cantidades netas positivas de valor (placer), mejor será el Universo, moralmente hablando. En una frase: las personas existen para maximizar el valor, en lugar de que el valor exista para beneficiar a las personas.

Por este motivo, los expertos a largo plazo están obsesionados con calcular cuántas personas podrían existir en el futuro si colonizáramos el espacio y creáramos vastas simulaciones informáticas alrededor de las estrellas en las que un número insondablemente enorme de personas vivieran vidas netamente positivas en entornos de realidad virtual. Ya he mencionado la estimación de Bostrom de 1054 personas futuras, que incluye a muchas de estas “personas digitales”, pero en su bestseller Superinteligencia (2014) eleva aún más la cifra, a 1058 personas, casi todas las cuales “vivirían ricas y felices mientras interactuasen entre sí en entornos virtuales”. Greaves y MacAskill están igualmente entusiasmados con esta posibilidad, estimando que unos 1045 seres conscientes en simulaciones por ordenador podrían existir sólo dentro de la Vía Láctea.

Eso es lo que nos gustaría que ocurriera a nosotros y a los demás.

En eso consiste nuestro “vasto y glorioso” potencial: en un número masivo de posthumanos digitales tecnológicamente mejorados dentro de enormes simulaciones informáticas repartidas por todo nuestro futuro cono de luz. Es por este objetivo por lo que, en el escenario de Häggström, un político a largo plazo aniquilaría Alemania. Es por este objetivo por lo que no debemos “malgastar…” nuestros recursos en cosas como resolver la pobreza global. Es por este objetivo por lo que debemos considerar la implantación de un sistema de vigilancia global, mantener la guerra preventiva sobre la mesa y centrarnos más en máquinas superinteligentes que en salvar a la población del Sur Global de los efectos devastadores del cambio climático (causado en su mayor parte por el Norte Global). De hecho, Beckstead ha llegado a argumentar que, para alcanzar este objetivo, en realidad deberíamos dar prioridad a las vidas de las personas de los países ricos sobre las de los países pobres, ya que influir en el futuro a largo plazo tiene una “importancia abrumadora”, y es más probable que los primeros influyan en el futuro a largo plazo que los segundos. Para citar un pasaje de la tesis doctoral de Beckstead de 2013, que Ord elogia con entusiasmo como una de las contribuciones más importantes a la literatura longtermista:

Salvar vidas en los países pobres puede tener efectos dominó significativamente menores que salvar y mejorar vidas en los países ricos. ¿Por qué? Los países más ricos tienen mucha más innovación y sus trabajadores son mucho más productivos económicamente. [En consecuencia,] ahora me parece más plausible que salvar una vida en un país rico sea sustancialmente más importante que salvar una vida en un país pobre, en igualdad de condiciones.

Testo es sólo la punta del iceberg. Considera las implicaciones de esta concepción de “nuestro potencial” para el desarrollo de la tecnología y la creación de nuevos riesgos. Puesto que la realización de nuestro potencial es el objetivo moral último de la humanidad, y puesto que nuestros descendientes no pueden convertirse en posthumanos, colonizar el espacio y crear ~1058 personas en simulaciones por ordenador sin tecnologías mucho más avanzadas que las actuales, no desarrollar más tecnología constituiría en sí mismo una catástrofe existencial, un modo de fracaso (comparable al de Ramsey que descuida su talento pasando los días jugando al billar y bebiendo) que Bostrom denomina “estancamiento”. De hecho, Bostrom sitúa esta idea en primer plano en su definición canónica de “riesgo existencial”, que denota cualquier acontecimiento futuro que impida a la humanidad alcanzar y/o mantener un estado de “madurez tecnológica”, es decir, “la consecución de capacidades que permitan un nivel de productividad económica y de control sobre la naturaleza cercano al máximo factible”. La madurez tecnológica es el eje aquí, porque el control de la naturaleza y el aumento de la productividad económica hasta los límites físicos absolutos son ostensiblemente necesarios para crear la máxima cantidad de “valor” dentro de nuestro futuro cono de luz.

Pero reflexiona por un momento sobre cómo la humanidad se ha metido en la actual crisis climática y ecológica. Detrás de la extracción y quema de combustibles fósiles, la diezma de ecosistemas y el exterminio de especies ha estado la noción de que la naturaleza es algo que hay que controlar, subyugar, explotar, vencer, saquear, transformar, reconfigurar y manipular. Como escribe el teórico de la tecnología Langdon Winner en Tecnología autónoma (1977), desde la época de Francis Bacon nuestra visión de la tecnología ha estado “inextricablemente ligada a una única concepción de la forma en que se utiliza el poder: el estilo de dominio absoluto, el control despótico y unidireccional del amo sobre el esclavo”. Y añade:

Rara vez hay reservas sobre el legítimo papel del hombre en la conquista, la derrota y el sometimiento de todo lo natural. Éste es su poder y su gloria. Lo que en otras situaciones parecería [ser] intenciones más bien chabacanas y despreciables son aquí la más honorable de las virtudes. La naturaleza es la presa universal, para manipularla a su antojo.

Esto es precisamente lo que encontramos en el relato de Bostrom sobre los riesgos existenciales y su futurología normativa asociada: la naturaleza, el Universo entero, nuestra “dotación cósmica” está ahí para el saqueo, para ser manipulada, transformada y convertida en “estructuras de valor, como seres sensibles que viven vidas que merecen la pena” en vastas simulaciones informáticas, citando el ensayo de Bostrom “Residuos astronómicos” (2003). Sin embargo, esta visión baconiana y capitalista es una de las causas fundamentales de la crisis medioambiental sin precedentes que ahora amenaza con destruir grandes regiones de la biosfera, comunidades indígenas de todo el mundo y quizás incluso la propia civilización tecnológica occidental. Aunque otros longtermistas no han sido tan explícitos como Bostrom, existe una clara tendencia a ver el mundo natural como el utilitarismo ve a las personas: como medios para algún fin abstracto e impersonal, y nada más. MacAskill y un colega, por ejemplo, escriben que el movimiento de la EA, y por implicación el longtermismo, es “tentativamente welfarista en el sentido de que su objetivo tentativo de hacer el bien se refiere únicamente a promover el bienestar y no, digamos, a proteger la biodiversidad o conservar la belleza natural por su propio bien.”

“La naturaleza es un medio”.

Según esto, todos los problemas surgen de una tecnología insuficiente y no excesiva

Igual de preocupante es la exigencia a largo plazo de que debemos crear tecnologías cada vez más potentes, a pesar del hecho consensuado de que la fuente abrumadora de riesgo para la existencia humana en la actualidad procede de estas mismas tecnologías. En palabras de Ord, “sin esfuerzos serios para proteger a la humanidad, hay razones de peso para creer que el riesgo será mayor este siglo, y que aumentará con cada siglo que continúe el progreso tecnológico”. Del mismo modo, en 2012 Bostrom reconoce que

el gran grueso del riesgo existencial en el futuro previsible consiste en riesgos existenciales antropogénicos, es decir, derivados de la actividad humana. En concreto, la mayoría de los mayores riesgos existenciales parecen estar relacionados con posibles avances tecnológicos futuros que puedan ampliar radicalmente nuestra capacidad para manipular el mundo exterior o nuestra propia biología. A medida que se amplíen nuestros poderes, también lo hará la escala de sus posibles consecuencias, intencionadas y no intencionadas, positivas y negativas.

Según este punto de vista, sólo hay una forma de avanzar: más desarrollo tecnológico, aunque sea el camino más peligroso hacia el futuro. ¿Pero qué sentido tiene esto? Seguramente, si queremos maximizar nuestras posibilidades de supervivencia, deberíamos oponernos al desarrollo de nuevas y peligrosas tecnologías de doble uso. Si más tecnología equivale a mayor riesgo -como demuestra claramente la historia y afirman las proyecciones tecnológicas-, entonces quizá la única forma de alcanzar realmente un estado de “seguridad existencial” sea ralentizar o detener por completo la innovación tecnológica.

Pero los partidarios de la visión a largo plazo no tienen razón de ser.

Pero los partidarios del largo plazo tienen una respuesta a este enigma: la llamada “tesis de la neutralidad del valor”. Ésta afirma que la tecnología es un objeto moralmente neutro, es decir, “sólo una herramienta”. La idea se resume en el famoso eslogan de la NRA “Las armas no matan a la gente, la gente mata a la gente”, que transmite el mensaje de que las consecuencias de la tecnología, ya sean buenas o malas, beneficiosas o perjudiciales, están totalmente determinadas por los usuarios, no por los artefactos. Como dijo Bostrom en 2002, “no deberíamos culpar a la civilización o a la tecnología por imponer grandes riesgos existenciales”, y añadió que “debido a la forma en que hemos definido los riesgos existenciales, un fracaso en el desarrollo de la civilización tecnológica implicaría que habríamos sido víctimas de un desastre existencial”.

Ord también argumenta que “el problema no es tanto un exceso de tecnología como una falta de sabiduría”, antes de citar el libro de Carl Sagan Pale Blue Dot (1994): Muchos de los peligros a los que nos enfrentamos proceden de la ciencia y la tecnología, pero, fundamentalmente, se deben a que nos hemos hecho poderosos sin llegar a ser proporcionalmente sabios”. En otras palabras, la culpa es nuestra por no ser más inteligentes, más sabios y más éticos, un cúmulo de deficiencias que, en una lógica un poco retorcida, muchos pensadores a largo plazo creen que podrían rectificarse mediante la reingeniería tecnológica de nuestros sistemas cognitivos y disposiciones morales. Desde este punto de vista, todo es un problema de ingeniería y, por tanto, todos los problemas surgen de una tecnología insuficiente y no excesiva.

Ahora podemos empezar a ver cómo el largoplacismo puede ser contraproducente. No sólo su énfasis “fanático” en la realización de nuestro potencial a largo plazo podría llevar a la gente, por ejemplo, a ignorar el inexistente cambio climático, a dar prioridad a los ricos sobre los pobres y quizá incluso a “justificar” la violencia preventiva y las atrocidades por el “mayor bien cósmico”, sino que también contiene las mismas tendencias -baconianismo, capitalismo y neutralidad de valores- que han llevado a la humanidad a centímetros del precipicio de la destrucción. El largoplacismo nos dice que maximicemos la productividad económica, nuestro control sobre la naturaleza, nuestra presencia en el Universo, el número de personas (simuladas) que existan en el futuro, la cantidad total de “valor” impersonal, etcétera. Pero para maximizar, debemos desarrollar tecnologías cada vez más potentes -y peligrosas-; no hacerlo sería en sí mismo una catástrofe existencial. Pero no hay que preocuparse, porque la tecnología no es responsable del empeoramiento de nuestra situación y, por tanto, el hecho de que la mayoría de los riesgos provengan directamente de la tecnología no es razón para dejar de crear más tecnología. Por el contrario, el problema reside en nosotros, lo que sólo significa que debemos crear aún más tecnología para transformarnos en posthumanos cognitiva y moralmente mejorados.

Este parece ser el camino a seguir.

Esto parece una receta para el desastre. Crear una nueva raza de posthumanos “sabios y responsables” es inverosímil y, si las tecnologías avanzadas siguen desarrollándose al ritmo actual, una catástrofe a escala global es casi con toda seguridad una cuestión de cuándo, más que de si ocurrirá. Sí, necesitaremos tecnologías avanzadas si queremos escapar de la Tierra antes de que el Sol la esterilice dentro de unos mil millones de años. Pero el hecho crucial que los partidarios del largo plazo pasan por alto es que es mucho más probable que la tecnología provoque nuestra extinción antes de este lejano acontecimiento futuro que que nos salve de ella. Si, como yo, valoras la supervivencia continuada y el florecimiento de la humanidad, deberías preocuparte por el largo plazo, pero rechazar la ideología del largoplacismo, que no sólo es peligrosa y errónea, sino que podría estar contribuyendo y reforzando los riesgos que ahora amenazan a todas las personas del planeta.

•••

Émile P Torres

Es doctorando en Filosofía por la Universidad Leibniz de Hannover (Alemania). Sus escritos han aparecido en Philosophy Now, Nautilus, Motherboard y el Boletín de los Científicos Atómicos, entre otros. Son autores de El fin: Lo que la ciencia y la religión nos dicen sobre el Apocalipsis (2016), Moralidad, previsión y florecimiento humano: una introducción a los riesgos existenciales (2017) y La extinción humana: Una historia de la ciencia y la ética de la aniquilación (de próxima publicación en Routledge).

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts