Ninguna de nuestras tecnologías ha conseguido destruir a la humanidad – todavía

Tarde o temprano podría inventarse una tecnología capaz de acabar con la civilización humana. ¿Hasta dónde llegaríamos para impedirlo?

Una forma de ver la creatividad humana es como un proceso de sacar bolas de una urna gigante. Las bolas representan ideas, descubrimientos e inventos. A lo largo de la historia, hemos extraído muchas bolas. La mayoría han sido beneficiosas para la humanidad. El resto han sido varios matices de gris: una mezcla de lo bueno y lo malo, cuyo efecto neto es difícil de calcular.

Lo que aún no hemos sacado es una bola negra: una tecnología que invariablemente destruye la civilización que la inventa. Eso no se debe a que hayamos sido especialmente cuidadosos o sabios a la hora de innovar. Simplemente hemos tenido suerte. Pero, ¿y si hay una bola negra en algún lugar de la urna? Si la investigación científica y tecnológica continúa, acabaremos sacándola y no podremos volver a meterla. Podemos inventar, pero no podemos desinventar. Nuestra estrategia parece ser esperar que no exista una bola negra.

Por suerte para nosotros, la tecnología más destructiva de la humanidad hasta la fecha -las armas nucleares- es extremadamente difícil de dominar. Pero una forma de pensar en los posibles efectos de una bola negra es considerar qué ocurriría si las reacciones nucleares fueran más fáciles. En 1933, el físico Leo Szilard tuvo la idea de una reacción nuclear en cadena. Investigaciones posteriores demostraron que fabricar un arma atómica requeriría varios kilos de plutonio o uranio altamente enriquecido, ambos muy difficiles y caros de producir. Sin embargo, imagina una historia contrafactual en la que Szilard se diera cuenta de que se podía fabricar una bomba nuclear de alguna manera fácil: sobre el fregadero de la cocina, digamos, utilizando un trozo de cristal, un objeto metálico y una pila.


Primer plano del Laboratorio Nacional Lawrence Livermore durante las pruebas de la bomba nuclear de la Operación Tetera en el Sitio de Pruebas de Nevada el 7 de marzo de 1955.

Szilard se habría enfrentado a un dilema. Si no le contaba a nadie su descubrimiento, no podría evitar que otros científicos tropezaran con él. Pero si revelaba su descubrimiento, garantizaría la propagación de un conocimiento peligroso. Imagina que Szilard confió en su amigo Albert Einstein y decidieron escribir una carta al presidente de Estados Unidos, Franklin D Roosevelt, cuya administración prohibió entonces toda investigación en física nuclear fuera de las instalaciones gubernamentales de alta seguridad. Las especulaciones se arremolinaron en torno a la razón de estas medidas de mano dura. Grupos de científicos se preguntarían por el peligro secreto; algunos de ellos lo descubrirían. Empleados descuidados o descontentos de los laboratorios gubernamentales dejarían escapar información, y los espías llevarían el secreto a capitales extranjeras. Incluso si por algún milagro el secreto nunca se filtrara, los científicos de otros países lo descubrirían por su cuenta.

O tal vez EE.

¿O quizás el gobierno de EEUU eliminaría todo el cristal, el metal y las fuentes de corriente eléctrica fuera de unos pocos depósitos militares altamente vigilados? Tales medidas extremas encontrarían una dura oposición. Sin embargo, después de que las nubes en forma de hongo se elevaran sobre algunas ciudades, la opinión pública cambiaría. El vidrio, las baterías y los imanes podrían ser confiscados, y su producción prohibida; aun así, quedarían trozos esparcidos por el paisaje, y acabarían cayendo en manos de nihilistas, extorsionistas o personas que sólo quisieran “ver qué pasaría” si hicieran estallar un artefacto nuclear. Al final, muchos lugares quedarían destruidos o abandonados. La posesión de los materiales prohibidos tendría que ser duramente castigada. Las comunidades estarían sometidas a una vigilancia estricta: redes de informadores, redadas de seguridad, detenciones indefinidas. Tendríamos que intentar reconstituir de algún modo la civilización sin electricidad y sin otros elementos esenciales que se consideran demasiado arriesgados.

Ese es el escenario optimista. En un escenario más pesimista, la ley y el orden se romperían por completo, y las sociedades se dividirían en facciones que librarían guerras nucleares. La desintegración sólo terminaría cuando el mundo se hubiera arruinado hasta el punto de que fuera imposible fabricar más bombas. Incluso entonces, la peligrosa intuición sería recordada y transmitida. Si la civilización resurgía de sus cenizas, el conocimiento estaría al acecho, listo para saltar una vez que la gente empezara de nuevo a producir vidrio, corrientes eléctricas y metal. E incluso si se olvidara el conocimiento, se redescubriría cuando se reanudara la investigación en física nuclear.

En resumen: tuvimos suerte de que fabricar armas nucleares resultara difícil. Esa vez sacamos una bola gris. Sin embargo, con cada acto de invención, la humanidad se introduce de nuevo en la urna.

Supongamos que la urna de la creatividad contiene al menos una bola negra. A esto lo llamamos “la hipótesis del mundo vulnerable”. La idea intuitiva es que existe un cierto nivel de tecnología a partir del cual la civilización se destruye casi con toda seguridad, a menos que se apliquen unos grados de vigilancia preventiva y/o gobernanza global bastante extraordinarios y sin precedentes históricos. Nuestro objetivo principal no es argumentar que la hipótesis es cierta: consideramos que es una cuestión abierta, aunque no parecería razonable, dadas las pruebas disponibles, confiar en que es falsa. En cambio, la cuestión es que la hipótesis es útil para ayudarnos a sacar a la superficie consideraciones importantes sobre la situación macroestratégica de la humanidad.

La hipótesis anterior -llamémosla “armas nucleares fáciles”- representa un tipo de bola negra potencial, en la que resulta fácil para individuos o pequeños grupos causar destrucción masiva. Dada la diversidad del carácter y las circunstancias humanas, para cualquier acción imprudente, inmoral o contraproducente, siempre habrá alguna fracción de seres humanos (“el residuo apocalíptico”) que elegiría llevar a cabo esa acción, ya fuera motivada por el odio ideológico, la destructividad nihilista o la venganza por injusticias percibidas, como parte de algún complot de extorsión o debido a delirios. La existencia de este residuo apocalíptico significa que cualquier herramienta de destrucción masiva lo suficientemente fácil es prácticamente segura que conducirá a la devastación de la civilización.

Este es uno de los problemas más graves de la civilización.

Este es uno de los varios tipos de posibles bolas negras. Un segundo tipo sería una tecnología que cree fuertes incentivos para que los actores poderosos causen destrucción masiva. De nuevo, podemos recurrir a la historia nuclear: tras la invención de la bomba atómica, se desató una carrera armamentística entre EEUU y la Unión Soviética. Ambos países acumularon arsenales asombrosos; en 1986, juntos tenían más de 60.000 cabezas nucleares, más que suficientes para devastar la civilización.

Si existiera la opción de un “primer ataque seguro”, el miedo mutuo podría desencadenar fácilmente una carrera hacia la guerra total

Afortunadamente, durante la Guerra Fría, las superpotencias nucleares del mundo no tenían grandes incentivos para desencadenar un Armagedón nuclear. Sin embargo, sí tenían algunos incentivos para hacerlo. En particular, existían incentivos para participar en el brinkmanship; y, en una situación de crisis, existía cierto incentivo para atacar primero y adelantarse a un ataque potencialmente desarmador del adversario. Muchos politólogos creen que un factor importante para explicar por qué la Guerra Fría no desembocó en un holocausto nuclear fue el desarrollo, a mediados de la década de 1960, de unas capacidades de “segundo ataque” más seguras por parte de ambas superpotencias. La capacidad de los arsenales de ambos países para sobrevivir a un ataque nuclear del otro y luego lanzar un ataque de represalia redujo el incentivo para lanzar un ataque en primer lugar.

Pero ahora consideremos por qué la Guerra Fría no condujo a un holocausto nuclear.

Pero consideremos ahora un escenario contrafáctico -un “primer ataque seguro”- en el que alguna tecnología hiciera posible destruir completamente a un adversario antes de que pudiera responder, dejándole incapaz de tomar represalias. Si existiera esa opción de “primer ataque seguro”, el miedo mutuo podría desencadenar fácilmente una guerra total. Aunque ninguna de las dos potencias deseara la destrucción de la otra, una de ellas podría sentirse obligada a atacar primero para evitar el riesgo de que el miedo de la otra la llevara a llevar a cabo ese primer ataque. Podemos empeorar aún más el contrafáctico suponiendo que las armas implicadas son fáciles de ocultar; eso haría inviable que las partes diseñaran un sistema de verificación fiable para la reducción de armamento que pudiera resolver su dilema de seguridad.

El cambio climático puede ser un factor importante en la lucha contra el cambio climático.

El cambio climático puede ilustrar un tercer tipo de bola negra; llamemos a este escenario “peor calentamiento global”. En el mundo real, es probable que las emisiones de gases de efecto invernadero causadas por el hombre provoquen un aumento medio de la temperatura de entre 3,0 y 4,5 grados centígrados para 2100. Pero imagina que el parámetro de sensibilidad climática de la Tierra hubiera sido distinto de lo que es, de modo que las mismas emisiones de carbono provocaran un calentamiento mucho mayor del que los científicos predicen actualmente: un aumento de 20 grados, digamos. Para empeorar el escenario, imagina que los combustibles fósiles fueran aún más abundantes, y las alternativas energéticas limpias más caras y tecnológicamente difíciles, de lo que son en la actualidad.

A diferencia de la hipótesis del “primer golpe seguro”, en la que existe un actor poderoso que se enfrenta a fuertes incentivos para emprender alguna acción difícil y enormemente destructiva, la hipótesis del “peor calentamiento global” no requiere tal actor. Todo lo que se necesita es un gran número de actores individualmente insignificantes -usuarios de electricidad, conductores- que tengan incentivos para hacer cosas que contribuyan muy ligeramente a lo que acumulativamente se convierte en un problema devastador para la civilización. Lo que los dos escenarios tienen en común es que existen incentivos que animarían a una amplia gama de actores normalmente motivados a llevar a cabo acciones que devastan la civilización.

Sería una mala noticia que la hipótesis del mundo vulnerable fuera correcta. En principio, sin embargo, hay varias respuestas que podrían salvar a la civilización de una bola negra tecnológica. Una sería dejar de sacar bolas de la urna por completo, cesando todo desarrollo tecnológico. Sin embargo, esto es poco realista y, aunque pudiera hacerse, sería extremadamente costoso, hasta el punto de constituir una catástrofe en sí mismo.

Otra respuesta teóricamente posible sería dejar de sacar bolas de la urna, es decir, cesar todo desarrollo tecnológico.

Otra respuesta teóricamente posible sería rediseñar fundamentalmente la naturaleza humana para eliminar el residuo apocalíptico; también podríamos acabar con cualquier tendencia entre los actores poderosos a arriesgarse a la devastación civilizatoria incluso cuando ello sirva a intereses vitales de seguridad nacional, así como con cualquier tendencia entre las masas a dar prioridad a la conveniencia personal cuando ello contribuya de forma imperceptible a perjudicar algún bien global importante. Esta reingeniería de las preferencias globales parece muy difícil de llevar a cabo, y conllevaría sus propios riesgos. También cabe señalar que un éxito parcial en dicha reingeniería de preferencias no conllevaría necesariamente una reducción proporcional de la vulnerabilidad de la civilización. Por ejemplo, reducir el residuo apocalíptico en un 50% no reduciría a la mitad los riesgos de los escenarios “nucleares fáciles”, ya que en muchos casos cualquier individuo podría devastar la civilización por sí solo. Por tanto, sólo podríamos reducir significativamente el riesgo si el residuo apocalíptico se eliminara prácticamente por completo en todo el mundo.

Eso nos deja dos opciones para hacer que el mundo esté a salvo de la posibilidad de que la urna contenga una bola negra: una vigilancia extremadamente fiable que pueda impedir que cualquier individuo o pequeño grupo lleve a cabo acciones ilegales altamente peligrosas; y dos, una gobernanza mundial fuerte que pueda resolver los problemas más graves de la acción colectiva y garantizar una cooperación sólida entre los estados, incluso cuando tengan fuertes incentivos para incumplir los acuerdos o se nieguen a firmarlos en primer lugar. Las lagunas de gobernanza que abordan estas medidas son los dos talones de Aquiles del orden mundial contemporáneo. Mientras sigan sin protección, la civilización seguirá siendo vulnerable a una bola negra tecnológica. Sin embargo, hasta que no surja de la urna un descubrimiento de este tipo, es fácil pasar por alto lo expuestos que estamos.

Consideremos lo que se necesitaría para protegernos de estas vulnerabilidades.

Imagina que el mundo se encuentra en un escenario parecido al de las “armas nucleares fáciles”. Supongamos que alguien descubre una forma muy sencilla de causar destrucción masiva, la información sobre el descubrimiento se difunde y los materiales están disponibles en todas partes y no pueden retirarse rápidamente de la circulación. Para evitar la devastación, los estados tendrían que vigilar a sus ciudadanos lo suficientemente de cerca como para permitirles interceptar a cualquiera que empezara a preparar un acto de destrucción masiva. Si la tecnología de la bola negra es suficientemente destructiva y fácil de utilizar, incluso una sola persona que eludiera la red de vigilancia sería completamente inaceptable.

La resistencia a una “etiqueta de libertad” podría remitir una vez aniquiladas algunas ciudades importantes

Para hacerte una idea de cómo podría ser un nivel de vigilancia realmente intensivo, considera el siguiente esbozo de un “panóptico de alta tecnología”. A todos los ciudadanos se les colocaría un “sello de libertad” (las connotaciones orwellianas son, por supuesto, intencionadas, para recordarnos toda la gama de formas en que podría aplicarse un sistema así). Una etiqueta de libertad podría llevarse alrededor del cuello y estar equipada con cámaras y micrófonos multidireccionales que cargarían continuamente vídeo y audio encriptados a ordenadores que interpretarían las señales en tiempo real. Si se detectaran indicios de actividad sospechosa, la señal se retransmitiría a una de las diversas “estaciones de vigilancia patriota”, donde un “agente de la libertad” revisaría la señal y determinaría una acción apropiada, como ponerse en contacto con el portador de la etiqueta a través de un altavoz de la misma, para exigirle una explicación o pedirle una vista mejor. El agente de libertad podría enviar una unidad de respuesta rápida, o tal vez un dron policial, para investigar. Si el portador se negara a desistir de la actividad prohibida tras repetidas advertencias, las autoridades podrían detenerlo. A los ciudadanos no se les permitiría quitarse la etiqueta, excepto en los lugares que hubieran sido equipados con sensores externos adecuados.

En principio, un sistema de este tipo podría contar con sofisticadas protecciones de la intimidad, y podría suprimir datos reveladores de la identidad, como rostros y nombres, a menos que fueran necesarios para una investigación. Las herramientas de inteligencia artificial y la supervisión humana podrían vigilar de cerca a los officadores de la libertad para evitar que abusen de su autoridad. Construir un panóptico de este tipo requeriría una inversión considerable. Pero gracias a la caída del precio de las tecnologías pertinentes, pronto podría ser técnicamente factible.

Esto no es lo mismo que un panóptico.

Eso no es lo mismo que ser políticamente factible. Sin embargo, la resistencia a tales medidas podría remitir una vez arrasadas algunas ciudades importantes. Probablemente habría un fuerte apoyo a una política que, para evitar otro atentado, supusiera invasiones masivas de la intimidad y violaciones de los derechos civiles, como encarcelar a 100 personas inocentes por cada conspirador real. Pero cuando las vulnerabilidades de la civilización no van precedidas o acompañadas de pruebas tan incontrovertibles, la voluntad política para una acción preventiva tan enérgica podría no materializarse nunca.

O consideremos de nuevo el escenario del “primer ataque seguro”. En este caso, los actores estatales se enfrentan a un problema de acción colectiva y, si no lo resuelven, la civilización queda devastada por defecto. Con una nueva bola negra, es casi seguro que el problema de la acción colectiva presentará retos extremos y sin precedentes; sin embargo, los estados han fracasado con frecuencia en la resolución de problemas de acción colectiva mucho más fáciles, como atestiguan las marcas de la guerra que cubren la historia de la humanidad de pies a cabeza. Por tanto, por defecto, la civilización queda devastada. Sin embargo, con una gobernanza mundial eficaz, la solución es casi trivial: basta con prohibir a todos los Estados que empuñen la bola negra de forma destructiva. (Por gobernanza mundial efectiva entendemos un orden mundial con una sola entidad decisoria, un “singleton”. Se trata de una condición abstracta que podría satisfacerse mediante diferentes acuerdos: un gobierno mundial; un hegemón suficientemente poderoso; un sistema muy sólido de cooperación interestatal. Cada sistema conlleva sus propias dificultades y aquí no nos pronunciamos sobre cuál es el mejor.

Algunas bolas negras tecnológicas podrían abordarse sólo con una vigilancia preventiva, mientras que otras sólo requerirían una gobernanza global. Algunas, sin embargo, requerirían ambas cosas. Considera una bola negra biotecnológica lo suficientemente potente como para que un único uso malintencionado pudiera causar una pandemia que matara a miles de millones de personas: una situación del tipo “armas nucleares fáciles”. En este escenario, sería inaceptable que ni siquiera un solo estado no pusiera en marcha la maquinaria necesaria para la vigilancia continua de sus ciudadanos con el fin de evitar un uso malintencionado con una fiabilidad prácticamente perfecta. Un Estado que se negara a aplicar las salvaguardias necesarias sería un miembro delincuente de la comunidad internacional, algo así como un “Estado fallido”. Un argumento similar se aplica a escenarios como el “peor calentamiento global”, en el que algunos estados podrían inclinarse a aprovecharse de los costosos esfuerzos de otros. Se necesitaría entonces una institución de gobernanza mundial eficaz para obligar a cada Estado a hacer su parte.

Nada de esto parece muy atractivo. Un sistema de vigilancia total, o una institución de gobernanza mundial capaz de imponer su voluntad a todas las naciones, podría tener muy malas consecuencias. La mejora de los medios de control social podría ayudar a proteger a los regímenes despóticos de la rebelión; y la vigilancia podría permitir que una ideología hegemónica o una opinión mayoritaria intolerante se impusiera en todos los aspectos de la vida. La gobernanza mundial, por su parte, podría reducir las formas beneficiales de competencia y diversidad interestatal, creando un orden mundial con un único punto de fallo; y, al estar tan alejada de los individuos, una institución de este tipo podría percibirse como carente de legitimidad, y ser más susceptible a la esclerosis burocrática o a la deriva política, alejándose del interés público.

Aunque a muchos nos resulte difícil de digerir, el refuerzo de la vigilancia y la gobernanza mundial también podría tener varias consecuencias buenas, aparte de estabilizar las vulnerabilidades de la civilización. Unos métodos más eficaces de control social podrían reducir la delincuencia y aliviar la necesidad de duras sanciones penales. Podrían fomentar un clima de confianza que permitiera el florecimiento de nuevas formas beneficiosas de interacción social. La gobernanza mundial podría evitar todo tipo de guerras interestatales, resolver muchos problemas medioambientales y otros problemas comunes y, con el tiempo, quizás fomentar un mayor sentido de la solidaridad cosmopolita. Evidentemente, existen argumentos de peso a favor y en contra de avanzar en una u otra dirección, y aquí no emitimos juicio alguno sobre el equilibrio de estos argumentos.

¿Qué hay de la cuestión de la gobernanza mundial?

¿Qué hay de la cuestión del momento oportuno? Aunque nos preocupara seriamente que la urna de la invención contuviera una bola negra, quizá no necesitáramos establecer una vigilancia más estricta o una gobernanza mundial ahora mismo. Tal vez podríamos dar esos pasos más adelante, siempre y cuando la hipotética amenaza se vislumbre claramente.

No obstante, deberíamos cuestionar la viabilidad de un planteamiento de esperar y ver. Como hemos visto, a lo largo de la Guerra Fría, las dos superpotencias vivieron en un temor continuo a la aniquilación nuclear, que podría haberse desencadenado en cualquier momento por accidente o como resultado de alguna crisis en espiral. Este riesgo se habría reducido sustancialmente simplemente deshaciéndose de todas o de la mayoría de las armas nucleares. Sin embargo, después de más de medio siglo, sólo hemos visto un desarme limitado. Hasta ahora, el mundo se ha mostrado incapaz de resolver este problema de acción colectiva tan obvio. Esto no inspira confianza en que la humanidad pueda desarrollar rápidamente un mecanismo de gobernanza mundial eficaz, incluso si se presentara una clara necesidad de uno.

Desarrollar un sistema para el “totalitarismo llave en mano” significa incurrir en un riesgo, incluso si no se gira la llave

Incluso si uno se sintiera optimista sobre la posibilidad de llegar a un acuerdo, los problemas de acción colectiva internacional pueden resistirse a la solución durante mucho tiempo. Llevaría tiempo explicar por qué es necesario un acuerdo de este tipo, negociar un acuerdo y concretar los detalles, y ponerlo en marcha. Pero el intervalo entre que un riesgo se hace claramente visible y el momento en que deben ponerse en marcha las medidas de estabilización podría ser breve. Por tanto, puede que no sea prudente confiar en que la cooperación internacional espontánea salve el día una vez que se vislumbre una vulnerabilidad grave.

La situación de la policía preventiva no es la misma.

La situación de la policía preventiva es similar en algunos aspectos. Un panóptico global altamente sofisticado no puede crearse de la noche a la mañana. Llevaría muchos años implantar un sistema así, por no mencionar el tiempo necesario para conseguir apoyo político. Sin embargo, las vulnerabilidades a las que nos enfrentamos podrían no ofrecer mucho aviso previo. La semana que viene, un grupo de investigadores académicos podría publicar un artículo en Science explicando una nueva técnica innovadora en biología sintética. Dos días después, un bloguero popular podría escribir un post que explicara cómo la nueva herramienta podría ser utilizada por cualquiera para causar destrucción masiva. En un escenario así, podría ser necesario activar casi inmediatamente un intenso control social. Sería demasiado tarde para empezar a desarrollar una arquitectura de vigilancia cuando la vulnerabilidad específica se hiciera evidente.

Quizás podríamos desarrollar de antemano las capacidades de vigilancia intrusiva e interceptación en tiempo real, pero no utilizar esas capacidades inicialmente en nada parecido a su grado máximo. Al dotar a la civilización de la capacidad de una vigilancia preventiva extremadamente eficaz, al menos nos habríamos acercado a la estabilidad. Pero desarrollar un sistema de “totalitarismo llave en mano” supone incurrir en un riesgo, aunque no se gire la llave. Se podría intentar mitigar este riesgo buscando un sistema de “transparencia estructurada” que incorpore protecciones contra el uso indebido. El sistema sólo podría funcionar con el permiso de múltiples partes interesadas independientes, y sólo proporcionaría la información específica que necesitara legítimamente algún responsable de la toma de decisiones. Puede que no haya ningún obstáculo fundamental para conseguir un sistema de vigilancia que sea a la vez muy eficaz y resistente a la subversión. Otra cosa es, por supuesto, la probabilidad de conseguirlo en la práctica.

Dada la complejidad de estas posibles soluciones generales al riesgo de una bola negra tecnológica, podría tener sentido que los líderes y los responsables políticos se centraran inicialmente en soluciones parciales y en la fruta madura: parchear ámbitos concretos en los que parece más probable que aparezcan riesgos importantes, como la investigación biotecnológica. Los gobiernos podrían reforzar la Convención sobre Armas Biológicas aumentando su financiación y otorgándole poderes de verificación. Las autoridades podrían intensificar su supervisión de las actividades biotecnológicas desarrollando mejores formas de controlar a los científicos y rastrear los materiales y equipos potencialmente peligrosos. Para impedir la ingeniería genética “hágalo usted mismo”, por ejemplo, los gobiernos podrían imponer requisitos de licencia y limitar el acceso a algunos instrumentos e información de vanguardia. En lugar de permitir que cualquiera compre su propia máquina de síntesis de ADN, dicho equipo podría limitarse a un pequeño número de proveedores estrechamente supervisados. Las autoridades también podrían mejorar los sistemas de denuncia, para fomentar la denuncia de posibles abusos. Podrían amonestar a las organizaciones que financian la investigación biológica para que tengan una visión más amplia de las posibles consecuencias de ese trabajo.

No obstante, al perseguir estos objetivos limitados, hay que tener en cuenta que la protección que ofrecen sólo cubre subconjuntos especiales de escenarios, y podría ser temporal. Si te encuentras en posición de influir en los macroparámetros de la policía preventiva o de la gobernanza mundial, deberías considerar que los cambios fundamentales en esos ámbitos podrían ser la única forma de estabilizar nuestra civilización frente a las vulnerabilidades tecnológicas emergentes.

Este artículo se basa en el documento‘La hipótesis del mundo vulnerable’ (2019) publicado en la revista ‘Global Policy’.

•••

Nick Bostrom

es profesor de la Facultad de Filosofía de la Universidad de Oxford, donde es director del Instituto del Futuro de la Humanidad. Entre sus libros se encuentran Anthropic Bias (2002) y Superinteligencia: Caminos, peligros, estrategias (2014).

Matthew van der Merwe

is a research assistant at the Future of Humanity Institute at the University of Oxford. He writes about AI policy for the weekly newsletter Import AI.

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts