Beyond humans, what other kinds of minds might be out there?

De los algoritmos a los extraterrestres, ¿podrán los humanos comprender alguna vez mentes radicalmente distintas de las nuestras?

En 1984, el filósofo Aaron Sloman invitó a los estudiosos a describir “el espacio de las mentes posibles”. La frase de Sloman alude al hecho de que las mentes humanas, en toda su variedad, no son los únicos tipos de mentes. Están, por ejemplo, las mentes de otros animales, como los chimpancés, los cuervos y los pulpos. Pero el espacio de posibilidades también debe incluir las mentes de formas de vida que han evolucionado en otros lugares del Universo, mentes que podrían ser muy distintas de cualquier producto de la biología terrestre. El mapa de posibilidades incluye a tales criaturas teóricas aunque estemos solos en el Cosmos, del mismo modo que también incluye formas de vida que podrían haber evolucionado en la Tierra en condiciones distintas.

También debemos considerar la posibilidad de la inteligencia artificial (IA). Digamos que la inteligencia “mide la capacidad general de un agente para alcanzar objetivos en una amplia gama de entornos”, siguiendo la definición adoptada por los informáticos Shane Legg y Marcus Hutter. Según esta definición, hoy en día no existe ningún artefacto que tenga algo parecido a la inteligencia humana. Aunque hay programas informáticos que pueden superar a los humanos en ámbitos intelectuales muy exigentes pero especializados, como jugar al Go, ningún ordenador o robot puede igualar hoy en día la generalidad de la inteligencia humana.

Pero lo que más nos interesa son los artefactos que poseen inteligencia general, ya sea a nivel de rata, humano o superior, porque son candidatos a formar parte del espacio de las mentes posibles. De hecho, dado que el potencial de variación de tales artefactos supera con creces el potencial de variación de la inteligencia evolucionada de forma natural, las variantes no naturales podrían ocupar la mayor parte de ese espacio. Es probable que algunos de estos artefactos sean muy extraños, ejemplos de lo que podríamos llamar “exótica consciente”.

En lo que sigue intento responder al reto de Sloman describiendo la estructura del espacio de las mentes posibles, en dos dimensiones: la capacidad de consciencia y la semejanza humana del comportamiento. En esta cartografía parece estar implícita la posibilidad de formas de conciencia tan extrañas que no las reconoceríamos. Sin embargo, también me preocupa, siguiendo a Ludwig Wittgenstein, rechazar la idea dualista de que existe un reino impenetrable de experiencia subjetiva que forma una porción distinta de la realidad. Prefiero la noción de que “nada está oculto”, metafísicamente hablando. La dificultad aquí estriba en que aceptar la posibilidad de una conciencia radicalmente inescrutable parece readmitir la proposición dualista de que la conciencia no está, por así decirlo, “abierta a la vista”, sino que es inherentemente privada. Intento mostrar cómo podríamos evitar ese inquietante resultado.

Tel célebre tratamiento de la (modestamente) exótica subjetividad de un murciélago por parte de Thomas Nagel es un buen punto de partida. Nagel se pregunta qué se siente al ser un murciélago, y lamenta que “si intento imaginarlo, me veo limitado a los recursos de mi propia mente, y esos recursos son inadecuados para la tarea”. Un corolario de la postura de Nagel es que ciertos tipos de hechos -a saber, hechos que están ligados a un punto de vista subjetivo muy diferente- son inaccesibles para nuestras mentes humanas. Esto apoya la afirmación del dualista de que ningún relato de la realidad podría ser completo si sólo comprendiera hechos objetivos y omitiera lo subjetivo. Sin embargo, creo que hay que resistirse al impulso dualista de escindir la realidad de este modo. Así pues, si aceptamos el razonamiento de Nagel, los exóticos conscientes suponen un reto.

Pero los murciélagos son la realidad.

Pero los murciélagos no son el verdadero problema, tal y como yo lo veo. Las vidas interiores moderadamente exóticas de los animales no humanos suponen un reto para Nagel sólo porque concede un estatus ontológico a una distinción indicial cotidiana. No puedo estar tanto aquí como allí. Pero esta perogrullada no implica la existencia de hechos irreductiblemente ligados a una posición concreta en el espacio. Del mismo modo, no puedo ser a la vez humano y murciélago. Pero esto no implica la existencia de hechos fenomenológicos irreductiblemente ligados a un punto de vista subjetivo concreto. No debemos dejarnos engañar por la presencia de la palabra “saber” para considerar que la frase “como humano, no puedo saber lo que es ser un murciélago” expresa algo filosóficamente más desconcertante que la frase “soy un humano, no un murciélago”. Siempre podemos especular sobre cómo sería ser un murciélago, utilizando nuestra imaginación para ampliar nuestra propia experiencia (como hace Nagel). Al hacerlo, podríamos señalar las limitaciones del ejercicio. El error consiste en concluir, con Nagel, que aquí debe haber hechos, ciertas “verdades” subjetivas, que escapan a nuestro poder de investigación colectiva.

explorar el espacio de las mentes posibles es contemplar la posibilidad de seres mucho más exóticos que cualquier especie terrestre

En esto, sigo el ejemplo del Wittgenstein posterior de Las Investigaciones Filosóficas (1953). El principio que subyace en el rechazo de Wittgenstein al lenguaje privado -un lenguaje con palabras para las sensaciones que sólo una persona en el mundo podría entender- es que sólo podemos hablar de lo que tenemos delante, de lo que es público, de lo que está abierto a la visión colectiva. En cuanto a todo lo demás, bueno, “una nada serviría tan bien como un algo sobre lo que no se puede decir nada”. Una palabra que se refiriera a una sensación privada, interior, no tendría ninguna función útil en nuestro lenguaje. Por supuesto, las cosas pueden ocultarse en un sentido práctico, como una bola bajo la copa de un mago, o una estrella que está fuera de nuestro cono de luz. Pero nada está fuera de nuestro alcance metafísicamente hablando. Cuando se trata de la vida interior de los demás, siempre hay algo más que puede revelarse -interactuando con ellos, observándoles, estudiando cómo funcionan-, pero no tiene sentido hablar como si hubiera algo más allá de lo que nunca puede revelarse.

Cuidado con lo que dices.

Siguiendo esta línea de pensamiento, no deberíamos imputar subjetividad incognoscible a otras personas (por extrañas que sean), a los murciélagos o a los pulpos, ni tampoco a los extraterrestres o a las inteligencias artificiales. Pero aquí está el verdadero problema, a saber, las formas radicalmente exóticas de conciencia. Nagel supone razonablemente que “todos creemos que los murciélagos tienen experiencia”; puede que no sepamos lo que es ser un murciélago, pero suponemos que es como algo. Pero explorar el espacio de las mentes posibles es contemplar la posibilidad de seres mucho más exóticos que cualquier especie terrestre. ¿Podría el espacio de las mentes posibles incluir seres tan inescrutables que no pudiéramos saber si tienen experiencias conscientes en absoluto? Negar esta posibilidad huele a biocentrismo. Sin embargo, aceptarla es coquetear una vez más con el pensamiento dualista de que existe un orden oculto de hechos subjetivos. A diferencia de la cuestión de qué se siente al ser un X, seguramente (estamos tentados de decir) existe un hecho subjetivo cuando se trata de la cuestión de si se siente algo en absoluto al ser un X. O un ser tiene experiencia consciente o no la tiene, independientemente de que podamos saberlo.

Considera el siguiente experimento mental. Supongamos que una mañana me presento en el laboratorio y descubro que me han entregado una caja blanca que contiene un sistema dinámico inmensamente complejo cuyo funcionamiento está totalmente a la vista. Tal vez sea el regalo de un extraterrestre visitante, o el producto no deseado de algún laboratorio de IA rival que ha dejado que sus algoritmos evolutivos se desbocen y no sabe qué hacer con los resultados. Supongamos que tengo que decidir si destruyo o no la caja. ¿Cómo puedo saber si sería una acción moralmente aceptable? ¿Existe algún método o procedimiento mediante el cual pueda determinar si la conciencia estaba o no, en cierto sentido, presente en la caja?

Una forma de afrontar este reto sería idear una medida objetiva de la consciencia, una función matemática que, dada cualquier descripción física, devolviera un número que cuantificara la consciencia de ese sistema. El neurocientífico Giulio Tononi ha pretendido proporcionar una medida de este tipo, denominada Φ, dentro de la rúbrica de la llamada teoría de la información integrada. Aquí, Φ describe hasta qué punto un sistema es, en un sentido específico de la teoría de la información, más que la suma de sus partes. Para Tononi, la conciencia es Φ en el mismo sentido que el agua es H2O. Así pues, la teoría de la información integrada pretende proporcionar tanto las condiciones necesarias como las suficientes para la presencia de conciencia en cualquier sistema dinámico dado.

La principal dificultad de este enfoque es que separa la conciencia del comportamiento. Un sistema completamente autónomo puede tener un alto Φ a pesar de no tener interacciones con nada fuera de sí mismo. Sin embargo, nuestro concepto cotidiano de conciencia está intrínsecamente ligado al comportamiento. Si me comentas que alguien ha sido o no consciente de algo (un coche que se aproxima, por ejemplo, o un amigo que pasa por el pasillo), eso me da ciertas expectativas sobre su comportamiento (frenará o no frenará, saludará o no saludará). Podría hacerte observaciones similares sobre aquello de lo que soy consciente para dar cuenta de mi propio comportamiento. Apenas noto la diferencia entre esos dos colores”; “Intento calcular esa suma mentalmente, pero es demasiado difícil”; “Acabo de recordar lo que dijo”; “Ahora ya no me duele tanto”: todas estas frases ayudan a explicar mi comportamiento a los demás hablantes de mi lengua y desempeñan un papel en nuestra actividad social cotidiana. Nos ayudan a mantenernos mutuamente informados sobre lo que hemos hecho en el pasado, estamos haciendo ahora o es probable que hagamos en el futuro.

Sólo cuando hacemos filosofía empezamos a hablar de conciencia, experiencia y sensación en términos de subjetividad privada. Éste es el camino hacia la distinción problema difícil/problema fácil establecida por David Chalmers, hacia una división de peso metafísico entre lo interno y lo externo; en resumen, hacia una forma de dualismo en la que la experiencia subjetiva es una característica ontológicamente distinta de la realidad. Wittgenstein proporciona un antídoto contra esta forma de pensar en sus observaciones sobre el lenguaje privado, cuya pieza central es un argumento según el cual, en la medida en que podemos hablar de nuestras experiencias, éstas deben tener una manifestación externa, pública. Para Wittgenstein, “sólo de un ser humano vivo y de lo que se asemeja (se comporta como) a un ser humano vivo se puede decir: tiene sensaciones, ve… es consciente o inconsciente”.

A través de Wittgenstein, llegamos al siguiente precepto: sólo en un contexto de comportamiento intencionado podemos hablar de conciencia. A estas luces, para establecer la presencia de la conciencia, no bastaría con descubrir que un sistema, como la caja blanca de nuestro experimento mental, tiene una Φ elevada. Necesitaríamos discernir un propósito en su comportamiento. Para ello, tendríamos que ver el sistema como incrustado en un entorno. Tendríamos que ver que el entorno actúa sobre el sistema, y que el sistema actúa sobre el entorno para sus propios fines. Si el “sistema” en cuestión fuera un animal, entonces ya habitaríamos en el mismo entorno familiar, a pesar de que el entorno ofrezca cosas distintas a criaturas distintas. Pero para discernir el comportamiento intencionado de un sistema (o criatura o ser) desconocido, puede que tengamos que ingeniar un encuentro con él.

Incluso en los casos familiares, el comportamiento intencionado de un sistema es el mismo que el de un animal.

Incluso en casos familiares, este asunto de la ingeniería de un encuentro puede ser complicado. Por ejemplo, en 2006 el neurocientífico Adrian Owen y sus colegas consiguieron establecer una forma sencilla de comunicación con pacientes en estado vegetativo mediante un escáner de IRMf. Se pidió a los pacientes que imaginaran dos escenarios diferentes que se sabe que provocan firmas de IRMf distintas en individuos sanos: caminar por una casa y jugar al tenis. Un subconjunto de pacientes en estado vegetativo generó firmas de IRMf adecuadas en respuesta a la instrucción verbal pertinente, lo que indicaba que podían entender la instrucción, habían formado la intención de responder a ella y eran capaces de ejercitar su imaginación. Esto debe contarse como “ingeniería de un encuentro” con el paciente, sobre todo cuando su comportamiento se interpreta con el telón de fondo de los muchos años de actividad normal que el paciente mostraba cuando estaba sano.

no sopesamos las pruebas para concluir que nuestros amigos son probablemente criaturas conscientes. Simplemente los vemos así y los tratamos en consecuencia

Una vez que hemos discernido un comportamiento intencionado en nuestro objeto de estudio, podemos empezar a observarlo y (con suerte) a interactuar con él. Como resultado de estas observaciones e interacciones, podemos decidir que hay conciencia. O, dicho de otro modo, podríamos adoptar el tipo de actitud hacia ella que normalmente reservamos para las criaturas conscientes.

Vale la pena detenerse en la diferencia entre estas dos formas de expresión. En la primera formulación está implícita la suposición de que existe un hecho. O la consciencia está presente en el objeto que tenemos ante nosotros o no lo está, y la verdad puede revelarse mediante una investigación de tipo científico que combine lo empírico y lo racional. La segunda formulación debe su redacción a Wittgenstein. Reflexionando sobre la idea escéptica de que un amigo pueda ser un mero autómata -un zombi fenomenológico, como diríamos hoy-, Wittgenstein señala que no opina que su amigo tenga alma. Más bien, “mi actitud hacia él es una actitud hacia un alma”. (Por “tiene alma” podemos entender algo así como “es consciente y capaz de alegría y sufrimiento”). La cuestión aquí es que, en la vida cotidiana, no sopesamos las pruebas y concluimos, en conjunto, que nuestros amigos y seres queridos son probablemente criaturas conscientes como nosotros. La cuestión es mucho más profunda. Simplemente los vemos así y los tratamos en consecuencia. La duda no desempeña ningún papel en nuestra actitud hacia ellos.

¿Cómo se manifiestan estas sensibilidades wittgensteinianas en el caso de seres más exóticos que los humanos u otros animales? Ahora podemos reformular el problema de la caja blanca de si existe un método que pueda determinar si la conciencia, en algún sentido, está presente en la caja. En su lugar, podríamos preguntarnos: ¿en qué circunstancias adoptaríamos hacia esta caja, o cualquier parte de ella, el tipo de actitud que normalmente reservamos para un semejante consciente?

Lcomencemos con un caso hipotético modestamente exótico, un robot humanoide con inteligencia artificial de nivel humano: el robot Ava de la película Ex Machina (2015), escrita y dirigida por Alex Garland.

En Ex Machina (2015), el robot Ava es un robot humanoide con inteligencia artificial de nivel humano.

En Ex Machina, el programador Caleb es llevado al retiro remoto de su jefe, el genio solitario y multimillonario de la tecnología Nathan. Al principio le dicen que va a ser el componente humano de un Test de Turing, con Ava como sujeto. Tras su primer encuentro con Ava, Caleb le comenta a Nathan que en una Prueba de Turing real el sujeto debe estar oculto al probador, mientras que Caleb sabe desde el principio que Ava es un robot. Nathan replica que La verdadera prueba consiste en demostrarte que es un robot. Y luego ver si sigues pensando que tiene conciencia”. (A medida que avanza la película y Caleb tiene más oportunidades de observar e interactuar con Ava, deja de verla como una “mera máquina”. Empieza a simpatizar con su difícil situación, prisionera de Nathan y enfrentada a la posibilidad de ser “eliminada” si no supera su prueba. Al final de la película, está claro que la actitud de Caleb hacia Ava ha evolucionado hasta convertirse en la que normalmente reservamos para un ser consciente.

El arco de la historia de Ava y Caleb ilustra el enfoque de la conciencia inspirado en Wittgenstein. Caleb llega a esta actitud no realizando una investigación científica del funcionamiento interno del cerebro de Ava, sino observándola y hablando con ella. Su postura va más allá de una mera opinión. Al final, actúa con decisión en favor de ella y con gran riesgo para sí mismo. No quiero insinuar que la investigación científica no deba influir en la forma en que llegamos a ver a otro ser, sobre todo en los casos más exóticos. La cuestión es que el estudio de un mecanismo sólo puede complementar la observación y la interacción, no sustituirlas. ¿De qué otra forma podríamos llegar a ver realmente a otro ser consciente como tal, si no es habitando su mundo y encontrándonos con él por nosotros mismos?

Si algo está construido de forma muy diferente a nosotros, por muy humano que sea su comportamiento, su consciencia podría ser muy diferente a la nuestra

La situación parece más sencilla para Caleb porque Ava sólo es un caso moderadamente exótico. Su comportamiento es muy parecido al humano y tiene forma humanoide (de hecho, una forma humanoide femenina que a él le resulta atractiva). Pero la Ava ficticia también ilustra lo complicados que pueden ser incluso los casos aparentemente sencillos. En el guión publicado, hay una dirección para la última escena de la película que no pasó el corte final. Dice así: ‘Los vectores de reconocimiento facial revolotean alrededor de la cara del piloto. Y cuando abre la boca para hablar, no oímos palabras. Oímos pulsos de ruido monótono. Un tono bajo. El habla como puro reconocimiento de patrones. Así es como nos ve Ava. Y nos oye. Parece completamente extraño”. Esta dirección pone de manifiesto la ambigüedad que yace en el corazón de la película. Nuestra inclinación, como espectadores, es ver a Ava como una criatura consciente capaz de sufrir, como la ve Caleb. Sin embargo, es tentador preguntarse si Caleb está siendo engañado, si Ava no es consciente después de todo, o al menos no en un sentido familiar.

Esta es una línea de pensamiento seductora. Pero debe considerarse con extrema cautela. Es un tópico de la informática que especificar cómo se comporta un sistema no determina cómo debe implementarse ese comportamiento en la práctica. En realidad, una inteligencia artificial de nivel humano que muestre un comportamiento similar al humano podría instanciarse de varias formas distintas. Puede que no sea necesario copiar la arquitectura del cerebro biológico. Por otra parte, quizá la conciencia dependa de la implementación. Si el cerebro de una criatura es como el nuestro, hay motivos para suponer que su conciencia, su vida interior, también es como la nuestra. O eso es lo que se piensa. Pero si algo está construido de forma muy diferente a la nuestra, con una arquitectura diferente realizada en un sustrato diferente, entonces por muy humano que sea su comportamiento, su conciencia podría ser muy diferente a la nuestra. Tal vez sería un zombi fenomenológico, sin conciencia en absoluto.

El problema de este pensamiento es la atracción que ejerce hacia el tipo de imagen metafísica dualista de la que intentamos prescindir. Seguramente, clamamos, tiene que haber un hecho aquí. O la IA en cuestión es consciente en el sentido en que tú y yo lo somos, o no lo es. Sin embargo, parece que nunca podremos saber con certeza cuál es. De aquí a la intuición dualista de que existe un mundo privado y subjetivo de experiencia interior separado del mundo público y objetivo de los objetos físicos hay un pequeño paso. Pero no es necesario ceder a esta intuición dualista. Tampoco es necesario negarla. Basta con observar que, en los casos difíciles, siempre es posible averiguar más cosas sobre un objeto de estudio: observar su comportamiento en un conjunto más amplio de circunstancias, interactuar con él de nuevas formas, investigar su funcionamiento más a fondo. A medida que sepamos más, cambiará la forma en que lo tratemos y hablemos de él, y así convergeremos en la actitud adecuada que debemos adoptar hacia él. Tal vez la actitud de Caleb hacia Ava habría cambiado si hubiera tenido más tiempo para interactuar con ella, para averiguar lo que realmente la movía. O quizá no.

S hasta ahora, nos hemos ceñido a entidades similares a los humanos y no hemos observado nada especialmente exótico. Pero necesitamos ampliar nuestro campo de visión si queremos cartografiar el espacio de las mentes posibles. Esto nos brinda la oportunidad de pensar de forma imaginativa sobre seres propiamente exóticos, y de especular sobre su supuesta consciencia.

Hay varias dimensiones de la consciencia.

Hay varias dimensiones a lo largo de las cuales podríamos trazar los muchos tipos de mentes que podemos imaginar. Yo he elegido dos: la semejanza humana (eje H) y la capacidad de consciencia (eje C). Una entidad es similar al ser humano en la medida en que tiene sentido describir su comportamiento utilizando el lenguaje que empleamos normalmente para describir a los seres humanos: el lenguaje de las creencias, los deseos, las emociones, las necesidades, las habilidades, etc. Un ladrillo, según esta definición, tiene una puntuación muy baja. Por razones muy distintas, una entidad exótica también podría tener una puntuación muy baja en semejanza humana, si su comportamiento fuera inescrutablemente complejo o extraño. En el eje C, la capacidad de consciencia de una entidad corresponde a la riqueza de experiencia de la que es capaz. Un ladrillo puntúa cero en este eje (a pesar del panpsiquismo), mientras que un ser humano puntúa bastante más que un ladrillo.

Capacidad de consciencia.

La Figura 1, a continuación, sitúa provisionalmente una serie de animales en el plano H-C, a lo largo de ejes que van de 0 (mínimo) a 10 (máximo). Se muestra un ladrillo en la posición (0, 0). Consideremos la colocación a lo largo del eje C. No hay razón para suponer que la capacidad de consciencia de un ser humano no pueda ser superada por algún otro ser. Así que a los humanos (quizá generosamente) se les asigna un 8 en este eje. El tema de la conciencia animal está plagado de dificultades. Pero una suposición habitual es que, al menos en la biología terrestre, la consciencia está estrechamente relacionada con la capacidad cognitiva. De acuerdo con esta intuición, se supone que una abeja tiene una capacidad de consciencia menor que un gato, que a su vez tiene una capacidad de consciencia ligeramente menor que un pulpo, mientras que los tres animales puntúan menos que un ser humano. Ordenar a los animales de este modo puede justificarse apelando a la gama de capacidades estudiadas en el campo de la cognición animal. Entre ellas se incluyen el aprendizaje asociativo, la cognición física, la cognición social, el uso y la fabricación de herramientas, el viaje mental en el tiempo (incluida la planificación futura y la memoria de tipo episódico) y la comunicación. Se supone que la experiencia del mundo de un animal se enriquece con cada una de estas capacidades. En el caso de los humanos, podemos añadir el lenguaje, la capacidad de formar conceptos abstractos y la capacidad de pensar asociativamente en imágenes y metáforas, entre otras.

Capacidad de pensar en imágenes y metáforas.



Figura 1. Arriba: biología en el plano H-C. Abajo: IA contemporánea en el Plano H-C

Pasemos ahora al eje H. Tautológicamente, un ser humano tiene una semejanza humana máxima. Por tanto, obtenemos 10 en el eje H. Todos los animales no humanos comparten ciertos fundamentos con los humanos. Todos los animales tienen cuerpo, se mueven y perciben el mundo, y muestran un comportamiento intencionado. Además, todos los animales tienen ciertas necesidades corporales en común con los humanos, como la comida y el agua, y todos los animales intentan protegerse de cualquier daño y sobrevivir. En este sentido, todos los animales muestran un comportamiento similar al humano, por lo que todos obtienen 3 o más en el eje H. Ahora bien, para describir y explicar el comportamiento de un animal no humano, recurrimos a los conceptos y al lenguaje que utilizamos para describir y explicar el comportamiento humano. Se dice que el comportamiento de un animal es similar al humano en la medida en que estos recursos conceptuales y lingüísticos son necesarios y suficientes para describirlo y explicarlo. Y cuanto más sofisticada es una especie desde el punto de vista cognitivo, más recursos lingüísticos y conceptuales suele necesitar. Así pues, el gato y el pulpo están más arriba en el eje H que la abeja, pero más abajo que el ser humano.

Es, por supuesto, ingenuo asignar un simple escalar a la capacidad de consciencia de un ser

Según las suposiciones que estamos haciendo, la semejanza humana y la capacidad de consciencia están ampliamente correlacionadas para los animales. Sin embargo, el pulpo aparece más abajo en el eje H que el gato, a pesar de estar más avanzado en el eje C. No quiero defender específicamente estas ordenaciones relativas. Pero el pulpo ejemplifica la posibilidad de una criatura cognitivamente sofisticada, a la que nos inclinamos a atribuir una capacidad de experiencias conscientes ricas, pero cuyo comportamiento es difícil de comprender para los humanos. Llevando esta idea más lejos, podemos imaginar seres conscientes mucho más inescrutables que un pulpo. Tales seres aparecerían ahí abajo con el ladrillo en el eje H, pero por razones muy distintas. Para describir y explicar el comportamiento de un ladrillo, no son necesarios los elaborados conceptos que utilizamos para describir y explicar el comportamiento humano, ya que no presenta ninguno. Pero para describir y explicar el comportamiento de un ser cognitivamente sofisticado pero inescrutable, esos recursos serían insuficientes.

Hay mucho que objetar a estas designaciones. Por supuesto, es ingenuo asignar un simple escalar a la capacidad de consciencia de un ser. Un enfoque más matizado sería sensible al hecho de que diferentes combinaciones de capacidades cognitivas están presentes en diferentes animales. Además, la medida en que cada una de estas capacidades contribuye a la riqueza de la experiencia de una criatura está abierta al debate. Pueden plantearse dudas similares sobre la validez del eje H. Pero el plano H-C debe considerarse como un lienzo en el que pueden hacerse esbozos rudimentarios y experimentales del espacio de las mentes posibles, un acicate para el debate más que un marco teórico riguroso. Además, los diagramas del plano H-C no son intentos de retratar hechos reales con respecto a la consciencia de los distintos seres. Más bien, son intentos especulativos de anticipar la actitud consensuada a la que podríamos llegar sobre la conciencia de diversas entidades, tras un proceso colectivo de observación, interacción, debate, discusión e investigación de su funcionamiento interno.

L pongamos algunos ejemplos contemporáneos de robótica e inteligencia artificial en el plano H-C. Entre ellos están Roomba (un robot doméstico que limpia con aspiradora), BigDog (un robot de cuatro patas con locomoción similar a la vida real) y AlphaGo (el programa creado por Google DeepMind que derrotó al campeón de Go Lee Sedol en 2016). Los tres están presionados hasta el extremo izquierdo del eje C. De hecho, aún no existe ninguna máquina, robot o programa informático al que se le pueda atribuir plausiblemente capacidad alguna de consciencia.

En cambio, no existe ninguna máquina, robot o programa informático al que se le pueda atribuir plausiblemente capacidad alguna de consciencia.

Por otra parte, en lo que respecta a la semejanza humana, los tres están muy por encima del ladrillo. BigDog aparece ligeramente por debajo de Roomba, y ambos están ligeramente por encima de AlphaGo. BigDog está guiado por un operador humano. Sin embargo, es capaz de adaptarse automáticamente a terrenos accidentados o resbaladizos, y de enderezarse cuando se rompe su equilibrio, por ejemplo, al recibir una patada. Al describir estos aspectos de su comportamiento, es natural utilizar frases como “intenta no caerse” o incluso “realmente quiere mantenerse erguido”. Es decir, tendemos a adoptar respecto a BigDog lo que Daniel Dennett denomina “postura intencional”, imputando creencias, deseos e intenciones porque así es más fácil describir y explicar su comportamiento.

A diferencia de BigDog, Roomba es un robot totalmente autónomo que puede funcionar durante largos periodos sin intervención humana. A pesar de la respuesta tan realista de BigDog al recibir una patada, el más mínimo conocimiento de su funcionamiento interno debería disipar cualquier inclinación a verlo como una criatura viva que lucha contra la adversidad. Lo mismo puede decirse de Roomba. Sin embargo, el comportamiento de Roomba es mucho más complejo, porque tiene una misión primordial: mantener limpio el suelo. Con el telón de fondo de dicha misión, la postura intencional puede utilizarse de una forma mucho más sofisticada, invocando una interacción de percepción, acción, creencia, deseo e intención. No sólo nos inclinamos a decir cosas como: Se desvía para evitar la pata de la silla”, sino que también podríamos decir: “Vuelve a la estación de acoplamiento porque le queda poca batería”, o “Vuelve a pasar por encima de esa alfombra porque se da cuenta de que está muy sucia”.

AlphaGo obtiene la puntuación más baja de los tres artefactos que estamos analizando, aunque no se debe a una falta de capacidades cognitivas. De hecho, éstas son bastante impresionantes, aunque en un ámbito muy limitado. Más bien se debe a que el comportamiento de AlphaGo apenas puede compararse con el de un humano o un animal. A diferencia de BigDog y Roomba, no habita en el mundo físico ni tiene un sustituto virtual en ningún sentido relevante. No percibe el mundo ni se mueve en él, y la totalidad de su comportamiento se manifiesta a través de los movimientos que realiza en el tablero de Go. No obstante, la postura intencional a veces es útil para describir su comportamiento. Demis Hassabis, cofundador de DeepMind, publicó tres tuits reveladores sobre la única partida que AlphaGo perdió contra Sedol en la serie de cinco partidas. En el primer tweet, escribió: “#AlphaGo pensaba que lo estaba haciendo bien, pero se confundió en la jugada 87”. Continuó diciendo: “El error estaba en la jugada 79, pero #AlphaGo no se dio cuenta hasta la 87 aproximadamente”. Poco después tuiteó: Cuando digo “pensamiento” y “realización” me refiero a la salida de la red de valores de #AlphaGo. Estaba en torno al 70% en la jugada 79 y se hundió en la 87.’

“No es una jugada humana. Nunca he visto a un humano hacer esta jugada. Es tan bonito’

Para cualquiera que no esté familiarizado con el funcionamiento interno de AlphaGo, los dos primeros tweets habrían tenido mucho más sentido que la afirmación científicamente más precisa del tercero. Sin embargo, se trata de un uso superficial de la postura intencional, que en última instancia es de poca ayuda para comprender a AlphaGo. No interactúa con un mundo de objetos situados espaciotemporalmente, y no hay ningún sentido fructífero en el que su comportamiento pueda caracterizarse en términos de la interacción entre percepción, creencia, deseo, intención y acción.

Por otra parte, despliega un formidable conjunto de habilidades cognitivas dentro del micromundo del Go. Aprende a través de la experiencia, obtenida tanto del juego propio como de los registros de partidas humanas. Puede buscar entre una miríada de posibles jugadas para determinar su siguiente movimiento. Su capacidad para responder eficazmente a los sutiles patrones del tablero reproduce lo que a menudo se denomina intuición en los mejores jugadores humanos. Y en un movimiento extraordinario durante la partida Sedol, mostró una forma de lo que podríamos llamar creatividad. Se aventuró en la quinta línea del tablero de Go utilizando un movimiento conocido como golpe de hombro, en el que se coloca una piedra diagonalmente adyacente a la piedra del oponente. Comentando la partida, el campeón europeo de Go Fan Hui comentó: “No es una jugada humana. Nunca he visto a un humano hacer esta jugada. Es precioso”. Según la propia estimación de AlphaGo, había una posibilidad entre 10.000 de que un humano hubiera utilizado la misma táctica, y era contraria a siglos de sabiduría popular. Sin embargo, este movimiento fue fundamental para darle la victoria.

Lo que encontramos en AlphaGo es un ejemplo de lo que podríamos denominar, no “exótica consciente”, sino más bien una forma de “exótica cognitiva”. A través de un proceso en gran medida opaco para los humanos, consigue alcanzar un objetivo que podría haberse considerado más allá de sus capacidades. Las proezas de AlphaGo se limitan al Go, y estamos muy lejos de la inteligencia general artificial. Sin embargo, es natural preguntarse sobre las posibles formas que podría adoptar la inteligencia general artificial y cómo podrían distribuirse en el espacio de las mentes posibles.

S hasta ahora hemos examinado la semejanza humana y la capacidad de consciencia de diversas entidades reales, tanto naturales como artificiales. Pero en la Figura 2, que aparece a continuación, se sitúan en el plano H-C una serie de seres hipotéticos. Evidentemente, se trata de una especulación salvaje. Sólo mediante un encuentro real con una criatura desconocida podríamos descubrir realmente nuestra actitud hacia ella y cómo se adaptaría y ampliaría nuestro lenguaje para acomodarlo. No obstante, guiada por la razón, la imaginación puede decirnos algo sobre los distintos tipos de entidad que podrían poblar el espacio de las mentes posibles.


Figura 2. Exótica en el plano H-C

Tomemos algunas formas posibles de inteligencia general artificial (AGI) de nivel humano, como una IA construida para imitar exactamente el procesamiento neuronal del cerebro humano. Esto podría lograrse copiando el cerebro de un individuo concreto, escaneando su estructura con detalle nanoscópico, replicando su comportamiento físico en un sustrato artificial y encarnando el resultado en una forma humanoide. Este proceso, conocido como ‘emulación de todo el cerebro‘, produciría, en principio, algo cuyo comportamiento fuera indistinguible del original. Por tanto, al ser perfectamente similar a un ser humano, sería un ejemplo de inteligencia general artificial con un 10 en el eje H. Alternativamente, en lugar de copiar a una persona concreta, podría construirse un cerebro artificial que se ajustara a una descripción estadística del sistema nervioso central de un recién nacido típico. Debidamente encarnado y criado como un niño humano, el resultado sería otra AGI perfectamente parecida a un ser humano.

¿Serían conscientes estos seres? O más bien, ¿llegaríamos a tratarlos como tratamos a las criaturas conscientes y los describiríamos en los mismos términos? Conjeturo que sí. Independientemente de los prejuicios con los que pudiéramos empezar, su comportamiento perfectamente humano pronto transformaría nuestros sentimientos hacia ellos en sentimientos de camaradería. Así pues, una AGI consciente similar a un ser humano es sin duda una posibilidad, y ocuparía el mismo lugar en el plano H-C que un ser humano.

Pero como ya hemos señalado, no hay razón para suponer que la única forma de construir una inteligencia general artificial de nivel humano sea copiar el cerebro biológico. Tal vez una arquitectura totalmente distinta podría implementar el mismo resultado. (Ava, de Ex Machina, es un ejemplo ficticio.) Tal vez sea posible alcanzar una inteligencia de nivel humano utilizando alguna combinación de técnicas de búsqueda de fuerza bruta y aprendizaje automático con big data, tal vez explotando sentidos y capacidad computacional no disponibles para los humanos.

Las posibilidades de este tipo sugieren varias posibilidades.

Estas posibilidades sugieren varios tipos nuevos de seres en el plano H-C. El primero de ellos es la IA zombi con apariencia humana de la esquina superior izquierda. Esta entidad no sólo tiene una inteligencia de nivel humano, sino que su comportamiento es totalmente similar al humano, y puede describirse y explicarse utilizando el mismo lenguaje que utilizamos para describir el comportamiento humano. Sin embargo, carece de conciencia. En términos de Nagel, no se parece a nada por ser esta cosa. Es, en este sentido, un zombi fenomenológico.

Ahora bien, ¿podemos imaginar realmente una cosa así? Seguramente, si su comportamiento fuera indistinguible del comportamiento humano, llegaríamos a tratarlo como nos tratamos entre nosotros. Seguramente, al interactuar con tales seres, nuestra actitud hacia ellos migraría hacia el compañerismo, llegando a verlos como criaturas conscientes semejantes y a tratarlos como tales. Pero supongamos que una entidad así funcionara simplemente imitando el comportamiento humano. Mediante una generación futura de técnicas de aprendizaje automático muy potentes, ha aprendido a actuar de forma convincente como un ser humano en una gran variedad de situaciones. Si una AGI de este tipo dice que está triste, no se debe a un conflicto entre cómo son las cosas y cómo le gustaría que fueran, sino a que ha aprendido a decir que está triste en esas circunstancias concretas. ¿Cambiaría esto nuestra actitud? Conjeturo que sí, que le negaríamos la conciencia, confinándola a la izquierda del eje C.

deberíamos considerar la probabilidad de que la riqueza de sus experiencias conscientes superase la capacidad humana

¿Qué tipo de entidad podría producirse si alguien -o muy probablemente alguna corporación, organización o gobierno- se propusiera crear un sucesor artificial de la humanidad, un ser superior al homo sapiens? Ya sean idealistas, equivocados o simplemente locos, podrían razonar que una futura generación de inteligencias generales artificiales podría poseer poderes intelectuales muy superiores a los de cualquier humano. Además, liberados de las limitaciones de la biología, tales seres podrían emprender largos viajes al espacio interestelar a los que los humanos, con sus cuerpos frágiles y efímeros, nunca sobrevivirían. Serían, pues, las IA las que saldrían a explorar de cerca las maravillas del Universo. Debido a las distancias y a las escalas de tiempo, el objetivo de estas IAs no sería transmitir información a sus creadores. Más bien visitarían las estrellas en nombre de la humanidad. Llamemos a estos seres hipotéticos nuestros ‘niños-mente’, un término tomado del robotista austriaco Hans Moravec.

Ahora bien, ¿dónde aparecerían estos niños mentales en el plano H-C? Bueno, sin nadie esperando un mensaje a casa, no tendría mucho sentido enviar a las estrellas un artefacto que careciera de la capacidad de experimentar conscientemente lo que encontrara. Así pues, los creadores de nuestros niños mentales tal vez optarían por una arquitectura cerebral de inspiración biológica, para asegurarse de que obtuvieran al menos la misma puntuación que los humanos en el eje C. De hecho, deberíamos considerar la probabilidad de que la riqueza de sus experiencias conscientes superara la capacidad humana, de que disfrutaran de una forma de superconciencia. Esto podría ocurrir, por ejemplo, si dispusieran de un conjunto de sensores con un ancho de banda mucho mayor que el de un ser humano, o si fueran capaces de captar complejas verdades matemáticas que escapan a la comprensión humana, o si pudieran mantener en su mente una vasta red de asociaciones a la vez, mientras que nosotros, los humanos, nos limitamos a unas pocas.

Superconsciencia.

En cuanto al eje H, un modelo inspirado en el cerebro también conferiría a la IA cierto grado de semejanza humana. Sin embargo, su superinteligencia probablemente dificultaría que los humanos la comprendieran plenamente. Obtendría quizás un 6 ó 7. En resumen, nuestra progenie superinteligente, superconsciente y artificialmente inteligente se encuentra en el extremo derecho del diagrama, algo más de la mitad del eje H.

¿Y la inteligencia general artificial no cerebral? Las AGIs de este tipo sugieren varios puntos de datos nuevos en el plano H-C, todos ellos situados más abajo en el eje H. Éstas son las AGI verdaderamente exóticas, es decir, opuestas a las de tipo humano. El comportamiento de un ser exótico no puede comprenderse -o al menos no del todo- utilizando los términos que solemos emplear para dar sentido al comportamiento humano. Un ser así podría mostrar un comportamiento complejo y eficaz para alcanzar objetivos en una gran variedad de entornos y circunstancias. Sin embargo, a los humanos nos puede resultar difícil o imposible averiguar cómo consigue sus objetivos, o incluso discernir cuáles son exactamente. Me viene a la mente la enigmática observación de Wittgenstein de que “si un león pudiera hablar, no le entenderíamos”. Pero un león es una criatura relativamente familiar, y nos cuesta poco relacionarnos con muchos aspectos de su vida. Un león vive en el mismo mundo físico que nosotros y lo percibe con un conjunto similar de sentidos. Un león come, se aparea, duerme y defeca. Tenemos mucho en común. La hipotética AGI exótica es mucho más extraña.

El tipo de entidad más exótica sería aquella que fuera totalmente inescrutable, es decir, que estaría más allá del alcance de la antropología. La cultura humana es, por supuesto, enormemente variada. Los vecinos de un mismo pueblo suelen tener dificultades para relacionarse con los hábitos, objetivos y preferencias de los demás. Sin embargo, mediante la observación cuidadosa y la interacción, los antropólogos son capaces de dar sentido a esta variedad, haciéndoles comprensibles las prácticas de culturas “exóticas”, es decir, muy diferentes de la suya. Pero, por supuesto, tenemos aún más en común con un semejante de una cultura distinta que con un león. Nuestra humanidad compartida hace que la tarea del antropólogo sea manejable. El tipo de entidad inescrutable que intentamos imaginar es mucho más exótica. Aunque fuéramos capaces de ingeniar un encuentro con ella y de discernir un comportamiento aparentemente intencionado, el equipo de antropólogos más experto tendría dificultades para adivinar sus propósitos o cómo se cumplen.

¿Cómo podría surgir una entidad así? Al fin y al cabo, si ha sido creada por los humanos, ¿por qué no sería comprensible para ellos? Bueno, hay varias formas de crear una IA que no sería comprensible para sus creadores. Ya hemos visto que AlphaGo es capaz de coger por sorpresa tanto a sus programadores como a sus oponentes. Una inteligencia general más poderosa podría encontrar formas mucho más sorprendentes de alcanzar sus objetivos. Y lo que es más radical, una IA que fuera producto de la evolución artificial o de la automodificación podría acabar teniendo objetivos muy distintos de los que pretendían sus programadores. Además, puesto que estamos concediendo la posibilidad de inteligencias extraterrestres multifacéticas, el espacio de las mentes posibles debe incluir no sólo a esos seres, sino también cualquier forma de inteligencia artificial que puedan construir. Sea cual sea el control que seamos capaces de ejercer sobre la mente de una criatura de otro mundo, un mundo que podría ser muy distinto del nuestro, es probable que nuestro control sea aún más tenue en el caso de una IA evolucionada o automodificada cuya semilla sea un sistema ideado para servir a los objetivos ya ajenos de esa criatura.

Una IA exótica obtendrá claramente una puntuación baja en el eje H. Pero, ¿y en el eje C? ¿Cuál podría ser su capacidad de consciencia? O, dicho de otro modo, ¿podríamos diseñar un encuentro con una cosa así en el que, tras suficiente observación e interacción, determináramos nuestra actitud hacia ella? En caso afirmativo, ¿cuál sería esa actitud? ¿Sería el tipo de actitud que adoptamos hacia un semejante consciente?

Bueno, ahora hemos llegado a una especie de callejón sin salida filosófico. Porque la definición de inescrutabilidad que se propone pone fuera del alcance de la antropología a la IA más exótica. Y esto parece descartar el tipo de encuentro que necesitamos antes de poder adoptar la actitud correcta hacia ella, al menos según una postura no dualista sobre la subjetividad inspirada en Wittgenstein.

¿Es posible conciliar esta visión de la conciencia con la existencia de la exótica consciente? Recordemos el experimento mental de la caja blanca. Incrustada en la misteriosa caja entregada en nuestro laboratorio, con su dinámica interna incomprensiblemente compleja pero totalmente accesible, podría estar justo el tipo de IA inescrutable de la que estamos hablando. Podríamos lograr un encuentro con el sistema, o con alguna de sus partes, que revelara un comportamiento aparentemente intencionado, pero seríamos incapaces de comprender cuál era ese propósito. Lo más probable es que un encuentro con una inteligencia extraterrestre plantee una situación similar.

La novela Solaris (1961) de Stanislaw Lem ofrece un ejemplo ficticio convincente. Los protagonistas de la novela son una tripulación de científicos que orbitan un planeta cubierto por un océano que resulta ser un único y vasto organismo inteligente. Mientras intentan estudiar a este ser alienígena, éste parece sondearles a su vez. Lo hace creando avatares parecidos a humanos a partir de sus recuerdos e inconscientes que les visitan a bordo de su nave espacial con efectos psicológicos perturbadores. Por su parte, los científicos nunca llegan a comprender la mente extraterrestre de este organismo: “Su superficie ondulante era capaz de dar lugar a las más diversas formaciones que no se parecían a nada terrestre, por encima de lo cual el propósito -adaptativo, cognitivo o lo que fuera- de esas erupciones a menudo violentas de “creatividad” plasmática seguía siendo un misterio total.”

Supón que te enfrentas a un sistema dinámico exótico como la IA de la caja blanca o el organismo oceánico de Solaris. Quieres saber si es consciente o no. Es natural pensar que para cualquier ser dado, vivo o artificial, existe una respuesta a esta pregunta, un hecho de la cuestión, aunque la respuesta nos esté necesariamente oculta, como parece ser en estos casos hipotéticos. Por otra parte, si seguimos el planteamiento de Wittgenstein sobre la cuestión, nos equivocamos cuando pensamos de este modo. Puede que alguna faceta de la realidad nos resulte empíricamente inaccesible, pero nada está oculto por una cuestión de metafísica.

Porque estos dos enfoques de la realidad son diferentes.

Dado que estos dos puntos de vista son irreconciliables, en un principio nuestras opciones parecen ser sólo dos. O bien:

a) conservar el concepto de exótica consciente, pero abandonar a Wittgenstein y reconocer que existe un ámbito de subjetividad metafísicamente separado. Esto supondría volver al dualismo mente/cuerpo y a la dicotomía problema difícil/problema fácil;

o

b) mantener un enfoque de la conciencia inspirado en Wittgenstein, insistiendo en que “nada está oculto”, pero rechazando la idea misma de exótica consciente. Como corolario, tendríamos que renunciar al proyecto de cartografiar el espacio de las mentes posibles en el plano H-C.

Sin embargo, existe una tercera opción:

c) conservar tanto el concepto de exótica consciente como una perspectiva filosófica inspirada en Wittgenstein, permitiendo que nuestro lenguaje y nuestras prácticas puedan cambiar de formas imprevisibles para adaptarse a los encuentros con formas exóticas de inteligencia.

Hemos seguido adelante con la pretensión de que la conciencia es un concepto único y monolítico susceptible de una métrica escalar de capacidad. Este tipo de maniobra es conveniente en muchas ramas de la investigación. A efectos de conservación, a un ecólogo le resulta útil comprimir la biodiversidad en una sola estadística, haciendo abstracción de las diferencias entre especies, los cambios estacionales, la distribución espacial, etcétera. En economía, el “índice de desarrollo humano” resume de forma útil los aspectos del sistema educativo, la asistencia sanitaria, la productividad y otros similares de un país, ignorando los numerosos detalles de la vida individual. Sin embargo, para algunos fines, se necesita un enfoque más matizado. Examinado más de cerca, el concepto de conciencia abarca muchas cosas, incluida la conciencia del mundo (o conciencia primaria), la autoconciencia (o conciencia de orden superior), la capacidad de emoción y empatía, y la integración cognitiva (en la que todos los recursos del cerebro se ponen al servicio de la situación en curso).

partes de nuestro lenguaje para describir entidades muy exóticas con un comportamiento complejo podrían ser suplantadas por formas de hablar totalmente nuevas

En un ser humano adulto normal, estas cosas vienen juntas. Pero en una entidad más exótica podrían estar disgregadas. En la mayoría de los animales no humanos encontramos conciencia del mundo sin autoconciencia, y capacidad de sufrimiento sin capacidad de empatía. Una IA de nivel humano podría mostrar conciencia del mundo y autoconciencia sin capacidad de emoción o empatía. Si tales entidades se hicieran familiares, nuestro lenguaje cambiaría para adaptarse a ellas. Conceptos monolíticos como la consciencia podrían romperse, dando lugar a nuevas formas de hablar sobre el comportamiento de las IAs.

Más radicalmente, podríamos descubrir categorías completamente nuevas de comportamiento o cognición que estuvieran vagamente asociadas a nuestra antigua concepción de la consciencia. En resumen, aunque conservemos partes del lenguaje actual para describir entidades muy exóticas con un comportamiento complejo, otras partes relevantes de nuestro lenguaje podrían ser remodeladas, aumentadas o suplantadas por formas totalmente nuevas de hablar, un proceso que se basaría en la informática, la cognición comparada, la psicología del comportamiento y la evolución natural del lenguaje ordinario. En estas condiciones, algo así como la “capacidad de consciencia” podría conservarse útilmente como estadística resumida para aquellas entidades cuyo comportamiento elude la explicación en los términos actuales, pero podría acomodarse a un nuevo marco conceptual en el que la noción de consciencia que ahora nos resulta familiar, aunque fragmentada y refractada, siga siendo discernible.

¿Qué implicaciones tiene esto para la consciencia?

¿Qué implicaciones tiene esta posibilidad para el plano H-C? La figura 2 anterior indica un punto del plano H-C con el mismo valor que un humano en el eje C, pero que es lo suficientemente exótico como para situarse en el eje H, en el límite de aplicabilidad de cualquier forma de conciencia. Aquí encontramos entidades, tanto extraterrestres como artificiales, que poseen una inteligencia de nivel humano, pero cuyo comportamiento se parece poco al humano.

No obstante, si interactuáramos u observáramos suficientemente a estas entidades, llegaríamos a verlas como seres conscientes semejantes, aunque habríamos modificado nuestro lenguaje para adaptarnos a sus excentricidades. Una de estas entidades, la AGI consciente exótica, tiene una contrapartida en el extremo izquierdo del plano H-C, a saber, la AGI zombi exótica. Se trata de una IA de nivel humano cuyo comportamiento es igualmente no humano, pero que no podemos considerar consciente por mucho que interactuemos con ella o la observemos. Estos dos puntos de datos -la inteligencia exótica, consciente y de nivel humano y la inteligencia exótica, zombi y de nivel humano- definen las dos esquinas inferiores de un cuadrado cuyas otras esquinas son los propios humanos, en la parte superior derecha, y los zombis de nivel humano, en la parte superior izquierda. Este cuadrado ilustra la inextricable relación a tres bandas entre la inteligencia de nivel humano, la semejanza humana y la consciencia.

Ahora podemos identificar una serie de regiones superpuestas dentro de nuestro espacio embrionario de mentes posibles. Éstas se representan en la Figura 3. Partiendo del supuesto (discutible) de que, si una entidad es consciente, su capacidad de consciencia se correlacionará con su destreza cognitiva, la inteligencia de nivel humano aparece en las dos regiones moradas paralelas, una en el extremo izquierdo del diagrama y otra a nivel humano en el eje C. La AGI exótica y consciente reside en la parte inferior de esta última región, y también en el extremo izquierdo de la región naranja de la exótica consciente. Esta región se extiende a la derecha del eje C, más allá del nivel humano, porque engloba a seres exóticos, que podrían ser extraterrestres o artificiales, o ambas cosas, con una inteligencia y una capacidad de consciencia sobrehumanas. Nuestros “niños mentales” son formas menos exóticas de posibles criaturas superinteligentes y superconscientes. Pero los exóticos conscientes son, quizá, los seres más interesantes en el espacio de las mentes posibles, ya que residen en el límite de lo que acogeríamos en la confraternidad de la conciencia, y sin embargo se sitúan en una frontera más allá de la cual todo lo complejo es inescrutablemente extraño.

Los niños de la mente Son los seres más exóticos del espacio de las mentes posibles.

Figura 3. Regiones notables del plano H-C

Este límite marca el borde de una región que está vacía, denominada “Vacío de inescrutabilidad”. Está vacía porque, como señala Wittgenstein, sólo decimos de un ser humano y de lo que se comporta como tal que es consciente. Hemos estirado la noción de lo que se comporta como un ser humano hasta el punto de ruptura (quizá más de lo que Wittgenstein se sentiría cómodo). A medida que nos acercamos a ese punto de ruptura, he sugerido que el lenguaje actual de la conciencia comienza a desmoronarse. Más allá de ese punto sólo encontramos entidades para las que nuestro lenguaje actual no tiene aplicación. En la medida en que muestran un comportamiento complejo, nos vemos obligados a utilizar otros términos para describirlo y explicarlo, por lo que estas entidades no se encuentran más allá del eje C que el ladrillo. Así pues, la franja más baja del diagrama no tiene ningún punto de datos. No contiene entidades que sean inescrutables pero que podrían -por lo que sabemos- ser conscientes. Pensar esto sería suponer que existen datos sobre la subjetividad de entidades inescrutables y exóticas que nos están vedados para siempre. Podemos evitar el dualismo que este punto de vista implica aceptando que esta región es simplemente un vacío.

El vacío de inescrutabilidad completa mi esbozo provisional del espacio de las mentes posibles. Pero, ¿qué hemos ganado con este ejercicio más bien fantasioso? La probabilidad de que los humanos se encuentren directamente con una inteligencia extraterrestre es pequeña. Las posibilidades de descubrir una señal espacial de otra especie inteligente, aunque quizá mayores, siguen siendo escasas. Pero la inteligencia artificial es otra cosa. Es muy posible que en las próximas décadas creemos una inteligencia artificial autónoma de nivel humano. Si esto ocurre, la cuestión de si nuestras creaciones son conscientes, y en qué sentido, adquirirá importancia moral. Pero aunque no se produzca ninguno de estos escenarios de ciencia ficción, situar la conciencia humana dentro de un espacio más amplio de posibilidades me parece uno de los proyectos filosóficos más profundos que podemos emprender. También es un proyecto descuidado. Sin gigantes sobre cuyos hombros apoyarnos, lo mejor que podemos hacer es lanzar algunas bengalas a la oscuridad.

•••

Murray Shanahan

es profesor de robótica cognitiva en el Imperial College de Londres y Spoke Leader en el Centro Leverhulme para el Futuro de la Inteligencia. Su último libro es La Singularidad Tecnológica (2015).

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts