El cuerpo es el eslabón perdido para las máquinas verdaderamente inteligentes

La inteligencia no se limita a los estratos superiores de la mente. Es un proceso de todo el cuerpo que evoluciona desde las células hacia arriba

Es tentador pensar en la mente como una capa que se asienta sobre estructuras cognitivas más primitivas. Al fin y al cabo, nos experimentamos como seres conscientes de una forma distinta al ritmo de los latidos de nuestro corazón o a los ruidos de nuestro estómago. Si se pueden separar y estratificar las operaciones del cerebro, tal vez podamos construir algo parecido a la capa superior y lograr una inteligencia artificial (IA) similar a la humana, sin tener que pasar por la desordenada carne que caracteriza a la vida orgánica.

Comprendo el atractivo de este punto de vista, porque cofundé SwiftKey, una empresa de software de lenguaje predictivo que fue comprada por Microsoft. Nuestro objetivo es emular los extraordinarios procesos por los que los seres humanos pueden comprender y manipular el lenguaje. Hemos hecho algunos progresos decentes: Me sentí bastante orgulloso del nuevo y elegante sistema de comunicación que construimos para el físico Stephen Hawking entre 2012 y 2014. Pero a pesar de los resultados alentadores, la mayor parte del tiempo me acuerdo de que no estamos ni cerca de conseguir una IA similar a la humana. ¿Por qué? Porque el modelo estratificado de la cognición es erróneo. A la mayoría de los investigadores de IA les falta actualmente una pieza central del rompecabezas: la corporeidad.

Las cosas tomaron un rumbo equivocado al principio de la IA moderna, allá por la década de 1950. Los informáticos decidieron intentar imitar el razonamiento consciente construyendo sistemas lógicos basados en símbolos. El método consiste en asociar entidades del mundo real con códigos digitales para crear modelos virtuales del entorno, que luego podrían proyectarse de nuevo sobre el propio mundo. Por ejemplo, utilizando la lógica simbólica, podrías ordenar a una máquina que “aprendiera” que un gato es un animal codificando un conocimiento específico mediante una fórmula matemática como “gato > es > animal”. Dichas fórmulas pueden convertirse en afirmaciones más complejas que permitan al sistema manipular y probar proposiciones, como si un gato normal es tan grande como un caballo o si es probable que persiga a un ratón.

Este método ha dado buenos resultados en la práctica.

Este método tuvo cierto éxito en sus inicios en entornos artificiales sencillos: en “SHRDLU”, un mundo virtual creado por el informático Terry Winograd en el MIT entre 1968 y 1970, los usuarios podían hablar con el ordenador para desplazarse por formas de bloques sencillas, como conos y bolas. Sin embargo, la lógica simbólica resultó ser irremediablemente inadecuada cuando se enfrentó a problemas del mundo real, en los que los símbolos afinados se rompían ante definiciones ambiguas y una miríada de matices de interpretación.

En décadas posteriores, la lógica simbólica se convirtió en una herramienta fundamental para el desarrollo de la informática.

En décadas posteriores, a medida que aumentaba la potencia informática, los investigadores pasaron a utilizar la estadística para extraer patrones de cantidades masivas de datos. Estos métodos suelen denominarse “aprendizaje automático”. En lugar de intentar codificar el conocimiento de alto nivel y el razonamiento lógico, el aprendizaje automático emplea un enfoque ascendente en el que los algoritmos disciernen relaciones repitiendo tareas, como clasificar los objetos visuales de las imágenes o transcribir el habla grabada en texto. Un sistema de este tipo podría aprender a identificar imágenes de gatos, por ejemplo, mirando millones de fotos de gatos, o a establecer una conexión entre gatos y ratones basándose en la forma en que se hace referencia a ellos en grandes cantidades de texto.

En los últimos años, el aprendizaje automático ha producido muchas aplicaciones prácticas tremendas. Hemos construido sistemas que nos superan en el reconocimiento del habla, el procesamiento de imágenes y la lectura de labios; que pueden ganarnos al ajedrez, al Jeopardy y al Go; y que están aprendiendo a crear arte visual, componer música pop y escribir sus propios programas de software. Hasta cierto punto, estos algoritmos autodidactas imitan lo que sabemos sobre los procesos subconscientes de los cerebros orgánicos. Los algoritmos de aprendizaje automático empiezan con “características” sencillas (letras o píxeles individuales, por ejemplo) y las combinan en “categorías” más complejas, teniendo en cuenta la incertidumbre y ambigüedad inherentes a los datos del mundo real. Esto es, en cierto modo, análogo al córtex visual, que recibe señales eléctricas del ojo y las interpreta como patrones y objetos identificables.

Pero los algoritmos no son lo mismo.

Pero los algoritmos están muy lejos de poder pensar como nosotros. La mayor diferencia radica en nuestra biología evolucionada y en cómo esa biología procesa la información. Los humanos estamos formados por billones de células eucariotas, que aparecieron por primera vez en el registro fósil hace unos 2.500 millones de años. Una célula humana es una extraordinaria pieza de maquinaria interconectada que tiene aproximadamente el mismo número de componentes que un avión jumbo moderno, todo lo cual surgió de un largo encuentro incrustado con el mundo natural. En Basin and Range (1981), el escritor John McPhee observó que, si te pones de pie con los brazos extendidos para representar toda la historia de la Tierra, los organismos complejos empezaron a evolucionar sólo en la muñeca más lejana, mientras que “de un solo golpe con una lima de uñas de grano medio podrías erradicar la historia humana”.

La visión tradicional de la evolución sugiere que nuestra complejidad celular evolucionó a partir de los primeros eucariotas mediante mutaciones genéticas aleatorias y selección. Pero en 2005 el biólogo James Shapiro, de la Universidad de Chicago, esbozó una nueva y radical narrativa. Argumentó que las células eucariotas trabajan “inteligentemente” para adaptar un organismo huésped a su entorno manipulando su propio ADN en respuesta a los estímulos ambientales. Recientes descubrimientos microbiológicos respaldan esta idea. Por ejemplo, el sistema inmunitario de los mamíferos tiende a duplicar secuencias de ADN para generar anticuerpos eficaces contra las enfermedades, y ahora sabemos que al menos el 43% del genoma humano está formado por ADN que puede trasladarse de un lugar a otro mediante un proceso de “ingeniería genética” natural.

Ahora bien, pasar de las células inteligentes y autoorganizadas al tipo de inteligencia cerebral que nos ocupa es un pequeño salto. Pero la cuestión es que mucho antes de que fuéramos seres conscientes y pensantes, nuestras células leían los datos del entorno y trabajaban juntas para moldearnos y convertirnos en agentes robustos y autosuficientes. Por tanto, lo que consideramos inteligencia no consiste simplemente en utilizar símbolos para representar el mundo tal y como es objetivamente. Más bien, sólo tenemos el mundo tal y como se nos revela, lo cual está enraizado en nuestras necesidades evolucionadas y encarnadas como organismo. La naturaleza “ha construido el aparato de la racionalidad no sólo sobre el aparato de la regulación biológica, sino también desde él y con él”, escribió el neurocientífico Antonio Damasio en El error de Descartes (1994), su libro fundamental sobre la cognición. En otras palabras, pensamos con todo nuestro cuerpo, no sólo con el cerebro.

Sospecho que este imperativo básico de supervivencia corporal en un mundo incierto es la base de la flexibilidad y el poder de la inteligencia humana. Pero pocos investigadores de IA han comprendido realmente las implicaciones de estas ideas. La motivación de la mayoría de los algoritmos de IA es inferir patrones a partir de vastos conjuntos de datos de entrenamiento, por lo que podrían necesitarse millones o incluso miles de millones de fotos individuales de gatos para obtener un alto grado de precisión en el reconocimiento de gatos. En cambio, gracias a nuestras necesidades como organismo, los seres humanos llevamos con nosotros modelos extraordinariamente ricos del cuerpo en su entorno más amplio. Nos basamos en experiencias y expectativas para predecir resultados probables a partir de un número relativamente pequeño de muestras observadas. Así, cuando una humana piensa en un gato, probablemente puede imaginarse cómo se mueve, oír el sonido de un ronroneo, sentir el arañazo inminente de una garra desenvainada. Tiene a su disposición un rico acervo de información sensorial para comprender la idea de “gato” y otros conceptos relacionados que podrían ayudarle a interactuar con esa criatura.

Esto significa que cuando un humano aborda un problema nuevo, la mayor parte del trabajo duro ya está hecho. De un modo que apenas estamos empezando a comprender, nuestro cuerpo y nuestro cerebro, desde el nivel celular en adelante, ya han construido un modelo del mundo que podemos aplicar casi instantáneamente a una amplia gama de retos. Pero para un algoritmo de IA, el proceso empieza cada vez desde cero. Existe una línea de investigación activa e importante, conocida como “transferencia inductiva”, centrada en el uso de conocimientos previos aprendidos por máquinas para informar nuevas soluciones. Sin embargo, tal y como están las cosas, es cuestionable que este enfoque sea capaz de capturar algo parecido a la riqueza de nuestros propios modelos corporales.

El mismo día que SwiftKey presentó el nuevo sistema de comunicación de Hawking en 2014, éste concedió una entrevista a la BBC en la que advertía de que las máquinas inteligentes podrían acabar con la humanidad. Puedes imaginar qué noticia acabó dominando los titulares. Estoy de acuerdo con Hawking en que deberíamos tomarnos en serio los riesgos de una IA malintencionada. Pero creo que aún estamos muy lejos de tener que preocuparnos por algo que se acerque a la inteligencia humana, y tenemos pocas esperanzas de alcanzar este objetivo a menos que pensemos detenidamente en cómo dar a los algoritmos algún tipo de relación a largo plazo y encarnada con su entorno.

•••

Ben Medlock

es cofundador de SwiftKey, una aplicación móvil que utiliza tecnología predictiva para adaptarse a la forma en que escriben los usuarios. Ha sido revisor para varias revistas internacionales destacadas, y su trabajo académico se publica en ACL, la principal conferencia de investigación sobre procesamiento del lenguaje natural. Vive en Londres.

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts