Tu cerebro no procesa información y no es un ordenador

Tu cerebro no procesa información, no recupera conocimientos ni almacena recuerdos. En resumen: tu cerebro no es un ordenador

Por mucho que lo intenten, los científicos del cerebro y los psicólogos cognitivos nunca encontrarán una copia de la 5ª Sinfonía de Beethoven en el cerebro, ni copias de palabras, imágenes, reglas gramaticales o cualquier otro tipo de estímulo ambiental. El cerebro humano no está realmente vacío, por supuesto. Pero no contiene la mayoría de las cosas que la gente cree que contiene, ni siquiera cosas tan simples como recuerdos.

Nuestra chapucera forma de pensar sobre el cerebro tiene profundas raíces históricas, pero la invención de los ordenadores en la década de 1940 nos confundió especialmente. Desde hace más de medio siglo, psicólogos, lingüistas, neurocientíficos y otros expertos en el comportamiento humano afirman que el cerebro humano funciona como un ordenador.

Para ver lo vacua que es esta idea, considera los cerebros de los bebés. Gracias a la evolución, los neonatos humanos, como los recién nacidos de todas las demás especies de mamíferos, llegan al mundo preparados para interactuar con él de forma eficaz. La visión de un bebé es borrosa, pero presta especial atención a las caras, y es capaz de identificar rápidamente la de su madre. Prefiere el sonido de las voces a los sonidos no hablados, y puede distinguir un sonido básico del habla de otro. Sin duda, estamos hechos para establecer conexiones sociales.

Un recién nacido sano también está dotado de más de una docena de reflejos, reacciones preparadas ante determinados estímulos que son importantes para su supervivencia. Gira la cabeza en dirección a algo que le roza la mejilla y chupa lo que le entra en la boca. Aguanta la respiración cuando se sumerge en el agua. Agarra las cosas que se le ponen en las manos con tanta fuerza que casi puede soportar su propio peso. Tal vez lo más importante sea que los recién nacidos vienen equipados con potentes mecanismos de aprendizaje que les permiten cambiar rápidamente para poder interactuar de forma cada vez más eficaz con su mundo, aunque ese mundo sea distinto al que se enfrentaron sus lejanos antepasados.

Los recién nacidos tienen una gran capacidad de aprendizaje.

Sentidos, reflejos y mecanismos de aprendizaje: esto es con lo que empezamos, y es bastante, si lo piensas. Si careciéramos de alguna de estas capacidades al nacer, probablemente tendríamos problemas para sobrevivir.

Pero esto es lo que tenemos al nacer.

Pero esto es con lo que no nacemos: información, datos, reglas, software, conocimientos, léxicos, representaciones, algoritmos, programas, modelos, memorias, imágenes, procesadores, subrutinas, codificadores, descodificadores, símbolos o búferes, elementos de diseño que permiten a los ordenadores digitales comportarse con cierta inteligencia. No sólo no nacimos con estas cosas, sino que tampoco las desarrollamos nunca.

No almacenamos palabras ni las reglas que nos dicen cómo manipularlas. No creamos representaciones de estímulos visuales, las almacenamos en una memoria intermedia a corto plazo y luego transferimos la representación a un dispositivo de memoria a largo plazo. No recuperamos información o imágenes o palabras de los registros de memoria. Los ordenadores hacen todas estas cosas, pero los organismos no.

Los ordenadores, literalmente, procesan información: números, letras, palabras, fórmulas, imágenes. Primero hay que codificar la información en un formato que los ordenadores puedan utilizar, es decir, patrones de unos y ceros (“bits”) organizados en pequeños trozos (“bytes”). En mi ordenador, cada byte contiene 8 bits, y un determinado patrón de esos bits representa la letra d, otro la letra o, y otro la letra g. Uno al lado del otro, esos tres bytes forman la palabra perro. Una sola imagen -por ejemplo, la fotografía de mi gato Henry en mi escritorio- está representada por un patrón muy específico de un millón de estos bytes (“un megabyte”), rodeado de algunos caracteres especiales que indican al ordenador que espere una imagen, no una palabra.

Los ordenadores, por lo general, no tienen una imagen, sino una palabra.

Los ordenadores, literalmente, trasladan estos patrones de un lugar a otro en diferentes áreas de almacenamiento físico grabadas en componentes electrónicos. A veces también copian los patrones, y otras veces los transforman de diversas formas -por ejemplo, cuando corregimos errores en un manuscrito o cuando retocamos una fotografía. Las reglas que siguen los ordenadores para mover, copiar y operar con estas matrices de datos también se almacenan dentro del ordenador. En conjunto, un conjunto de reglas se denomina “programa” o “algoritmo”. Un grupo de algoritmos que funcionan juntos para ayudarnos a hacer algo (como comprar acciones o encontrar una cita en Internet) se denomina “aplicación”, lo que la mayoría de la gente llama ahora “app”.

Aplicación.

Perdóname por esta introducción a la informática, pero tengo que ser claro: los ordenadores funcionan realmente con representaciones simbólicas del mundo. Realmente almacenan y recuperan. Realmente procesan. Realmente tienen recuerdos físicos. Realmente se guían en todo lo que hacen, sin excepción, por algoritmos.

Los humanos, en cambio, no lo hacen, nunca lo hicieron y nunca lo harán. Teniendo en cuenta esta realidad, ¿por qué tantos científicos hablan de nuestra vida mental como si fuéramos ordenadores?

In su libro In Our Own Image (2015), el experto en inteligencia artificial George Zarkadakis describe seis metáforas diferentes que la gente ha empleado durante los últimos 2.000 años para intentar explicar la inteligencia humana.

En la más antigua, conservada finalmente en la Biblia, los humanos se formaron a partir de arcilla o tierra, a la que un dios inteligente infundió luego su espíritu. Ese espíritu “explicaba” nuestra inteligencia, al menos gramaticalmente.

La invención de la ingeniería hidráulica en el siglo III a.C. hizo que se popularizara un modelo hidráulico de la inteligencia humana, la idea de que el flujo de los distintos fluidos del cuerpo -los “humores”- explicaba nuestro funcionamiento físico y mental. La metáfora hidráulica persistió durante más de 1.600 años, perjudicando a la práctica médica.

En el siglo XVI ya se habían ideado autómatas accionados por resortes y engranajes, que acabaron inspirando a destacados pensadores como René Descartes para afirmar que los seres humanos son máquinas complejas. En el siglo XVII, el filósofo británico Thomas Hobbes sugirió que el pensamiento surgía de pequeños movimientos mecánicos del cerebro. En el siglo XVIII, los descubrimientos sobre la electricidad y la química condujeron a nuevas teorías sobre la inteligencia humana, también de naturaleza metafórica.

El matemático John von Neumann afirmó rotundamente que la función del sistema nervioso humano es “prima facie digital”, trazando paralelismo tras paralelismo entre los componentes de las máquinas de computación de la época y los componentes del cerebro humano

Cada metáfora reflejaba el pensamiento más avanzado de la época que la engendró. Como era de esperar, pocos años después de los albores de la tecnología informática en la década de 1940, se dijo que el cerebro funcionaba como un ordenador, con el papel de hardware físico desempeñado por el propio cerebro y nuestros pensamientos sirviendo de software. El hito que puso en marcha lo que hoy se denomina en general “ciencia cognitiva” fue la publicación de Lenguaje y comunicación (1951) por el psicólogo George Miller. Miller propuso que el mundo mental podía estudiarse rigurosamente utilizando conceptos de la teoría de la información, la computación y la lingüística.

Este tipo de pensamiento se llevó a su máxima expresión en el breve libro El ordenador y el cerebro (1958), en el que el matemático John von Neumann afirmaba rotundamente que la función del sistema nervioso humano es “prima facie digital”. Aunque reconocía que en realidad se sabía muy poco sobre el papel que desempeñaba el cerebro en el razonamiento y la memoria humanos, trazó un paralelismo tras otro entre los componentes de las máquinas de computación de la época y los componentes del cerebro humano.

Propulsado por el desarrollo posterior de la tecnología de la información, von Neumann se ha convertido en un experto en la materia.

Propulsado por los avances posteriores tanto en la tecnología informática como en la investigación del cerebro, se fue desarrollando gradualmente un ambicioso esfuerzo multidisciplinar para comprender la inteligencia humana, firmemente arraigado en la idea de que los humanos son, como los ordenadores, procesadores de información. Este esfuerzo implica ahora a miles de investigadores, consume miles de millones de dólares en financiación y ha generado una vasta literatura compuesta por artículos y libros tanto técnicos como de divulgación. El libro de Ray Kurzweil Cómo crear una mente: The Secret of Human Thought Revealed (2013), ejemplifica esta perspectiva, especulando sobre los “algoritmos” del cerebro, cómo éste “procesa los datos”, e incluso cómo se asemeja superficialmente a los circuitos integrados en su estructura.

El procesamiento de la información (PI) es una de las formas más comunes de procesamiento de la información.

La metáfora del procesamiento de la información (PI) de la inteligencia humana domina actualmente el pensamiento humano, tanto en la calle como en las ciencias. No existe prácticamente ninguna forma de discurso sobre el comportamiento humano inteligente que proceda sin emplear esta metáfora, del mismo modo que ninguna forma de discurso sobre el comportamiento humano inteligente podía proceder en ciertas épocas y culturas sin hacer referencia a un espíritu o deidad. La validez de la metáfora de la PI en el mundo actual suele asumirse sin cuestionarla.

Pero la metáfora de la PI no es una metáfora de la PI.

Pero la metáfora de la IP es, al fin y al cabo, una metáfora más: una historia que contamos para dar sentido a algo que en realidad no comprendemos. Y, como todas las metáforas que la precedieron, en algún momento será desechada, bien sustituida por otra metáfora o, al final, por el conocimiento real.

Hace poco más de un año, en una visita a uno de los institutos de investigación más prestigiosos del mundo, desafié a sus investigadores a que explicaran el comportamiento humano inteligente sin hacer referencia a ningún aspecto de la metáfora de la PI. No pudieron hacerlo, y cuando planteé educadamente la cuestión en posteriores comunicaciones por correo electrónico, seguían sin tener nada que ofrecer meses después. Vieron el problema. No descartaron el reto por trivial. Pero no pudieron ofrecer una alternativa. En otras palabras, la metáfora de la propiedad intelectual es “pegajosa”. Entorpece nuestro pensamiento con un lenguaje y unas ideas tan poderosas que nos cuesta pensar en torno a ellas.

La lógica defectuosa de la metáfora de la propiedad intelectual es un error.

La lógica errónea de la metáfora de la PI es bastante fácil de explicar. Se basa en un silogismo erróneo, con dos premisas razonables y una conclusión errónea. Premisa razonable nº 1: todos los ordenadores son capaces de comportarse de forma inteligente. Premisa razonable nº 2: todos los ordenadores son procesadores de información. Conclusión errónea: todas las entidades capaces de comportarse de forma inteligente son procesadores de información.

Conclusión errónea.

Dejando a un lado el lenguaje formal, la idea de que los humanos deben ser procesadores de información sólo porque los ordenadores son procesadores de información es una tontería, y cuando, algún día, la metáfora de la PI sea finalmente abandonada, casi con toda seguridad los historiadores la considerarán así, del mismo modo que ahora consideramos que las metáforas hidráulica y mecánica son una tontería.

Si la metáfora de la PI es una tontería, es una tontería.

Si la metáfora de la PI es tan tonta, ¿por qué es tan pegajosa? ¿Qué nos impide apartarla, igual que apartaríamos una rama que nos bloqueara el camino? ¿Hay alguna forma de comprender la inteligencia humana sin apoyarse en una endeble muleta intelectual? ¿Y qué precio hemos pagado por apoyarnos tanto en esta muleta concreta durante tanto tiempo? Al fin y al cabo, la metáfora de la PI lleva décadas guiando la escritura y el pensamiento de un gran número de investigadores en múltiples campos. ¿A qué precio?

En un ejercicio de clase que he realizado muchas veces a lo largo de los años, empiezo pidiendo a un alumno que haga un dibujo detallado de un billete de un dólar – “lo más detallado posible”, le digo- en la pizarra delante de la sala. Cuando el alumno ha terminado, cubro el dibujo con una hoja de papel, saco un billete de un dólar de mi cartera, lo pego a la pizarra y le pido que repita la tarea. Cuando termina, quito la tapa del primer dibujo y la clase comenta las diferencias.

Porque puede que nunca hayas visto una demostración como ésta, o porque puede que te cueste imaginar el resultado, le he pedido a Jinny Hyun, una de las estudiantes en prácticas del instituto donde realizo mi investigación, que haga los dos dibujos. He aquí su dibujo “de memoria” (fíjate en la metáfora):


Y aquí está el dibujo que hizo posteriormente con un billete de un dólar presente:


Jinny estaba tan sorprendida por el resultado como probablemente lo estés tú, pero es típico. Como puedes ver, el dibujo hecho en ausencia del billete de un dólar es horrible comparado con el dibujo hecho a partir de un ejemplar, a pesar de que Jinny ha visto un billete de un dólar miles de veces.

¿Cuál es el problema? ¿No tenemos una “representación” del billete de un dólar “almacenada” en un “registro de memoria” de nuestro cerebro? ¿No podemos simplemente “recuperarla” y utilizarla para hacer nuestro dibujo?

Obviamente no, y mil años de neurociencia nunca localizarán una representación de un billete de un dólar almacenada dentro del cerebro humano por la sencilla razón de que no está ahí para ser encontrada.

La idea de que los recuerdos se almacenan en neuronas individuales es absurda: ¿cómo y dónde se almacena la memoria en la célula?

Un gran número de estudios cerebrales nos dice, de hecho, que múltiples y a veces grandes áreas del cerebro están a menudo implicadas incluso en las tareas de memoria más mundanas. Cuando se trata de emociones fuertes, millones de neuronas pueden volverse más activas. En un estudio de 2016 sobre supervivientes de un accidente aéreo, realizado por el neuropsicólogo de la Universidad de Toronto Brian Levine y otros, recordar el accidente aumentó la actividad neuronal en “la amígdala, el lóbulo temporal medio, la línea media anterior y posterior, y el córtex visual” de los pasajeros.

La idea, avanzada por varios científicos, de que los recuerdos específicos se almacenan de algún modo en neuronas individuales es absurda; en todo caso, esa afirmación no hace sino llevar el problema de la memoria a un nivel aún más desafiante: ¿cómo y dónde, después de todo, se almacena la memoria en la célula?

Entonces, ¿qué ocurre cuando Jinny saca el billete de un dólar en su ausencia? Si Jinny no hubiera visto nunca un billete de un dólar, probablemente su primer dibujo no se parecería en nada al segundo. Al haber visto billetes de un dólar antes, se había cambiado de alguna manera. Concretamente, su cerebro había cambiado de tal forma que le permitía visualizar un billete de un dólar, es decir, reexperimentar la visión de un billete de un dólar, al menos hasta cierto punto.

La diferencia entre los dos dibujos probablemente no se parecería al segundo.

La diferencia entre los dos diagramas nos recuerda que visualizar algo (es decir, ver algo en su ausencia) es mucho menos preciso que ver algo en su presencia. Por eso somos mucho mejores reconociendo que recordando. Cuando re-cordamos algo (del latín re, ‘otra vez’, y memorari, ‘tener presente’), tenemos que intentar revivir una experiencia; pero cuando reconocemos algo, simplemente debemos ser conscientes de que ya hemos tenido esa experiencia perceptiva antes.

Quizá te opongas a esta demostración. Jinny había visto billetes de un dólar antes, pero no había hecho un esfuerzo deliberado por “memorizar” los detalles. Si lo hubiera hecho, podrías argumentar que habría podido dibujar la segunda imagen sin la presencia del billete. Pero incluso en este caso, en el cerebro de Jinny no se ha “almacenado” en ningún sentido la imagen del billete. Simplemente se ha preparado mejor para dibujarla con precisión, del mismo modo que, con la práctica, un pianista se vuelve más hábil para tocar un concierto sin inhalar de algún modo una copia de la partitura.

F A partir de este sencillo ejercicio, podemos empezar a construir el marco de una teoría libre de metáforas sobre el comportamiento humano inteligente, una teoría en la que el cerebro no esté completamente vacío, pero al menos esté vacío del equipaje de la metáfora de la PI.

Mientras navegamos por el mundo, nos cambian diversas experiencias. Cabe destacar tres tipos de experiencias: (1) observamos lo que ocurre a nuestro alrededor (otras personas que se comportan, sonidos de música, instrucciones dirigidas a nosotros, palabras en páginas, imágenes en pantallas); (2) estamos expuestos al emparejamiento de estímulos sin importancia (como las sirenas) con estímulos importantes (como la aparición de coches de policía); (3) somos castigados o recompensados por comportarnos de determinada manera.

Somos más eficaces en nuestras vidas si cambiamos de forma coherente con estas experiencias: si ahora podemos recitar un poema o cantar una canción, si somos capaces de seguir las instrucciones que se nos dan, si respondemos a los estímulos sin importancia de forma más parecida a como lo hacemos con los estímulos importantes, si nos abstenemos de comportarnos de forma castigada, si nos comportamos con más frecuencia de forma recompensada.

Somos más eficaces en nuestras vidas si cambiamos de forma coherente con estas experiencias.

A pesar de los titulares engañosos, nadie tiene la menor idea de cómo cambia el cerebro cuando aprendemos a cantar una canción o a recitar un poema. Pero ni la canción ni el poema se han “almacenado” en él. El cerebro simplemente ha cambiado de una forma ordenada que ahora nos permite cantar la canción o recitar el poema en determinadas condiciones. Cuando se nos pide que actuemos, ni la canción ni el poema se “recuperan” en ningún sentido de ninguna parte del cerebro, igual que no se “recuperan” los movimientos de mis dedos cuando doy golpecitos con el dedo en el escritorio. Simplemente cantamos o recitamos, sin necesidad de recuperación.

Hace unos años, pregunté al neurocientífico Eric Kandel de la Universidad de Columbia -ganador de un Premio Nobel por identificar algunos de los cambios químicos que se producen en las sinapsis neuronales de la Aplysia (un caracol marino) después de que aprenda algo- cuánto tiempo creía que tardaríamos en comprender cómo funciona la memoria humana. Me contestó rápidamente: “Cien años”. No se me ocurrió preguntarle si pensaba que la metáfora de la PI estaba ralentizando la neurociencia, pero algunos neurocientíficos están empezando a pensar lo impensable: que la metáfora no es indispensable.

Unos pocos científicos cognitivos -en particular Anthony Chemero, de la Universidad de Cincinnati, autor de Radical Embodied Cognitive Science (2009)- rechazan ahora por completo la opinión de que el cerebro humano funciona como un ordenador. La opinión dominante es que nosotros, como los ordenadores, damos sentido al mundo realizando cálculos sobre representaciones mentales del mismo, pero Chemero y otros describen otra forma de entender el comportamiento inteligente: como una interacción directa entre los organismos y su mundo.

Mi ejemplo favorito de la dramática diferencia entre la perspectiva de la PI y lo que algunos denominan ahora la visión “antirrepresentacional” del funcionamiento humano se refiere a dos formas distintas de explicar cómo un jugador de béisbol consigue atrapar una bola voladora, maravillosamente explicadas por Michael McBeath, ahora en la Universidad Estatal de Arizona, y sus colegas en un artículo de 1995 en Science. La perspectiva de la IP requiere que el jugador formule una estimación de varias condiciones iniciales del vuelo de la pelota -la fuerza del impacto, el ángulo de la trayectoria, ese tipo de cosas-, que luego cree y analice un modelo interno de la trayectoria por la que probablemente se moverá la pelota, y que luego utilice ese modelo para guiar y ajustar los movimientos motores continuamente en el tiempo con el fin de interceptar la pelota.

Eso está muy bien.

Eso está muy bien si funcionáramos como lo hacen los ordenadores, pero McBeath y sus colegas ofrecieron una explicación más sencilla: para atrapar la pelota, el jugador simplemente tiene que seguir moviéndose de forma que la pelota se mantenga en una relación visual constante con respecto al home y al escenario circundante (técnicamente, en una “trayectoria óptica lineal”). Esto puede parecer complicado, pero en realidad es increíblemente sencillo, y completamente libre de cálculos, representaciones y algoritmos.

nunca tendremos que preocuparnos de que una mente humana se vuelva loca en el ciberespacio, y nunca alcanzaremos la inmortalidad mediante descargas

Dos decididos profesores de psicología de la Universidad Leeds Beckett del Reino Unido -Andrew Wilson y Sabrina Golonka- incluyen el ejemplo del béisbol entre muchos otros que pueden considerarse de forma sencilla y sensata fuera del marco de la propiedad intelectual. Llevan años blogueando sobre lo que denominan un “enfoque más coherente y naturalizado del estudio científico del comportamiento humano… en desacuerdo con el enfoque dominante de la neurociencia cognitiva”. Sin embargo, esto dista mucho de ser un movimiento; las ciencias cognitivas dominantes siguen revolcándose acríticamente en la metáfora de la PI y algunos de los pensadores más influyentes del mundo han hecho grandes predicciones sobre el futuro de la humanidad que dependen de la validez de la metáfora.

Una predicción -realizada por el futurista Kurzweil, el físico Stephen Hawking y el neurocientífico Randal Koene, entre otros- es que, dado que la conciencia humana es supuestamente como el software de un ordenador, pronto será posible descargar mentes humanas a un ordenador, en cuyos circuitos nos volveremos inmensamente poderosos intelectualmente y, muy posiblemente, inmortales. Este concepto impulsó la trama de la película distópica Transcendence (2014) protagonizada por Johnny Depp en el papel del científico parecido a Kurzweil cuya mente fue descargada a Internet, con resultados desastrosos para la humanidad.

Por suerte, como la metáfora de la propiedad intelectual no es ni siquiera mínimamente válida, nunca tendremos que preocuparnos de que una mente humana se vuelva loca en el ciberespacio; por desgracia, tampoco alcanzaremos nunca la inmortalidad mediante la descarga. Esto no se debe únicamente a la ausencia de software de conciencia en el cerebro; existe aquí un problema más profundo -llamémoslo el problema de la unicidad – que es a la vez inspirador y deprimente.

Bcomo en el cerebro no existen ni “bancos de memoria” ni “representaciones” de los estímulos, y como lo único que se necesita para que funcionemos en el mundo es que el cerebro cambie de forma ordenada como resultado de nuestras experiencias, no hay razón para creer que dos de nosotros cambiemos de la misma forma por la misma experiencia. Si tú y yo asistimos al mismo concierto, los cambios que se producen en mi cerebro cuando escucho la 5ª de Beethoven serán, casi con toda seguridad, completamente distintos de los cambios que se producen en tu cerebro. Esos cambios, sean los que sean, se construyen sobre la estructura neuronal única que ya existe, habiéndose desarrollado cada estructura a lo largo de toda una vida de experiencias únicas.

Por eso es tan importante que tu cerebro se desarrolle a partir de una estructura neuronal única.

Por eso, como demostró Sir Frederic Bartlett en su libro Recordar (1932), no hay dos personas que repitan de la misma manera una historia que han oído y por eso, con el tiempo, sus recitaciones de la historia divergen cada vez más. Nunca se hace una “copia” de la historia; más bien, cada individuo, al oír la historia, cambia en cierta medida, lo suficiente como para que, cuando se les pregunte sobre la historia más tarde (en algunos casos, días, meses o incluso años después de que Bartlett les leyera la historia por primera vez), puedan re-experimentar haber oído la historia hasta cierto punto, aunque no muy bien (véase el primer dibujo del billete de un dólar, arriba).

Esto es inspirador e inspirador.

Esto es inspirador, supongo, porque significa que cada uno de nosotros es realmente único, no sólo en su composición genética, sino incluso en la forma en que nuestro cerebro cambia con el tiempo. También es deprimente, porque hace que la tarea del neurocientífico sea desalentadora casi más allá de lo imaginable. En una experiencia determinada, el cambio ordenado podría afectar a mil neuronas, a un millón de neuronas o incluso a todo el cerebro, y el patrón de cambio podría ser distinto en cada cerebro.

Pero lo que es peor, el cambio ordenado podría afectar a mil neuronas, a un millón de neuronas o incluso a todo el cerebro.

Peor aún, aunque tuviéramos la capacidad de tomar una instantánea de todos los 86.000 millones de neuronas del cerebro y luego simular el estado de esas neuronas en un ordenador, ese vasto patrón no significaría nada fuera del cuerpo del cerebro que lo produjo. Ésta es quizá la forma más atroz en que la metáfora de la propiedad intelectual ha distorsionado nuestra forma de pensar sobre el funcionamiento humano. Mientras que los ordenadores almacenan copias exactas de los datos -copias que pueden persistir inalteradas durante largos periodos de tiempo, aunque se haya apagado la alimentación-, el cerebro mantiene nuestro intelecto sólo mientras permanece vivo. No hay interruptor de encendido y apagado. O el cerebro sigue funcionando, o desaparecemos. Además, como señaló el neurobiólogo Steven Rose en El futuro del cerebro (2005), una instantánea del estado actual del cerebro tampoco tendría sentido a menos que conociéramos la historia vital del propietario de ese cerebro, quizás incluso el contexto social en el que se crió.

Piensa en lo difícil que es este problema. Para comprender siquiera los aspectos básicos de cómo el cerebro mantiene el intelecto humano, podríamos necesitar conocer no sólo el estado actual de los 86.000 millones de neuronas y sus 100 billones de interconexiones, no sólo las distintas fuerzas con las que están conectadas, y no sólo los estados de más de 1.000 proteínas que existen en cada punto de conexión, sino cómo la actividad del cerebro en cada momento contribuye a la integridad del sistema. Añade a esto la singularidad de cada cerebro, provocada en parte por la singularidad de la historia vital de cada persona, y la predicción de Kandel empieza a sonar demasiado optimista. (En un reciente artículo de opinión en The New York Times, el neurocientífico Kenneth Miller sugirió que se tardarán “siglos” sólo en averiguar la conectividad neuronal básica.)

Mientras tanto, se recaudan enormes sumas de dinero para la investigación del cerebro, basadas en algunos casos en ideas erróneas y promesas que no se pueden cumplir. El caso más flagrante de neurociencia malograda, documentado recientemente en un informe de Scientific American, se refiere al Proyecto Cerebro Humano de 1.300 millones de dólares lanzado por la Unión Europea en 2013. Convencidos por el carismático Henry Markram de que podría crear una simulación de todo el cerebro humano en un superordenador para el año 2023, y de que tal modelo revolucionaría el tratamiento de la enfermedad de Alzheimer y otros trastornos, los funcionarios de la UE financiaron su proyecto prácticamente sin restricciones. En menos de dos años, el proyecto se convirtió en una “ruina cerebral” y se pidió a Markram que dimitiera.

Somos organismos, no ordenadores. Supéralo. Pongámonos manos a la obra para intentar comprendernos a nosotros mismos, pero sin cargar con un bagaje intelectual innecesario. La metáfora de la propiedad intelectual ha durado medio siglo, produciendo pocas ideas, si es que ha producido alguna. Ha llegado el momento de pulsar la tecla SUPR.

•••

Robert Epstein

es psicólogo investigador senior del Instituto Americano de Investigación y Tecnología del Comportamiento de California. Es autor de 15 libros y ex redactor jefe de Psychology Today. 

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts